Feeds:
Articles
Commentaires

Archive for the ‘Divers’ Category

Génération Trompée

Generation trompée

Je vous invite à joindre la conférence Génération Trompée en grand nombre pour lancer un message fort à la population et aux médias, que oui nous voulons de la responsabilité fiscale. La conférence de Montréal aura lieu le 30 mai 2015. Tous les détails sur www.gsmtl.ca et https://facebook.com/?_rdr#!/events/1431420373836280 . N’oubliez pas de distribuer à vos amis sur Facebook et Twitter, c’est pour notre avenir à tous !

 

Qu’entendons-nous par génération trompée? Les gens de ma génération et de celle de mes enfants, au Québec et à bien d’autres endroits, se retrouvent présentement devant une falaise : un gouvernement au modèle financièrement insoutenable, contrôlé par des groupes d’intérêts.

 

Le système de santé au Québec est un véritable cauchemar. Pour obtenir des soins de qualité et dans un délai raisonnable, il faut de plus en plus se tourner vers des établissements privés qui ne sont pas couverts par l’assurance-santé gouvernementale. On paie donc en double. Le système d’éducation public manque de ressources. Les équipements et infrastructures se détériorent constamment et les écoles sont de moins en moins aptes à attirer des enseignants de qualité. Encore une fois, pour obtenir un service approprié, il faut se tourner vers les écoles privées et les universités situées à l’étranger, ce qui implique de payer en double. Les sociétés d’État comme Hydro-Québec et la Société des Alcools du Québec dilapident notre capital dans des projets irréalistes et en versant des rémunérations complètement déraisonnables.

 

Cette détérioration des services publics se déroule pendant que les dépenses gouvernementales continuent sans cesse d’augmenter. La bureaucratie gouvernementale se maintient, avec des rémunérations qui sont bien plus élevées que ce que le marché du travail ne pourrait justifier. Le résultat est que les gouvernements sont en déficits chroniques et la dette ne cesse d’augmenter. Les excès des dernières décennies seront donc épongés par les générations futures (les générations « trompées »). Et qu’arrivera-t-il quand le taux d’intérêt sur cette dette se mettra à augmenter? D’ailleurs, on constate déjà une augmentation des impôts, taxes et tarifs. Donc non seulement nous obtenons moins, mais en plus on devra payer plus! C’est ça l’austérité…

 

D’autre part, il s’agit effectivement d’une problématique intergénérationnelle, car ce sont les baby-boomers qui ont le plus bénéficié des largesses gouvernementales. Ils ont bénéficié d’une expansion fulgurante des services publics et d’aides sociales. Leurs entreprises et employeurs ont été largement subventionnées. Alors que leurs revenus atteignaient leur zénith au cours de la dernière décennie, leurs impôts ont été diminués. Maintenant qu’ils arrivent à la retraite, ils seront les plus grands consommateurs de services publics fort onéreux, lesquels ne seront pas aussi généreux lorsque ma génération et celle de mes enfants arriveront à leur retraite. Qui plus est, les intérêts versés sur la dette gouvernementale, qui seront payés par les contribuables des générations futures, seront touchés par les baby-boomers retraités car ce sont leurs caisses de retraite qui détiennent, en partie, ces titres de dette, qui ont été émis à faible taux d’intérêt (pour le moment)…

Au Québec, c’est la Révolution Tranquille qui, durant les années 1960s, a instauré des programmes sociaux, dans le but de sortir la nation de la « grande noirceur ». Pourtant, les choses n’étaient pas si sombres à l’époque. À la veille de la Révolution Tranquille, le Québec n’avait rien d’une société sous-développée. La moitié des francophones occupaient un emploi dans le secteur des services. Durant tout le 20e siècle, la proportion de travailleurs québécois oeuvrant dans le secteur industriel fut comparable aux proportions observées aux États-Unis et dans plusieurs pays européens. On ne constatait pas non plus de retard d’urbanisation dans la province. Le Québec affichait même un taux d’urbanisation supérieur à celui l’Ontario de 1900 jusqu’à la Deuxième Guerre mondiale, et allait se maintenir au-dessus de la moyenne canadienne par la suite. La société québécoise d’avant la Révolution Tranquille comptait aussi de nombreux entrepreneurs francophones dans le domaine industriel et commercial. Dès le 19e siècle, ils se dotent d’institutions financières soutenant l’essor économique régional: banques, sociétés de fiducie et compagnies d’assurance. Les chambres de commerce foisonnaient et se regroupèrent en fédération provinciale dès 1909. En 1935, elle comptait 49 chambres affiliées. En 1953, le Québec affichait le deuxième revenu par habitant le plus élevé au monde après les États-Unis (en excluant le reste du Canada). Dans les circonstances, comment peut-on parler de « grande noirceur »?

Néanmoins, c’est pour s’attirer les votes d’une majorité montante qu’était la génération des « baby-boomers », dont les revenus étaient inférieurs vu leur jeunesse, que les politiciens de l’époque menés par Jean Lesage ont mis en place ces programmes sociaux. Ces réformes ont touché la santé, les services sociaux, l’éducation, la culture et l’interventionnisme économique, notamment par la création de la Régie des Rentes, de la Caisse de Dépôts et par la nationalisation de l’électricité sous Hydro-Québec. L’État-providence québécois n’a pratiquement pas cessé de prendre de l’expansion depuis; intervenant dorénavant dans toutes les sphères de nos vies.

Trop occupés à redistribuer la richesse qu’ils subtilisent pour mousser leur carrière, les politiciens oublient ce qui a permis de créer cette richesse au préalable: la libre coopération des individus cherchant à améliorer leur sort. Pour justifier leurs actes, ils accusent, de façon boiteuse, le capitalisme de tous les maux de la terre: inégalités, crises financières, fraude, corruption, destruction de l’environnement, etc. Ils ne se rendent pas compte que ce sont leurs interventions qui créent ces problèmes en premier lieu et que leurs interventions subséquentes visant à corriger le tir ne font qu’empirer les choses.

Évidemment, ces programmes de dépenses, aujourd’hui gigantesques, ont dû être financés, d’abord par des taxes et impôts croissants, puis par l’endettement et la création de monnaie. Ce n’est pas pour rien que les banques centrales des États-Unis et du Canada ont été créées au début du 20e siècle, en même temps que la progression de l’État-providence. Nous avons donc observé une augmentation constante de l’endettement gouvernemental dans les pays industrialisés.

Il y a quelques décennies, cet endettement était soutenu par une croissance économique plus ou moins forte, aidée par une bonne croissance démographique, et donc par l’augmentation des recettes fiscale de l’État, mais dans les années 2000s, un gros problème s’est pointé à l’horizon. Nés en 1946, les premiers baby-boomers ont fêté leur 65e anniversaire en 2010-2011 et auront atteint l’âge normal de la retraite, alors que plusieurs d’entre eux bénéficient d’une retraite anticipée. Nous observons donc une baisse de la population active et une augmentation de la population inactive. Selon le scénario de référence de l’Institut de la statistique du Québec (ISQ), en 2031, il y aura deux travailleurs pour un retraité. En 2001, ce ratio était de cinq travailleurs pour un retraité.

En quoi cela est-il un problème? Si la population active diminue, la production aussi diminue, ce qui est un problème majeur pour l’État puisque ses recettes fiscales diminueront alors que ses dépenses continueront d’augmenter. En outre, les retraités sont de grands consommateurs de services sociaux, surtout en santé. D’ailleurs, au 20e siècle, les banques centrales ont créé de la monnaie à profusion pour stimuler l’économie, faisant baisser les taux d’intérêt pour encourager l’endettement au détriment de l’épargne. Le résultat est que la population est endettée et dispose de peu de fonds pour la retraite.

Devant ces faits, les programmes sociaux de l’État apparaissent insoutenables. D’ailleurs, la plupart des pays industrialisés voient leurs gouvernements rapporter des déficits budgétaires chroniques. Autrement dit, on s’endette pour payer « l’épicerie ». Le niveau d’endettement de ces pays a atteint un niveau qui donne la frousse aux marchés financiers. Nous avons vu les problèmes financiers encourus par la Grèce et plusieurs autres pays européens en 2010. Il est à prévoir que d’autres pays se retrouveront dans cette situation bientôt.

Ces pays font alors face à trois choix : hausser les taxes et impôts au risque de grandement nuire à l’économie; monétiser la dette en créant de la monnaie au risque de générer de l’hyper-inflation et de provoquer une forte hausse des taux d’intérêt qui nuirait à l’économie et aux finances de l’État; ou réduire les dépenses au risque de se mettre les dépendants de l’État et les fonctionnaires à dos, un véritable suicide politique. Il y a fort à parier que les deux premières solutions seront considérées par les politiciens, même si cela impliquera la dilapidation du capital productif de l’économie, lequel permet de générer la richesse.

 

La solution : l’État doit diminuer ses dépenses de façon à pouvoir diminuer le fardeau fiscal des contribuables. Nous pourrions commencer par les dépenses militaires, qui devraient être strictement limitées à la défense préventive du pays. L’élimination totale des subventions aux entreprises serait aussi de mise. Il serait aussi impératif que l’État réduise l’ampleur de sa dispendieuse bureaucratie. Une bonne façon d’y parvenir serait par la privatisation de certains services publics. Les entreprises privées sont motivées par le profit, ce qui implique qu’elles ne peuvent pas se permettre d’entretenir une trop lourde bureaucratie. La bureaucratie est présentement omniprésente dans les systèmes de santé et d’éducation du Québec, alors que ces ministères accaparent la part du lion des dépenses du gouvernement. Notez que le financement public de ces services n’implique pas nécessairement que la prestation du service doive aussi être publique.

L’autre façon de réduire la bureaucratie est de réduire la règlementation excessive qui non seulement constitue une entrave à des échanges volontaires entre individus consentants et crée des distorsions néfastes, mais nuit aussi au dynamisme de l’économie et donc à notre niveau de vie. La règlementation du marché du travail devrait notamment être allégée et le pouvoir excessif des syndicats réduit.

Finalement, les programmes sociaux devraient être simplifiés et réduits de façon à maintenir un certain « filet de sécurité » pour les moins bien nantis sans toutefois entretenir une classe parasitaire et influencer le comportement des individus. À cet égard, le revenu minimum du citoyen ou l’impôt négatif sont des solutions à considérer.

Ces réductions de dépenses pourraient être utilisées pour réduire les taxes et impôts. Une bonne partie de cette réduction du fardeau fiscal serait réinvestie dans le capital productif de l’économie à travers l’épargne, contribuant ainsi à augmenter notre niveau de vie. L’introduction d’un taux d’imposition fixe serait aussi souhaitable, de façon à ne plus décourager la prise de risque, le travail et l’excellence, de même qu’une simplification de la loi de l’impôt.

La démocratie est malade. Nous sommes menés par des politiciens corrompus qui dispose de plus de pouvoir que jamais au cours des 150 dernières années. Ils abusent constamment de leur pouvoir, menés par des groupes de pression qui font passer leurs intérêts au détriment de ceux de la population. Le système politique est complètement monopolisé par des socialistes de gauche et des socialistes de droite, qui croient que le gouvernement est la solution à tous nos problèmes alors que le gouvernement EST le problème; par des partis biens financés qui dilapident l’argent des contribuables pour acheter les clientèles électorales nécessaires à garder le pouvoir. La démocratie est en train de devenir une forme de viol collectif dans lequel les violeurs, qui sont en majorité, n’ont que faire des objections de la pauvre victime, les simples contribuables.

Pour ces raisons, j’appuie fièrement l’initiative de Génération Trompée.

 

Génération Trompée ne supporte aucun parti politique, ils ne sont pas contraints par aucune ligne de parti, seulement par leurs convictions personnelles. Le projet a été démarré par la Fédération Canadienne des Contribuables afin d’informer et mobiliser les jeunes Canadiens pour sauver leur avenir économique. Les jeunes Canadiens voient le gouffre s’approcher de plus en plus vite et tiennent à sonner l’alarme avant qu’il ne soit trop tard.

 

Bien sûr, la simple conscientisation sur l’imminente crise de la dette qui guette le Canada ne suffit pas. C’est pourquoi Génération Trompée aide aussi les jeunes Canadiens à s’organiser afin qu’ils puissent prendre les actions nécessaires pour changer la situation. Ceci se traduit en l’organisation d’événements, la tenue de conférences sur les campus ainsi que la mise sur pied d’une campagne en ligne. Cela signifie avoir une voix forte et unie, ne pouvant pas être ignorée. En bref, faire une différence.

 

Faites partie de la solution. Pour notre génération, il est venu le temps de se lever pour défendre nos droits.

À lire: https://minarchiste.wordpress.com/2011/01/10/lhistoire-du-liberalisme/

 

 

Read Full Post »

science

La science a été au cours de l’histoire une source incroyable de découvertes fascinantes et d’inventions stupéfiantes. Il arrive cependant que la science s’égare dans un labyrinthe où elle est déroutée par des considérations politiques, des égos trop imposants et des personnalités trop influentes. Quand on place quelques exemples de ces errances en perspective, on se rend compte qu’il est malsain de faire aveuglément confiance en la science et d’adopter les politiques qu’elle nous suggère sans poser de questions.

 

La physique…une science exacte?

En 1859, le mathématicien Urain Le Verrier avait décelé une anomalie dans l’orbite de Mercure, laquelle ne semblait pas obéir à la loi de la gravité de Newton. Que fit-il alors? Plutôt que de remettre en question la loi de Newton, il conclua qu’il devait exister une autre planète entre le soleil et Mercure, laquelle il nomma Vulcain. Ce n’est qu’en 1915, bien après la mort de Le Verrier, grâce à la théorie générale de la relativité d’Einstein, que l’on pu finalement conclure que Vulcain n’existait pas! Autrement dit, une connaissance « démontrée scientifiquement » a pu persister pendant plus d’un demi-siècle avant que l’on ne réussisse à l’invalider. On a préféré inventer une planète imaginaire plutôt que remettre Newton en question!

 

De nos jours, plusieurs observations du comportement de l’univers ne correspondent pas aux théories considérées comme « scientifiquement valides ». Par exemple, l’expansion de l’univers est en accélération. Quelle solution a-t-on adopté? On a supposé l’existence de la matière sombre et de l’énergie sombre, lesquelles n’ont jamais été observées. Est-ce que le consensus des astrophysiciens est en train de répéter la même erreur que Le Verrier?

universe_made_of

Tous les chercheurs qui travaillent présentement à tenter de prouver ces concepts gaspillent peut-être leur temps. Selon le chercheur Mordehai Milgrom, de l’Institut Weizmann en Israël, « les gens qui travaillent sur la matière sombre n’arrêteront pas par eux-mêmes, ils vont arrêter quand on arrêtera de les financer ». Évidemment, il faudra une personnalité solide pour ébranler la théorie d’Einstein. Mais est-ce que l’écosystème actuel de la science favorise l’émergence de cette théorie révolutionnaire? En fait, même la théorie du Big Bang est présentement sérieusement remise en question (voir ceci entre autres). Pour une excellente lecture sur le sujet, je vous recommande « Hidden in Plain Sight » 1 et 2, par Andrew Thomas.

Hidden in plain sight 2 Andrew Thomas

 

 

En 1946, le Dr Benjamin Spock écrivait dans son livre Baby and Child Care que selon lui, les nouveaux-nés devraient dormir sur le ventre. Cette affirmation non-vérifiée scientifiquement, mais qui faisait tout de même « consensus », a malheureusement causé des milliers de décès par la mort subite du nourrisson et ce pendant des décennies.

 

Au début du 20e siècle, la seule méthode connue pour éradiquer un cancer était la chirurgie. Celui qui est passé maître en la matière est un dénommé William Halsted, qui a mis en branle un processus d’augmentation extrême de l’ampleur de la chirurgie. Il avait observé que si le cancer revenait après la chirurgie, c’était généralement aux abords de l’endroit où il se situait au préalable. Son raisonnement fut donc qu’il fallait enlever encore et encore plus de chair pour s’assurer que le cancer ne revienne pas. Halsted a perfectionné sa technique concernant le cancer du sein jusqu’à en arriver à ce qu’il appelait la « mastectomie radicale », qui consistait à retirer le sein en entier, le muscle pectoral, les glandes lymphatiques, le cartilage et même les os environnant (côtes et clavicule). C’était une opération très morbide et déshumanisante.

 

Halsted n’avait pas compris que si le cancer revenait, c’est parce qu’il y avait des métastases qu’aucune chirurgie ne pouvait éradiquer. Aucune expérimentation valide n’avait pu confirmer que la chirurgie radicale était le traitement le plus efficace pour le cancer du sein car Halster choisissait bien ses patients, rejettant les cas plus complexes. L’influence d’Halsted suffisait à éradiquer toutes les critiques, à un point tel que les chercheurs qui ont tenté de tester des méthodes alternatives, comme la chimiothérapie, n’arrivaient pas à recruter des médecins et des patients. Ceci dit, dans les années 1920s, un médecin de Londres (où Halsted était moins influent) nommé Geoffrey Keynes avait publié des résultats démontrant qu’une combinaison de chirurgie locale légère et de chimiothérapie accomplissait le même résultat que la mastectomie radicale. Le chirurgien américain George Crile Jr avait corroboré les résultats obtenus par Keynes, mais il n’arriva pas à mettre sur pieds une étude pour le démontrer scientifiquement, faute de collaboration par les chirurgiens sous l’influence d’Halsted.

 

Ce n’est que beaucoup plus tard que l’oncologue Paul Carbone, du National Cancer Institute, arriva à démontrer que la chirurgie radicale n’était pas plus efficace qu’une chirurgie locale en combinaison avec la chimio. Entre 1891 et 1981, environ 500,000 femmes ont dû subir l’horrible procédure d’Halsted, voyant leur corps complètement déformé.

organ-preservation-in-kenyan-breast-cancer-patients-by-peter-bird-9-638

Dans les années 1970s, un pathologiste australien nommé Robin Warren écrivait ceci :

« Depuis la naissance de la bactériologie médicale il y a plus d’un siècle, on enseigne qu’aucune bactérie ne peut croître dans l’estomac (en raison de l’acidité trop élevée). Quand j’étais étudiant, c’était un ‘fait connu’, comme ‘tout le monde sait que la terre est plate’ ».

 

Cette boutade illustrait que Warren était sceptique à l’égard d’une ‘vérité’ considérée comme scientifiquement valide depuis plus d’un siècle. Warren croyait que des colonies de bactéries vivaient dans le halo bleuté entourant les ulcères d’estomac, mais il n’arrivait pas à les isoler in vitro. De son côté, le médecin Barry Marshall y arriva. Les deux hommes nommèrent cette bactérie Helicobacter pylori, en raison de sa forme (helico) et de son emplacement à l’embouchure de l’estomac (le latin pylorus signifie « gardien de la porte »). Une autre « certitude scientifique » venait de s’écrouler!

 

Fait intéressant, pour prouver que cette bactérie causait les gastrites, Marshall a lui-même ingéré un bouillon contaminé, ce qui résultat en une sévère gastrite. Il fut alors établit que cette bactérie causait les ulcères d’estomac (non, ce n’est pas le stress, comme on le croyait auparavant), qui eux-mêmes pouvaient mener au cancer.

 

En 1995, un chercheur Sud-Africain du nom de Werner Bezwoda présenta des résultats de recherche stupéfiant. Il avait réussi à démontrer que l’utilisation de la chimiothérapie à dose élevée (HDC) combinée avec une transplantation autologue de moelle épinière (ABMT) permettait d’obtenir de meilleurs résultats contre le cancer du sein métastasé. Des 45 patientes ayant reçu la combinaison HDC/ABMT, 23 ont atteint la rémission. Sur la base de ces résultats, environ 40,000 femmes partout dans le monde ont subi ce traitement. Il était impossible de compléter d’autres études cliniques puisque toutes les femmes voulaient le traitement plutôt que de possiblement être assigné au groupe de contrôle. Bezwoda avait atteint la célébrité et son article de 1995 a été cité plus de 350 fois en à peine plus de 5 ans.

 

Puis, en 1999, des chercheurs américains sont partis en Afrique du Sud pour vérifier l’étude menée par Bezwoda et la robustesse de ses résultats. C’est avec horreur qu’ils découvrirent que les résultats de Bezwoda avait été falsifiés. Il ne disposait que de 61 des 90 dossiers de patients. Seulement 27 des dossiers comportaient une évaluation d’éligibilité à l’étude, dont 18 n’auraient pas dû être éligibles. Seulement 25 patients ont reçu un traitement, donc 22 ont reçu le traitement expérimental. Aucun formulaire de consentement n’avait été signé et les patients n’avaient évidemment pas été assignés de manière aléatoire. L’article désormais célèbre du Journal of Clinical Oncology fut rétracté en avril 2001. Ce traitement n’est désormais plus utilisé.

 

Pour davantage de détails sur l’histoire fascinante du cancer et des traitements visant à l’éradiquer, je vous recommande fortement le superbe ouvrage de Siddhartha Mukherjee, The Emperor of All Maladies, A Biography of Cancer.

Cancer

 

Ceci dit, le cancer est loin d’être le seul sujet sur lequel la science s’est trompée. Considérez la répartition des papilles gustatives sur la langue. On a longtemps pensé que le salé pouvait être goûté sur les côtés à l’avant de la langue, alors que le sûr sur les côtés arrières, le sucré au centre-avant et l’amer au centre-arrière. Cette théorie date de 1901, alors qu’un scientifique Allemand nommé D.P. Hanig a publié les résultats de son expérience basée sur les « impressions » des participants quant à l’intensité des goûts. Cette théorie fut consolidée par Edwin Boring, de l’Université Harvard, en 1942. Ce n’est qu’en 1974 qu’une chercheure du nom de Virginia Collings a découvert qu’en fait, les quatre saveurs peuvent être perçues partout sur la langue. On sait maintenant aussi qu’il existe une cinquième saveur détectée par la langue, le « umami », et qu’il y en aurait peut-être une sixième pour le gras. Plusieurs ouvrages de référence continuent tout de même de véhiculer ce mythe de la « carte des saveurs »… (voir ceci)

tastemap

Les études pharmaceutiques

J’avais publié un article en 2013 sur le livre Bad Pharma de Ben Goldacre (ici) décrivant les abus scientifiques de l’industrie pharmaceutique. Il y a seulement la moitié des résultats d’essais cliniques qui sont publiés, et celles dont les résultats sont négatifs ont deux fois plus de chances de ne pas être publiées. Une étude a recensé des essais cliniques pour 12 médicaments produits par différents manufacturiers et a découvert que des 75 études faîtes sur ces 12 médicaments, seulement 51 ont été publiées dans la littérature académique. Des 75 non-publiées, le taux de résultats positifs était de 51%, alors que pour les 51 études publiées il était de 94%!

 

Souvent, les études cliniques mesurent l’impact d’un médicament sur une mesure auxiliaire (proxy). Par exemple, un médicament supposé réduire le risque d’attaques cardiaques pourrait être évalué par rapport à sa capacité à faire baisser la pression sanguine. Le problème est que parfois l’amélioration du proxy n’améliore pas l’objectif principal. C’est notamment le cas du doxazosin, qui est un médicament très dispendieux ayant remplacé le chlorthalidone une fois son brevet expiré. Le gouvernement a financé une étude qui a démontré que doxazosin faisait bien pire que chlorthalidone quant au risque d’attaque cardiaque (tellement que l’étude a dû être arrêtée prématurément car on nuisait trop aux patients). Pourtant, ce médicament continue d’être prescrit allègrement grâce au marketing efficace de Pfizer.

 

Souvent, le choix des patients participant à une étude permet d’obtenir un résultat plus favorable. En 2007, une étude a été faîte sur 179 véritables asthmatiques en vérifiant s’ils auraient été admissibles à des essais sur des médicaments contre l’asthme : seulement 5% à 6% d’entre eux auraient été acceptés pour ces essais cliniques par les pharmas! Donc les patients choisis pour ces essais ne sont pas représentatifs de la population visée par le traitement. Le choix des patients vise à faire mieux paraître l’efficacité du médicament. Aussi, une bonne façon de mettre en valeur un médicament dont l’efficacité est faible consiste à découper l’échantillon de patients en sous-groupes pour voir si, par chance, un des sous-groupes affiche de meilleurs résultats. Par exemple, un médicament pourrait n’avoir montré aucun bienfait pour l’ensemble de l’échantillon, mais avoir semblé montrer une certaine efficacité chez les asiatiques de 45 à 55 ans.

 

Les pharmas peuvent aussi jouer sur les doses pour faire valoir leur nouveau produit comparativement à un concurrent établi. Lorsque le brevet du médicament antipsychotique risperidone a expiré, les concurrents ont tenté de démontrer que leur nouvel antipsychotique était supérieur à risperidone pour s’accaparer une part de marché. Cependant, leurs essais utilisaient une dose de 8 mg de risperidone, ce qui est beaucoup trop élevé et susceptible de causer des effets secondaires, faisant bien paraître le médicament du concurrent.

 

Les biais de publication

Si on élargit le spectre à la science en général, et non seulement aux médicaments, les choses sont encore pires. Daniele Fanelli de l’Université d’Édinbourg a analysé 4,600 articles publiés dans des journaux scientifiques. Il a découvert que la proportion de résultats négatifs publiés a diminué de 30% en 1990 à seulement 14% en 2007. En revanche, le nombre de rétractions a été décuplé au cours des 10 dernières années, mais ne représente toujours que 0.2% des 1.4 millions d’articles scientifiques publiés dans des journaux scientifiques chaque année.

 

En 1998, l’éditrice du prestigieux British Medical Journal, Fiona Godlee, a envoyé un article contenant 8 erreurs délibérées concernant l’élaboration de l’étude, l’analyse des données et l’interprétation des résultats, à 200 scientifiques qui révisent les articles du BMJ avant publication. Aucun d’entre eux n’a identifié les 8 erreurs, alors qu’en moyenne ils n’en ont rapporté que 2.

 

Par ailleurs, bien moins de la moitié des études publiées dans les journaux scientifiques peuvent être répliquées avec succès (certains parlent même de moins du quart). Les résultats de ces études sont carrément invalides, mais demeurent toutefois dans le savoir collectif et influence le consensus scientifique sur une question donnée. On réalise donc que bien des chercheurs obtiennent un Ph.D et un lucratif titre de professeur, alors que leurs résultats n’ont pas été vérifiés. Ces chercheurs arrivent aussi parfois à influencer les politiques publiques…

 

Le graphique suivant est fort intéressant. Imaginez 1,000 hypothèses dont 100 sont véridiques. La puissance du test est de 80%, donc il produit 20 faux‑négatifs (en vert foncé), mais il produit aussi 45 faux-positifs. On se retrouve donc avec un test qui nous montre 125 hypothèses comme vérifiées, dont 45 sont de faux-positifs, soit 36%. Maintenant, considérez que des études ont démontré que les tests utilisées dans les articles publiés ont une puissance de 21% en moyenne! Dans notre exemple, si on abaisse la puissance de 80% à 40%, on obtient que plus de la moitié des résultats sont de faux –positifs… On constate donc que plus de la moitié des résultats positifs publiés dans les journaux scientifiques sont des faux-positifs. (voir ceci et ceci)

 

Econ_false positivies

 

Les erreurs statistiques commises par les médias dans l’interprétation de résultats scientifiques sont souvent immense, mais les articles publiés n’y échappent pas non plus. Prenons une erreur simple mais fréquente : la signification statistique des différences. Par exemple, vous découvrez que la substance XYZ a un effet de 30%, statistiquement différente de zéro. Vous concluez donc avoir découvert quelque chose d’intéressant. Par contre, le placebo démontre un effet de 15%, non-significatif. Le test qu’il faut alors effectuer avant de conclure quoi que ce soit est de tester si la différence entre le placebo et XYZ est significativement différente de zéro (il est probable dans cet exemple qu’elle ne le soit pas).

 

Une étude de Sander Nieuwenhuis a vérifié 157 articles publiés dans 5 prestigieux journaux scientifiques de neuroscience pendant 2 ans pour lesquels cette erreur aurait pu être commise. Ce fut le cas pour la moitié d’entre eux (voir ceci). C’est d’ailleurs cette erreur que commettent les réchauffistes quand ils affirment que 2014 a été l’année la plus chaude jamais enregistrée (nous le verrons plus loin)…

 

Les antioxydants

Dans son ouvrage « Bad Science », le scientifique Ben Goldacre démonte plusieurs mythes, dont celui des suppléments d’antioxydants. Manger des baies ou des carottes plutôt que des frites et du gâteau au chocolat sera certainement bon pour vous, mais n’allez pas croire que c’est parce que les antioxydants qu’elles contiennent viendront vous protéger des radicaux libres qui cause le cancer! Cette théorie ne fut qu’une fausse-bonne-idée.

 

En 1981, l’épidémiologiste Richard Peto a publié une étude dans Nature démontrant que les gens ayant un niveau élevé de bêta-carotène (un antioxidant) dans le sang diminuait le risque de cancer. Par la suite, en Finlande, une étude portant sur 30,000 personnes à risque pour le cancer du poumon a démontré que le groupe recevant des suppléments de bêta-carotène et de vitamine E a eu une incidence plus élevée de cancer que le placébo. Puis, l’étude CARET visait à administrer des suppléments de bêta-carotène et de Vitamine A à un groupe expérimental contre un placebo pour le groupe de contrôle à 18,000 personnes fumeuses ou exposées à l’amiante au travail pendant 6 ans. L’étude fut arrêtée avant la fin car le groupe expérimental comportait 46% plus de décès du cancer du poumon que le groupe de contrôle.

 

Il est vrai que les antioxydants jouent un rôle important dans la prévention du cancer en réagissant avec les radicaux libres susceptibles d’endommager les cellules. Mais ce que ces expériences ont démontré est que l’absorption anormalement élevée d’antioxydants par l’alimentation ne permet pas de prévenir le cancer. C’est ce qu’a récemment confirmé la méta-analyse de la Cochrane Collaboration : les suppléments d’antioxydants augmentent le risque de décès. Pourtant, une industrie entière est née de cette théorie invalidée par l’expérimentation, et elle n’est pas près d’être éradiquée.

 

L’effet placébo

L’effet placebo en lui-même est fascinant. Il existe de nombreux exemples de chirurgies pratiquées sans anesthésie, en utilisant l’effet placebo. On sait aussi suite à des expérimentations, que deux pilules de sucre font mieux qu’une seule pour guérir les ulcères d’estomac. Les pilules roses sont plus efficaces que les bleues. Pour contrer certains maux, une injection d’eau saline fait mieux qu’une pilule de sucre, car la méthode est plus « dramatique » et suggère donc une efficacité accrue. Plus le rituel de traitement est élaboré, plus le placébo sera efficace.

 

Par ailleurs, le placebo sera plus efficace si on dit au patient qu’il coûte $10 par pilule, que si on lui dit qu’il coûte $2.50. Certaines opérations bidon pratiquées aux genoux et pour soulager les angines fonctionnent aussi. Le chirurgien pratique une petite incision et fait semblant de faire quelque chose d’utile, alors qu’en réalité, rien n’est fait, mais le patient se sent mieux quand même par la suite! Les grosses machines qui ont l’air sophistiqué provoquent aussi l’effet placébo. Il existe aussi le phénomène du diagnostic-placébo. Si un docteur ne sait pas pourquoi son patient a mal et qu’il le lui dit, le patient se sentira mieux deux semaines plus tard dans 39% des cas, mais s’il lui dit (faussement) qu’il se sentira mieux d’ici quelques jours, le patient se sentira mieux dans 64% des cas après deux semaines.

 

Ceci dit, l’exemple le plus extrême d’effet placébo est une expérience menée par le Dr Stewart Wolf. Deux femmes souffraient de nausées et vomissements chroniques. Il leur mentionna avoir un traitement qui amélioreraient leur situation. Il leur administra du ipecac par tube gastrique et les deux patientes virent leur état s’améliorer. À noter : ipecac est un médicament servant à faire vomir!

 

Le problème avec l’effet placebo est qu’il permet aux vendeurs de thérapies bidon de faire croire que leurs produits fonctionnent vraiment, comme par exemple les produits homéopathiques. L’inventeur de l’homéopathie est un Allemand nommé Samuel Hahnemann. Sa théorie était que si on pouvait trouver une substance qui engendre des symptômes similaires à une maladie, cette substance pourrait guérir cette maladie. Par exemple, il jugea qu’après avoir ingéré une grosse dose de cinchona bark, il ressentait des symptômes qu’il croyait ressembler à la malaria. Le deuxième volet de la théorie qui est encore aujourd’hui au coeur de l’homéopathie est qu’en diluant cette substance, ses effets seront décuplés. Pour accomplir la dilution parfaite il faut frapper la fiole de verre contenant ladite substance sur une surface dure, mais élastique (comme une planche de bois recouverte d’un coussin de cuir rembourrés de poils de chevaux).

 

La dilution typique des produits homéopathiques est de 30C, ce qui signifie que le produit final ne contient qu’une partie par 10^60 (1 suivi de 60 zéros). Imaginez une sphère d’eau dont le diamètre est la distance entre la terre et le soleil contenant une particule : c’est ça une partie par 10^60! Tout ce qu’il reste est essentiellement une petite pilule de sucre. Certains diront que l’homéopathie fonctionne car ils se sont sentis mieux après un tel traitement. En fait, les deux explications à ce résultats sont l’effet placebo (que les homéopathes exploitent magistralement) et le retour à la moyenne (le moment où vous aboutirez chez l’homéopathe est possiblement celui où votre mal sera à son apogée, et ne pourra que diminuer par la suite).

 

Aucune étude méthodologiquement viable n’a pu démontrer l’efficacité de l’homéopathie comparé à un placebo (voir la méta-analyse Shang et al dans The Lancet). Et notez que l’acuponcture entre dans cette catégorie. Pourtant cette industrie continue de perdurer…

 

Les médias et le MMR

Les médias peuvent aussi causer d’énormes dérapages scientifiques. Ce fut dramatiquement le cas en ce qui concerne le vaccin MMR (contre la rougeole, les oreillons et la rubéole).

 

En 1998, un groupe de chercheurs menés par le chirurgien britannique Andrew Wakefield a publié un article dans The Lancet, lequel décrivait une étude menée sur 12 enfants qui avait des problèmes intestinaux et comportementaux (souffrant surtout d’autisme). Il mentionnait que les parents de 8 des 12 enfants avaient noté que les symptômes avaient débuté quelques jours après l’injection du vaccin MMR. Wakefield participa ensuite à une conférence de presse au Royal Free Hospital recommandant de réduire les doses de MMR. Il n’en fallait pas moins pour que les médias s’emballent, encouragés par les militants anti-vaccins.

 

Quelques années plus tard, il fut découvert que Wakefield avait reçu des pot-de-vins de $800,000 de la part d’avocats pour publier son article. Ces avocats prévoyait utiliser l’étude trafiquée pour poursuivre les fabricants du vaccin en recours collectif. L’étude fut par la suite retirée par le prestigieux journal The Lancet. En 2010, Wakefield fut rayé du registre des médecins, lui retirant son droit de pratiquer la médecine en Angleterre.

 

Pendant 9 ans les journaux britanniques ont été placardés d’articles sur les dangers du MMR. Au sommet de la crise, en 2002, environ 10% de tous les articles portant sur la science dans les journaux britanniques concernait le MMR! Et ces articles sortaient souvent de la plume de généralistes n’ayant pas les connaissances requises pour analyser des questions scientifiques et recherchant par-dessus tout le sensationnalisme. La journaliste Lorraine Fraser a rédigé une douzaine d’articles en 2002 supportant la thèse de Wakefield et a par la suite reçu le British Press Awards Health Writer of the Year! En fait, les médias publiaient systématiquement d’effrayants articles concernant des études souvent peu fiables, souvent non-publiées et souvent menées par des collaborateurs du Dr Wakefield, tout en ignorant les études subséquentes, beaucoup plus robustes, démontrant que le MMR était inoffensif.

 

Des centaines d’études montrent que le MMR est sécuritaire, incluant une méta-analyse de la Cochrane Collaboration publiée en 2005. Pour n’en nommer qu’une seule, une étude faîtes au Danemark portant sur 440,655 enfants vaccinés et 96,648 non-vaccinés n’a trouvé aucune différence entre les deux groupes concernant l’incidence d’autisme.

 

Néanmoins, le taux de vaccination pour le MMR a chuté de 92% en 1996 à 73% en 2012. Évidemment, l’incidence de ces maladies du passé s’est mise à augmenter significativement, et pas juste en Angleterre. En 2009, un garçon de 11 ans s’est rendu en Angleterre et y a attrapé les oreillons. À son retour, ce garçon a participé à un camp d’été pour juifs hassidiques, où il a déclenché une sévère épidémie qui 6 mois plus tard avait infecté 179 enfants. Plusieurs ont connu de graves complications (pancréatite, méningite, surdité, paralysie faciale, inflammation des ovaires) et ont dû être hospitalisés. Cette épidémie aura au final infecté environ 3,500 enfants, dont 97% faisaient partie de la communauté juive. (détails et ici)

(voir ceci pour mon article complet sur les vaccins.)

CBR544

 

 Les gaffes découlant du principe de précaution.

Le principe de précaution implique que l’on doive interdire un produit ou une activité tant que nous n’avons pas la certitude que ce produit ou cette activité est sans risque. Comme je l’expliquais dans mon article sur le livre Risk de Dan Gardner, le principe de précaution découle d’un aversion au risque irrationnelle et peut avoir des conséquences inattendues très négatives. Une étude menée par les psychologues Michael Siegrist et George Cvetkovich a démontré que les gens accordent généralement plus de crédibilité aux études scientifiques qui démontrent un danger ou un risque, qu’à celles qui démontrent qu’il n’y en a pas (voir ceci). C’est pourquoi les activistes environnementaux, avec la complicité des médias, peuvent souvent monter des histoires en épingle au point d’amener les gouvernements à légiférer.

Il y a quelques temps, l’émission La Facture, diffusée à Radio-Canada, faisait état d’un produit qui cause présentement de graves problèmes dermatologiques chez certaines personnes qui y sont allergiques. Le méthylisothiazolinone, un agent de conservation utilisé dans les cosmétiques, peut causer de graves brûlures, qui peuvent mettre jusqu’à 6 mois à guérir, voire même ne jamais s’estomper. Santé Canada l’autorise, mais révise présentement sa position.

Parabens2

 

Pourquoi les fabricants utilisent-ils un tel produit? Auparavant, on utilisait les parabens comme agent de conservation. Cependant, certains chercheurs ont émis des théories voulant qu’il s’agissait de perturbateurs endocriniens pouvant causer le cancer du sein. Il n’en fallu pas moins pour que les écolos s’en mêle et catégorisent les parabens comme une substance à éviter par « principe de précaution ». La Fondation David Suzuki les a même ajouté à leur liste « Dirty Dozen » de produits chimiques à éviter.

Devant une telle opposition, les fabricants de cosmétiques se sont empressé de trouver une alternative, et ce même si il n’y a aucune restriction concernant les parabens en Amérique du Nord. C’est comme cela que le méthylisothiazolinone a été introduit sur le marché comme remplacement des parabens. Les fabricants de cosmétiques sont maintenant fiers de mentionner sur leurs étiquettes que leurs produits ne contiennent pas de parabens.

Pourtant, aucune étude scientifique solide n’a pu démontrer de lien entre les parabens et le cancer. Une méta-analyse de 2005 a conclu que :

« it is biologically implausible that parabens could increase the risk of any estrogen-mediated endpoint, including effects on the male reproductive tract or breast cancer » and that « worst-case daily exposure to parabens would present substantially less risk relative to exposure to naturally occurring endocrine active chemicals in the diet such as the phytoestrogen daidzein. »

L’American Cancer Society quant à elle concluait qu’il n’y avait pas suffisamment de preuves scientifiques pour supporter la théorie voulant que les parabens ajoutés aux cosmétiques causent le cancer du sein.

Le Docteur Denis Sasseville, dermatologue de renommée mondiale au Centre Universitaire de Santé McGill, s’insurge contre le délaissement des parabens comme agent de conservation sous l’égide du principe de précaution. Voici ce qu’il déclarait à La Facture:

« Ils se sont fourré le doigt dans l’oeil jusqu’au coude. On a affaire maintenant à une épidémie qui est totale et à la grandeur du monde. Les parabens sont des agents de conservation qui sont probablement parmi les plus sécuritaires sur le marché à l’heure actuelle. Quand je vois un produit qui s’affiche ‘sans parabens’, ce n’est pas un produit que j’aurais envie d’acheter. C’est plutôt le contraire, je vais plutôt prendre un produit qui contient des parabens plutôt qu’un produit qui contient du méthylisothiazolinone. 

La communauté scientifique est d’accord pour dire que les parabens sont des agents qui sont assez anodins, mais malheureusement à cause de ces travaux-là qui ont montré des activités oestrogéniques et un lien potentiel, mais non-prouvé avec le cancer, les médias sociaux se sont emparés de ces nouvelles-là et les ont monté en épingle de sorte qu’ils ont réussi à convaincre les non-scientifiques de la nocivité de ces produits-là (les parabens). »

Parabens1

Les parabens ne sont pas les premières substances utiles à succomber au principe de précaution. Les vernis renfermant du bisphénol A (BPA) recouvrant de nombreux contenants alimentaires sont indispensables pour nous protéger contre des intoxications alimentaires, liées à des bactéries comme l’E. Coli ou le botulisme, une maladie paralytique grave pouvant causer la mort.

Les résines à base de BPA se sont imposées comme la solution optimale par rapport aux autres types de résines face à ces risques sanitaires, grâce notamment à ses qualités uniques. Elles résistent notamment bien à la corrosion, augmentant ainsi la durée de vie des aliments conservés. Elles peuvent aussi être utilisées pour tous les types d’aliments et elles n’altèrent pas le goût des aliments.

Même si Santé Canada a récemment confirmé l’innocuité des BPA, le produit est tout de même interdit dans les biberons pour bébé au Canada. La France a cependant banni les BPA tout azimuts le 1er janvier 2014. Ces interdictions nous force à utiliser des produits dont la sécurité est moins bien établie et potentiellement inférieurs dans leur capacité à conserver les aliments, et ce même si les preuves scientifiques les soutenant sont quasi-inexistantes (voir ceci).

Recent Studies State Chemical In Plastic Liquid Containers Contain Tox

En janvier 1991, une épidémie de choléra éclata au nord de Lima, au Pérou. Les autorités locales avaient décidé de chlorer l’eau par crainte que le chlore ne cause le cancer. À l’époque, Greenpeace considérait le chlore comme non-sécuritaire pour la santé. L’organisme militait à l’époque pour que ce produit, pourtant essentiel dans la nature, soit banni. Joe Thornton, de Greenpeace, déclarait :

« There are no uses of chlorine which we regard as safe. People should be considered innocent until proven guilty; chemicals should not. »

Cette crainte était basée sur des études de l’EPA publiées dans les années 1980s montrant un risque hypothétique de cancer concernant un sous-produit du chlore, les trihalométhanes. Ces études consistaient à octroyer des doses extrêmes de chlore à des rats, ce qui n’est pas réaliste. On parle de doses de 70 à 275 ppm, alors que le seuil maximal permis par l’EPA dans l’eau potable était de 1.5 ppm. Seules les femelles avaient démontré un résultat positif, pas les mâles. Pourtant, l’Agence Internationale de Recherche sur le Cancer concluait que les études épidémiologiques reliant le cancer à consommation d’eau chlorée étaient inadéquates.

À la fin de 1993, l’OMS estimait le nombre de morts de cette épidémie de choléra à 10,000 et le nombre de cas à près d’un million. Merci Greenpeace et votre principe de précaution! (source)

Greenpeace

Le gras saturé et les maladies cardiaques.

Dans ma série d’articles sur le livre « The Big Fat Surprise » (ici, ici et ici), j’ai expliqué à quel point l’influence démesurée du nutritionniste Ancel Keys avait envoyé la communauté scientifiques sur une mauvaise tangente en ce qui concerne le gras saturé. En plus d’Ancel Keys, l’autre figure influente du milieu fut certainement Paul Dudley White, le médecin personnel du Président Eisenhower, qui eut une attaque cardiaque fort publicisée en 1955. White était un grand supporteur des idées de Keys et ne manqua pas de les répandre au gré des conférences de presse et des interviews. Il y avait aussi le nutritionniste Jean Mayer et sa chronique régulière dans le New York Times, qu’il utilisa pour vanter la diète faible en gras saturé.

Cette influence a fait en sorte de biaiser les études scientifiques sur la question. Appuyés sur quatre études dont la robustesse est pour le moins douteuse (Anti-Coronary Club, Los Angeles Veterans Center, Hôpitaux Psychiatriques de Finlande, Expérience d’Oslo), les autorités gouvernementales ont alors fait des recommandations nutritionnelles plutôt questionnables.

En 1961, l’American Heart Association (AHA) a été la première agence nationale à officiellement recommander une diète faible en gras saturé pour réduire le risque de maladies cardiaques (ici). Ces recommandations ont propulsé la consommation d’huiles végétales et, par le fait même, l’émergence du gras trans. Une fois que les théories contre le gras et le cholestérol eurent été adoptées par les institutions gouvernementales, elles devinrent intouchables, peu importe quel expert ou quelle étude amenait une preuve scientifique que ces idées sont erronées.

Tous les scientifiques ayant tenté de faire des recherches et de publier des études contredisant le consensus établi ont vu leur financement être coupé, les journaux scientifiques les bouder, leur université les renvoyer, les conférences ne pas les inviter à présenter et leurs collègues les rejeter, voire même les insulter publiquement. Ce climat malsain a eu comme résultat de faire miroiter une sorte de consensus quasi-unanime contre le gras saturé, alors que cela n’a jamais été le cas.

En nutrition (et bien d’autres domaines…), la méthode scientifique a été inversée: au lieu d’émettre une hypothèse et de tenter de l’invalider par l’expérimentation, on a tenté de trouver des données qui corroborent l’hypothèse souhaitée. Pourtant, plusieurs méta-analyses publiées en 2010 et 2014 notamment (ici et ici) concluaient qu’une diète élevée en acides gras polyinsaturés et faible en gras saturé ne permettait pas de réduire l’incidence des maladies cardiaques. Heureusement, il semble que les choses soient présentement en train de changer…(voir ceci par exemple).

L’évolution humaine

Selon le paléontologue et biologiste américain Stephen Jay Gould, il n’y aurait eu aucun changement biologique évolutif chez l’humain au cours des 40,000 à 50,000 dernières années. Autrement dit, toutes les races humaines actuelles sont biologiquement équivalentes. Voici la citation exacte :

 

“there’s been no biological change in humans in 40,000 or 50,000 years. Everything we call culture and civilization we’ve built with the same body and brain.”

 

Malheureusement, cette affirmation est davantage politique que scientifique. Les preuves scientifiques démontrant le contraire sont de plus en plus nombreuses. Elles sont cependant ignorées par plusieurs, ne serait-ce que pour rester dans le « politiquement correct » et éviter les accusations de racisme. Pourtant, ces connaissances constituent un savoir crucial à propos de la nature humaine et ne devraient pas être balayées sous le tapis. C’est ce que plaide le livre de Gregory Cochran et Henry Harpending The 10,000 Year Explosion (voir ceci).

L’humain a évolué à partir du singe durant des millions d’années, mais le rythme de cette évolution s’est grandement accéléré au cours des quelques dernières centaines de milliers d’années. L’évolution significative de notre espèce depuis la venue de l’agriculture a été une « explosion de 10,000 ans ». L’évolution humaine n’a pas cessé quand les humains modernes sont apparus, ni quand ils ont quitté l’Afrique, ni suite à ce qu’ils aient copulé avec des Néanderthaliens au paléolithique, dont les gènes bénéfiques sont encore présents chez la plupart d’entre nous.

Les changements génétiques comme la tolérance au lactose ont découlé de mutations fructueuses et de changements culturels (comme le développement de l’agriculture) et ont, à leur tour, engendré des changements génétiques et culturels comme l’expansion des langages Indo-Européens (parlés par les deux tiers des habitants de la planète de nos jours), la composition ethnique de l’Amérique et de l’Afrique et l’épanouissement des Juifs Ashkénazes.

Il serait grand temps que les chercheurs en sciences humaines laissent certains dogmes de côté tels que le statu quo évolutionnaire et l’unité psychique, de manière à ce que l’avancement de la connaissance de l’humain puisse continuer de progresser.

Le réchauffement climatique

Peut-on comparer les climato-sceptiques d’aujourd’hui à ceux qui défendaient que le tabagisme ne causait pas le cancer du poumon dans les années 1950s? À l’époque, un dénommé Austin Bradford Hill, qui a joué un rôle clé dans la découverte que le tabagisme cause le cancer, a établi une liste de 9 critères qui permettent d’évaluer s’il existe une relation de cause-à-effet entre deux choses (ici).

 

1. Force (une relation plus forte renforce la causalité).

– L’incidence de cancer était de 5 à 10 fois plus élevée chez les fumeurs.

– La force de la relation entre le CO2 et son impact sur le climat (tel que modélisé par les scientifiques) semble faible.

2. Constance (une relation observées sur des échantillons différents sera plus solide)

– Le lien entre cigarette et cancer était valide pour différentes populations et dans différents contextes.

– Le réchauffement climatique semble inégal et variable, par exemple si on considère différentes régions du globe, différents océans, différents pôles, etc.

3. Spécificité (une relation spécifique n’est pas influencée par beaucoup d’autres facteurs que les deux variables étudiées).

– Le cancer du poumon survient à un endroit où la fumée entre en contact avec l’intérieur du corps.

– Le lien entre climat et CO2 n’est pas spécifique car une très grandes quantité de variables influencent le climat (comme l’activité solaire et volcanique) et ces variables sont elles-mêmes volatiles, les rendant difficiles à modéliser.

4. Temporalité (l’effet survient après la cause, dans un délai plausible).

– Plus une personne fume pendant longtemps, plus son risque de cancer sera élevé.

– L’augmentation du CO2 ne semble pas nécessairement mener à l’augmentation subséquente du réchauffement.

5. Gradient (une plus grande exposition mène à un effet plus grand)

– Plus une personne fume de cigarettes par jour ou par semaine, plus son incidence de cancer sera élevée.

– On observe que pour certaines périodes, une augmentation du CO2 dans l’atmosphère ne cause pas d’accélération du réchauffement.

6. Plausibilité (un mécanisme permet d’expliquer la nature de la relation de cause-à-effet).

– L’inhalation d’une substance carcinogène semble une cause plausible de l’apparition d’un cancer, en endommageant les cellules et en les amenant à se reproduire de manière incontrôlée.

– Il est plausible que le CO2 émis par les humains augmente l’effet de serre, faisant réchauffer le climat davantage. Il est aussi plausible que le réchauffement engendre une hausse du niveau des océans et une augmentation du nombre de catastrophes naturelles.

7. Cohérence (est-ce que la relation est cohérente avec d’autre faits scientifiquement établis).

– La relation entre cigarette n’était incohérente avec aucune connaissance scientifique établie, mais contredisait l’hypothèse voulant que le cancer était causé par des virus ou qu’il était d’origine génétiques (en quelque sorte, ces trois hypothèses sont véridiques).

– Je ne suis pas au courant d’une quelconque théorie scientifiques établie qui aurait été invalidée par les modèles du GIEC.

8. Expérimentation (est-ce que l’expérimentation valide la relation).

– Des études épidémiologiques et des expériences sur des souris corroboraient l’hypothèse.

– Aucune expérimentation viable ne peut démontrer que le CO2 humain est responsable du réchauffement climatique.

9. Analogie (est-ce que l’effet est observé dans des situations analogues).

– La cigarette était aussi associée au cancer des lèvres, de la gorge, de la langue et de l’eosophage.

– L’effet de serre est un phénomène connu dans des situations analogues.

 

Il ne faut pas que tous les 9 critères soient respectés pour que la relation de cause-à-effet soient considérée valide. Il faut juste un nombre suffisamment grand, ce qui est passablement arbitraire.

 

Néanmoins, quand on observe l’exactitude des prévisions faîtes par les scientifiques impliqués dans le GIEC, on peut douter sérieusement de la relation cause/effet qu’ils tentent de nous démontrer. On tente de nous faire croire que l’on a correctement modélisé le climat, mais il semble que le calibrage de ces modèles soit nettement déficient et surestime grandement l’impact du CO2. On constate aussi que la qualité des données utilisées est questionnable.

 

L’échantillon de température le plus cité est le Goddard Institute for Space Studies de la Nasa (le GISS). Un dénommé Paul Homewood s’est intéressé à un sous-échantillon démontrant l’une des plus grandes augmentations de température au monde, une région située entre le Brésil et le Paraguay. Entre 1950 et 2014, les trois stations étudiées ont montré une augmentation de 1.5C selon les données « ajustées », soit nettement plus que la moyenne globale. Cependant, quand Homewood a obtenu l’échantillon brut, il réalisa que les températures avaient plutôt diminué de 1C.

 

La NASA n’offre aucune explication plausible pour cet « ajustement » à la hausse. Ces stations sont en milieu rural, donc le « urban island effect » ne peut se manifester, et cet effet résulte normalement en un ajustement à la baisse, pas à la hausse. Les stations n’ont pas été déplacées et la méthodologie de collecte des données n’a pas changé (par exemple le matin plutôt que l’après-midi). Et cet exemple est loin d’être isolé… (Pour plus de détails, ici, ici et ici)

 

20150201_weather

 

Ce que montrent les graphiques ci-haut, c’est Vulcain, l’énergie noire, la mastectomie radicale d’Halsted, la transplantation de moelle épinière de Bezwoda, c’est la carte linguale de Hanig/Boring, le doxazosin, les antioxydants, la théorie voulant que le MMR cause l’autisme, la croyance voulant que le gras saturé soit un poison à éviter, les théories du statu quo évolutionnaire et de l’unité psychique.

 

On nous dit aussi que 2014 serait l’année la plus chaude jamais enregistrée. Vraiment? Ce qu’on ne dit pas est que, selon les données de la NASA, le record n’a été battu que de 0.04C, ce qui n’est pas une différence statistiquement significative par rapport aux précédentes années chaudes. Le graphique ci-bas présente les températures avec la marge d’erreur. On constate que 2014 pourrait très bien avoir été plus froide que 2010, 2005 ou 1998. On constate par ailleurs, que les données satellitaires montrent qu’il n’y a toujours pas de réchauffement anormal à signaler depuis 18 ans et 3 mois (219 mois), et que l’écart avec les prévisions des modèles du GIEC continuent de s’accentuer. (voir ceci)

giss_2014_error_bars

 

clip_image002

clip_image004

 

Malheureusement, comme le dit si bien Pierre-Guy Veer: « le débat scientifique est monopolisé par des pseudo-scientifiques politisés : un bachelier en politique et en théologie, un politicien dont le film a été débusqué, un zoologiste qui n’est pas foutu de savoir de quoi il parle, un écofasciste sans compétences apparentes en science qui minimise les dons qu’il reçoit de « grosses compagnies » et un bédéiste australien qui a créé le consensus de 97% de toutes pièces – plusieurs scientifiques ont dénoncé sa malhonnêteté. »

 

Pour constater à quel point les scientifiques peuvent se tromper en ce qui concerne la climatologie, vous n’avez qu’à consulter la section « Une Autre Erreur des Réchauffistes » sur le site Antagoniste.net (ici), vous y trouverez des choses vraiment incroyables!

 

Conclusion

Mon argument ici n’est pas dire que parce que la science s’est trompée sur certaines choses dans le passé, qu’elle se trompe forcément sur le climat ou autre. Mon point est plutôt que parce que la science s’est souvent trompée dans le passé, il faut être exigeant envers elle lorsqu’elle nous présente quelque chose comme étant une vérité démontrée.

Entretenir des doutes face au consensus scientifique est loin d’être une attitude réactionnaire ou obscurantiste. Au contraire, c’est une attitude saine à avoir, car c’est par la contestation et le renversement du consensus établi que la science a progressé au cours de l’histoire. Comme le dit Siddhartha Mukherjee dans son livre sur le cancer:

« When truly radical discoveries appear, their impact is often not incremental but cataclysmic and paradigm-shifting. Technology dissolves its own past. »

Par ailleurs, cela implique qu’il ne faille pas accepter le consensus scientifique comme une vérité absolue. Car la science est loin d’être parfaite. Elle est menée par des humains faillibles et corruptibles, ainsi que par des carriéristes dont l’influence peut être écrasante. Ces humains oeuvrent souvent au sein d’institutions hyper-politisées au sein desquelles la vérité n’est pas toujours bonne à dire et où la critique est rarement bienvenue. Ajoutons à cela le sensationnalisme médiatique et le corporatisme et nous avons tous les ingrédients pour que la science fasse souvent fausse route et s’égare dans un nuage d’éther…

 

 

Read Full Post »

20454074

The Marshmallow Test: Mastering Self-Control, par Walter Mischel.

Walter Mischel est un chercheur en psychologie de la Columbia University qui a été, depuis les années 1960s, un pionnier dans la recherche sur l’habileté à retarder la satisfaction et la maîtrise de soi. Sa plus grande contribution scientifique fut sans aucun doute l’expérience de la guimauve qu’il débuta à Stanford entre 1968 et 1974 et qu’il décrit dans un livre récemment publié. L’idée principale du livre est que la maîtrise de soi est une habileté cognitive qui peut être acquise au cours de la vie, elle n’est pas entièrement innée.

(suite…)

Read Full Post »

clap-cinema-emballage_g

J’aime bien le cinéma, mais Hollywood propose bien peu de films vraiment intéressants. L’horaire de Super Écran est bourré de films d’agents secrets irréalistes, de tueurs en série insolites (comme s’il y en avait autant), de vampires plus ou moins romantiques, de science-fiction au scénario troué, de comédies stupides, de films de sport où un « sous-estimé » surmonte les difficultés pour remporter le championnat à la fin, etc. Les films américains font l’apogée du policier héroïque qui tire plus vite que son ombre et du soldat patriote qui sacrifie sa vie pour son pays en mission solitaire suicide. Et il y a le fameux Président des États-Unis, cet être moralement supérieur qu’il faut sauver à tout prix. En bref, les clichés sont si nombreux que je pourrais en remplir ce billet.

Le genre que je trouve passablement intéressant est le film basé sur des faits historiques car en plus de nous divertir, ces films peuvent nous instruire. Cependant, on constate que les producteurs prennent de très grandes libertés, à un point tel que ces films n’ont souvent plus rien à voir avec l’histoire réelle.

(suite…)

Read Full Post »

bigfatsurprise

The Big Fat Surprise: Why Butter, Meat and Cheese Belong in a Healthy Diet (Teicholz, Nina)
La journaliste scientifique Nina Teicholz a récemment publié un best-seller intitulé « The Big Fat Surprise », au sujet de l’impact du gras saturé sur la santé. Elle a épluché des centaines d’études publiées depuis les 1960s et interviewés des acteurs importants du domaine de la nutrition qui ont influencé les politiques gouvernementales à l’égard du gras.

Je vous propose donc une série de trois articles à ce sujet.

Partie 3 de 3.

(suite…)

Read Full Post »

bigfatsurprise

The Big Fat Surprise: Why Butter, Meat and Cheese Belong in a Healthy Diet (Teicholz, Nina)
La journaliste scientifique Nina Teicholz a récemment publié un best-seller intitulé « The Big Fat Surprise », au sujet de l’impact du gras saturé sur la santé. Elle a épluché des centaines d’études publiées depuis les 1960s et interviewés des acteurs importants du domaine de la nutrition qui ont influencé les politiques gouvernementales à l’égard du gras.

Je vous propose donc une série de trois articles à ce sujet.

Partie 2 de 3.

(suite…)

Read Full Post »

bigfatsurprise

The Big Fat Surprise: Why Butter, Meat and Cheese Belong in a Healthy Diet (Teicholz, Nina)
La journaliste scientifique Nina Teicholz a récemment publié un best-seller intitulé « The Big Fat Surprise », au sujet de l’impact du gras saturé sur la santé. Elle a épluché des centaines d’études publiées depuis les 1960s et interviewés des acteurs importants du domaine de la nutrition qui ont influencé les politiques gouvernementales à l’égard du gras.

Je vous propose donc une série de trois articles à ce sujet.

Partie 1 de 3.

Des connaissances oubliées…

(suite…)

Read Full Post »

Older Posts »

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 144 autres abonnés