La science a été au cours de l’histoire une source incroyable de découvertes fascinantes et d’inventions stupéfiantes. Il arrive cependant que la science s’égare dans un labyrinthe où elle est déroutée par des considérations politiques, des égos trop imposants et des personnalités trop influentes. Quand on place quelques exemples de ces errances en perspective, on se rend compte qu’il est malsain de faire aveuglément confiance en la science et d’adopter les politiques qu’elle nous suggère sans poser de questions.
La physique…une science exacte?
En 1859, le mathématicien Urain Le Verrier avait décelé une anomalie dans l’orbite de Mercure, laquelle ne semblait pas obéir à la loi de la gravité de Newton. Que fit-il alors? Plutôt que de remettre en question la loi de Newton, il conclua qu’il devait exister une autre planète entre le soleil et Mercure, laquelle il nomma Vulcain. Ce n’est qu’en 1915, bien après la mort de Le Verrier, grâce à la théorie générale de la relativité d’Einstein, que l’on pu finalement conclure que Vulcain n’existait pas! Autrement dit, une connaissance « démontrée scientifiquement » a pu persister pendant plus d’un demi-siècle avant que l’on ne réussisse à l’invalider. On a préféré inventer une planète imaginaire plutôt que remettre Newton en question!
De nos jours, plusieurs observations du comportement de l’univers ne correspondent pas aux théories considérées comme « scientifiquement valides ». Par exemple, l’expansion de l’univers est en accélération. Quelle solution a-t-on adopté? On a supposé l’existence de la matière sombre et de l’énergie sombre, lesquelles n’ont jamais été observées. Est-ce que le consensus des astrophysiciens est en train de répéter la même erreur que Le Verrier?
Tous les chercheurs qui travaillent présentement à tenter de prouver ces concepts gaspillent peut-être leur temps. Selon le chercheur Mordehai Milgrom, de l’Institut Weizmann en Israël, « les gens qui travaillent sur la matière sombre n’arrêteront pas par eux-mêmes, ils vont arrêter quand on arrêtera de les financer ». Évidemment, il faudra une personnalité solide pour ébranler la théorie d’Einstein. Mais est-ce que l’écosystème actuel de la science favorise l’émergence de cette théorie révolutionnaire? En fait, même la théorie du Big Bang est présentement sérieusement remise en question (voir ceci entre autres). Pour une excellente lecture sur le sujet, je vous recommande « Hidden in Plain Sight » 1 et 2, par Andrew Thomas.
En 1946, le Dr Benjamin Spock écrivait dans son livre Baby and Child Care que selon lui, les nouveaux-nés devraient dormir sur le ventre. Cette affirmation non-vérifiée scientifiquement, mais qui faisait tout de même « consensus », a malheureusement causé des milliers de décès par la mort subite du nourrisson et ce pendant des décennies.
Au début du 20e siècle, la seule méthode connue pour éradiquer un cancer était la chirurgie. Celui qui est passé maître en la matière est un dénommé William Halsted, qui a mis en branle un processus d’augmentation extrême de l’ampleur de la chirurgie. Il avait observé que si le cancer revenait après la chirurgie, c’était généralement aux abords de l’endroit où il se situait au préalable. Son raisonnement fut donc qu’il fallait enlever encore et encore plus de chair pour s’assurer que le cancer ne revienne pas. Halsted a perfectionné sa technique concernant le cancer du sein jusqu’à en arriver à ce qu’il appelait la « mastectomie radicale », qui consistait à retirer le sein en entier, le muscle pectoral, les glandes lymphatiques, le cartilage et même les os environnant (côtes et clavicule). C’était une opération très morbide et déshumanisante.
Halsted n’avait pas compris que si le cancer revenait, c’est parce qu’il y avait des métastases qu’aucune chirurgie ne pouvait éradiquer. Aucune expérimentation valide n’avait pu confirmer que la chirurgie radicale était le traitement le plus efficace pour le cancer du sein car Halster choisissait bien ses patients, rejettant les cas plus complexes. L’influence d’Halsted suffisait à éradiquer toutes les critiques, à un point tel que les chercheurs qui ont tenté de tester des méthodes alternatives, comme la chimiothérapie, n’arrivaient pas à recruter des médecins et des patients. Ceci dit, dans les années 1920s, un médecin de Londres (où Halsted était moins influent) nommé Geoffrey Keynes avait publié des résultats démontrant qu’une combinaison de chirurgie locale légère et de chimiothérapie accomplissait le même résultat que la mastectomie radicale. Le chirurgien américain George Crile Jr avait corroboré les résultats obtenus par Keynes, mais il n’arriva pas à mettre sur pieds une étude pour le démontrer scientifiquement, faute de collaboration par les chirurgiens sous l’influence d’Halsted.
Ce n’est que beaucoup plus tard que l’oncologue Paul Carbone, du National Cancer Institute, arriva à démontrer que la chirurgie radicale n’était pas plus efficace qu’une chirurgie locale en combinaison avec la chimio. Entre 1891 et 1981, environ 500,000 femmes ont dû subir l’horrible procédure d’Halsted, voyant leur corps complètement déformé.
Dans les années 1970s, un pathologiste australien nommé Robin Warren écrivait ceci :
« Depuis la naissance de la bactériologie médicale il y a plus d’un siècle, on enseigne qu’aucune bactérie ne peut croître dans l’estomac (en raison de l’acidité trop élevée). Quand j’étais étudiant, c’était un ‘fait connu’, comme ‘tout le monde sait que la terre est plate’ ».
Cette boutade illustrait que Warren était sceptique à l’égard d’une ‘vérité’ considérée comme scientifiquement valide depuis plus d’un siècle. Warren croyait que des colonies de bactéries vivaient dans le halo bleuté entourant les ulcères d’estomac, mais il n’arrivait pas à les isoler in vitro. De son côté, le médecin Barry Marshall y arriva. Les deux hommes nommèrent cette bactérie Helicobacter pylori, en raison de sa forme (helico) et de son emplacement à l’embouchure de l’estomac (le latin pylorus signifie « gardien de la porte »). Une autre « certitude scientifique » venait de s’écrouler!
Fait intéressant, pour prouver que cette bactérie causait les gastrites, Marshall a lui-même ingéré un bouillon contaminé, ce qui résultat en une sévère gastrite. Il fut alors établit que cette bactérie causait les ulcères d’estomac (non, ce n’est pas le stress, comme on le croyait auparavant), qui eux-mêmes pouvaient mener au cancer.
En 1995, un chercheur Sud-Africain du nom de Werner Bezwoda présenta des résultats de recherche stupéfiant. Il avait réussi à démontrer que l’utilisation de la chimiothérapie à dose élevée (HDC) combinée avec une transplantation autologue de moelle osseuse (ABMT) permettait d’obtenir de meilleurs résultats contre le cancer du sein métastasé. Des 45 patientes ayant reçu la combinaison HDC/ABMT, 23 ont atteint la rémission. Sur la base de ces résultats, environ 40,000 femmes partout dans le monde ont subi ce traitement. Il était impossible de compléter d’autres études cliniques puisque toutes les femmes voulaient le traitement plutôt que de possiblement être assigné au groupe de contrôle. Bezwoda avait atteint la célébrité et son article de 1995 a été cité plus de 350 fois en à peine plus de 5 ans.
Puis, en 1999, des chercheurs américains sont partis en Afrique du Sud pour vérifier l’étude menée par Bezwoda et la robustesse de ses résultats. C’est avec horreur qu’ils découvrirent que les résultats de Bezwoda avait été falsifiés. Il ne disposait que de 61 des 90 dossiers de patients. Seulement 27 des dossiers comportaient une évaluation d’éligibilité à l’étude, dont 18 n’auraient pas dû être éligibles. Seulement 25 patients ont reçu un traitement, donc 22 ont reçu le traitement expérimental. Aucun formulaire de consentement n’avait été signé et les patients n’avaient évidemment pas été assignés de manière aléatoire. L’article désormais célèbre du Journal of Clinical Oncology fut rétracté en avril 2001. Ce traitement n’est désormais plus utilisé.
Pour davantage de détails sur l’histoire fascinante du cancer et des traitements visant à l’éradiquer, je vous recommande fortement le superbe ouvrage de Siddhartha Mukherjee, The Emperor of All Maladies, A Biography of Cancer.
Ceci dit, le cancer est loin d’être le seul sujet sur lequel la science s’est trompée. Considérez la répartition des papilles gustatives sur la langue. On a longtemps pensé que le salé pouvait être goûté sur les côtés à l’avant de la langue, alors que le sûr sur les côtés arrières, le sucré au centre-avant et l’amer au centre-arrière. Cette théorie date de 1901, alors qu’un scientifique Allemand nommé D.P. Hanig a publié les résultats de son expérience basée sur les « impressions » des participants quant à l’intensité des goûts. Cette théorie fut consolidée par Edwin Boring, de l’Université Harvard, en 1942. Ce n’est qu’en 1974 qu’une chercheure du nom de Virginia Collings a découvert qu’en fait, les quatre saveurs peuvent être perçues partout sur la langue. On sait maintenant aussi qu’il existe une cinquième saveur détectée par la langue, le « umami », et qu’il y en aurait peut-être une sixième pour le gras. Plusieurs ouvrages de référence continuent tout de même de véhiculer ce mythe de la « carte des saveurs »… (voir ceci)
Les études pharmaceutiques
J’avais publié un article en 2013 sur le livre Bad Pharma de Ben Goldacre (ici) décrivant les abus scientifiques de l’industrie pharmaceutique. Il y a seulement la moitié des résultats d’essais cliniques qui sont publiés, et celles dont les résultats sont négatifs ont deux fois plus de chances de ne pas être publiées. Une étude a recensé des essais cliniques pour 12 médicaments produits par différents manufacturiers et a découvert que des 75 études faîtes sur ces 12 médicaments, seulement 51 ont été publiées dans la littérature académique. Des 75 non-publiées, le taux de résultats positifs était de 51%, alors que pour les 51 études publiées il était de 94%!
Souvent, les études cliniques mesurent l’impact d’un médicament sur une mesure auxiliaire (proxy). Par exemple, un médicament supposé réduire le risque d’attaques cardiaques pourrait être évalué par rapport à sa capacité à faire baisser la pression sanguine. Le problème est que parfois l’amélioration du proxy n’améliore pas l’objectif principal. C’est notamment le cas du doxazosin, qui est un médicament très dispendieux ayant remplacé le chlorthalidone une fois son brevet expiré. Le gouvernement a financé une étude qui a démontré que doxazosin faisait bien pire que chlorthalidone quant au risque d’attaque cardiaque (tellement que l’étude a dû être arrêtée prématurément car on nuisait trop aux patients). Pourtant, ce médicament continue d’être prescrit allègrement grâce au marketing efficace de Pfizer.
Souvent, le choix des patients participant à une étude permet d’obtenir un résultat plus favorable. En 2007, une étude a été faîte sur 179 véritables asthmatiques en vérifiant s’ils auraient été admissibles à des essais sur des médicaments contre l’asthme : seulement 5% à 6% d’entre eux auraient été acceptés pour ces essais cliniques par les pharmas! Donc les patients choisis pour ces essais ne sont pas représentatifs de la population visée par le traitement. Le choix des patients vise à faire mieux paraître l’efficacité du médicament. Aussi, une bonne façon de mettre en valeur un médicament dont l’efficacité est faible consiste à découper l’échantillon de patients en sous-groupes pour voir si, par chance, un des sous-groupes affiche de meilleurs résultats. Par exemple, un médicament pourrait n’avoir montré aucun bienfait pour l’ensemble de l’échantillon, mais avoir semblé montrer une certaine efficacité chez les asiatiques de 45 à 55 ans.
Les pharmas peuvent aussi jouer sur les doses pour faire valoir leur nouveau produit comparativement à un concurrent établi. Lorsque le brevet du médicament antipsychotique risperidone a expiré, les concurrents ont tenté de démontrer que leur nouvel antipsychotique était supérieur à risperidone pour s’accaparer une part de marché. Cependant, leurs essais utilisaient une dose de 8 mg de risperidone, ce qui est beaucoup trop élevé et susceptible de causer des effets secondaires, faisant bien paraître le médicament du concurrent.
Les biais de publication
Si on élargit le spectre à la science en général, et non seulement aux médicaments, les choses sont encore pires. Daniele Fanelli de l’Université d’Édinbourg a analysé 4,600 articles publiés dans des journaux scientifiques. Il a découvert que la proportion de résultats négatifs publiés a diminué de 30% en 1990 à seulement 14% en 2007. En revanche, le nombre de rétractions a été décuplé au cours des 10 dernières années, mais ne représente toujours que 0.2% des 1.4 millions d’articles scientifiques publiés dans des journaux scientifiques chaque année.
En 1998, l’éditrice du prestigieux British Medical Journal, Fiona Godlee, a envoyé un article contenant 8 erreurs délibérées concernant l’élaboration de l’étude, l’analyse des données et l’interprétation des résultats, à 200 scientifiques qui révisent les articles du BMJ avant publication. Aucun d’entre eux n’a identifié les 8 erreurs, alors qu’en moyenne ils n’en ont rapporté que 2.
Par ailleurs, bien moins de la moitié des études publiées dans les journaux scientifiques peuvent être répliquées avec succès (certains parlent même de moins du quart). Les résultats de ces études sont carrément invalides, mais demeurent toutefois dans le savoir collectif et influence le consensus scientifique sur une question donnée. On réalise donc que bien des chercheurs obtiennent un Ph.D et un lucratif titre de professeur, alors que leurs résultats n’ont pas été vérifiés. Ces chercheurs arrivent aussi parfois à influencer les politiques publiques…
Le graphique suivant est fort intéressant. Imaginez 1,000 hypothèses dont 100 sont véridiques. La puissance du test est de 80%, donc il produit 20 faux‑négatifs (en vert foncé), mais il produit aussi 45 faux-positifs. On se retrouve donc avec un test qui nous montre 125 hypothèses comme vérifiées, dont 45 sont de faux-positifs, soit 36%. Maintenant, considérez que des études ont démontré que les tests utilisées dans les articles publiés ont une puissance de 21% en moyenne! Dans notre exemple, si on abaisse la puissance de 80% à 40%, on obtient que plus de la moitié des résultats sont de faux –positifs… On constate donc que plus de la moitié des résultats positifs publiés dans les journaux scientifiques sont des faux-positifs. (voir ceci et ceci)
Les erreurs statistiques commises par les médias dans l’interprétation de résultats scientifiques sont souvent immense, mais les articles publiés n’y échappent pas non plus. Prenons une erreur simple mais fréquente : la signification statistique des différences. Par exemple, vous découvrez que la substance XYZ a un effet de 30%, statistiquement différente de zéro. Vous concluez donc avoir découvert quelque chose d’intéressant. Par contre, le placebo démontre un effet de 15%, non-significatif. Le test qu’il faut alors effectuer avant de conclure quoi que ce soit est de tester si la différence entre le placebo et XYZ est significativement différente de zéro (il est probable dans cet exemple qu’elle ne le soit pas).
Une étude de Sander Nieuwenhuis a vérifié 157 articles publiés dans 5 prestigieux journaux scientifiques de neuroscience pendant 2 ans pour lesquels cette erreur aurait pu être commise. Ce fut le cas pour la moitié d’entre eux (voir ceci).
Les antioxydants
Dans son ouvrage « Bad Science », le scientifique Ben Goldacre démonte plusieurs mythes, dont celui des suppléments d’antioxydants. Manger des baies ou des carottes plutôt que des frites et du gâteau au chocolat sera certainement bon pour vous, mais n’allez pas croire que c’est parce que les antioxydants qu’elles contiennent viendront vous protéger des radicaux libres qui cause le cancer! Cette théorie ne fut qu’une fausse-bonne-idée.
En 1981, l’épidémiologiste Richard Peto a publié une étude dans Nature démontrant que les gens ayant un niveau élevé de bêta-carotène (un antioxidant) dans le sang diminuait le risque de cancer. Par la suite, en Finlande, une étude portant sur 30,000 personnes à risque pour le cancer du poumon a démontré que le groupe recevant des suppléments de bêta-carotène et de vitamine E a eu une incidence plus élevée de cancer que le placébo. Puis, l’étude CARET visait à administrer des suppléments de bêta-carotène et de Vitamine A à un groupe expérimental contre un placebo pour le groupe de contrôle à 18,000 personnes fumeuses ou exposées à l’amiante au travail pendant 6 ans. L’étude fut arrêtée avant la fin car le groupe expérimental comportait 46% plus de décès du cancer du poumon que le groupe de contrôle.
Il est vrai que les antioxydants jouent un rôle important dans la prévention du cancer en réagissant avec les radicaux libres susceptibles d’endommager les cellules. Mais ce que ces expériences ont démontré est que l’absorption anormalement élevée d’antioxydants par l’alimentation ne permet pas de prévenir le cancer. C’est ce qu’a récemment confirmé la méta-analyse de la Cochrane Collaboration : les suppléments d’antioxydants augmentent le risque de décès. Pourtant, une industrie entière est née de cette théorie invalidée par l’expérimentation, et elle n’est pas près d’être éradiquée.
L’effet placébo
L’effet placebo en lui-même est fascinant. Il existe de nombreux exemples de chirurgies pratiquées sans anesthésie, en utilisant l’effet placebo. On sait aussi suite à des expérimentations, que deux pilules de sucre font mieux qu’une seule pour guérir les ulcères d’estomac. Les pilules roses sont plus efficaces que les bleues. Pour contrer certains maux, une injection d’eau saline fait mieux qu’une pilule de sucre, car la méthode est plus « dramatique » et suggère donc une efficacité accrue. Plus le rituel de traitement est élaboré, plus le placébo sera efficace.
Par ailleurs, le placebo sera plus efficace si on dit au patient qu’il coûte $10 par pilule, que si on lui dit qu’il coûte $2.50. Certaines opérations bidon pratiquées aux genoux et pour soulager les angines fonctionnent aussi. Le chirurgien pratique une petite incision et fait semblant de faire quelque chose d’utile, alors qu’en réalité, rien n’est fait, mais le patient se sent mieux quand même par la suite! Les grosses machines qui ont l’air sophistiqué provoquent aussi l’effet placébo. Il existe aussi le phénomène du diagnostic-placébo. Si un docteur ne sait pas pourquoi son patient a mal et qu’il le lui dit, le patient se sentira mieux deux semaines plus tard dans 39% des cas, mais s’il lui dit (faussement) qu’il se sentira mieux d’ici quelques jours, le patient se sentira mieux dans 64% des cas après deux semaines.
Ceci dit, l’exemple le plus extrême d’effet placébo est une expérience menée par le Dr Stewart Wolf. Deux femmes souffraient de nausées et vomissements chroniques. Il leur mentionna avoir un traitement qui amélioreraient leur situation. Il leur administra du ipecac par tube gastrique et les deux patientes virent leur état s’améliorer. À noter : ipecac est un médicament servant à faire vomir!
Le problème avec l’effet placebo est qu’il permet aux vendeurs de thérapies bidon de faire croire que leurs produits fonctionnent vraiment, comme par exemple les produits homéopathiques. L’inventeur de l’homéopathie est un Allemand nommé Samuel Hahnemann. Sa théorie était que si on pouvait trouver une substance qui engendre des symptômes similaires à une maladie, cette substance pourrait guérir cette maladie. Par exemple, il jugea qu’après avoir ingéré une grosse dose de cinchona bark, il ressentait des symptômes qu’il croyait ressembler à la malaria. Le deuxième volet de la théorie qui est encore aujourd’hui au coeur de l’homéopathie est qu’en diluant cette substance, ses effets seront décuplés. Pour accomplir la dilution parfaite il faut frapper la fiole de verre contenant ladite substance sur une surface dure, mais élastique (comme une planche de bois recouverte d’un coussin de cuir rembourrés de poils de chevaux).
La dilution typique des produits homéopathiques est de 30C, ce qui signifie que le produit final ne contient qu’une partie par 10^60 (1 suivi de 60 zéros). Imaginez une sphère d’eau dont le diamètre est la distance entre la terre et le soleil contenant une particule : c’est ça une partie par 10^60! Tout ce qu’il reste est essentiellement une petite pilule de sucre. Certains diront que l’homéopathie fonctionne car ils se sont sentis mieux après un tel traitement. En fait, les deux explications à ce résultats sont l’effet placebo (que les homéopathes exploitent magistralement) et le retour à la moyenne (le moment où vous aboutirez chez l’homéopathe est possiblement celui où votre mal sera à son apogée, et ne pourra que diminuer par la suite).
Aucune étude méthodologiquement viable n’a pu démontrer l’efficacité de l’homéopathie comparé à un placebo (voir la méta-analyse Shang et al dans The Lancet). Et notez que l’acuponcture entre dans cette catégorie. Pourtant cette industrie continue de perdurer…
Les médias et le MMR
Les médias peuvent aussi causer d’énormes dérapages scientifiques. Ce fut dramatiquement le cas en ce qui concerne le vaccin MMR (contre la rougeole, les oreillons et la rubéole).
En 1998, un groupe de chercheurs menés par le chirurgien britannique Andrew Wakefield a publié un article dans The Lancet, lequel décrivait une étude menée sur 12 enfants qui avait des problèmes intestinaux et comportementaux (souffrant surtout d’autisme). Il mentionnait que les parents de 8 des 12 enfants avaient noté que les symptômes avaient débuté quelques jours après l’injection du vaccin MMR. Wakefield participa ensuite à une conférence de presse au Royal Free Hospital recommandant de réduire les doses de MMR. Il n’en fallait pas moins pour que les médias s’emballent, encouragés par les militants anti-vaccins.
Quelques années plus tard, il fut découvert que Wakefield avait reçu des pot-de-vins de $800,000 de la part d’avocats pour publier son article. Ces avocats prévoyait utiliser l’étude trafiquée pour poursuivre les fabricants du vaccin en recours collectif. L’étude fut par la suite retirée par le prestigieux journal The Lancet. En 2010, Wakefield fut rayé du registre des médecins, lui retirant son droit de pratiquer la médecine en Angleterre.
Pendant 9 ans les journaux britanniques ont été placardés d’articles sur les dangers du MMR. Au sommet de la crise, en 2002, environ 10% de tous les articles portant sur la science dans les journaux britanniques concernait le MMR! Et ces articles sortaient souvent de la plume de généralistes n’ayant pas les connaissances requises pour analyser des questions scientifiques et recherchant par-dessus tout le sensationnalisme. La journaliste Lorraine Fraser a rédigé une douzaine d’articles en 2002 supportant la thèse de Wakefield et a par la suite reçu le British Press Awards Health Writer of the Year! En fait, les médias publiaient systématiquement d’effrayants articles concernant des études souvent peu fiables, souvent non-publiées et souvent menées par des collaborateurs du Dr Wakefield, tout en ignorant les études subséquentes, beaucoup plus robustes, démontrant que le MMR était inoffensif.
Des centaines d’études montrent que le MMR est sécuritaire, incluant une méta-analyse de la Cochrane Collaboration publiée en 2005. Pour n’en nommer qu’une seule, une étude faîtes au Danemark portant sur 440,655 enfants vaccinés et 96,648 non-vaccinés n’a trouvé aucune différence entre les deux groupes concernant l’incidence d’autisme.
Néanmoins, le taux de vaccination pour le MMR a chuté de 92% en 1996 à 73% en 2012. Évidemment, l’incidence de ces maladies du passé s’est mise à augmenter significativement, et pas juste en Angleterre. En 2009, un garçon de 11 ans s’est rendu en Angleterre et y a attrapé les oreillons. À son retour, ce garçon a participé à un camp d’été pour juifs hassidiques, où il a déclenché une sévère épidémie qui 6 mois plus tard avait infecté 179 enfants. Plusieurs ont connu de graves complications (pancréatite, méningite, surdité, paralysie faciale, inflammation des ovaires) et ont dû être hospitalisés. Cette épidémie aura au final infecté environ 3,500 enfants, dont 97% faisaient partie de la communauté juive. (détails et ici)
(voir ceci pour mon article complet sur les vaccins.)
Les gaffes découlant du principe de précaution.
Le principe de précaution implique que l’on doive interdire un produit ou une activité tant que nous n’avons pas la certitude que ce produit ou cette activité est sans risque. Comme je l’expliquais dans mon article sur le livre Risk de Dan Gardner, le principe de précaution découle d’un aversion au risque irrationnelle et peut avoir des conséquences inattendues très négatives. Une étude menée par les psychologues Michael Siegrist et George Cvetkovich a démontré que les gens accordent généralement plus de crédibilité aux études scientifiques qui démontrent un danger ou un risque, qu’à celles qui démontrent qu’il n’y en a pas (voir ceci). C’est pourquoi les activistes environnementaux, avec la complicité des médias, peuvent souvent monter des histoires en épingle au point d’amener les gouvernements à légiférer.
Il y a quelques temps, l’émission La Facture, diffusée à Radio-Canada, faisait état d’un produit qui cause présentement de graves problèmes dermatologiques chez certaines personnes qui y sont allergiques. Le méthylisothiazolinone, un agent de conservation utilisé dans les cosmétiques, peut causer de graves brûlures, qui peuvent mettre jusqu’à 6 mois à guérir, voire même ne jamais s’estomper. Santé Canada l’autorise, mais révise présentement sa position.
Pourquoi les fabricants utilisent-ils un tel produit? Auparavant, on utilisait les parabens comme agent de conservation. Cependant, certains chercheurs ont émis des théories voulant qu’il s’agissait de perturbateurs endocriniens pouvant causer le cancer du sein. Il n’en fallu pas moins pour que les écolos s’en mêle et catégorisent les parabens comme une substance à éviter par « principe de précaution ». La Fondation David Suzuki les a même ajouté à leur liste « Dirty Dozen » de produits chimiques à éviter.
Devant une telle opposition, les fabricants de cosmétiques se sont empressé de trouver une alternative, et ce même si il n’y a aucune restriction concernant les parabens en Amérique du Nord. C’est comme cela que le méthylisothiazolinone a été introduit sur le marché comme remplacement des parabens. Les fabricants de cosmétiques sont maintenant fiers de mentionner sur leurs étiquettes que leurs produits ne contiennent pas de parabens.
Pourtant, aucune étude scientifique solide n’a pu démontrer de lien entre les parabens et le cancer. Une méta-analyse de 2005 a conclu que :
« it is biologically implausible that parabens could increase the risk of any estrogen-mediated endpoint, including effects on the male reproductive tract or breast cancer » and that « worst-case daily exposure to parabens would present substantially less risk relative to exposure to naturally occurring endocrine active chemicals in the diet such as the phytoestrogen daidzein. »
L’American Cancer Society quant à elle concluait qu’il n’y avait pas suffisamment de preuves scientifiques pour supporter la théorie voulant que les parabens ajoutés aux cosmétiques causent le cancer du sein.
Le Docteur Denis Sasseville, dermatologue de renommée mondiale au Centre Universitaire de Santé McGill, s’insurge contre le délaissement des parabens comme agent de conservation sous l’égide du principe de précaution. Voici ce qu’il déclarait à La Facture:
« Ils se sont fourré le doigt dans l’oeil jusqu’au coude. On a affaire maintenant à une épidémie qui est totale et à la grandeur du monde. Les parabens sont des agents de conservation qui sont probablement parmi les plus sécuritaires sur le marché à l’heure actuelle. Quand je vois un produit qui s’affiche ‘sans parabens’, ce n’est pas un produit que j’aurais envie d’acheter. C’est plutôt le contraire, je vais plutôt prendre un produit qui contient des parabens plutôt qu’un produit qui contient du méthylisothiazolinone.
La communauté scientifique est d’accord pour dire que les parabens sont des agents qui sont assez anodins, mais malheureusement à cause de ces travaux-là qui ont montré des activités oestrogéniques et un lien potentiel, mais non-prouvé avec le cancer, les médias sociaux se sont emparés de ces nouvelles-là et les ont monté en épingle de sorte qu’ils ont réussi à convaincre les non-scientifiques de la nocivité de ces produits-là (les parabens). »
Les parabens ne sont pas les premières substances utiles à succomber au principe de précaution. Les vernis renfermant du bisphénol A (BPA) recouvrant de nombreux contenants alimentaires sont indispensables pour nous protéger contre des intoxications alimentaires, liées à des bactéries comme l’E. Coli ou le botulisme, une maladie paralytique grave pouvant causer la mort.
Les résines à base de BPA se sont imposées comme la solution optimale par rapport aux autres types de résines face à ces risques sanitaires, grâce notamment à ses qualités uniques. Elles résistent notamment bien à la corrosion, augmentant ainsi la durée de vie des aliments conservés. Elles peuvent aussi être utilisées pour tous les types d’aliments et elles n’altèrent pas le goût des aliments.
Même si Santé Canada a récemment confirmé l’innocuité des BPA, le produit est tout de même interdit dans les biberons pour bébé au Canada. La France a cependant banni les BPA tout azimuts le 1er janvier 2014. Ces interdictions nous force à utiliser des produits dont la sécurité est moins bien établie et potentiellement inférieurs dans leur capacité à conserver les aliments, et ce même si les preuves scientifiques les soutenant sont quasi-inexistantes (voir ceci).
En janvier 1991, une épidémie de choléra éclata au nord de Lima, au Pérou. Les autorités locales avaient décidé de ne plus chlorer l’eau par crainte que le chlore ne cause le cancer. À l’époque, Greenpeace considérait le chlore comme non-sécuritaire pour la santé. L’organisme militait à l’époque pour que ce produit, pourtant essentiel dans la nature, soit banni. Joe Thornton, de Greenpeace, déclarait :
« There are no uses of chlorine which we regard as safe. People should be considered innocent until proven guilty; chemicals should not. »
Cette crainte était basée sur des études de l’EPA publiées dans les années 1980s montrant un risque hypothétique de cancer concernant un sous-produit du chlore, les trihalométhanes. Ces études consistaient à octroyer des doses extrêmes de chlore à des rats, ce qui n’est pas réaliste. On parle de doses de 70 à 275 ppm, alors que le seuil maximal permis par l’EPA dans l’eau potable était de 1.5 ppm. Seules les femelles avaient démontré un résultat positif, pas les mâles. Pourtant, l’Agence Internationale de Recherche sur le Cancer concluait que les études épidémiologiques reliant le cancer à consommation d’eau chlorée étaient inadéquates.
À la fin de 1993, l’OMS estimait le nombre de morts de cette épidémie de choléra à 10,000 et le nombre de cas à près d’un million. Merci Greenpeace et votre principe de précaution! (source)
Le gras saturé et les maladies cardiaques.
Dans ma série d’articles sur le livre « The Big Fat Surprise » (ici, ici et ici), j’ai expliqué à quel point l’influence démesurée du nutritionniste Ancel Keys avait envoyé la communauté scientifiques sur une mauvaise tangente en ce qui concerne le gras saturé. En plus d’Ancel Keys, l’autre figure influente du milieu fut certainement Paul Dudley White, le médecin personnel du Président Eisenhower, qui eut une attaque cardiaque fort publicisée en 1955. White était un grand supporteur des idées de Keys et ne manqua pas de les répandre au gré des conférences de presse et des interviews. Il y avait aussi le nutritionniste Jean Mayer et sa chronique régulière dans le New York Times, qu’il utilisa pour vanter la diète faible en gras saturé.
Cette influence a fait en sorte de biaiser les études scientifiques sur la question. Appuyés sur quatre études dont la robustesse est pour le moins douteuse (Anti-Coronary Club, Los Angeles Veterans Center, Hôpitaux Psychiatriques de Finlande, Expérience d’Oslo), les autorités gouvernementales ont alors fait des recommandations nutritionnelles plutôt questionnables.
En 1961, l’American Heart Association (AHA) a été la première agence nationale à officiellement recommander une diète faible en gras saturé pour réduire le risque de maladies cardiaques (ici). Ces recommandations ont propulsé la consommation d’huiles végétales et, par le fait même, l’émergence du gras trans. Une fois que les théories contre le gras et le cholestérol eurent été adoptées par les institutions gouvernementales, elles devinrent intouchables, peu importe quel expert ou quelle étude amenait une preuve scientifique que ces idées sont erronées.
Tous les scientifiques ayant tenté de faire des recherches et de publier des études contredisant le consensus établi ont vu leur financement être coupé, les journaux scientifiques les bouder, leur université les renvoyer, les conférences ne pas les inviter à présenter et leurs collègues les rejeter, voire même les insulter publiquement. Ce climat malsain a eu comme résultat de faire miroiter une sorte de consensus quasi-unanime contre le gras saturé, alors que cela n’a jamais été le cas.
En nutrition (et bien d’autres domaines…), la méthode scientifique a été inversée: au lieu d’émettre une hypothèse et de tenter de l’invalider par l’expérimentation, on a tenté de trouver des données qui corroborent l’hypothèse souhaitée. Pourtant, plusieurs méta-analyses publiées en 2010 et 2014 notamment (ici et ici) concluaient qu’une diète élevée en acides gras polyinsaturés et faible en gras saturé ne permettait pas de réduire l’incidence des maladies cardiaques. Heureusement, il semble que les choses soient présentement en train de changer…(voir ceci par exemple).
L’évolution humaine
Selon le paléontologue et biologiste américain Stephen Jay Gould, il n’y aurait eu aucun changement biologique évolutif chez l’humain au cours des 40,000 à 50,000 dernières années. Autrement dit, toutes les races humaines actuelles sont biologiquement équivalentes. Voici la citation exacte :
“there’s been no biological change in humans in 40,000 or 50,000 years. Everything we call culture and civilization we’ve built with the same body and brain.”
Malheureusement, cette affirmation est davantage politique que scientifique. Les preuves scientifiques démontrant le contraire sont de plus en plus nombreuses. Elles sont cependant ignorées par plusieurs, ne serait-ce que pour rester dans le « politiquement correct » et éviter les accusations de racisme. Pourtant, ces connaissances constituent un savoir crucial à propos de la nature humaine et ne devraient pas être balayées sous le tapis. C’est ce que plaide le livre de Gregory Cochran et Henry Harpending The 10,000 Year Explosion (voir ceci).
L’humain a évolué à partir du singe durant des millions d’années, mais le rythme de cette évolution s’est grandement accéléré au cours des quelques dernières centaines de milliers d’années. L’évolution significative de notre espèce depuis la venue de l’agriculture a été une « explosion de 10,000 ans ». L’évolution humaine n’a pas cessé quand les humains modernes sont apparus, ni quand ils ont quitté l’Afrique, ni suite à ce qu’ils aient copulé avec des Néanderthaliens au paléolithique, dont les gènes bénéfiques sont encore présents chez la plupart d’entre nous.
Les changements génétiques comme la tolérance au lactose ont découlé de mutations fructueuses et de changements culturels (comme le développement de l’agriculture) et ont, à leur tour, engendré des changements génétiques et culturels comme l’expansion des langages Indo-Européens (parlés par les deux tiers des habitants de la planète de nos jours), la composition ethnique de l’Amérique et de l’Afrique et l’épanouissement des Juifs Ashkénazes.
Il serait grand temps que les chercheurs en sciences humaines laissent certains dogmes de côté tels que le statu quo évolutionnaire et l’unité psychique, de manière à ce que l’avancement de la connaissance de l’humain puisse continuer de progresser.
Le réchauffement climatique
Le réchauffement global est un sujet très vulnérable aux problèmes énumérés ci-haut car c’est un enjeu très politisé. Au fil du temps, il est devenu très difficile de poser certaines questions sur les politiques du gouvernement en la matière sans se faire traiter d’idiot ou encore se faire accuser de crime contre l’humanité.
Se questionner sur l’efficacité des modèles climatiques, la fiabilité des données et la nature des interventions gouvernementales proposées n’est pas automatiquement équivalent à nier que la terre se réchauffe, que cela n’est pas causé par les émissions humaines et que cela n’aura aucune conséquence.
Pourra-t-on éviter les dérives mentionnées dans cet article? Disons que le niveau de danger est élevé.
Conclusion
Mon argument ici n’est pas dire que parce que la science s’est trompée sur certaines choses dans le passé, qu’elle se trompe forcément sur le climat ou autre. Le consensus scientifique constitue la plupart du temps la connaissance la plus fiable sur un sujet donné. Mon point est plutôt que parce que la science s’est souvent trompée dans le passé, il faut être exigeant envers elle lorsqu’elle nous présente quelque chose comme étant une vérité démontrée.
Entretenir des doutes face au consensus scientifique est loin d’être une attitude réactionnaire ou obscurantiste. Au contraire, c’est une attitude saine à avoir, car c’est par la contestation et le renversement du consensus établi que la science a progressé au cours de l’histoire. Comme le dit Siddhartha Mukherjee dans son livre sur le cancer:
« When truly radical discoveries appear, their impact is often not incremental but cataclysmic and paradigm-shifting. Technology dissolves its own past. »
Par ailleurs, cela implique qu’il ne faille pas accepter le consensus scientifique comme une vérité absolue. Car la science est loin d’être parfaite. Elle est menée par des humains faillibles et corruptibles, ainsi que par des carriéristes dont l’influence peut être écrasante. Ces humains oeuvrent souvent au sein d’institutions hyper-politisées au sein desquelles la vérité n’est pas toujours bonne à dire et où la critique est rarement bienvenue. Ajoutons à cela le sensationnalisme médiatique et le corporatisme et nous avons tous les ingrédients pour que la science fasse souvent fausse route et s’égare dans un nuage d’éther…
Dans le cas du climat ça ne risque pas de s’améliorer.
L’équipe de Barack Obama à lancé une grosse opération d’intimidation contre les chercheurs. Il a même tweeté la fausse étude du 97%.
Quoi qu’il en soit, les dommages ne sont pas prêt de s’achever.
Excellent article. Enfin quelqu’un qui parle des » Junk sciences » et j’inclus la climatologie dedans.
Il resterait à parler de l’amiante ici au Québec qui a été diabolisé et qui est pourtant très utile.
Il y a aussi de plus en plus maintenant les néonicotinoïdes . Toute une histoire sur les pauvres abeilles.
Il y a aussi le cas du DDT mais ça c’est une autre histoire.
En tout cas j’espère que tu vas continuer à faire des mises à jour sur ces histoires d’erreur de la science.
Minarchiste,
J’arrête ma lecture dès le premier paragraphe. L’exemple d’Urbain le Verrier est COMPLETEMENT à côté de la plaque. La précession du périhélie est très bien expliquée par les perturbations des autres planètes. Or, pour Mercure on constatait un petit écart. Dès lors, il était bien plus rationnel de chercher une petite planète inconnue que de se lancer dans une refonte des lois de la nature (bien compliquée pour le Verrier, matheux-astronome).
http://www.afhalifax.ca/bete/DALEMBERTIMAGES/CoursMecaniqueCeleste/CelestialFitzpatrick.pdf voir surtout pages 60 & 61, et les pages précédentes pour les calculs
C’est d’ailleurs par cette méthode qu’on découvre Neptune puis Pluton. Les astronomes ont d’abord conjecturé l’existence d’une nouvelle planète avant son observation.
Ironiser sur l’impasse de le Verrier qui a choisi la méthode la plus prometteuse, c’est débile.
Un exemple actuel : les sondes Pioneer ralentissent légèrement, de manière inexpliquée (c’est la « Pioneer anomaly »). Dites moi donc, cher minarchiste : quelle méthode a le plus de chances d’aboutir ? Réécrire les équations de la mécanique ou chercher une solution grâce à la physique existante ?
Et tout ce baratin pour nous ressortir du wattsupiththat. Encore les mêmes manipulations de courbe… Vous etes bien dans votre role : une apparence de science pour servir du doute et nous laisser croire que les recherches sur le climat sont fausses.
Les vrais lecteurs interesses par la mecanique celeste liront le textbook, ceux interesses par le climat liront des textbook sur le climat. Les gens un peu intelligents comprendront vite que la science ne se fait pas sur les blogs, et qu’en flattant le lecteur qui croit le temps d’une lecture qu’il est plus intelligent que les scientifiques de la NASA + des centres de recherche du monde entier est bel et bien de la manipulation.
Il n’en demeure pas moins que LeVerrier a défendu Vulcain bec et ongles pendant presque 50 ans et quiconque s’opposait à lui était ostrasisé. Vous faîtes fausse route en tentant de défendre sa méthode. Ce n’est pas ça le sujet de l’article.
Quant à l’explication des « ajustements » apportés par la Nasa, j’attends toujours…surtout quant on sait à quel point cette institution se bat pour ne pas sombrer dans l’indifférence. Ce nouveau combat fait bien leur affaire question de rester pertinent et de conserver les budgets et emplois.
Attention, c’est la NASA, payez, regardez ailleurs et ne posez pas de questions…
bonjour Minarchiste :
Un unique individu ne peut, seul, « ostraciser » personne. C’est une communaute qui ostracise.
Il decouvre Neptune grace a cette methode. Gloire eternelle. Plus tard quand il se penche sur Mercure, la methode prevoit 5.32 secondes d’arc de precession par an sur les 5.75 observes [voir mon lien]. Il tente de combler cet ecart par la presence d’un petit astre tellement pres du soleil qu’on ne l’a jamais observe. Quoi de plus normal ? C’est l’hypothese la plus vraisemblable. Il fait le meilleur choix compte tenu de l’information disponible en son temps. Le Verrier n’etait pas physicien. Il n’avait aucun moyen d’imaginer que la gravitation n’est pas tout a fait une loi en 1/r^2.
Bonjour,
Je découvre votre blog via le Parisien Libéral, comme tout plein d’autres blogs, et c’est très intéressant.
La science progresse selon les remises en cause bien décrites par Popper, mais c’est vrai que ça peut prendre plus de temps que strictement nécessaire du fait de « contraintes » bassement humaines telles que jalousie entre scientifiques, subventions, arrière-pensées politique et sensationnalisme médiatique.
A ce propos, je me souviens spécialement de l’histoire de la « mémoire de l’eau » de Benveniste. L’eau garderait la « mémoire » d’éléments qui lui ont été mélangés tout en ne s’y trouvant plus physiquement. Sensation et gros fracas : finalement, on a réalisé que les expériences avaient été conduites avec des bocaux mal lavés ! Le verre est poreux.
Et plus récemment l’histoire des particules qui allaient plus vite que la lumière. Les chercheurs étaient très pressés de publier. Le pb c’était que leurs mesures au départ et à l’arrivée n’étaient pas précises. Ils se sont rétractés mais auparavant ils ont été défendus bec et ongle par les journalistes scientifiques du Monde et Libération.
Cordialement, Nathalie MP
Merci Nathalie pour ces exemples intéressants.
« Les chercheurs étaient très pressés de publier. »
Faux. Les chercheurs sont restés prudents et croyaient davantage à une erreur de manipulation.
« En dépit du caractère très significatif de la mesure et de la robustesse de l’analyse, l’impact potentiel du résultat rapporté motive la poursuite des études sur de possibles effets systématiques encore inconnus qui pourraient expliquer l’anomalie observée. Nous ne proposons délibérément aucune tentative d’interprétation théorique ou phénoménologique»
C’est la presse généraliste qui en a fait un sujet de science fiction. La vraie science, elle, sait rester prudente.
D’accord sur la presse, mais de la part des chercheurs, pourquoi parler de leur travaux s’ils pensent qu’il faut poursuivre les études ? Ils voulaient prendre date et c’est ce que j’appelle « être pressé de publier ».
Nathalie :
« pourquoi parler de leur travaux s’ils pensent qu’il faut poursuivre les études ? »
parce que depuis 6 mois ils cherchaient le problème en vain et ont finalement appelé la communauté scientifique à l’aide.
« Ils voulaient prendre date et c’est ce que j’appelle « être pressé de publier ». »
Non.
Renseignez-vous
In a March 2011 analysis of their data, scientists reported evidence that neutrinos had traveled faster than light.
After six months of cross checking, on September 23, 2011, the researchers announced…
Et quand ils en parlent ils appellent cela une « anomaly ». Attitude super prudente.
http://en.wikipedia.org/wiki/Faster-than-light_neutrino_anomaly
Les scientifiques honnêtes publient toujours leur marge d’erreur. Quand ils ne sont pas sûrs ils le disent (« on attend que d’autres équipes confirment… »), ils concluent avec mesure (« the present experiment suggests a link… »).
Puisque ce long article n’est qu’un pamphlet climato-négateur déguisé, (re)lisez les rapports du GIEC, ils mentionnent a chaque ligne le degré de certitude (« likely », « very likely » …). La science fonctionne ainsi, et pas autrement.
Dernière réponse :
– Je ne crois pas avoir abordé la question du climat dans mes commentaires. Le fait que vous le fassiez est assez significatif, vous êtes en croisade contre les climato-sceptiques (qui sont pourtant les plus prudents dans l’affaire, les autres considérant que la science « est établie »).
– Le communiqué de presse des chercheurs que vous me communiquez vous-même dit : « …caractère très significatif de la mesure et de la robustesse de l’analyse, l’impact potentiel du résultat rapporté motive la poursuite des études » = notre analyse est robuste, mais comme ça remet en cause toute la science physique (excusez du peu), dans un accès de modestie purement formel qui nous permettra de nous mettre à l’abri le cas échéant, on convient qu’il faille prendre quelques précautions.
– Et maintenant relisez bien le blog de Sylvestre Huet sur le sujet : vous verrez si les chercheurs demandaient de l’aide. Comme je le disais, toutes les objections émises d’entrée de jeu par d’autres chercheurs ont été pilonnées de belle façon. Jusqu’à ce que malgré tout les objections deviennent plus nombreuses que les soutiens.
Bonjour Nathalie,
>> »en croisade contre les climato-sceptiques »
Oui, parce qu’ils mènent une campagne de désinformation auprès du grand public, et que leurs chefs de file sont corrompus (Watt, Soon touchent de l’argent des lobbys)
>> »les plus prudents dans l’affaire »
Faux et archi-faux. Le scepticisme, le vrai, signifie que vous exigez un niveau inhabituellement élevé de fiabilité avant de vous déclarer convaincu. Or, les négateurs (qui se proclament « sceptiques ») ne cessent de citer des sources douteuses ou notoirement fausses sans aucune honte. Par exemple:
* les négateurs contestent la montée des océans en citant le Pr Morner qui se fonde sur des traces de végétation et des témoignages de pêcheurs aux Maldives. La communauté scientifique, elle, utilise des mesures satellitaires sur tout le globe (http://sealevel.colorado.edu/).
* F. Gervais, j’adore les graphes manipules et p78 le coup du glacier : http://www.lemonde.fr/sciences/article/2013/10/28/les-contre-verites-du-dernier-pamphlet-climatosceptique_3504317_1650684.html
* C. Allegre, son livre est bourré d’erreurs http://www.lemonde.fr/planete/article/2010/02/27/le-cent-fautes-de-claude-allegre_1312167_3244.html
* une présentation de négateurs belges, bourrée de fautes et de malhonnêteté http://www.elic.ucl.ac.be/modx/elic/index.php?id=316
Comment oser parler de scepticisme ?
Quant au CERN…
>> « notre analyse est robuste »
Dans le contexte, oui, robuste, parce que leurs résultats étaient a 6 écarts-types, donc fiables. Or, ils avaient un biais qu’ils ignoraient (un GPS mal étalonné).
Dans leur article original (http://arxiv.org/pdf/1109.4897v1.pdf) ils restent totalement factuels, détaillent tous les intervalles de confiance, leur méthodologie etc. Par la suite, une fois le problème résolu, leur comportement a été reconnu exemplaire
Puisque vous citez le blog de S. Huet…
http://sciences.blogs.liberation.fr/home/2012/04/neutrinos-plus-rapides-que-la-lumi%C3%A8re-la-morale-de-lhistoire.html
Expliquez-moi ce qui vous choque dans cette histoire, et comment ils auraient dû réagir.
SL: « (Watt, Soon touchent de l’argent des lobbys) »
Et sans oublier Heartland! Bon voilà quelqu’un qui n’a visiblement pas exploré ce sujet en particulier et qui régurgite des mythes. Vous saviez que le Climate Research Unit de l’Université d’East Anglia a non seulement accepté de l’argent de Shell, BP et du Sultanat d’Oman mais est a établi des réseaux de contacts avec eux pour leur quêter un soutient financier? Je comprends qu’il faut quêter l’argent à ceux qui en ont mais c’est quand même ironique d’autant plus que personne ne les accuse d’être à la solde des pétrolières.
Si on suit le fric comme on dit en anglais il y a énormément plus d’argent en jeu du côté alarmiste que du côté sceptique. C’est quelques millions pour les sceptiques VS des milliards pour les alarmistes. Je pourrais afficher de nombreux liens mais voici un qui illustre la démesure du $$ pour les alarmistes VS sceptiques: Bank of America promet 50 milliards pour le climat
http://joannenova.com.au/2012/06/how-green-is-your-bankster-bank-of-america-spends-50-billion-to-save-the-world/
Sans compter les milliards de dollars d’argent public en recherche et programmes divers de je ne sais plus combien de gouvernements occidentaux. Et dans les commentaires quelqu’un fait remarquer que Citibank aussi dépense des milliards au nom du climat. C’est de la générosité et de l’altruisme peut-être? Les banques voient les bourses de carbone d’un bon oeil car elles pourraient devenir une grande source de revenus.
La dernière fois que j’ai regardé qui dirigeait le World Wildlife Fund j’ai vu plusieurs banquiers de Goldman Sachs en plus d’autres ultra riches. La firme d’investissements GIM fondée par Al Gore qui a créé la bourse de carbone de Chicago le CCX est bourré de banquiers de chez Goldman Sachs. Et sur le c.a. de CCX il y avait Maurice Strong qui est probablement le véritable fondateur du IPCC. Bert Bolin et John Houghton étaient des scientifiques de bureau pas des lobbyistes ultra connectés comme l’est Maurice Strong, ancient dirigeant de la compagnie Petro-Canada qui a travaillé pour les milliardaires Paul Desmarais et David Rockefeller avant de poursuivre sa carrière à l’ONU (il a fondé l’UNEP l’agence de l’Environnement de l’ONU, allez lire l’article de Ehsan Masood dans la revue Nature)
Al Gore aurait pu devenir un milliardaire du carbone si son stratagème avait fonctionné et il n’a pas encore abandonné il s’essaie toujours. Et je pourrais nommer plein de fondations écolos douteuses connectées aux grandes corporations multinationales qui ont été créé par des milliardaires aux États-Unis et ailleurs. Quand le 1% du 1% investit massivement dans l’écologisme on peut se poser des questions quant à leurs motivations.
suite…
…suite
Et que dire de la Banque Mondiale et sa Finance Climatique? Comment on dit trillions en français?
Mobilizing the Billions and Trillions for Climate Finance
http://www.worldbank.org/en/news/feature/2015/04/18/raising-trillions-for-climate-finance
L’article parle des efforts de la Banque Mondiale, du FMI et de l’ONU pour mobiliser des milliers de milliards de dollars pour combattre les changements climatiques. Dont $100 milliards par année en provenance des pays développées à envoyer aux pays en voie de développement pour soi-disant mitiger les effets négatifs des changements climatiques.
Et ils endossent un rapport douteux (présidé par le pas-du-tout riche ni corrompu ancien président mexicain Felipe Calderón et mené par le World Resources Institute, le même WRI qui a investi dans le CCX de Al Gore) qui estime qu’au total quatre-vingt treize mille milliards de dollars seront nécessaires pour empêcher l’atmosphère de la Terre de dépasser une augmentation de 2 degrés celsius au 21e siècle. Quatre-vingt treize mille milliards de dollars.
Et ce World Resources Institute en appelle évidemment à établir un prix pour le carbone:
http://www.wri.org/blog/2015/04/carbon-price-would-benefit-more-just-climate
Et parlant de WRI la méga compagnie d’alimentation et très très Verte Unilever (qui se bat en ce moment contre l’étiquetage des OGM aux États-Unis) est en partenariat avec le WRI pour soi-disant combattre la déforestation tropicale (causé en partie par les activités de la compagnie et ses filiales). C’est le même genre de partenariat que la très très Verte compagnie Monsanto a avec le WWF: on se cache derrière un communiqué de presse et un logo pour dire à tout le monde Regardez Je Suis Vert grâce à WWF/WRI/etc. Mais concrètement? Le WRI s’en fout, le WWF s’en fout, en autant qu’ils reçoivent une généreuse contribution de la compagnie en question.
D’ailleurs le grand patron de Unilever, Paul Polman, au dernier sommet de Davos en compagnie de son ami Al Gore a lui aussi demandé qu’on établisse un prix pour le carbone. Citation de l’article de Bloomberg:
“The cost of not acting is starting to be higher than the cost of acting,” Polman said at a press conference with Gore. “We need to set clear targets. We need a price on carbon.”
Et je peux parier que ce sera l’enjeu principal au Sommet de Paris en Décembre: comment et quand établir un prix pour le carbone.
Mais qu’est-ce que le patron de Unilever un géant de l’agro-alimentaire industrielle et des cosmétiques vient faire dans les bourses de carbone? Est-ce que l’esprit de Gaia a illuminé Paul Polman sur le chemin de Davos et l’a converti à l’écologisme? Ou est-ce que lui et son copain Al Gore veulent plutôt mettre la main sur une fraction de ces quatre-vingt dix mille milliards de dollars?
L’idée que les sceptiques du réchauffement planétaire sont à la solde des compagnies pétrolières et que les alarmistes du climat sont tous de nobles écolos à l’écoute de la Science qui n’ont pas de conflits d’intérêts financiers c’est de la connerie, ça ne tient pas du tout debout. Cet argument là est à jeter aux poubelles. S’il y a des gens qui ont des gigantesques intérêts financiers dans cette histoire ce sont les alarmistes du climat et les grandes corporations multinationales et les institutions internationales et les gouvernements qui les financent. Et l’information n’est pas difficile à trouver suffit de gratter un peu. Il y a tout de même des limites à l’aveuglement volontaire.
Tiens, un khmer vert…
En effet, les climato-sceptiques ont des pensées dangereuses, celles-ci mettent des embuches et décrédibilisent la nécessité d’instaurer une gouvernance écolo et abolir le capitalisme diabolique…
C’est bien pour cela que vous combattez leur « désinformation » avec autant de passion, sinon, quel intérêt y-aurait-il ? Quel danger y-aurait-il à ce qu’ils fassent cette « désinformation » ?
Le problème, c’est qu’entre constater un RCA et instaurer une politique d’ l’éco-Grand Bond En Avant, il y a toute une série de conditions nécessaires à valider, mais qui vont de plus en plus vers l’inexactitude et le pur hasard…
Quelles sont-elles ?
1/ qu’il y ait réchauffement,
2/ qu’il soit anthropique
3/ que l’on puisse analyser correctement le phénomène
4/ que l’on puisse déduire son évolution future
5/ que l’on puisse modéliser les liens entre RC et les phénomènes climatiques
6/ qu’il soit forcément mauvais
7/ qu’à partir de là, on puisse prédire les conséquences économiques et sociales.
8/ qu’il faille des solutions politiques (on entre déjà dans le planisme)
9/ que l’on puisse les déduire des solutions
10/ qu’elles fonctionnent
11/ Que celles-ci vaillent les sacrifices demandés
12/ Qu’on les mette au niveau mondial
13/ Qu’on les maintienne pour l’éternité…
L’impossibilité de valider ces conditions démontre bien qu’il s’agit d’utopie.
Et oser prétendre, selon l’habitude des escrolocs, que tout est validé parce que 97% des climatologues sont d’accord avec les 2 premières, c’est juste de l’enfumage…
Le communisme rouge n’a pas fonctionné, le communisme vert non plus.
La société ne se construit pas et ne se réformera pas par la volonté rationnelle d’un dirigeant éclairé par la science.
Bonjour Martin,
>> »Climate Research Unit de l’Université d’East Anglia »
L’industrie du tabac a également financé des recherches indépendantes. Lorsque un mécène finance votre recherche, vous avez inconsciemment une réticence a publier des conclusions qui pourraient le froisser. Aussi, sur 10 études publies, il se peut que l’une d’entre elles soit favorable aux intérêts du mécene. Elle sera alors surmediatisee. Le mecene est en position de force en choisissant la recherche qu’il préfèr et en la médiatisant. Ce sont des cas assez subtils de manipulation de la science.
>> »Si on suit le fric »
Vous mélangez tout. W. Soon a touche*personnellement* plus d’un million de dollars. Ca va directement dans sa poche. Les 50 milliards que vous citez proviennent de levées de fonds qui seront investies dans des projets. Cet argent ne va pas dans la poche personnelle des chercheurs, qui eux, ne roulent pas spécialement sur l’or. Le financement de la recherche c’est surtout pour l’achat de matos [satellites, labos…]. vous devriez comparer 50 milliards avec la capitalisation totale des industries d’énergie fossile. Ca se chiffre en milliers de milliards, rien a voir.
>> »Bank of America promet »
BoAML ne promet rien. C’est de la levée de fonds, du financement. C’est pas son argent, Ne me dites pas que vous croyiez que c’est 50 milliards des fonds propres de BoAML ??
>> »Citibank aussi dépense »
Encore une fois, Citi ne dépense rien. Elle crée un fonds intitule « fonds vert, » trouve des investisseurs et se charge d’investir leur argent dans des projets « verts. »
>> »Les banques voient les bourses de carbone d’un bon oeil »
Les banques font bien plus d’argent sur le trading des commodities !!
>> »Al Gore » + « WWF »
Ne comptez pas sur moi pour le défendre, Al Gore est un vrai demago.
Les lobbies WWF, greenpeace sont surtout la pour se saisir d’un certain pouvoir.
On parle de science depuis le début. Tout ceci est hors sujet.
Sauf si vous supposez qu’un grand complot mondial réunissant la recherche, les politiques, les médias, les universités, les industriels, BoAML et Citi, avec de gigantesques enveloppes de cash circulant sous le manteau de dizaines de milliers d’acteurs. Et que l’industrie du fossile est totalement impuissante, sous-financée, une vraie victime !! Et puis que 20% de la population est extra-terrestre tant qu’on y est !
>> » L’idée que les sceptiques sont à la solde des compagnies pétrolières c’est de la connerie »
Le gros gibier comme W Soon, celui qui va attester devant le congres US en tant qu’expert et anéantit toute sa crédibilité scientifique, touche plus d’un million de dollars. Watts qui anime un blog touche plutôt de l’ordre de la centaine de milliers. Dans leur campagne de desinformation, ils trouvent sur la route des ptits gars qui sont prêts a relayer leurs mensonges gratuitement, c’est tout benef pour eux.
Si la science vous intéresse, plongez-vous dans des bouquins d’introduction sur le climat, vous verrez c’est passionnant. Trouvez quelques articles au hasard [sur arxiv par exemple] et lisez-les, au moins abstract et conclusion. Tous ou presque [97%] concluent au réchauffement d’origine anthropique. Vous verrez que la science fonctionne de manière ouverte et qu’il y a un consensus. Évidemment, c’est plus facile de gober des conneries qui traînent sur le net que de penser par soi-même en allant directement aux sources.
Bonjour ph11
1/ qu’il y ait réchauffement, –> Prouvé
2/ qu’il soit anthropique –> Prouvé
3/ que l’on puisse analyser correctement le phénomène –> oui de mieux en mieux
4/ que l’on puisse déduire son évolution future –> C’est fait, avec une marge d’erreur quantifiée. Et on continue d’affiner les projections
5/ que l’on puisse modéliser les liens entre RC et les phénomènes climatiques + 6/ qu’il soit forcément mauvais –> menace sur la biodiversité, et donc in fine ce qu’on bouffe, c’est déja une grosse menace
7/ qu’à partir de là, on puisse prédire les conséquences économiques et sociales. –> on en voit déja [certaines iles menacées, désertification qui s’accélere]
8/ qu’il faille des solutions politiques (on entre déjà dans le planisme) –> malheureusement le marché libre ne pourra pas résoudre ce probleme, il faudra passer par une régulation meme si c’est jamais de gaite de coeur
9/ que l’on puisse les déduire des solutions –> ca veut rien dire ta phrase
10/ qu’elles fonctionnent –> bon point, y aura du boulot effectivemment
11/ Que celles-ci vaillent les sacrifices demandés –> on voit déja les conséquences de ne rien faire dans le plafonnement ou la baisse des rendements agricoles. Le réchauffement coute déja
12/ Qu’on les mette au niveau mondial –> oui ce sera compliqué
13/ Qu’on les maintienne pour l’éternité… –> le code de la route existe aussi pour l’éternité. et alors?
Re-bonjour Martin
Puisque vous mentionnez Heartland…
« The public health community’s campaign to demonize smokers and all forms of tobacco is based on junk science »
https://www.heartland.org/ideas/smokers-rights
Comme Heartland publie le NIPCC [le guide climato-sceptique pour que leurs soldats soient bien armés lors des campagnes de désinformation climatique sur internet] et que vous semblez considérer cet institut comme une source fiable, vous et votre famille fumez certainement le plus possible. Ne vous privez pas de ce plaisir raffiné.
« La vérité sur vos médicaments »,
Cet ouvrage vient tout juste de sortir chez Odile Jacob ,une « brique » de près de 600 pages, collectif de 32 experts sous l’égide du médiatique Pr Grimaldi, bien connu en France. »Au sommaire de l’ouvrage : une première partie sur 26 catégories de médicaments (somnifères, pilules, antibiotiques, vaccins…), une autre pour expliquer le parcours du médicament et son évaluation. Enfin, un troisième volet est consacré aux scandales de l’industrie pharmaceutique et aux leçons à en tirer. »
Je crois que cet ouvrage tente de remettre les pendules à l’heure, et d’éduquer la population sur le vrai rôle des médicaments, et les conséquences de les négliger(ex: les refus de vaccination,etc..).Indirectement, ce livre voudra convaincre de la pertinence des traitements pharmacologiques lorsqu’indiqués et adéquatement utilisés ; certains prétendront qu’il favorisera malgré tout, mais subtilement, l’industrie pharmaceutique en bout de ligne..
Un exemple,l’usage des statines ,universellement reconnu par une majorité de spécialistes, incluant le Pr Grimaldi . Cet ouvrage de vulgarisation ,magistral, fera sans doute parler de lui en France et ailleurs; je serais curieux de connaitre la réaction du Pr De Lorgeril (http://michel.delorgeril.info/),un cardiologue qui va à contrecourant de la majorité de ses pairs ,en particulier en ce qui concerne les statines..je vais donc surveiller son blogue.
Le Minarchiste n’a pas tort, l’on peut faire dire bien des choses aux études, et les biais sont nombreux. Juste un exemple simple , que je qualifierais de « piège statistique », celui du risque absolu vs le risque relatif , souvent présenté par les représentants pharmaceutiques, du moins en Amérique du Nord. Ex: « on a montré en prévention primaire que l’aspirine (500 mg/j) diminuait de 32% le risque de maladie cardiovasculaire (CV) ; en fait, le risque absolu ne diminue que de 0,2%. « Il faut donc traiter 500 patients (1 : 0,2%) pour en sauver un seul, le NNT (number needed to be treated) étant l’inverse du risque absolu. Si un événement est très rare, la diminution du risque par un médicament, même s’il paraît important en valeur relative, n’aura que peu de chances d’avoir un effet bénéfique pour un patient donné. »
Comment interpréter toutes ces études quand des experts s’accordent pour favoriser telle ou telle molécule, ou quand les avis divergent quelque peu ? Je n’ai pas la réponse, cependant les approches non pharmacologiques (et non ésotériques ou pseudoscientifiques) peuvent être puissantes dans certains cas, le mode de vie est déterminant, mais rarement utilisé à son plein potentiel. Avaler une pilule est tellement plus facile, et en plus cela « stimule l’économie » (blague..) .
@Jean-Yves
Concernant les statines, je lisais dans « The Big Fat Surprise » que leur mécanisme d’action était bien mal compris et qu’à défaut d’améliorer les chances de survie en s’attaquant directement au LDL, elles y arrivaient plutôt par des effets pléitropiques dont les mécanismes sont inconnus.
Les progrès de la sont souvent la suite de nombreuses expériences, certaines sont des réussites d’autres des échecs. Le résultat n’est jamais garanti du premier coup.
Excellent documentaire à voir:
http://topdocumentaryfilms.com/secrets-sugar/
Citation intéressante d’Henry Kissinger, qui va dans le sense de l’article:
” the constituency of the expert is those who have a vested interest in commonly held opinions; elaborating and defining its consensus »
Donc, ceux que la société considère « experts » sont ceux qui ont un parti pris à conserver le statu quo, car c’est sur le consensus établi que repose leur expertise.
Et sur la partie climat (car il est bien évident que tout ce discours sur les prétendues faiblesses de la science ne sert qu’à semer davantage de doute dans l’esprit des gens sur les recherches climatiques)
1 « La force de la relation entre le CO2 et son impact sur le climat (tel que modélisé par les scientifiques) semble faible. »
Faux.
Allez voir en page 2 de ce document. Les autres facteurs (solaire, volcanisme…) n’apportent aucune contribution significative. Seuls les gaz a effet de serre http://www.cawcr.gov.au/staff/jma/meehl_additivity.pdf
2 « Le réchauffement climatique semble inégal et variable, par exemple si on considère différentes régions du globe… »
Hors propos. Le climat a toujours été très inégal selon les régions. Que l’accroissement de température soit inégalement réparti ne constitue pas un contre-exemple.
3. « le lien entre climat et CO2 n’est pas spécifique car une très grandes quantité de variables influencent le climat (comme l’activité solaire et volcanique) et ces variables sont elles-mêmes volatiles, les rendant difficiles à modéliser. »
N’importe quoi. Vous savez comment marche une régression linéaire ? On peut isoler des facteurs déterminants, même si les autres variables sont volatiles (évidemment qu’elles sont volatiles, quelle blague, c’est des stats !!). Si vous ajoutez des facteurs (à part le soleil et le volcanisme, il n’y en a pas tant que ca, El Nino et sinon ?), vous détériorez les marges de confiance mais cela a déjà été pris en compte par les climatologues, et les gaz a effet de serre restent le facteur le plus important et ce, de manière extrêmement significative.
4. « L’augmentation du CO2 ne semble pas nécessairement mener à l’augmentation subséquente du réchauffement. »
5. »On observe que pour certaines périodes, une augmentation du CO2 dans l’atmosphère ne cause pas d’accélération du réchauffement. »
Points 4 et 5 … Complètement faux. Le réchauffement n’a jamais cessé. Si les températures atmosphériques sont en hausse plus lente depuis 20 ans, en revanche le rythme de fonte des pôles s’est accru, ainsi que la vitesse de montée des eaux.
6. « Plausibilité (un mécanisme permet d’expliquer la nature de la relation de cause-à-effet).
– Il est plausible que le CO2 émis par les humains augmente l’effet de serre, faisant réchauffer le climat davantage. »
C’est pas « plausible », c’est démontré depuis 100 ans !!!! Il suffit de comparer les longueurs d’onde du rayonnement solaire, du rayonnement terrestre, et des bandes d’absorption du CO2 CH4 O3 et CFC
8. »Aucune expérimentation viable ne peut démontrer que le CO2 humain est responsable du réchauffement climatique. »
Absurde, et scientifiquement malhonnête, puisqu’il est IMPOSSIBLE de recréer la Terre en laboratoire. Doit-on donc abandonner la sociologie, la psychanalyse, l’astronomie sous prétexte que l’on ne peut recréer ni de groupe social, ni de cerveau humain, ni de galaxie de laboratoire ???
SL: « Doit-on donc abandonner la sociologie, la psychanalyse, l’astronomie sous prétexte que l’on ne peut recréer ni de groupe social, ni de cerveau humain, ni de galaxie de laboratoire ??? »
La psychanalyse?? C’est une blague? La psychanalyse n’étudie pas le cerveau humain c’est la fantaisie de Freud ce truc là. Vous vouliez dire neurologie ou neuropsychologie je présume? Et mettre l’astronomie et la sociologie dans la même phrase, franchement.
@SL
Parlant de marge d’erreur des modèles, voyez ce graphique assez éloquent:
Figure 4. The Special Report on Emission Scenarios (SRES-SPM-5) A2 projection from Figure 1 showing the physical uncertainty of the projected temperature trend when including ±10.1% cloud error (light shading), or the uncertainty in greenhouse gas forcing (dark shading). Inset: A close-up view of the first 20 years of the A2 projection and the uncertainty limits.
Je publierai bientôt une traduction de l’article entier:
http://www.skeptic.com/reading_room/a-climate-of-belief/
Ainsi, la température moyenne en 2100 pourrait varier d’environ 100 degrés… Mais c’est dingue !!!!!!!!!!
Et les intervalles de confiance linéaires… Le théorème central limite était donc faux ?? Sapristi !!
Merveilleux. Votre graphique, publié dans « skeptic.com » est fondé sur un calcul de … Willie Soon !!
http://www.theguardian.com/environment/2011/jun/28/climate-change-sceptic-willie-soon
SL: « est fondé sur un calcul de … Willie Soon !! »
Suggérer que Willie Soon a troqué son intégrité intellectuelle pour quelques milliers de dollars c’est n’importe quoi d’autant plus que les alarmistes ont énormément plus d’argent, d’incitatifs financiers et de conflits d’intérêts de leur côté. Et le Guardian regurgite la propagande de Greenpeace sans gratter la surface. On parle du même journal qui joue à fond la propagande alarmiste climatique et qui a engagé un énergumène malhonnête nommé Dana Nuccitelli pour répandre des conneries et des faussetés à chaque semaine. Comment peut-on faire confiance à un journal aussi biaisé?
Allez plutôt lire ça c’est une explication de la campagne de salissage et de citations circulaires à laquelle participent les grands média à propos de Willie Soon et d’autres:
http://wattsupwiththat.com/2015/02/26/the-origin-of-climate-smear/
Bonjour Martin
>> »quelques milliers de dollars »
Non, c’est plus d’un million. Renseignez-vous
>> »le Guardian regurgite la propagande » + « campagne de salissage »
Ce sont des FAITS
« [W Soon] has admitted to being paid more than $1m in the past decade by major US oil and coal companies. »
Ben voila, il a avoue. Ce sont donc des FAITS.
Concernant les graphes plus haut, je constate que parmi les sceptiques personne ne comprend l’ecart-type ni la marge d’erreur. C’est quand meme genant quand on veut parler de sciences d’en ignorer les notions de base.
Et si vous consacriez votre temps a comprendre ces notions scientifiques plutot qu’a lire Whatupwththat, vous comprendriez qu’ils manipulent leurs graphes et que seul un public sans aucune connaissance peut prendre ce site au serieux. N’importe quel eleve pas trop cancre se rend tout de suite compte que ces graphiques sont une arnaque.
Allez, on extrapole lineairement les marges d’erreur… c’est la fete !!!
@SL
“leurs chefs de file sont corrompus (Watt, Soon touchent de l’argent des lobbys) »
Al Gore aussi, Greenpeace aussi…
Cela ne suffit pas à invalider leurs recherches.
« les négateurs (qui se proclament « sceptiques ») ne cessent de citer des sources douteuses ou notoirement fausses sans aucune honte. »
Que certains climato-sceptiques aient tort ou soient incompétents ou fêlés ou même corrompus ne signifie pas qu’ils le soient tous.
Je n’ai personnellement jamais entendu parlé de Gervais ou Allegre.
Il faut se concentrer sur les faits, par sur les gens.
« Ainsi, la température moyenne en 2100 pourrait varier d’environ 100 degrés… »
Non! Mais cette prédiction serait quand même dans la marge d’erreur des modèles.
In terms of the actual behavior of Earth climate, this uncertainty does not mean the GCMs are predicting that the climate may possibly be 100 degrees warmer or cooler by 2100. It means that the limits of resolution of the GCMs — their pixel size — is huge compared to what they are trying to project. In each new projection year of a century-scale calculation, the growing uncertainty in the climate impact of clouds alone makes the view of a GCM become progressively fuzzier.
>>> »Al Gore Greenpeace »
Je vous parle de science. Je n’ai que faire de ce que disent ces gens-la.
>>> »Gervais ou Allègre »
Ce sont les figures de proue « sceptiques » en France. Ils sont a la télé, publient des livres, organisent des conférences… Et dans son livre il dit que le glacier ne rétrécit pas en taille, parce qu’il avance de X mètres par an !!! On rigole bien quand même. Bravo le scepticisme.
>>> » serait quand même dans la marge d’erreur des modèles »
Hahaha !! Les intervalles de confiance s’extrapolent linéairement maintenant chez les « sceptiques ». C’est le niveau d’un cancre en statistiques en undergraduate.
Bref, vous avez trouvé dans les poubelles d’internet [un blog] un graphe faux [non, ca ne s’extrapole pas] fondé sur des chiffres douteux [Soon a touché plus d’un million d’USD], vous le reproduisez sans aucun esprit critique [a quoi bon].
Au fait, avez-vous lu cette presentation climato-sceptique ? Une pépite.
Bonjour,
J’apprécie en majorité ce que vous écrivez, mais ici je pense que vous avez une vision erroné de la science, de la façon dont elle évolue et des changements de paradigme. Par exemple, pour Le Verrier il était plus raisonnable de croire qu’une planète perturbait l’orbite de mercure plutôt que de remettre en cause la théorie newtonienne de la gravitation puisque la théorie semblait fonctionner pour toutes les autres observations. Pour effectuer un changement de paradigme, il a fallut que les physiciens se penchent sur les résultats de l’expérience de Michelson et Morley et que les physiciens comprennent que même la gravité se propage à une vitesse fini. De plus, plusieurs découverte en science ont été faite en postulant leur existence grâce à la théorie comme par exemple la découverte du boson de Higgs qui était prévue par le modèle standard des particules et qui à bien été observé au LHC.
Ensuite, il ne faut pas mélanger, la science, les scientifiques et la vulgarisation. Apprendre la science à l’aide de revue scientifique serait un peu comme apprendre à conduire en jouant à un jeux vidéo de course.
Enfin, je vous invite à la prudence lorsque vous écrivez sur la science, je ne comprend d’ailleurs pas pourquoi se sente qualifié pour jugez des choses qu’ils ne maitrisent pas… Est-ce qu’Enstien à écrit un traiter sur l’économie? Est-ce que Stephen Hawking à écrit un traiter de politique?
Or, je vous écris cette critique uniquement car je pense que vous êtes quelqu’un de nature rigoureuse et que vous allez prendre cette critique de façon constructive.
Au plaisir de lire vos prochains billets,
cordialement,
François
« En 1859, le mathématicien Urain Le Verrier avait décelé une anomalie dans l’orbite de Mercure, laquelle ne semblait pas obéir à la loi de la gravité de Newton. Que fit-il alors? Plutôt que de remettre en question la loi de Newton, il conclura qu’il devait exister une autre planète entre le soleil et Mercure, laquelle il nomma Vulcain. Ce n’est qu’en 1915, bien après la mort de Le Verrier, grâce à la théorie générale de la relativité d’Einstein, que l’on pu finalement conclure que Vulcain n’existait pas! Autrement dit, une connaissance « démontrée scientifiquement » a pu persister pendant plus d’un demi-siècle avant que l’on ne réussisse à l’invalider. On a préféré inventer une planète imaginaire plutôt que remettre Newton en question! »
Effectivement, il est possible de voir de brillants scientifiques dériver pendant des lunes sur une théorie qui finit par ne plus tenir la route, comme on commence à fortement le soupçonner aujourd’hui avec le big-bang.
Néanmoins la comparaison que vous faîtes entre l’exemple que vous donnez et la théorie me paraît inexacte et qui plus est un peu trop « maline ».
En effet, il y a deux siècles et encore aujourd’hui, il est courant de deviner, avant même de l’observer, la présence d’une planète ou d’une étoile, simplement en observant l’orbite spatiale d’autres astres proches d’elle. Donc la supposition de Le Verrier n’était pas infondé, il a suivi le fil des connaissances acquises à l’époque. Il serait bien malin d’affirmer que ce mathématicien avait la possibilité de remettre en cause la théorie de Newton à partir des connaissances qu’il avait en 1859.
Il faut comprendre qu’une partie du bagage mathématique nécessaire à la formulation de la théorie de la relativité d’Einstein ne sont apparu qu’au début du XXème siècle. Einstein était un homme brillant, mais il a aussi eu la chance d’arriver dans le paysage scientifique, au moment où les travaux de recherche en physique ou en mathématique lui permettaient de formuler sa théorie.
En bref, je pense que vous grossissez le trait sur la supposée obstination de Le Verrier.
@Bof
Encore une fois, au risque de me répéter, je ne critique pas l’approche de Le Verrier, sa méthode ou la théorie qu’il a appliquée.
Ce que je critique est son attitude hégémonique, bloquant toute hypothèse alternative à la sienne et, surtout, le fait que pendant toutes ces années, sa théorie était considérée comme un « fait » démontré, alors que l’incertitude reliée à la sa prévision n’était pas considérée.
Ce que je critique est l’écosystème de la science, qui faisait en sorte que si vous n’étiez pas en accord avec Newton/Leverrier, vous n’aviez pas de poste universitaire en vue et pas de financement de recherche, donc pas possible de faire avancer la science.
Et mon article démontre que les choses n’ont pas changé…
Bonjour,
Premièrement, j’aimerais vous félicité par votre façon de bien prendre la critique et par le fait que vous ne bloquez les commentaires qui ne vont dans le sens de ce que vous dites et également par votre grande politesse, je ne peux pas en dire autant de certains blogueurs qui malheureusement sont irrespectueux et qui en plus dénigre ceux qui ne pense pas comme eux et qui en plus essaie d’analyser plein de choses qui ne connaisse de tout évidence pas du tout.
J
e comprends vos arguments et je pense qu’il y a très certainement des lacunes dans l’attribution des postes universitaires et qu’il est peut-être que le système actuel ne favorise pas suffisamment la créativité. Par contre, il faut savoir qu’il y a beaucoup de personnalité particulière dans les sciences surtout fondamentales et que certaine personne ne semble même s’inventer des découvertes pour la gloire, la richesse et, etc. Je pourrais vous donner un nombre incalculable d’exemples, mais je vais donc tenter de vous exprimer mon point de vue avec un physicien moderne du nom de Laurent Nottale et de sa théorie de la relativité d’échelle. Je tiens à dire que j’ai de fortes bases en physiques, mais pas particulièrement en relativité générale, car celle-ci n’est pas dans mon champ d’expertise.
M. Nottale a créé une théorie de la gravitation compatible à la fois avec les principes de la relativité générale et la mécanique quantique. Lors de mes études au Baccalauréat, j’étais particulièrement intrigué par cette nouvelle théorie et j’ai décidé d’aller consulter l’astrophysicien de notre département qui est également diplômé en mathématique, physique théorique et qui est l’enseignant de relativité générale du département. Or, lui aussi était très intrigué par cette théorie puisqu’il est très ouvert d’esprit et il a donc décidé de contacter M. Nottale et lui a même proposé une collaboration. Quelques mois plus tard, il a rencontré M. Nottale, mais il a été rapidement déçu de la rigueur de son travail, plusieurs hypothèses ne « tenaient pas la route » selon lui et il c’est rapidement rendu compte pourquoi M. Nottale avait une mauvaise réputation dans les Universités. Cela dit, je laisse le bénéfice du doute à M. Nottale n’étant pas en mesure d’évaluer son travail, mais le plus grand expert que je connaisse dans ce domaine ne crois pas du tout en ses travaux.
Or, il y a énormément de gens que l’on pourrait questionner qui sont payer par les Universités, alors qu’est-ce que ce serait si on en laissait davantage entrer pour avoir plus d’idée non conventionnelle. La science et la façon de la subventionner est très particulières sans compter que ceux qui vous accorde des subventions ne connaissent pratiquement rien de la science et de nos recherches et les recherches les mieux subventionnées ne sont pas la plus prometteuse, mais bien celle les mieux vendu à ceux qui nous finance. Certains chercheurs sont même passés maitres dans l’art de se faire subventionner et cela est du à leurs habilités sociales et de marketing.
J’espère que mon intervention pourra vous influencer et vous donner une nouvelle perspective sur le sujet puisque je trouve que les scientifiques sont souvent « varlopé » et critiqués pour des choses qui sont fausses…
Enfin, j’apprécie tout de même vous lire quand cela m’est possible, mais encore une fois je vous encourage à la prudence lorsque vous parlez de science… Soit dis en passant je discute aussi avec vous sur le blog du contrepoids (je ne sais pas si vous aviez fait le lien, mais il s’agit du même François quoi qu’avec mon adresse IP vous le saviez surement déjà)
Par curiosité, avait vous un billet sur les mesures « d’austérités » vs des politiques, dont l’état investi plus dans l’économie, j’aimerais vraiment avoir l’opinion d’un économiste sur le sujet, car je ne sais pas du tout quoi penser des politiques du gouvernement actuel. L’argument de rembourser la dette pour moi est toujours vendeur, puisqu’il me semble désolant de perdre autant d’argent pour payer les intérêts, mais est-ce que ses mesures ne pénalisent pas trop les travailleurs et ainsi réduise leur pouvoir d’achat ce qui doit forcément ralentir l’économie?
Sur ce, je vous souhaite une agréable semaine,
Cordialement
François
@François
Voici un article que j’ai écrit sur l’austérité:
https://minarchiste.wordpress.com/2014/01/23/les-mythes-relies-a-lausterite-europeenne/
Bonsoir,
SUPER!!! Merci grandement.
François
Très salutaires considérations du Minarchiste sur les méfaits des médecins doctrinaires, mais 1° concernant l’opération mutilante de HALSTED mise en question par W. Bezwoda, ce ne n’est sûrement d’une auto-transplantation de moelle épinière qu’il faut parler, mais de moelle osseuse 2° parmi les personnalités mégalomaniaques qui imposent des conceptions erronées et mortifères il conviendrait de citer Sigmund Freud 3° Le site-Web « Contrepoint » me semble avoir transplanté les pertinentes réflexions du Minarchiste sur son site, y compris ladite erreur.
@Pierre Crétien
Merci d’avoir déniché l’erreur.
On peut critiquer le distinguo sciences sociales / sciences exactes en rappelant l’inexistence d’un consensus sur une liste de conditions nécessaires et suffisantes permettant d’établir la scientificité d’une théorie : c’est un peu toute l’histoire de la philosophie des sciences depuis Popper.
Mais trier les faits à son avantage dans le but de conforter sa vision du monde (Biais de raisonnement bien connu), c’est prouver par les actes qu’on ignore la rationalité scientifique.
Perso, je pense que la dichotomie entre sciences sociales et sciences exactes à un sens. Les sciences sociales concernent l’étude de l’humain dans sa dimension social, l’étude des sociétés humaines, C’est l’étude de la réalité humaine dans sa dimension individuelle et dans sa dimension collective. Il existe de réelles différences entre les même même si bien entendu, parfois, la frontière est très floue. Par exemple, des biologistes qui étudient l’influence de la génétique sur les comportements humains. Ces biologistes étudient des sujets aussi étudiés par les sciences sociales mais du point de vue de la biologie.
Si le comportement humain est modelé par sa culture, son environnement,…il l’est aussi par la biologie (chose indéniable pourtant nier par certaines personnes des sciences sociales).
L’image qu’ont certaines personnes avec d’un côté les sciences exactes comme vraies sciences et de l’autre, sciences sociales comme « fausses » sciences ou sciences « moins scientifiques » est caricatural. On trouve dans les sciences exactes certains sujets où la littérature scientifique est mauvaise. Je pense au sujet de la nutrition où une majorité de la littérature scientifique peut être jeté en raison de sa médiocrité. (Un thread expliquant quelques problèmes se trouvant dans ces études: https://threadreaderapp.com/thread/1081229442872209408.html Il en existe d’autres). Ce que je veux dire c’est que tous les domaines des sciences exactes ne se valent pas en terme de viabilité. Certains sont très fiables. D’autres beaucoup moins.
Et même chose pour les sciences sociales. Personnellement, je n’accorde pas du tout la même crédibilité à l’histoire (qui est relativement sérieuse) qu’à la sociologie (beaucoup moins sérieuse. Beaucoup trop d’idéologie et beaucoup trop peu de « méthode scientifique » (il n’existe pas une méthode scientifique à proprement parler, chaque discipline a sa méthode scientifique. Le souci c’est qu’en sociologie, on peut lire des travaux qui n’ont rien de scientifiques. C’est juste l’opinion de sociologues).
Après, je pense qu’il y a un fond de vrai dans l’image que se font pas mal de gens comme quoi les sciences exactes sont plus sérieuses que les sciences sociales (même si comme je l’ai dit, il y a de grandes différences au sein des sciences exactes et des sciences sociales).
La difficulté des sciences sociales c’est que les sujets qui touchent à l’humain, sont bien plus sensibles politiquement. Ce sont des sujets bien plus susceptibles de convoquer les préconceptions idéologiques de ceux qui les étudient que les sciences « exactes ». Or, le fait que les sciences sociales soient extrêmement dominés par des gens de gauche (cela dépend des pays et des disciplines mais par exemple, on atteint les 90% en sociologie,…) est problématique car cela fausse les sciences sociales. (Toutes ne se valent pas. Pour l’histoire, il y a beaucoup moins de problèmes idéologiques mais ces problèmes sont très fort en sociologie). Qu’il soit clair, si la droite dominait à 90% les sciences sociales, cela serait tout aussi problématique. Ce qui est problématique c’est le manque de pluralisme idéologique. Sur le sujet un bon article: https://www.contrepoints.org/2018/10/19/327885-le-debat-scientifique-ne-peut-pas-se-passer-de-pluralisme-moral#fn-327885-9
Un exemple concret du problème du manque de pluralisme idéologique dans les sciences sociales:
Pendant longtemps, de nombreux spécialistes des sciences sociales ont été convaincus que les conservateurs étaient plus partiaux et avaient plus besoin d’explications que les progressifs. Toutefois, de récentes études ont remis en question cette hypothèse en montrant que la prédominance des progressifs dans les sciences sociales ont amener les sciences sociales à considérer injustement les conservateurs comme des étrangers et des anormaux, et les progressifs comme non biaisés et «normaux»
Le biais de publication est aussi idéologique: les psychologues sont moins susceptibles de publier des études n’allant pas dans le sens de leur idéologie même si il y a des preuves convaincantes sur le sujet ou inversement de publier des études avec peu de preuves convaincantes parce qu’elles vont dans leur sens https://twitter.com/SteveStuWill/status/956451626486607872
Attention avec Popper, les philosophes des sciences se sont largement détachés de sa pensée. Le falsificationnisme tel que concu par la grande majorité des scientifiques est rejeté par un peu près tous les philosophes des sciences. Une petite vidéo de l’un de ces anciens disciples sur quelques problèmes de base avec le critère de réfutation:
Il y a aussi cet article très intéressant: https://plato.stanford.edu/entries/pseudo-science/
L’un des nombreux problème avec le critère de falsifiabilité, c’est que dans la mesure où elle peut être définie logiquement, aucune théorie n’est falsifiable. Par exemple, prenez les 3 lois de Newton, qui constitue le coeur de la mécanique classique. Elles ne permettent de faire aucune prédiction sans de nombreuses hypothèses auxiliaires, donc en ce sens elles ne sont pas falsifiables. Mais si on y adjoint des hypothèses auxiliaires pour en tirer des prédictions, et que l’une de ces prédictions s’avère fausse, alors on ne peut pas dire que ce sont les lois de Newton qui ont été falsifiées, puisque du point de vue strictement logique on pourrait tout aussi bien incriminer les hypothèses auxiliaires. Et ce n’est qu’un des problèmes avec le falsificationnisme, il y en a beaucoup d’autres.
Une théorie scientifique pour être falsifiable a toujours besoin d’hypothèses auxiliaires. Or, si on arrive à la falsifié rien ne dit que ce n’est pas les hypothèses auxiliaires qui sont fausses. En pratique, les scientifique ne se comportent pas du tout comme Popper prétend qu’ils devraient et ils ont raison : quand une prédiction d’une de leurs théories qu’ils jugent solidement établie ou même juste prometteuse est falsifiée, ils ne ejettent pas la théorie et ils ont raison, car il est tout à fait possible que ce ne soit pas la théorie qui est en cause mais l’une des hypothèses auxiliaires, et souvent il est parfaitement rationnel de commencer par chercher ce qui aurait pu aller de travers avec les hypothèses auxiliaires plutôt que d’abandonner une théorie qui explique beaucoup de phénomènes.
La seule notion de falsifiabilité qui ait du sens est relative à un ensemble d’hypothèses d’arrière-plan et ça suffit à condamner son utilisation comme critère.
Dossier inquiétant dans La Presse, qui confirme mon opinion:
http://www.lapresse.ca/actualites/enquetes/201709/12/01-5132442-les-tricheurs-de-la-science.php
http://www.lapresse.ca/actualites/enquetes/201709/13/01-5132801-fraudes-scientifiques-des-secrets-universitaires-bien-gardes.php