Feeds:
Articles
Commentaires

Suisse9

Dans mon article de 2009 intitulé La Guerre et l’Inflation, j’expliquais qu’il y a 2 ingrédients essentiels pour qu’un pays devienne belligérant : 1) la présence d’un gros gouvernement central (puisque c’est le gouvernement central qui contrôle l’armée nationale) et 2) la possibilité de monétiser les dettes de guerre par la création de monnaie. J’ai d’ailleurs approfondi ce point dans mon article intitulé Les Grandes Guerres Collectivistes du 20e Siècle. Finalement, dans mon article Qu’est-ce qu’un pays?, j’expliquais qu’un pays dont la population est composée de plusieurs groupes ethniques est plus enclin à sombrer dans la guerre civile, en raison du caractère ethnocentrique inné de l’être humain. Plus le gouvernement central a de pouvoir, plus le risque de conflit interne est élevé, alors qu’un petit gouvernement décentralisé favorisera l’harmonie et la paix.

Il existe un pays qui démontre bien la véracité des idées susmentionnées : la Suisse!

Lire la suite »

20150314_BBP001_0L’argument socialiste typique est que la pauvreté persiste parce que les salaires sont trop bas simplement parce que les capitalistes veulent encore plus de profits. Les inégalités augmentent parce que les actionnaires en veulent toujours plus des travailleurs tout en payant moins…

Lire la suite »

Venezuela

En 2009, j’avais analysé en profondeur la situation socio-économique du Venezuela et son évolution sous le règne d’Hugo Chavez (parties 1, 2, 3 et 4). Voici ce que j’écrivais en conclusion :

 

Au cours de sa présidence, Chavez a utilisé les revenus provenant du pétrole, lesquels ont explosé grâce à la hausse fulgurante du prix du pétrole, pour aider les plus démunis. C’était une stratégie plutôt simple et efficace pour prendre le pouvoir puisque au début de son premier mandat, environ 50% de la population du pays était considérée comme pauvre (ce chiffre est descendu à 31.5% au début de 2008).

 

Advenant une baisse du prix du pétrole ou de la production, il aurait à couper drastiquement dans les dépenses, à défaut de quoi il mettrait le pays dans une situation financière encore plus précaire.

 

Selon moi, c’est la production de PDVSA qui sonnera le glas de Chavez. Avec toute son ingérence dans l’industrie pétrolière du pays, la production de pétrole est en chute libre. Le prix du pétrole continuera certes d’augmenter au cours des 10 prochaines années, mais à un rythme moindre qu’au cours des 10 dernières années. S’il fallait que la production baisse plus vite que le prix monte, les revenus de l’État chuteront et Chavez devra couper dans le filet social. Les conséquences seront fatales pour le chavismo…

 

Présentement, le Venezuela est clairement sur les traces de Cuba; i.e. que Chavez est en train d’amener le pays, peu à peu, vers une dictature socialiste militaire-totalitaire.

 

Aujourd’hui, plus de 5 ans après la publication de ces articles, il s’avère malheureusement que j’ai eu raison sur plusieurs points.

Lire la suite »

science

La science a été au cours de l’histoire une source incroyable de découvertes fascinantes et d’inventions stupéfiantes. Il arrive cependant que la science s’égare dans un labyrinthe où elle est déroutée par des considérations politiques, des égos trop imposants et des personnalités trop influentes. Quand on place quelques exemples de ces errances en perspective, on se rend compte qu’il est malsain de faire aveuglément confiance en la science et d’adopter les politiques qu’elle nous suggère sans poser de questions.

 

La physique…une science exacte?

En 1859, le mathématicien Urain Le Verrier avait décelé une anomalie dans l’orbite de Mercure, laquelle ne semblait pas obéir à la loi de la gravité de Newton. Que fit-il alors? Plutôt que de remettre en question la loi de Newton, il conclua qu’il devait exister une autre planète entre le soleil et Mercure, laquelle il nomma Vulcain. Ce n’est qu’en 1915, bien après la mort de Le Verrier, grâce à la théorie générale de la relativité d’Einstein, que l’on pu finalement conclure que Vulcain n’existait pas! Autrement dit, une connaissance « démontrée scientifiquement » a pu persister pendant plus d’un demi-siècle avant que l’on ne réussisse à l’invalider. On a préféré inventer une planète imaginaire plutôt que remettre Newton en question!

 

De nos jours, plusieurs observations du comportement de l’univers ne correspondent pas aux théories considérées comme « scientifiquement valides ». Par exemple, l’expansion de l’univers est en accélération. Quelle solution a-t-on adopté? On a supposé l’existence de la matière sombre et de l’énergie sombre, lesquelles n’ont jamais été observées. Est-ce que le consensus des astrophysiciens est en train de répéter la même erreur que Le Verrier?

universe_made_of

Tous les chercheurs qui travaillent présentement à tenter de prouver ces concepts gaspillent peut-être leur temps. Selon le chercheur Mordehai Milgrom, de l’Institut Weizmann en Israël, « les gens qui travaillent sur la matière sombre n’arrêteront pas par eux-mêmes, ils vont arrêter quand on arrêtera de les financer ». Évidemment, il faudra une personnalité solide pour ébranler la théorie d’Einstein. Mais est-ce que l’écosystème actuel de la science favorise l’émergence de cette théorie révolutionnaire? En fait, même la théorie du Big Bang est présentement sérieusement remise en question (voir ceci entre autres). Pour une excellente lecture sur le sujet, je vous recommande « Hidden in Plain Sight » 1 et 2, par Andrew Thomas.

Hidden in plain sight 2 Andrew Thomas

 

 

En 1946, le Dr Benjamin Spock écrivait dans son livre Baby and Child Care que selon lui, les nouveaux-nés devraient dormir sur le ventre. Cette affirmation non-vérifiée scientifiquement, mais qui faisait tout de même « consensus », a malheureusement causé des milliers de décès par la mort subite du nourrisson et ce pendant des décennies.

 

Au début du 20e siècle, la seule méthode connue pour éradiquer un cancer était la chirurgie. Celui qui est passé maître en la matière est un dénommé William Halsted, qui a mis en branle un processus d’augmentation extrême de l’ampleur de la chirurgie. Il avait observé que si le cancer revenait après la chirurgie, c’était généralement aux abords de l’endroit où il se situait au préalable. Son raisonnement fut donc qu’il fallait enlever encore et encore plus de chair pour s’assurer que le cancer ne revienne pas. Halsted a perfectionné sa technique concernant le cancer du sein jusqu’à en arriver à ce qu’il appelait la « mastectomie radicale », qui consistait à retirer le sein en entier, le muscle pectoral, les glandes lymphatiques, le cartilage et même les os environnant (côtes et clavicule). C’était une opération très morbide et déshumanisante.

 

Halsted n’avait pas compris que si le cancer revenait, c’est parce qu’il y avait des métastases qu’aucune chirurgie ne pouvait éradiquer. Aucune expérimentation valide n’avait pu confirmer que la chirurgie radicale était le traitement le plus efficace pour le cancer du sein car Halster choisissait bien ses patients, rejettant les cas plus complexes. L’influence d’Halsted suffisait à éradiquer toutes les critiques, à un point tel que les chercheurs qui ont tenté de tester des méthodes alternatives, comme la chimiothérapie, n’arrivaient pas à recruter des médecins et des patients. Ceci dit, dans les années 1920s, un médecin de Londres (où Halsted était moins influent) nommé Geoffrey Keynes avait publié des résultats démontrant qu’une combinaison de chirurgie locale légère et de chimiothérapie accomplissait le même résultat que la mastectomie radicale. Le chirurgien américain George Crile Jr avait corroboré les résultats obtenus par Keynes, mais il n’arriva pas à mettre sur pieds une étude pour le démontrer scientifiquement, faute de collaboration par les chirurgiens sous l’influence d’Halsted.

 

Ce n’est que beaucoup plus tard que l’oncologue Paul Carbone, du National Cancer Institute, arriva à démontrer que la chirurgie radicale n’était pas plus efficace qu’une chirurgie locale en combinaison avec la chimio. Entre 1891 et 1981, environ 500,000 femmes ont dû subir l’horrible procédure d’Halsted, voyant leur corps complètement déformé.

organ-preservation-in-kenyan-breast-cancer-patients-by-peter-bird-9-638

Dans les années 1970s, un pathologiste australien nommé Robin Warren écrivait ceci :

« Depuis la naissance de la bactériologie médicale il y a plus d’un siècle, on enseigne qu’aucune bactérie ne peut croître dans l’estomac (en raison de l’acidité trop élevée). Quand j’étais étudiant, c’était un ‘fait connu’, comme ‘tout le monde sait que la terre est plate’ ».

 

Cette boutade illustrait que Warren était sceptique à l’égard d’une ‘vérité’ considérée comme scientifiquement valide depuis plus d’un siècle. Warren croyait que des colonies de bactéries vivaient dans le halo bleuté entourant les ulcères d’estomac, mais il n’arrivait pas à les isoler in vitro. De son côté, le médecin Barry Marshall y arriva. Les deux hommes nommèrent cette bactérie Helicobacter pylori, en raison de sa forme (helico) et de son emplacement à l’embouchure de l’estomac (le latin pylorus signifie « gardien de la porte »). Une autre « certitude scientifique » venait de s’écrouler!

 

Fait intéressant, pour prouver que cette bactérie causait les gastrites, Marshall a lui-même ingéré un bouillon contaminé, ce qui résultat en une sévère gastrite. Il fut alors établit que cette bactérie causait les ulcères d’estomac (non, ce n’est pas le stress, comme on le croyait auparavant), qui eux-mêmes pouvaient mener au cancer.

 

En 1995, un chercheur Sud-Africain du nom de Werner Bezwoda présenta des résultats de recherche stupéfiant. Il avait réussi à démontrer que l’utilisation de la chimiothérapie à dose élevée (HDC) combinée avec une transplantation autologue de moelle épinière (ABMT) permettait d’obtenir de meilleurs résultats contre le cancer du sein métastasé. Des 45 patientes ayant reçu la combinaison HDC/ABMT, 23 ont atteint la rémission. Sur la base de ces résultats, environ 40,000 femmes partout dans le monde ont subi ce traitement. Il était impossible de compléter d’autres études cliniques puisque toutes les femmes voulaient le traitement plutôt que de possiblement être assigné au groupe de contrôle. Bezwoda avait atteint la célébrité et son article de 1995 a été cité plus de 350 fois en à peine plus de 5 ans.

 

Puis, en 1999, des chercheurs américains sont partis en Afrique du Sud pour vérifier l’étude menée par Bezwoda et la robustesse de ses résultats. C’est avec horreur qu’ils découvrirent que les résultats de Bezwoda avait été falsifiés. Il ne disposait que de 61 des 90 dossiers de patients. Seulement 27 des dossiers comportaient une évaluation d’éligibilité à l’étude, dont 18 n’auraient pas dû être éligibles. Seulement 25 patients ont reçu un traitement, donc 22 ont reçu le traitement expérimental. Aucun formulaire de consentement n’avait été signé et les patients n’avaient évidemment pas été assignés de manière aléatoire. L’article désormais célèbre du Journal of Clinical Oncology fut rétracté en avril 2001. Ce traitement n’est désormais plus utilisé.

 

Pour davantage de détails sur l’histoire fascinante du cancer et des traitements visant à l’éradiquer, je vous recommande fortement le superbe ouvrage de Siddhartha Mukherjee, The Emperor of All Maladies, A Biography of Cancer.

Cancer

 

Ceci dit, le cancer est loin d’être le seul sujet sur lequel la science s’est trompée. Considérez la répartition des papilles gustatives sur la langue. On a longtemps pensé que le salé pouvait être goûté sur les côtés à l’avant de la langue, alors que le sûr sur les côtés arrières, le sucré au centre-avant et l’amer au centre-arrière. Cette théorie date de 1901, alors qu’un scientifique Allemand nommé D.P. Hanig a publié les résultats de son expérience basée sur les « impressions » des participants quant à l’intensité des goûts. Cette théorie fut consolidée par Edwin Boring, de l’Université Harvard, en 1942. Ce n’est qu’en 1974 qu’une chercheure du nom de Virginia Collings a découvert qu’en fait, les quatre saveurs peuvent être perçues partout sur la langue. On sait maintenant aussi qu’il existe une cinquième saveur détectée par la langue, le « umami », et qu’il y en aurait peut-être une sixième pour le gras. Plusieurs ouvrages de référence continuent tout de même de véhiculer ce mythe de la « carte des saveurs »… (voir ceci)

tastemap

Les études pharmaceutiques

J’avais publié un article en 2013 sur le livre Bad Pharma de Ben Goldacre (ici) décrivant les abus scientifiques de l’industrie pharmaceutique. Il y a seulement la moitié des résultats d’essais cliniques qui sont publiés, et celles dont les résultats sont négatifs ont deux fois plus de chances de ne pas être publiées. Une étude a recensé des essais cliniques pour 12 médicaments produits par différents manufacturiers et a découvert que des 75 études faîtes sur ces 12 médicaments, seulement 51 ont été publiées dans la littérature académique. Des 75 non-publiées, le taux de résultats positifs était de 51%, alors que pour les 51 études publiées il était de 94%!

 

Souvent, les études cliniques mesurent l’impact d’un médicament sur une mesure auxiliaire (proxy). Par exemple, un médicament supposé réduire le risque d’attaques cardiaques pourrait être évalué par rapport à sa capacité à faire baisser la pression sanguine. Le problème est que parfois l’amélioration du proxy n’améliore pas l’objectif principal. C’est notamment le cas du doxazosin, qui est un médicament très dispendieux ayant remplacé le chlorthalidone une fois son brevet expiré. Le gouvernement a financé une étude qui a démontré que doxazosin faisait bien pire que chlorthalidone quant au risque d’attaque cardiaque (tellement que l’étude a dû être arrêtée prématurément car on nuisait trop aux patients). Pourtant, ce médicament continue d’être prescrit allègrement grâce au marketing efficace de Pfizer.

 

Souvent, le choix des patients participant à une étude permet d’obtenir un résultat plus favorable. En 2007, une étude a été faîte sur 179 véritables asthmatiques en vérifiant s’ils auraient été admissibles à des essais sur des médicaments contre l’asthme : seulement 5% à 6% d’entre eux auraient été acceptés pour ces essais cliniques par les pharmas! Donc les patients choisis pour ces essais ne sont pas représentatifs de la population visée par le traitement. Le choix des patients vise à faire mieux paraître l’efficacité du médicament. Aussi, une bonne façon de mettre en valeur un médicament dont l’efficacité est faible consiste à découper l’échantillon de patients en sous-groupes pour voir si, par chance, un des sous-groupes affiche de meilleurs résultats. Par exemple, un médicament pourrait n’avoir montré aucun bienfait pour l’ensemble de l’échantillon, mais avoir semblé montrer une certaine efficacité chez les asiatiques de 45 à 55 ans.

 

Les pharmas peuvent aussi jouer sur les doses pour faire valoir leur nouveau produit comparativement à un concurrent établi. Lorsque le brevet du médicament antipsychotique risperidone a expiré, les concurrents ont tenté de démontrer que leur nouvel antipsychotique était supérieur à risperidone pour s’accaparer une part de marché. Cependant, leurs essais utilisaient une dose de 8 mg de risperidone, ce qui est beaucoup trop élevé et susceptible de causer des effets secondaires, faisant bien paraître le médicament du concurrent.

 

Les biais de publication

Si on élargit le spectre à la science en général, et non seulement aux médicaments, les choses sont encore pires. Daniele Fanelli de l’Université d’Édinbourg a analysé 4,600 articles publiés dans des journaux scientifiques. Il a découvert que la proportion de résultats négatifs publiés a diminué de 30% en 1990 à seulement 14% en 2007. En revanche, le nombre de rétractions a été décuplé au cours des 10 dernières années, mais ne représente toujours que 0.2% des 1.4 millions d’articles scientifiques publiés dans des journaux scientifiques chaque année.

 

En 1998, l’éditrice du prestigieux British Medical Journal, Fiona Godlee, a envoyé un article contenant 8 erreurs délibérées concernant l’élaboration de l’étude, l’analyse des données et l’interprétation des résultats, à 200 scientifiques qui révisent les articles du BMJ avant publication. Aucun d’entre eux n’a identifié les 8 erreurs, alors qu’en moyenne ils n’en ont rapporté que 2.

 

Par ailleurs, bien moins de la moitié des études publiées dans les journaux scientifiques peuvent être répliquées avec succès (certains parlent même de moins du quart). Les résultats de ces études sont carrément invalides, mais demeurent toutefois dans le savoir collectif et influence le consensus scientifique sur une question donnée. On réalise donc que bien des chercheurs obtiennent un Ph.D et un lucratif titre de professeur, alors que leurs résultats n’ont pas été vérifiés. Ces chercheurs arrivent aussi parfois à influencer les politiques publiques…

 

Le graphique suivant est fort intéressant. Imaginez 1,000 hypothèses dont 100 sont véridiques. La puissance du test est de 80%, donc il produit 20 faux‑négatifs (en vert foncé), mais il produit aussi 45 faux-positifs. On se retrouve donc avec un test qui nous montre 125 hypothèses comme vérifiées, dont 45 sont de faux-positifs, soit 36%. Maintenant, considérez que des études ont démontré que les tests utilisées dans les articles publiés ont une puissance de 21% en moyenne! Dans notre exemple, si on abaisse la puissance de 80% à 40%, on obtient que plus de la moitié des résultats sont de faux –positifs… On constate donc que plus de la moitié des résultats positifs publiés dans les journaux scientifiques sont des faux-positifs. (voir ceci et ceci)

 

Econ_false positivies

 

Les erreurs statistiques commises par les médias dans l’interprétation de résultats scientifiques sont souvent immense, mais les articles publiés n’y échappent pas non plus. Prenons une erreur simple mais fréquente : la signification statistique des différences. Par exemple, vous découvrez que la substance XYZ a un effet de 30%, statistiquement différente de zéro. Vous concluez donc avoir découvert quelque chose d’intéressant. Par contre, le placebo démontre un effet de 15%, non-significatif. Le test qu’il faut alors effectuer avant de conclure quoi que ce soit est de tester si la différence entre le placebo et XYZ est significativement différente de zéro (il est probable dans cet exemple qu’elle ne le soit pas).

 

Une étude de Sander Nieuwenhuis a vérifié 157 articles publiés dans 5 prestigieux journaux scientifiques de neuroscience pendant 2 ans pour lesquels cette erreur aurait pu être commise. Ce fut le cas pour la moitié d’entre eux (voir ceci). C’est d’ailleurs cette erreur que commettent les réchauffistes quand ils affirment que 2014 a été l’année la plus chaude jamais enregistrée (nous le verrons plus loin)…

 

Les antioxydants

Dans son ouvrage « Bad Science », le scientifique Ben Goldacre démonte plusieurs mythes, dont celui des suppléments d’antioxydants. Manger des baies ou des carottes plutôt que des frites et du gâteau au chocolat sera certainement bon pour vous, mais n’allez pas croire que c’est parce que les antioxydants qu’elles contiennent viendront vous protéger des radicaux libres qui cause le cancer! Cette théorie ne fut qu’une fausse-bonne-idée.

 

En 1981, l’épidémiologiste Richard Peto a publié une étude dans Nature démontrant que les gens ayant un niveau élevé de bêta-carotène (un antioxidant) dans le sang diminuait le risque de cancer. Par la suite, en Finlande, une étude portant sur 30,000 personnes à risque pour le cancer du poumon a démontré que le groupe recevant des suppléments de bêta-carotène et de vitamine E a eu une incidence plus élevée de cancer que le placébo. Puis, l’étude CARET visait à administrer des suppléments de bêta-carotène et de Vitamine A à un groupe expérimental contre un placebo pour le groupe de contrôle à 18,000 personnes fumeuses ou exposées à l’amiante au travail pendant 6 ans. L’étude fut arrêtée avant la fin car le groupe expérimental comportait 46% plus de décès du cancer du poumon que le groupe de contrôle.

 

Il est vrai que les antioxydants jouent un rôle important dans la prévention du cancer en réagissant avec les radicaux libres susceptibles d’endommager les cellules. Mais ce que ces expériences ont démontré est que l’absorption anormalement élevée d’antioxydants par l’alimentation ne permet pas de prévenir le cancer. C’est ce qu’a récemment confirmé la méta-analyse de la Cochrane Collaboration : les suppléments d’antioxydants augmentent le risque de décès. Pourtant, une industrie entière est née de cette théorie invalidée par l’expérimentation, et elle n’est pas près d’être éradiquée.

 

L’effet placébo

L’effet placebo en lui-même est fascinant. Il existe de nombreux exemples de chirurgies pratiquées sans anesthésie, en utilisant l’effet placebo. On sait aussi suite à des expérimentations, que deux pilules de sucre font mieux qu’une seule pour guérir les ulcères d’estomac. Les pilules roses sont plus efficaces que les bleues. Pour contrer certains maux, une injection d’eau saline fait mieux qu’une pilule de sucre, car la méthode est plus « dramatique » et suggère donc une efficacité accrue. Plus le rituel de traitement est élaboré, plus le placébo sera efficace.

 

Par ailleurs, le placebo sera plus efficace si on dit au patient qu’il coûte $10 par pilule, que si on lui dit qu’il coûte $2.50. Certaines opérations bidon pratiquées aux genoux et pour soulager les angines fonctionnent aussi. Le chirurgien pratique une petite incision et fait semblant de faire quelque chose d’utile, alors qu’en réalité, rien n’est fait, mais le patient se sent mieux quand même par la suite! Les grosses machines qui ont l’air sophistiqué provoquent aussi l’effet placébo. Il existe aussi le phénomène du diagnostic-placébo. Si un docteur ne sait pas pourquoi son patient a mal et qu’il le lui dit, le patient se sentira mieux deux semaines plus tard dans 39% des cas, mais s’il lui dit (faussement) qu’il se sentira mieux d’ici quelques jours, le patient se sentira mieux dans 64% des cas après deux semaines.

 

Ceci dit, l’exemple le plus extrême d’effet placébo est une expérience menée par le Dr Stewart Wolf. Deux femmes souffraient de nausées et vomissements chroniques. Il leur mentionna avoir un traitement qui amélioreraient leur situation. Il leur administra du ipecac par tube gastrique et les deux patientes virent leur état s’améliorer. À noter : ipecac est un médicament servant à faire vomir!

 

Le problème avec l’effet placebo est qu’il permet aux vendeurs de thérapies bidon de faire croire que leurs produits fonctionnent vraiment, comme par exemple les produits homéopathiques. L’inventeur de l’homéopathie est un Allemand nommé Samuel Hahnemann. Sa théorie était que si on pouvait trouver une substance qui engendre des symptômes similaires à une maladie, cette substance pourrait guérir cette maladie. Par exemple, il jugea qu’après avoir ingéré une grosse dose de cinchona bark, il ressentait des symptômes qu’il croyait ressembler à la malaria. Le deuxième volet de la théorie qui est encore aujourd’hui au coeur de l’homéopathie est qu’en diluant cette substance, ses effets seront décuplés. Pour accomplir la dilution parfaite il faut frapper la fiole de verre contenant ladite substance sur une surface dure, mais élastique (comme une planche de bois recouverte d’un coussin de cuir rembourrés de poils de chevaux).

 

La dilution typique des produits homéopathiques est de 30C, ce qui signifie que le produit final ne contient qu’une partie par 10^60 (1 suivi de 60 zéros). Imaginez une sphère d’eau dont le diamètre est la distance entre la terre et le soleil contenant une particule : c’est ça une partie par 10^60! Tout ce qu’il reste est essentiellement une petite pilule de sucre. Certains diront que l’homéopathie fonctionne car ils se sont sentis mieux après un tel traitement. En fait, les deux explications à ce résultats sont l’effet placebo (que les homéopathes exploitent magistralement) et le retour à la moyenne (le moment où vous aboutirez chez l’homéopathe est possiblement celui où votre mal sera à son apogée, et ne pourra que diminuer par la suite).

 

Aucune étude méthodologiquement viable n’a pu démontrer l’efficacité de l’homéopathie comparé à un placebo (voir la méta-analyse Shang et al dans The Lancet). Et notez que l’acuponcture entre dans cette catégorie. Pourtant cette industrie continue de perdurer…

 

Les médias et le MMR

Les médias peuvent aussi causer d’énormes dérapages scientifiques. Ce fut dramatiquement le cas en ce qui concerne le vaccin MMR (contre la rougeole, les oreillons et la rubéole).

 

En 1998, un groupe de chercheurs menés par le chirurgien britannique Andrew Wakefield a publié un article dans The Lancet, lequel décrivait une étude menée sur 12 enfants qui avait des problèmes intestinaux et comportementaux (souffrant surtout d’autisme). Il mentionnait que les parents de 8 des 12 enfants avaient noté que les symptômes avaient débuté quelques jours après l’injection du vaccin MMR. Wakefield participa ensuite à une conférence de presse au Royal Free Hospital recommandant de réduire les doses de MMR. Il n’en fallait pas moins pour que les médias s’emballent, encouragés par les militants anti-vaccins.

 

Quelques années plus tard, il fut découvert que Wakefield avait reçu des pot-de-vins de $800,000 de la part d’avocats pour publier son article. Ces avocats prévoyait utiliser l’étude trafiquée pour poursuivre les fabricants du vaccin en recours collectif. L’étude fut par la suite retirée par le prestigieux journal The Lancet. En 2010, Wakefield fut rayé du registre des médecins, lui retirant son droit de pratiquer la médecine en Angleterre.

 

Pendant 9 ans les journaux britanniques ont été placardés d’articles sur les dangers du MMR. Au sommet de la crise, en 2002, environ 10% de tous les articles portant sur la science dans les journaux britanniques concernait le MMR! Et ces articles sortaient souvent de la plume de généralistes n’ayant pas les connaissances requises pour analyser des questions scientifiques et recherchant par-dessus tout le sensationnalisme. La journaliste Lorraine Fraser a rédigé une douzaine d’articles en 2002 supportant la thèse de Wakefield et a par la suite reçu le British Press Awards Health Writer of the Year! En fait, les médias publiaient systématiquement d’effrayants articles concernant des études souvent peu fiables, souvent non-publiées et souvent menées par des collaborateurs du Dr Wakefield, tout en ignorant les études subséquentes, beaucoup plus robustes, démontrant que le MMR était inoffensif.

 

Des centaines d’études montrent que le MMR est sécuritaire, incluant une méta-analyse de la Cochrane Collaboration publiée en 2005. Pour n’en nommer qu’une seule, une étude faîtes au Danemark portant sur 440,655 enfants vaccinés et 96,648 non-vaccinés n’a trouvé aucune différence entre les deux groupes concernant l’incidence d’autisme.

 

Néanmoins, le taux de vaccination pour le MMR a chuté de 92% en 1996 à 73% en 2012. Évidemment, l’incidence de ces maladies du passé s’est mise à augmenter significativement, et pas juste en Angleterre. En 2009, un garçon de 11 ans s’est rendu en Angleterre et y a attrapé les oreillons. À son retour, ce garçon a participé à un camp d’été pour juifs hassidiques, où il a déclenché une sévère épidémie qui 6 mois plus tard avait infecté 179 enfants. Plusieurs ont connu de graves complications (pancréatite, méningite, surdité, paralysie faciale, inflammation des ovaires) et ont dû être hospitalisés. Cette épidémie aura au final infecté environ 3,500 enfants, dont 97% faisaient partie de la communauté juive. (détails et ici)

(voir ceci pour mon article complet sur les vaccins.)

CBR544

 

 Les gaffes découlant du principe de précaution.

Le principe de précaution implique que l’on doive interdire un produit ou une activité tant que nous n’avons pas la certitude que ce produit ou cette activité est sans risque. Comme je l’expliquais dans mon article sur le livre Risk de Dan Gardner, le principe de précaution découle d’un aversion au risque irrationnelle et peut avoir des conséquences inattendues très négatives. Une étude menée par les psychologues Michael Siegrist et George Cvetkovich a démontré que les gens accordent généralement plus de crédibilité aux études scientifiques qui démontrent un danger ou un risque, qu’à celles qui démontrent qu’il n’y en a pas (voir ceci). C’est pourquoi les activistes environnementaux, avec la complicité des médias, peuvent souvent monter des histoires en épingle au point d’amener les gouvernements à légiférer.

Il y a quelques temps, l’émission La Facture, diffusée à Radio-Canada, faisait état d’un produit qui cause présentement de graves problèmes dermatologiques chez certaines personnes qui y sont allergiques. Le méthylisothiazolinone, un agent de conservation utilisé dans les cosmétiques, peut causer de graves brûlures, qui peuvent mettre jusqu’à 6 mois à guérir, voire même ne jamais s’estomper. Santé Canada l’autorise, mais révise présentement sa position.

Parabens2

 

Pourquoi les fabricants utilisent-ils un tel produit? Auparavant, on utilisait les parabens comme agent de conservation. Cependant, certains chercheurs ont émis des théories voulant qu’il s’agissait de perturbateurs endocriniens pouvant causer le cancer du sein. Il n’en fallu pas moins pour que les écolos s’en mêle et catégorisent les parabens comme une substance à éviter par « principe de précaution ». La Fondation David Suzuki les a même ajouté à leur liste « Dirty Dozen » de produits chimiques à éviter.

Devant une telle opposition, les fabricants de cosmétiques se sont empressé de trouver une alternative, et ce même si il n’y a aucune restriction concernant les parabens en Amérique du Nord. C’est comme cela que le méthylisothiazolinone a été introduit sur le marché comme remplacement des parabens. Les fabricants de cosmétiques sont maintenant fiers de mentionner sur leurs étiquettes que leurs produits ne contiennent pas de parabens.

Pourtant, aucune étude scientifique solide n’a pu démontrer de lien entre les parabens et le cancer. Une méta-analyse de 2005 a conclu que :

« it is biologically implausible that parabens could increase the risk of any estrogen-mediated endpoint, including effects on the male reproductive tract or breast cancer » and that « worst-case daily exposure to parabens would present substantially less risk relative to exposure to naturally occurring endocrine active chemicals in the diet such as the phytoestrogen daidzein. »

L’American Cancer Society quant à elle concluait qu’il n’y avait pas suffisamment de preuves scientifiques pour supporter la théorie voulant que les parabens ajoutés aux cosmétiques causent le cancer du sein.

Le Docteur Denis Sasseville, dermatologue de renommée mondiale au Centre Universitaire de Santé McGill, s’insurge contre le délaissement des parabens comme agent de conservation sous l’égide du principe de précaution. Voici ce qu’il déclarait à La Facture:

« Ils se sont fourré le doigt dans l’oeil jusqu’au coude. On a affaire maintenant à une épidémie qui est totale et à la grandeur du monde. Les parabens sont des agents de conservation qui sont probablement parmi les plus sécuritaires sur le marché à l’heure actuelle. Quand je vois un produit qui s’affiche ‘sans parabens’, ce n’est pas un produit que j’aurais envie d’acheter. C’est plutôt le contraire, je vais plutôt prendre un produit qui contient des parabens plutôt qu’un produit qui contient du méthylisothiazolinone. 

La communauté scientifique est d’accord pour dire que les parabens sont des agents qui sont assez anodins, mais malheureusement à cause de ces travaux-là qui ont montré des activités oestrogéniques et un lien potentiel, mais non-prouvé avec le cancer, les médias sociaux se sont emparés de ces nouvelles-là et les ont monté en épingle de sorte qu’ils ont réussi à convaincre les non-scientifiques de la nocivité de ces produits-là (les parabens). »

Parabens1

Les parabens ne sont pas les premières substances utiles à succomber au principe de précaution. Les vernis renfermant du bisphénol A (BPA) recouvrant de nombreux contenants alimentaires sont indispensables pour nous protéger contre des intoxications alimentaires, liées à des bactéries comme l’E. Coli ou le botulisme, une maladie paralytique grave pouvant causer la mort.

Les résines à base de BPA se sont imposées comme la solution optimale par rapport aux autres types de résines face à ces risques sanitaires, grâce notamment à ses qualités uniques. Elles résistent notamment bien à la corrosion, augmentant ainsi la durée de vie des aliments conservés. Elles peuvent aussi être utilisées pour tous les types d’aliments et elles n’altèrent pas le goût des aliments.

Même si Santé Canada a récemment confirmé l’innocuité des BPA, le produit est tout de même interdit dans les biberons pour bébé au Canada. La France a cependant banni les BPA tout azimuts le 1er janvier 2014. Ces interdictions nous force à utiliser des produits dont la sécurité est moins bien établie et potentiellement inférieurs dans leur capacité à conserver les aliments, et ce même si les preuves scientifiques les soutenant sont quasi-inexistantes (voir ceci).

Recent Studies State Chemical In Plastic Liquid Containers Contain Tox

En janvier 1991, une épidémie de choléra éclata au nord de Lima, au Pérou. Les autorités locales avaient décidé de chlorer l’eau par crainte que le chlore ne cause le cancer. À l’époque, Greenpeace considérait le chlore comme non-sécuritaire pour la santé. L’organisme militait à l’époque pour que ce produit, pourtant essentiel dans la nature, soit banni. Joe Thornton, de Greenpeace, déclarait :

« There are no uses of chlorine which we regard as safe. People should be considered innocent until proven guilty; chemicals should not. »

Cette crainte était basée sur des études de l’EPA publiées dans les années 1980s montrant un risque hypothétique de cancer concernant un sous-produit du chlore, les trihalométhanes. Ces études consistaient à octroyer des doses extrêmes de chlore à des rats, ce qui n’est pas réaliste. On parle de doses de 70 à 275 ppm, alors que le seuil maximal permis par l’EPA dans l’eau potable était de 1.5 ppm. Seules les femelles avaient démontré un résultat positif, pas les mâles. Pourtant, l’Agence Internationale de Recherche sur le Cancer concluait que les études épidémiologiques reliant le cancer à consommation d’eau chlorée étaient inadéquates.

À la fin de 1993, l’OMS estimait le nombre de morts de cette épidémie de choléra à 10,000 et le nombre de cas à près d’un million. Merci Greenpeace et votre principe de précaution! (source)

Greenpeace

Le gras saturé et les maladies cardiaques.

Dans ma série d’articles sur le livre « The Big Fat Surprise » (ici, ici et ici), j’ai expliqué à quel point l’influence démesurée du nutritionniste Ancel Keys avait envoyé la communauté scientifiques sur une mauvaise tangente en ce qui concerne le gras saturé. En plus d’Ancel Keys, l’autre figure influente du milieu fut certainement Paul Dudley White, le médecin personnel du Président Eisenhower, qui eut une attaque cardiaque fort publicisée en 1955. White était un grand supporteur des idées de Keys et ne manqua pas de les répandre au gré des conférences de presse et des interviews. Il y avait aussi le nutritionniste Jean Mayer et sa chronique régulière dans le New York Times, qu’il utilisa pour vanter la diète faible en gras saturé.

Cette influence a fait en sorte de biaiser les études scientifiques sur la question. Appuyés sur quatre études dont la robustesse est pour le moins douteuse (Anti-Coronary Club, Los Angeles Veterans Center, Hôpitaux Psychiatriques de Finlande, Expérience d’Oslo), les autorités gouvernementales ont alors fait des recommandations nutritionnelles plutôt questionnables.

En 1961, l’American Heart Association (AHA) a été la première agence nationale à officiellement recommander une diète faible en gras saturé pour réduire le risque de maladies cardiaques (ici). Ces recommandations ont propulsé la consommation d’huiles végétales et, par le fait même, l’émergence du gras trans. Une fois que les théories contre le gras et le cholestérol eurent été adoptées par les institutions gouvernementales, elles devinrent intouchables, peu importe quel expert ou quelle étude amenait une preuve scientifique que ces idées sont erronées.

Tous les scientifiques ayant tenté de faire des recherches et de publier des études contredisant le consensus établi ont vu leur financement être coupé, les journaux scientifiques les bouder, leur université les renvoyer, les conférences ne pas les inviter à présenter et leurs collègues les rejeter, voire même les insulter publiquement. Ce climat malsain a eu comme résultat de faire miroiter une sorte de consensus quasi-unanime contre le gras saturé, alors que cela n’a jamais été le cas.

En nutrition (et bien d’autres domaines…), la méthode scientifique a été inversée: au lieu d’émettre une hypothèse et de tenter de l’invalider par l’expérimentation, on a tenté de trouver des données qui corroborent l’hypothèse souhaitée. Pourtant, plusieurs méta-analyses publiées en 2010 et 2014 notamment (ici et ici) concluaient qu’une diète élevée en acides gras polyinsaturés et faible en gras saturé ne permettait pas de réduire l’incidence des maladies cardiaques. Heureusement, il semble que les choses soient présentement en train de changer…(voir ceci par exemple).

L’évolution humaine

Selon le paléontologue et biologiste américain Stephen Jay Gould, il n’y aurait eu aucun changement biologique évolutif chez l’humain au cours des 40,000 à 50,000 dernières années. Autrement dit, toutes les races humaines actuelles sont biologiquement équivalentes. Voici la citation exacte :

 

“there’s been no biological change in humans in 40,000 or 50,000 years. Everything we call culture and civilization we’ve built with the same body and brain.”

 

Malheureusement, cette affirmation est davantage politique que scientifique. Les preuves scientifiques démontrant le contraire sont de plus en plus nombreuses. Elles sont cependant ignorées par plusieurs, ne serait-ce que pour rester dans le « politiquement correct » et éviter les accusations de racisme. Pourtant, ces connaissances constituent un savoir crucial à propos de la nature humaine et ne devraient pas être balayées sous le tapis. C’est ce que plaide le livre de Gregory Cochran et Henry Harpending The 10,000 Year Explosion (voir ceci).

L’humain a évolué à partir du singe durant des millions d’années, mais le rythme de cette évolution s’est grandement accéléré au cours des quelques dernières centaines de milliers d’années. L’évolution significative de notre espèce depuis la venue de l’agriculture a été une « explosion de 10,000 ans ». L’évolution humaine n’a pas cessé quand les humains modernes sont apparus, ni quand ils ont quitté l’Afrique, ni suite à ce qu’ils aient copulé avec des Néanderthaliens au paléolithique, dont les gènes bénéfiques sont encore présents chez la plupart d’entre nous.

Les changements génétiques comme la tolérance au lactose ont découlé de mutations fructueuses et de changements culturels (comme le développement de l’agriculture) et ont, à leur tour, engendré des changements génétiques et culturels comme l’expansion des langages Indo-Européens (parlés par les deux tiers des habitants de la planète de nos jours), la composition ethnique de l’Amérique et de l’Afrique et l’épanouissement des Juifs Ashkénazes.

Il serait grand temps que les chercheurs en sciences humaines laissent certains dogmes de côté tels que le statu quo évolutionnaire et l’unité psychique, de manière à ce que l’avancement de la connaissance de l’humain puisse continuer de progresser.

Le réchauffement climatique

Peut-on comparer les climato-sceptiques d’aujourd’hui à ceux qui défendaient que le tabagisme ne causait pas le cancer du poumon dans les années 1950s? À l’époque, un dénommé Austin Bradford Hill, qui a joué un rôle clé dans la découverte que le tabagisme cause le cancer, a établi une liste de 9 critères qui permettent d’évaluer s’il existe une relation de cause-à-effet entre deux choses (ici).

 

1. Force (une relation plus forte renforce la causalité).

– L’incidence de cancer était de 5 à 10 fois plus élevée chez les fumeurs.

– La force de la relation entre le CO2 et son impact sur le climat (tel que modélisé par les scientifiques) semble faible.

2. Constance (une relation observées sur des échantillons différents sera plus solide)

– Le lien entre cigarette et cancer était valide pour différentes populations et dans différents contextes.

– Le réchauffement climatique semble inégal et variable, par exemple si on considère différentes régions du globe, différents océans, différents pôles, etc.

3. Spécificité (une relation spécifique n’est pas influencée par beaucoup d’autres facteurs que les deux variables étudiées).

– Le cancer du poumon survient à un endroit où la fumée entre en contact avec l’intérieur du corps.

– Le lien entre climat et CO2 n’est pas spécifique car une très grandes quantité de variables influencent le climat (comme l’activité solaire et volcanique) et ces variables sont elles-mêmes volatiles, les rendant difficiles à modéliser.

4. Temporalité (l’effet survient après la cause, dans un délai plausible).

– Plus une personne fume pendant longtemps, plus son risque de cancer sera élevé.

– L’augmentation du CO2 ne semble pas nécessairement mener à l’augmentation subséquente du réchauffement.

5. Gradient (une plus grande exposition mène à un effet plus grand)

– Plus une personne fume de cigarettes par jour ou par semaine, plus son incidence de cancer sera élevée.

– On observe que pour certaines périodes, une augmentation du CO2 dans l’atmosphère ne cause pas d’accélération du réchauffement.

6. Plausibilité (un mécanisme permet d’expliquer la nature de la relation de cause-à-effet).

– L’inhalation d’une substance carcinogène semble une cause plausible de l’apparition d’un cancer, en endommageant les cellules et en les amenant à se reproduire de manière incontrôlée.

– Il est plausible que le CO2 émis par les humains augmente l’effet de serre, faisant réchauffer le climat davantage. Il est aussi plausible que le réchauffement engendre une hausse du niveau des océans et une augmentation du nombre de catastrophes naturelles.

7. Cohérence (est-ce que la relation est cohérente avec d’autre faits scientifiquement établis).

– La relation entre cigarette n’était incohérente avec aucune connaissance scientifique établie, mais contredisait l’hypothèse voulant que le cancer était causé par des virus ou qu’il était d’origine génétiques (en quelque sorte, ces trois hypothèses sont véridiques).

– Je ne suis pas au courant d’une quelconque théorie scientifiques établie qui aurait été invalidée par les modèles du GIEC.

8. Expérimentation (est-ce que l’expérimentation valide la relation).

– Des études épidémiologiques et des expériences sur des souris corroboraient l’hypothèse.

– Aucune expérimentation viable ne peut démontrer que le CO2 humain est responsable du réchauffement climatique.

9. Analogie (est-ce que l’effet est observé dans des situations analogues).

– La cigarette était aussi associée au cancer des lèvres, de la gorge, de la langue et de l’eosophage.

– L’effet de serre est un phénomène connu dans des situations analogues.

 

Il ne faut pas que tous les 9 critères soient respectés pour que la relation de cause-à-effet soient considérée valide. Il faut juste un nombre suffisamment grand, ce qui est passablement arbitraire.

 

Néanmoins, quand on observe l’exactitude des prévisions faîtes par les scientifiques impliqués dans le GIEC, on peut douter sérieusement de la relation cause/effet qu’ils tentent de nous démontrer. On tente de nous faire croire que l’on a correctement modélisé le climat, mais il semble que le calibrage de ces modèles soit nettement déficient et surestime grandement l’impact du CO2. On constate aussi que la qualité des données utilisées est questionnable.

 

L’échantillon de température le plus cité est le Goddard Institute for Space Studies de la Nasa (le GISS). Un dénommé Paul Homewood s’est intéressé à un sous-échantillon démontrant l’une des plus grandes augmentations de température au monde, une région située entre le Brésil et le Paraguay. Entre 1950 et 2014, les trois stations étudiées ont montré une augmentation de 1.5C selon les données « ajustées », soit nettement plus que la moyenne globale. Cependant, quand Homewood a obtenu l’échantillon brut, il réalisa que les températures avaient plutôt diminué de 1C.

 

La NASA n’offre aucune explication plausible pour cet « ajustement » à la hausse. Ces stations sont en milieu rural, donc le « urban island effect » ne peut se manifester, et cet effet résulte normalement en un ajustement à la baisse, pas à la hausse. Les stations n’ont pas été déplacées et la méthodologie de collecte des données n’a pas changé (par exemple le matin plutôt que l’après-midi). Et cet exemple est loin d’être isolé… (Pour plus de détails, ici, ici et ici)

 

20150201_weather

 

Ce que montrent les graphiques ci-haut, c’est Vulcain, l’énergie noire, la mastectomie radicale d’Halsted, la transplantation de moelle épinière de Bezwoda, c’est la carte linguale de Hanig/Boring, le doxazosin, les antioxydants, la théorie voulant que le MMR cause l’autisme, la croyance voulant que le gras saturé soit un poison à éviter, les théories du statu quo évolutionnaire et de l’unité psychique.

 

On nous dit aussi que 2014 serait l’année la plus chaude jamais enregistrée. Vraiment? Ce qu’on ne dit pas est que, selon les données de la NASA, le record n’a été battu que de 0.04C, ce qui n’est pas une différence statistiquement significative par rapport aux précédentes années chaudes. Le graphique ci-bas présente les températures avec la marge d’erreur. On constate que 2014 pourrait très bien avoir été plus froide que 2010, 2005 ou 1998. On constate par ailleurs, que les données satellitaires montrent qu’il n’y a toujours pas de réchauffement anormal à signaler depuis 18 ans et 3 mois (219 mois), et que l’écart avec les prévisions des modèles du GIEC continuent de s’accentuer. (voir ceci)

giss_2014_error_bars

 

clip_image002

clip_image004

 

Malheureusement, comme le dit si bien Pierre-Guy Veer: « le débat scientifique est monopolisé par des pseudo-scientifiques politisés : un bachelier en politique et en théologie, un politicien dont le film a été débusqué, un zoologiste qui n’est pas foutu de savoir de quoi il parle, un écofasciste sans compétences apparentes en science qui minimise les dons qu’il reçoit de « grosses compagnies » et un bédéiste australien qui a créé le consensus de 97% de toutes pièces – plusieurs scientifiques ont dénoncé sa malhonnêteté. »

 

Pour constater à quel point les scientifiques peuvent se tromper en ce qui concerne la climatologie, vous n’avez qu’à consulter la section « Une Autre Erreur des Réchauffistes » sur le site Antagoniste.net (ici), vous y trouverez des choses vraiment incroyables!

 

Conclusion

Mon argument ici n’est pas dire que parce que la science s’est trompée sur certaines choses dans le passé, qu’elle se trompe forcément sur le climat ou autre. Mon point est plutôt que parce que la science s’est souvent trompée dans le passé, il faut être exigeant envers elle lorsqu’elle nous présente quelque chose comme étant une vérité démontrée.

Entretenir des doutes face au consensus scientifique est loin d’être une attitude réactionnaire ou obscurantiste. Au contraire, c’est une attitude saine à avoir, car c’est par la contestation et le renversement du consensus établi que la science a progressé au cours de l’histoire. Comme le dit Siddhartha Mukherjee dans son livre sur le cancer:

« When truly radical discoveries appear, their impact is often not incremental but cataclysmic and paradigm-shifting. Technology dissolves its own past. »

Par ailleurs, cela implique qu’il ne faille pas accepter le consensus scientifique comme une vérité absolue. Car la science est loin d’être parfaite. Elle est menée par des humains faillibles et corruptibles, ainsi que par des carriéristes dont l’influence peut être écrasante. Ces humains oeuvrent souvent au sein d’institutions hyper-politisées au sein desquelles la vérité n’est pas toujours bonne à dire et où la critique est rarement bienvenue. Ajoutons à cela le sensationnalisme médiatique et le corporatisme et nous avons tous les ingrédients pour que la science fasse souvent fausse route et s’égare dans un nuage d’éther…

 

 

Demandez aux gens quelle est selon eux la cause principale de la crise financière de 2008 et la plupart (surtout les gauchistes) vous répondront que c’est la dérèglementation des institutions financière qui a mené à une faille du marché.

 

Quand vous leur demandez ensuite quelle règlementation au juste est en cause, ils vous répondent alors bêtement que c’est l’abolition du Glass-Steagall Act en 1999, qui permettait aux banques de combiner leurs activités de marché des capitaux avec leurs activités bancaires au détail. La théorie veut que cette abolition permettait aux banques d’utiliser des dépôts bancaires de particulier pour spéculer sur les marchés financiers.

 

Pourtant, l’examen des faits montre que c’est de la foutaise!

Lire la suite »

20454074

The Marshmallow Test: Mastering Self-Control, par Walter Mischel.

Walter Mischel est un chercheur en psychologie de la Columbia University qui a été, depuis les années 1960s, un pionnier dans la recherche sur l’habileté à retarder la satisfaction et la maîtrise de soi. Sa plus grande contribution scientifique fut sans aucun doute l’expérience de la guimauve qu’il débuta à Stanford entre 1968 et 1974 et qu’il décrit dans un livre récemment publié. L’idée principale du livre est que la maîtrise de soi est une habileté cognitive qui peut être acquise au cours de la vie, elle n’est pas entièrement innée.

Lire la suite »

clap-cinema-emballage_g

J’aime bien le cinéma, mais Hollywood propose bien peu de films vraiment intéressants. L’horaire de Super Écran est bourré de films d’agents secrets irréalistes, de tueurs en série insolites (comme s’il y en avait autant), de vampires plus ou moins romantiques, de science-fiction au scénario troué, de comédies stupides, de films de sport où un « sous-estimé » surmonte les difficultés pour remporter le championnat à la fin, etc. Les films américains font l’apogée du policier héroïque qui tire plus vite que son ombre et du soldat patriote qui sacrifie sa vie pour son pays en mission solitaire suicide. Et il y a le fameux Président des États-Unis, cet être moralement supérieur qu’il faut sauver à tout prix. En bref, les clichés sont si nombreux que je pourrais en remplir ce billet.

Le genre que je trouve passablement intéressant est le film basé sur des faits historiques car en plus de nous divertir, ces films peuvent nous instruire. Cependant, on constate que les producteurs prennent de très grandes libertés, à un point tel que ces films n’ont souvent plus rien à voir avec l’histoire réelle.

Lire la suite »

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 149 autres abonnés