Les Sceptiques du Québec

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierAssociations Libres

Huile de cannabis, vitamine B17 et cancer – The Logic of Science

Par : Maeelk

Il semble que pas une semaine ne se passe sans qu’un nouvel article clamant qu’un nouveau remède simple au cancer a été découvert. De la même façon, les médias sociaux sont emplis d’images comme celle-ci disant que l’huile de cannabis, la vitamine B17 et une tripotée d’autres choses peuvent tuer des cellules cancéreuses.

Cependant, plus souvent qu’à leur tour, ces affirmations sont extrêmement trompeuses puisque les études auxquelles elles font référence sont généralement des études in vitro (c’est à dire des études conduites sur des cellules cultivées dans une boîte de Pétri) ou au mieux sur des animaux et ces deux designs d’études sont très limités.

Cet article est une traduction de  : If cannabis and vitamin B17 kill cancer, why aren’t they approved by the FDA? Let me explain | The Logic of Science

Comme je vais vous l’expliquer dans cet article, tuer des cellules dans une boîte de Pétri et tuer sans risque des cellules cancéreuses dans un corps humain sont deux choses immensément différentes. En fait, de nombreuses molécules semblent prometteuses lors des tests en laboratoire mais s’avère finalement inefficaces, voire dangereuses, lors des essais chez les humains.

Donc, vous devriez être extrêmement sceptiques en ce qui concerne les gros titres des journaux, et vous montrer très prudent lorsqu’il s’agira de conclure quoi que ce soit (par exemple, en affirmant qu’il s’agit d’une vaste conspiration orchestrée par le gouvernement et l’industrie pharmaceutique).

Il y a de nombreuses formes de cancer

La première chose à réaliser à propos de toutes les affirmations concernant « un remède contre le cancer » est que ce dernier n’est pas une seule maladie. Il n’y a pas un seul type de cancer. Au lieu de cela, il en existe des multitudes, chacun se comportant différemment.

Donc, même si vous arriviez à démontrer que quelque chose est efficace pour soigner un type de cancer, vous n’auriez absolument pas démontré qu’il l’est pour tous les autres.

C’est particulièrement important à comprendre en ce qui concerne les essais in vitro, parcequ’ils sont forcément limités par leur utilisation de lignées cellulaires (une population de clones de cellules qu’on maintient en laboratoire). Pour en commencer une, les chercheurs choisissent une seule cellule (par exemple, une cellule cancéreuse) et la font pousser en laboratoire, en la faisant se multiplier de très nombreuses fois.. C’est très utile car les duplicatas de la cellule sont des copies exactes (à l’exception des mutations).

Ainsi les scientifiques peuvent complètement éliminer les facteurs de confusion et deux personnes différentes dans deux laboratoires différents pourront conduire des recherches similaires en utilisant la même lignée.

Néanmoins, malgré les bénéfices évidents des lignées cellulaires, elles sont aussi problématiques puisqu’elle limitent la portée des conclusions. Imaginez, par exemple, que des chercheurs découvrent que le produit X tue les cellules Y au laboratoire. Tout ce que cela veut dire c’est que X tue cette lignée particulière de cellules Y. Cela pourrait parfaitement ne pas être le cas avec d’autres types de cellules, ou de cancers.

Donc, quand vous entendez qu’une nouvelle étude a découvert qu’un produit tue des cellules cancéreuses particulières, il faut garder cela à l’esprit : l’étude a peut-être parfaitement raison, ais cela ne veut pas du tout dire que ses résultats sont applicables ailleurs que chez cette lignée cellulaire particulière.

Tuer des cellules dans une boîte de Pétri et dans un corps humains sont deux choses différentes.

Le point important suivant est qu’il y a un monde de différence entre tuer des cellules cancéreuses de manière efficace dans une boîte de Pétri et tuer des cellules cancéreuses de manière efficace dans un corps humain.

Dans un laboratoire, vous pouvez injecter une énorme dose d’un produit directement au contact des cellules, alors que chez un humain vous devez soit l’injecter, soit l’ingérer ce qui va instantanément le diluer.

Pire encore : le foie et les reins vont vraisemblablement essayer d’éliminer le produit en question (en le filtrant notamment) et il est parfaitement envisageable qu’en plus il interagisse avec l’un ou l’autre des milliers de composés chimiques présent dans le corps.

Rappelez-vous que tout ce qui vous compose est chimique et que (catalyseurs exceptés) les réactions chimiques changent les produits chimiques en créant ou en détruisant des liaisons. Donc vous pouvez avoir une substance qui est extrêmement efficace in vitro, mais qui se met à réagir rapidement avec toutes sortes de composés une fois qu’elle se retrouve dans un corps vivant et se transforme en autre chose, potentiellement pas efficace du tout, voire nocif.

Est-ce sûr ?

C’est probablement le point le plus important de ce billet. Pour qu’un «médicament» contre le cancer soit réellement efficace, il faut qu’à la fois il puisse éliminer les cellules cancéreuses tout en épargnant les autres. Trouver des choses qui répondent à la première condition est facile, mais celles qui répondent aux deux sont nettement plus complexes à dénicher.

Par exemple, les lance-flammes tuent les cellules cancéreuses, mais ça ne fait pas d’eux un traitement efficace. Tout comme l’essence qui permet aussi d’éliminer les tumeurs très efficacement, mais je n’en recommande pas pour autant la consommation.

L’alcool est utilisé pour stériliser les boîtes de Pétri, il permet de se débarrasser des cellules de façon tout à fait certaine, mais chez les humains, il cause des cancers !

Le laétrile (plus connu sous le nom de vitamine B17) est un autre bon exemple de cet état de fait : il existe des preuves solides montrant qu’il est en mesure de tuer des cellules cancéreuses en laboratoire. Mais il le fait en relâchant du cyanure, qui tuera les cellules saines tout aussi rapidement que les cancéreuses.

Cela m’amène à un autre point très important : le cancer est difficile à traiter car il fait partie de votre propre corps. Développer une molécule qui tue sans danger quelque chose comme une bactérie est facile en comparaison car elles sont biochimiquement très différentes des cellules humaines.

Donc pour les tuer, il vous suffit de trouver quelque chose qui va interférer avec les voies biochimiques que l’on trouve chez les bactérie et pas chez les humains.

Le cancer est un défi bien plus grand puisque les cellules qui le composent ne sont que des versions mutées de vos propres cellules. En tant que telles, elles ont exactement les mêmes propriétés biochimiques que les « normales ».

Cela rend très difficile le fait de trouver un traitement sur puisque la plupart vont tuer les cellules cancéreuses… et les autres. C’est l’une des principales raisons qui rendent très difficile de soigner le cancer, et aussi un excellent motif de rester sceptique devant les gens qu affirment avoir trouvé un moyen de le faire. A moins qu’ils ne soient en mesure de vous expliquer exactement comment leur traitement cible les cellules cancéreuses en épargnant les autres, vous ne devriez probablement pas leur faire confiance.

Enfin, nous devons nous rappeler que la dose fait le poison, tout autant que le médicament. Donc pour qu’un composé soit un traitement efficace, il faut qu’il soit en mesure de tuer les cellules cancéreuse à une dose qui soit en dessous de celle à laquelle il devient dangereux pour les cellules saines. En fait, c’est même exactement ce que les médecins essayent de faire lorsqu’ils prescrivent rayons et chimiothérapies. Les cellules cancéreuses se divisent très rapidement, et ces traitements sont particulièrement bons pour attaquer es cellules en cours de division, du coup ils ont tendance à « blesser » plus les cellules cancéreuses que les normales, même s’il y a des dommages collatéraux.

En d’autres termes, le principe est de trouver un équilibre entre le fait de devoir tuer assez de cellules cancéreuses sans pour autant tuer trop de saines. C’est très important à comprendre puisque même si certains traitements alternatifs peuvent tuer des cellules cancéreuses, ils tuent vraisemblablement les saines aussi, et comme ils n’ont pas été suffisamment étudiés, on ne sait pas quel dose est la plus efficace.

Pour le dire autrement : ne supposez pas que quelque chose est sûr juste parcequ’il s’agit d’un traitement alternatif, comme je l’ai dit plus haut, la vitamine B17 finit par produire du cyanure.

Les traitements non conventionnels ne sont pas forcément sûrs, et ce ne sont parfois même pas des traitements.

La hiérarchie des preuves

Le point fondamental que j’essaye de montrer ici est que vous devriez rester sceptiques à propos des affirmations concernant les traitements contre le cancer (et la médecine en général). Chaque fois que vous entendez quelqu’un affirmant qu’il a découvert un traitement contre le cancer, vous devez prendre le temps d’examiner les preuves afin de déterminer si oui ou non l’affirmation est justifiée.

Plus souvent qu’à leur tout, ces affirmations se basent sur des études in vitro, des essais sur des animaux et des anecdotes. J’ai expliqué le problème avec les anecdotes en long et en large ici et j’ai passé la majeure partie de ce post sur les essais in vitro mais les essais sur les animaux posent les mêmes problèmes. Rats et souris sont biochimiquement différents des humains et les médicament agissent souvent très différemment chez eux et chez nous.

Par exemple, si on considère généralement que les avocats ne posent pas de problèmes particuliers chez les humains, ils peuvent être toxiques pour les oiseaux, les souris, les lapins, les rats, les moutons et tout un éventail d’autres animaux.

C’est un paramètre important pour des maladies comme la cancer, puisque, une fois de plus, il en existe de nombreux types qui se comportent tous différemment et que ceux des rats peuvent très bien ne pas être du tout représentatifs de ceux des humains. De plus, tout comme pour les lignées cellulaires, les essais sur les animaux sont généralement conduits sur des races spécialement conçues à cet effet.

Pour être précis : des groupes familiaux ont été sélectionnés à un point tel qu’ils sont tous génétiquement identiques (ou très proches). Donc, tout comme avec les essais in vitro, il est très complexe de généraliser à partir de ces essais.

En fait, il s’avère très souvent qu’un médicament très prometteur in vitro et chez les animaux ne soient pas du tout efficace chez les humains.

Du fait de tous les problèmes dont je viens de parler, les essais sur les animaux et les études in vitro sont tout en bas de ce que l’on appelle la « hiérarchie des preuves ». Tous les designs expérimentaux ne sont pas égaux et certains donnent des résultats bien plus surs et exploitables que d’autres.

In vitro et tests sur les animaux sont considérés comme étant peu fiables et sont donc considérés comme de simples points de départ pour des investigations ultérieures, il n’est pas recommandé de s’en servir comme base d’argumentation.

Pour le dire autrement, les designs les plus robustes (comme les études de cohortes ou les essais randomisés contrôlés) ont tendance à nécessiter beaucoup de temps et d’argent, donc les chercheurs utilisent des designs moins onéreux afin d’identifier les molécules suffisamment intéressantes pour mériter de plus amples investigations.

Les études sur les animaux et in vitro servent souvent de base pour débuter des études cliniques, mais on ne peut pas s’en servir pour conclure, pour cela il faut attendre les résultats des études cliniques.

Le truc c’est qu’avant d’accepter le fait que quelque -chose soigne le cancer, vous devriez allez lire les études pour savoir si ces dernières avaient réellement la capacité de parvenir à cette conclusion. Pour la majorité, ce n’est pas le cas.

Par exemple, une revue systématique des études sur la vitamine B17 a montré qu’il n’y a pas suffisamment de preuves pour conclure qu’elle est sure ou efficace dans le traitement du cancer chez les humains (Milazzo et al. 20072015). De la même façon, nous n’avons aucune donnée de qualité montrant que la marijuana aurait ce genre de propriétés.

Donc, en réponse à la question de savoir pourquoi les autorités médicales n’autorisent pas ce genre de traitement et bien c’est tout simplement parce que nous n’avons aucune preuve montrant qu’ils sont surs et efficaces. Ce qui sont deux points relativement importants en ce qui concerne le fait de mettre ou pas un médicament à disposition des patients.

Conclusion

Pour faire court, la plupart du temps, lorsque vous entendez dire qu’un produit quelconque guérit le cancer, cette affirmation se base sur une étude in vitro. Mais ce type d’étude est extrêmement problématique, puisqu’il ne montre une efficacité que sur un type de cellule bien particulier, dans un environnement bien particulier.

Il ne montre pas que le produit en question tue les cellules du cancer en général, ni qu’il est sur de vous l’injecter dans le corps ou même qu’il serait capable d’atteindre les cellules concernées avant d’être filtré par le foie et les reins ou d’interagir avec une molécule présente naturellement dans votre organisme.

Il existe des centaines de produits qui tuent le cancer dans des boîtes de Pétri mais cela ne veut rien dire sur leur capacité à être utilisés sans danger dans un contexte médical. De fait, il en existe des tas, comme le gas-oil ou l’arsenic, qui se montreront très efficaces en laboratoire mais cela ne veut pas dire que vous devriez en consommer.

En fait, la plupart des traitements alternatifs contre le cancer sont très nocifs pour les cellules saines (la B17 produit du cyanure et le MMS est un décolorant industriel).

Donc la raison pour laquelle ces « traitements » ne sont pas approuvés par les autorités sanitaires est que nous ne savons pas si ils sont efficaces et sans dangers, et que le travail des autorités en question est justement de statuer sur ces deux critères (entres autres).

can-cannabis-cure-cancer

maeelk

Lire et comprendre un article scientifique, le guide pour débutants – Jennifer Raff

Par : Maeelk

L’article de la semaine dernière ( « La vérité sur les vaccins : votre médecin est plus compétent que Google ») a déclenché une discussion très vive, avec des commentateurs essayant de me persuader (et les autres lecteurs) que leur article démontrait que tout ce que j’avais dit était faux. Même si je vous encourage à aller lire ces commentaires et à y contribuer aussi, je veux me concentrer ici sur la question plus large que ce débat a soulevé : qu’est ce qui constitue l’autorité scientifique.

Cet article est une traduction de  : How to read and understand a scientific paper: a guide for non-scientists

Ce n’est pas juste un problème académique abstrait : se tromper sur l’état de la science a de réelles conséquences. Par exemple, quand une communauté refuse de vacciner ses enfants car ils ont peur des « toxines » et pensent que prier (ou un régime particulier, du sport et « une vie saine ») suffit à prévenir les infections, des épidémies surviennent.

Soyez sceptiques, mais lorsque les preuves arrivent, acceptez-les. Michael Specter

Qu’est ce qui constitue une bonne preuve ? Évidemment, tout le monde a une réponse différente à cette question. Mais pour se forger une opinion réellement éclairée sur un sujet scientifique, il faut vous familiariser avec les recherches en cours dans ce domaine. Et dans ce but, il va falloir lire la littérature de recherche principale (souvent simplement appelée « la littérature »).

Il se peut que vous ayez essayé de lire des articles scientifiques avant et que vous ayez été frustré par la forme dense, guidée et le jargon peu familier qui l’accompagne. Je me rappelle avoir ressenti cela. Lire et comprendre les articles de recherche est un talent que chaque docteur et scientifique doit acquérir durant ses études.

Vous le pouvez aussi, mais comme pour toute compétence, cela demande de la patience et de la pratique.

Je veux aider les gens à devenir plus familiers avec la science, donc j’ai écrit ce guide pour qu’un novice puisse appréhender comment approcher, lire et comprendre un article. Il est destiné à tous les gens n’ayant aucune formation en science ou en médecine et se base sur le postulat que la personne lisant un article le fait dans le but d’en obtenir une compréhension basique et de pouvoir décider si oui ou non il s’agit d’une étude fiable.

Le genre d’article dont il sera question ici fait partie de ce que l’on appelle revues primaires (et parfois « littérature blanche »). Il s’agit d’un rapport revu par les pairs sur une nouvelle recherche concernant une ou des question(s) spécifique(s) et fournissant des réponses nouvelles. Un autre type d’article utile est un article de revue. Ces derniers sont également revus par les pairs mais ne présentent pas de nouvelles informations, à la place, ils résument de nombreux articles primaires afin de donner du sens au débat sur le consensus et répondre à une série de question au sein d’un même domaine. (Je ne vais pas en dire beaucoup plus ici mais prêtez attention au type d’article que vous êtes en train de lire. Rappelez-vous qu’ils ne sont qu’un instantané de la recherche au moment de leur publication. Un article de revue sur, disons, les études sur les associations pan-génomiques datant de 2001 ne sera pas très utile en 2013.Il y a eu tellement de recherches entre ces deux date que le domaine a considérablement évolué).

Avant de commencer, quelques conseils généraux :

Lire un article scientifique est un processus complètement différent de celui de la lecture d’un article sur la science dans un magazine de vulgarisation ou un blog. Non seulement, vous devrez lire les sections dans un ordre différent de leur présentation, mais il faudra aussi prendre des notes, les lire à de multiples reprises et probablement aller regarder d’autres papiers pour certains détails. Lire un seul article risque de vous prendre très longtemps la première fois. Soyez patient, le processus sera de plus en plus rapide au fur et à mesure que vous prendre de l’expérience.

La plupart des articles peuvent être divisés selon le plan suivant : abstract, introduction, méthodes, résultats et conclusion/interprétation/discussion. L’ordre exact dépendra du journal dans lequel il est publié. Certains journaux ont des fichiers additionnels (appelés Informations En ligne Supplémentaires) qui contiennent d’importants détails de la recherche, mais qui sont publiés en ligne au lieu de l’être dans l’article (faites attention à ne pas rater ces fichiers).

Avant de commencer à lire, notez les auteurs et leurs affiliations institutionnelles. Certaines d’entre elles (l’Université du Texas, par exemple) sont très respectées ; d’autres (The Discovery Institute) peuvent sembler légitimes en tant qu’institutions de recherches mais ont en fait des motivations peu académiques. (Dans ce cas précis il est me possible de se renseigner via votre moteur de recherche favori).

Notez également le journal dans lequel l’article est publié. Dans le domaine de la biomédecine, vous pouvez utilisez l’index de Pubmed, pour les autres, Web of Science est un index très complet. Dans tous les cas, méfiez-vous des journaux douteux.

Au fur et à mesure de votre lecture, notez tous les mots que vous ne comprenez pas. Il faudra aller vérifier leur signification (oui, tous, les uns après les autres). Je sais que c’est une vraie horreur mais vous ne comprendrez pas l’article si vous n’en comprenez pas le vocabulaire. Les termes scientifiques ont un sens extrêmement précis.

Les instructions pas-à-pas

1 – Commencez par lire l’introduction, pas l’abstract

L’abstract est ce paragraphe dense situé en tête, au tout début de l’article. En fait, c’est souvent la seule partie de l’article que les non-scientifiques lisent lorsqu’ils essayent de construire un argument scientifique (il ne faut pas faire ça, ne le faites pas!).

Lorsque je choisis quels articles je vais lire, je décide de ce qui correspond à mes besoins en me basant sur une combinaison du titre et de l’abstract. Mais lorsque j’ai une collection d’article à lire en profondeur, je lis toujours l’abstract en dernier. Je fais cela parce qu’il contient un résumé succinct d’un papier entier et que j’ai peur d’être biaisée sans le vouloir par l’interprétation que les auteurs font du résultat.

2 – Identifiez la GRANDE QUESTION

Pas « De quoi est ce que ce papier parle ? » mais « Quel problème de ce domaine est-ce que cet article essaye de résoudre ? ».

Cela vous aidera à vous concentrer sur le pourquoi de cette recherche. Cherchez attentivement des indices de motivations peu académique.

3 – Résumez le background en cinq phrases ou moins

Voilà quelques questions pour vous guider : quels travaux ont été réalisés auparavant dans ce domaine pour répondre à la GRANDE QUESTION ? Quelles sont les limites de ces travaux ? Qu’est ce qui, d’après leurs auteurs, devraient être fait ensuite ?

Le côté « 5 phrases » est un peu arbitraire, mais cela force à être concis et à vraiment vous immerger dans le contexte de cette recherche. Vous devez être capable d’expliquer pourquoi ce travail a été réalisé si vous voulez le comprendre.

4 – Identifiez les QUESTIONS SPÉCIFIQUES

À quoi les auteurs essaient-ils exactement de répondre avec leur recherche ? Il peut y avoir de nombreuses questions ou juste une seule. Notez-les et si c’est le genre d’étude qui teste une ou plusieurs hypothèses nulles, notez-les aussi.

Vous ne savez pas ce qu’est une hypothèse nulle ? Allez lire ceci puis revenez à mon dernier billet et lisez l’un des articles que j’ai mis en lien (comme celui-ci) et essayez d’identifier l’hypotèse nulle dedans. Gardez à l’esprit que tous les papiers ne font pas ce genre de test.

5 -Identifiez l’approche

Que font les auteurs pour répondre aux QUESTIONS SPÉCIFIQUES ?

6 – Maintenant, lisez la section de la méthodologie. Dessinez un schéma pour chaque expérience, montrant exactement ce qu’ont fait les auteurs.

Je veux dire, dessinez-les vraiment. Incluez autant de détails que nécessaire pour pleinement comprendre le travail. Comme exemple, voilà ce que j’ai dessiné pour comprendre la méthode d’un article que j’ai lu aujourd’hui (Battaglia et al. 2013: “The first peopling of South America: New evidence from Y-chromosome haplogroup Q”). Il y a probabkement moins de détail que ce dont vous auriez besoin, parce que c’est un papier dans ma spécialité et que j’utilise cette méthode tout le temps. Mais si vous étiez en train de lire ça et que vous n’arriviez pas à savoir ce que « process data with reduced-median method using Network » veut dire, il faudrait aller chercher.

battaglia-et-al-methods

Vous n’avez pas besoin de comprendre la méthode au point que vous puissiez la répliquer – ça c’est le travail des relecteurs – mais vous n’avancerez à rien si vous n’êtes pas capable d’expliquer les bases de la méthode à quelqu’un d’autre.

7 – Lisez la section des résultats. Écrivez un ou plusieurs paragraphes pour résumer les résultats de chaque expérience, chaque image et chaque tableau. N’essayez pas encore de décider ce que les résultats veulent dire, écrivez simplement ce qu’ils sont.

Vous allez vous apercevoir que, notamment dans les bons papiers, la majorité des résultats sont résumés dans les images et tableaux. Faites-y particulièrement attention. Vous aurez aussi peut-être besoin de vous référer à la section des documents en ligne afin de trouver certains résultats.

C’est à ce moment que des difficultés peuvent survenir si des test statistiques sont utilisés dans l’article et que vous n’avez pas le bagage nécessaire pour les comprendre. Je ne peux pas vous enseigner les stats dans ce billet, mais ici, ici et vous trouverez des ressources basiques pour vous aider. Je vous invite fortement à vous familiariser avec.

Les choses auxquelles prêter attention dans la section des résultats :

  • Chaque fois que les termes « significatifs » et « non-significatifs » sont employés. Ces mots ont des significations très précises. Plus d’informations ici.

  • S’il y a des graphiques, comportent-ils des indicateurs de marge d’erreur ?

  • La taille d’échantillon : l’étude a-t-elle été conduite sur 10 ou 10.000 personnes ? (dans certains cas, 10 personnes suffisent mais pour la plupart c’est bien plus)

8 – Les résultats répondent-ils aux QUESTIONS SPÉCIFIQUES ? Que pensez-vous qu’ils signifient ?

N’allez pas plus loin tant que vous n’avez pas réfléchi à ça. C’est très bien de changer d’avis à la lumière de l’interprétation des résultats par l’auteur – en fait, ce sera probablement le cas si vous êtes toujours un débutant dans ce genre d’analyse – mais c’est une très bonne habitude que de commencer à vous faire votre propre opinion avant d’aller lire celle des autres.

9 – Lisez la section de conclusion/discussion/interprétation.

Qu’est ce que les auteurs pensent que les résultats signifient ? Êtes-vous d’accord avec eux ? Pouvez-vous trouver une façon alternative de les interpréter ? Les auteurs identifient-ils des faiblesses dans leur propre étude ? En voyez-vous qu’ils auraient manqué ? (ne supposez jamais qu’ils sont infaillibles) Que propose-t-ils comme pistes pour le futur ? Quel est votre avis sur le sujet ?

10 – Maintenant, retournez au début et lisez l’abstract.

Est-il raccord avec ce que les auteurs disent dans l’article ? Avec votre interprétation personnelle ?

11- Étape finale (ne passez surtout pas à côté) : que disent les autres chercheurs de cet article ?

Qui sont les experts (auto-proclamés ou reconnus) de ce domaine ? Ont-ils critiqué l’étude sur des points auxquels vous n’aviez pas pensé ou la supportent-ils en général ?

Pour cela, vous pouvez utiliser Google. Mais faites-le en dernier afin d’être mieux préparé à penser de façon critique à ce que les autres disent.

Un autre moyen pratique de connaitre les critiques formulées sur une étude est le site PubPeer, et bonne nouvelle : il existe en extension pour votre navigateur préféré. NDT

etudiant-deborde

maeelk

battaglia-et-al-methods

Ces techniques malhonnêtes que les faux médecins vous cachent – Edzard Ernst

Par : Maeelk

Edzard Ernst, né à Wiesbaden le 30 janvier 1948, est un médecin naturalisé britannique, formé en Allemagne et en Autriche à la médecine physique et de réadaptation, à l’homéopathie et à la chiropraxie, professeur de médecine complémentaire à l’université d’Exeter (Royaume-Uni).

Cet article est une traduction de : Eight slogans that quacks love to use: if you hear these, find a proper doctor et Six signs you are being treated by a quack.

 Votre médecin est-il un charlatan ?

Le terme « charlatan » est souvent employé comme description irrespectueuse de médecins, en particulier ceux sans talent, ignorants, malhonnêtes ou utilisateur de thérapies bidons par appât du gain. Les charlatans sont partout, j’en ai peur, mais les thérapies alternatives semblent être une terre promise pour eux.

La charlatanerie met en danger la santé financière et – plus important encore – la santé tout court.

Pour nous en protéger, il est important de pouvoir reconnaître leurs trucs et astuces et d’y réagir convenablement lorsqu’on y est confronté. Dans ces quelques pages, nous allons dévoiler certains des stratagèmes les plus populaires utilisés par les charlatans du sévissant dans le domaine de la médecine et fournir quelques conseils pour s’en prémunir.

Traiter des maladies inexistantes

Il n’y a rien de meilleur pour augmenter le chiffre d’affaire d’un charlatan que de réussir à traiter une maladie qui n’existe pas. De nombreux praticiens alternatifs se sont fait une spécialité de cette option si pratique. Allez voir un chiropracteur et vous vous verrez, selon toute vraisemblance, affublé d’un diagnostic de « subluxation » , consultez un praticien de médecine chinoise traditionnelle et vous pourriez bien vous découvrir une « déficience du chi » et un homéopathe pourrait bien vous révéler le besoin d’un petit traitement de la « force vitale ».

La beauté d’un diagnostic non-existant est que le praticien peut le traiter, et le traiter et le traiter encore… Jusqu’à ce que le client soit à bout d’argent ou de patience. Juste avant cela, cependant, le praticien vous informera sûrement fièrement que vous êtes « dorénavant en pleine santé ». Ce qui est effectivement le cas, puisque vous l’étiez depuis le début.

Mon conseil pour éviter ce genre d’exploitation : assurez-vous que le diagnostic posé par quelqu’un que vous soupçonnez de charlatanisme est correct, si nécessaire, consultez un vrai professionnel de santé.

Ça doit empirer avant de s’arranger.

Lorsque, après la prise d’un traitement régulier, le patient ne se sent pas mieux mais que sa situation a empiré, les charlatans ont tendance à leur dire que cela est complètement normal – puisque les choses doivent empirer avant de s’arranger. Ils appellent cela une « crise de guérison ». Mais c’est un phénomène pour lequel aucune preuve n’a jamais été apporté pour étayer son existence.

Imaginez un patient souffrant de symptômes modérément sévères consultant un médecin et recevant un traitement. Il n’y a que trois choses qui peuvent se passer :

  • son état va s’améliorer

  • rien ne se passe

  • son état empire.

Dans le premier cas, le thérapeute va bien évidemment affirmer que c’est le traitement qui a agit. Dans le second, il pourrait bien affirmer que sans le traitement, les symptômes se seraient aggravés et dans le dernier cas, le mythe de la crise de guérison prend le relais.

En d’autres termes, il s’agit d’un peu plus que d’un simple truc pour que le patient continue à contribuer au maintien du train de vie du charlatan.

Mon conseil : lorsque vous entendez le terme « crise de guérison », fuyez et aller voir un vrai docteur.

Une cure dure longtemps.

Mais il y a d’autres trucs pour s’arranger avec les malades dont l’état ne s’améliore pas après une longue thérapie. Disons que votre problème est un mal de dos et que ce dernier ne s’est pas arrangé malgré de multiples traitements et de nombreux chèques.

Dans une telle situation, exaspéré, vous mettriez certainement un point à tout ça. Ce qui, bien sur, nuirait à la bonne santé financière du praticien.

Pour empêcher cela, ce dernier a juste à vous expliquer que votre problème dure depuis très longtemps (et s’il s’avère que ce n’est pas le cas, il lui suffit de vous dire que, si la douleur est récente, le trouble est plus ancien, chronique). Ce qui veut naturellement dire que le traitement doit lui aussi durer – après tout, Rome ne s’est pas faite en un jour.

Le fait de persister dans un traitement inefficace en dépit de l’absence d’amélioration n’est généralement pas justifiable sur un plan médical. C’est, par contre, parfaitement le cas si on se place d’un point de vue financier : les charlatans vivent des paiements réguliers de leurs patients et penseront donc à toutes sortes de moyens d’en obtenir.

Mon conseil est de consulter avant tout un praticien capable de vous aider en un temps raisonnable et prévisible. Insistez sur la nécessité d’un traitement approprié et spécifique dès le début, et arrêtez-le si le but n’est pas atteint.

La pensée holistique

La nation que les médecines alternatives s’occuperaient d’un patient dans son ensemble attire de nombreuses personnes. Peut importe le fait que rien ne pourrait être plus éloigné de cela que, par exemple diagnostiquer un trouble à partir de l’iris d’un patient (iridologie), se concentrer sur sa colonne vertébrale (chiropractie, ostéopathie) ou en massant la plante des pieds (réflexologie).

Et eut importe aussi le fait que, par définition, tous les types de médecines conventionnels soient holistiques.

Ce qui compte, c’est le label, et « holistique » en est certainement un excellent. Rien n’est plus vendeur. La plupart des charlatans se gargarisent de leur « holisme » devant leur patient aussi souvent que possible, et de n’importe quelle façon.

Sans compter l’avantage que cela donne une excuse toute trouvée pour leurs échecs thérapeutiques. Imaginez un patient consultant un praticien pour sa dépression et que, même après un traitement prolongé, rien n’ait changé.

Dans une telle situation, le charlatant n’a pas de raison de s’inquiéter : il pointera le fait qu’ils ne traitent jamais un symptôme précis mais bien la personne dans son ensemble. Alors, peut-être que la dépression n’a pas évolué mais d’autres choses se sont bien améliorées… et si le patient cherche suffisamment, il pourra se dire que son appétit a augmenté, qu’il digère mieux ou encore que son inflammation du coude fait moins souffrir (avec du temps, les choses changent de toutes façons).

Le côté holistique du charlatan est peut-être une fausse promesse mais ses bénéfices pour ce dernier sont, eux, indéniables.

Mon conseil : prenez ce genre d’argument avec des pincettes.

Détoxification

De nombreux charlatans surprennent leur patient lorsqu’ils les informent que ces derniers ont été empoisonnés. Ils prétendent donc qu’ils faut se « désintoxiquer » et, comme par hasard, leur traitement phare est justement parfaitement adapté à ce but.

En vraie médecine, ce terme fait référence au fait, pour un toxicomane, de se défaire de son addiction. En médecine alternative, toutefois, le terme est devenu un outil marketing dénué de tout sens médical.

Les poisons en question ne sont jamais précisément définis. Au lieu de cela, on vous sert une terminologie vague à base de « sous-produits déchets du métabolisme » ou de « toxines environnementale ». La raison de ce manque de précision est simple : si un nom précis était donné, il serait alors possible de mesurer ladite substance et de tester l’efficacité du traitement pour ce qui est de l’élimination du produit en question. Mais c’est la dernière chose que veulent les charlatans – parce que cela permettrait rapidement d’établir à quel point c’est une arnaque.

Aucune des thérapies alternatives promettant de « détoxifier » votre organisme ne le fait, leur seul effet notable est de vous débarrasser de votre argent.

Votre corps est doté d’organes (peau, poumons, foie et reins) qui s’occupent de la plupart des toxines auxquelles vous êtes exposés. Si un seul d’entre ces organes vient à défaillir, vous n’avez pas besoin de comprimés homéopathiques, de régime détox, pas plus que de bain de pied électronique ou une quelconque autre charlatanerie : dans ce genre de cas, ce qu’il vous faut c’est une hospitalisation rapide.

Mon conseil : dès que vous entendez le terme « détox », reprenez votre argent et partez.

Le test du temps

Nombre de thérapies alternatives existent depuis des centaines, si ce n’est des milliers d’années. Pour les charlatans, cela signifie que ces pratiques ont « passé avec succès le test du temps ». Ils affirment que l’acupuncture, par exemple, ne serait plus utilisée si elle n’avait aucune efficacité.

Pour eux, l’âge de leur thérapie favorite est comme un sceau d’approbation de la part de millions de gens avant nous, un sceau qui pèse certainement plus que n’importe quelle analyse scientifique.

Mais revenons à la réalité : nous parlons de technologies, de technologies de la santé en fait. Est ce que nous prétendrions avec succès qu’une montgolfière, étant une technologie plus ancienne que l’avion à réaction, est le meilleur moyen de transporter des gens d’un point A à un point B ?

Le fait que l’acupuncture, ou toute autre thérapie, ait été développée il y a de nombreux siècles signifie simplement qu’elle a été créée par des gens qui n’avaient une compréhension trop limitée du corps humain pour parvenir à des soins efficaces. Et le fait que la saignée ait été utilisée pendant des siècles (et a donc causé des millions de mort) devraient nous enseigner la vraie valeur du « test du temps » en médecine.

Mon conseil est de proposer des sangsues, des saignées et des cures de mercure aux charlatans qui essayent de vous persuader que l’âge de leur pratique indique quelque chose sur sa valeur.

Huit trucs que les charlatans adorent

Après que nous ayons vu les six trucs et astuces favoris des charlatans, certains lecteurs ont fait remarquer que certains arguments ne relèvent pas uniquement des pseudo-médecines. Et c’est vrai. Les charlatans sont partout et la médecine conventionnelle en possède son lot aussi.

Cependant, je pense pouvoir néanmoins suggérer que les six items mentionnés plus haut, ainsi que les huit que nous allons voir maintenant, sont plus souvent employés dans les thérapies non conventionnelles plutôt qu’en médecine.

Traiter la racine des maux

Les charlatans affirment souvent que les praticiens de la médecine basée sur les preuves ne traitent que les symptômes de la médecine, là où eux s’attaquerait à la vraie racine du mal. Je me suis souvent demandé d’où cette supposition et la ferme conviction avec laquelle elle est généralement exprimée venaient. Et j’en suis venu à la conclusion que les explications sont plutôt simples :

  • Cette notion est un mantra enseigné encore et encore dans les formations de charlatans. Elle constitue même un des messages centraux de nombre des parutions destinées aux aspirants pseudo-médecins.

  • Plus important encore dans le contexte de cet article, c’est un très bon argument de vente. Cela semble profond et logique pour de nombreux consommateurs de ce genre de pratiques.

  • De manière cruciale, elle fait d’une pierre deux coups : elle dénigre la médecine conventionnelle et, dans le même temps, élève la charlatanerie à un niveau inatteignable aux autres méthodes.

L’idée des praticiens de médecine alternative qu’ils traiteraient la « cause profonde » est basé sur la compréhension qu’ils ont de l ‘étiologie.

Les acupuncteurs traditionnels, par exemple, sont convaincus que toutes les maladies sont causées par un déséquilibres des forces de vie et que piquer des points précis va re-balancer ces forces et donc restaurer la santé. Ainsi, ils peuvent supposer qu’ils traitent effectivement la « vraie cause » du mal.

Si les chiropracteurs croient que les maladies sont causées par des « subluxations » de la colonne vertébrale, il devient parfaitement logique d’imaginer que des  »ajustements » permettent de traiter la cause de n’importe quelle maladie dont souffrirait un patient.

Ce sont des concepts qui sont profondément implantés dans l’esprit des praticiens alternatifs. Et ils ont tous un point commun très embarrassant : ils sont faux. Certains d’entre aux le savent certainement, cependant je ne crois pas en avoir jamais rencontré un qui ait arrêté d’utiliser cet argument. La raison doit être qu’en tant que truc pour alimenter la machine à cash, l’argument est irremplaçable.

Mon conseil : mettez votre chapeau à esprit critique, expliquez au praticien qui vous explique qu’il peut traiter la cause première de votre mal qu’il est en train de promouvoir un mythe et cherchez un vrai médecin.

Le naturel c’est bien.

Tous les gens travaillant dans la pub vous le diront : le label « naturel » est un super atout pour qui veut booster ses ventes. Les charlatans sont au courant depuis longtemps et exploitent ce biais humain au mieux de leurs capacités. Ils soulignent la « naturalité » de leur traitement ad nauseam et, plus souvent qu’à leur tour, de façon trompeuse.

Par exemple, il n’y a rien de naturel dans le fait de manipuler la colonne vertébrale d’un patient au-delà de ses limites physiologique (chiropractie), il n’y a rien de naturel à diluer sans fin tout en les agitant vigoureusement des remèdes qui peuvent – ou pas – trouver une origine dans une substance naturelle (homéopathie) et il n’y a rien de naturel non plus à planter des aiguilles dans la peau des gens (acupuncture).

Pire encore, la notion de « mère Nature » est naïvement fallacieuse, demandez à quelqu’un qui est tombé à l’eau dans une tempête ou s’est fait frapper par la foudre.

Mon conseil est de savoir repérer ce slogan pour ce qu’il est : du marketing et de dire aux gens qui s’en servent d’aller charlataner ailleurs.

L’énergie

Lorsque l’on fait se rencontrer des praticiens alternatifs, le terme « énergie » est mentionné plus souvent qu’à une réunion de travail chez EDF. La différence est qu’en fait les charlatans ne parlent pas vraiment d’énergie lorsqu’ils utilisent ce mot : ils parlent en fait de « force vitale », ou d’un autre terme recouvrant la même réalité dans l’une ou l’autre tradition.

Ils préfèrent utiliser ce terme puisque cela sonne moderne et impressionnant pour de nombreux clients. Surtout, cela évite de dévoiler à quel point les pseudo-médecine sont engoncées dans le principe obsolète du vitalisme. Alors que les penseurs rationnels ont su montrer l’inanité de ce concept il y a plus d’un siècle, il semble impossible d’en faire de même pour les tenants de pseudo-médecines.

Mon conseil d’éviter les vitalistes et autres passéistes, car adhérer à des concepts obsolètes depuis des lustres n’a que peu de chance d’aboutir à la délivrance du traitement le plus adapté pour vous.

Stimuler le système immunitaire.

« Votre système immunitaire a besoin d’être stimulé » – combien de fois avons-nous entendu ce genre de propos venant de praticiens de simili-thérapies ? Par contraste, les médecins conventionnels font preuve de beaucoup de prudence lorsque ce genre de but est mentionné : ils ne le proposent que dans de rares cas très précis. Assez souvent ils ont en fait même besoin d’obtenir l’effet inverse et d’utiliser des médicaments très puissants qui vont supprimer le système immunitaire.

Et dans les rares circonstances où ils ont effectivement besoin de le booster, ils n’utilisent jamais les traitements par lesquels jurent les charlatans. Il y a plusieurs raisons pour ça :

  • les « stimulants immunitaires » alternatifs ne stimulent en fait pas vraiment le système immunitaire

  • stimuler le système immunitaire est rarement un objectif thérapeutique

  • pour nombre d’entre nous, ladite stimulation pourrait même très bien être quelque chose de tout à fait risqué (pour autant qu’on y arrive).

Mon conseil est de demander à votre praticien pourquoi il veut booster votre système immunitaire. Puis demandez-lui d’essayer de booster le sien d’abord et de vous montrer la preuve que son traitement y parvient effectivement.

Les critiques ne comprennent pas

Tôt ou tard, quelqu’un contestera la charlatanerie. Si cela arrive, le pseudo-praticien a plusieurs options pour préserver sa gamelle. L’une des plus faciles et populaire est de clamer que « bien sûr vous n’êtes pas d’accord avec moi puisque vous ne comprenez pas ».

Ensuite, le charlatant déploie tout son charisme et explique que, afin de parvenir au niveau de compétence qu’il a acquis, on doit en faire un peu plus que de simplement s’intéresser à la science. Il faut, en fait, réussir à comprendre le traitement de façon plus profonde, subtile. Il faut s’immerger dedans, ouvrir son esprit et enfin devenir un autre grâce à lui. Cela ne peut s’accomplir seul et nécessite des années de travail méditatif. Et tout le monde n’a pas la capacité à franchir toutes ces difficiles étapes : cela requiert du talent, de l’énergie et une vision afin de devenir un vrai guérisseur.

Les critiques qui ne sont pas d’accord avec les charlatans sont en fait à plaindre : ils échouent à atteindre le même niveau d’existence que ceux qui « savent ». Ainsi, inutile de s’encombrer de la compagnie des détracteurs – ils ne comprennent pas car ils n’ont pas vu la lumière.

Mon conseil est de se renseigner sur le sophisme du vrai écossais : cela est très utile pour réussir à voir au-delà du charisme de ces gourous et exposer leur charlatanerie pour ce qu’elle est vraiment.

Les recherches sont cachées.

Certains critiques semblent immunisés au charisme et persistent à demander des preuves des prétentions thérapeutiques portées par les charlatans. Cette attitude peut être gênante pour ces dernier – car il n’en existe généralement pas de bonne.

Coincés, les charlatans s’en sortent généralement avec une pirouette conspirationniste : les recherches ont été faites et ont montré des résultats fabuleux mais elles ont été supprimées par… et bien par le premier organisme leur venant à l’esprit. En règle générale, « Big Pharma «  ou « l’establishment scientifique » rentrent très bien dans le tableau.

Selon cette hypothèse, l’industrie pharmaceutique (ou quoi que ce soit d’autre qui fasse l’affaire) fut si secouée par les données issues de la recherche qu’ils ont décidé de les faire disparaître. Ils n’avaient pas le choix : la thérapie alternative en question se montrait si efficace qu’elle aurait ruiné Big Pharma. Et nous savons tous que cette entité est diabolique jusqu’à la moelle, n’a aucune éthique ni de scrupules moraux à commettre de tels crimes contre l’humanité. Le profit vient avant la charité (y compris pour les dizaines de personnes impliqués dans la recherches, les éventuels participants volontaires etc etc).

Mon conseil est d’expliquer aux charlatans que de ce genre d’argumentaire est au moins une preuve manifeste que sa thérapie ne fonctionne pas sur le délire de persécution.

Les critiques sont corrompus.

Si, en dépit de toutes ses mesures préventives, les critiques deviennent menaçantes pour le business du charlatans, une méthode facile et très utilisée est de les discréditer. Si les stratagèmes du style de celui mentionné ci-dessus échouent, l’étape suivante doit donc être d’attaquer en affirmant que les critiques sont corrompus. En fait, ils reçoivent de l’argent des concernés (cf Big Pharma). Quelle autre raison pourraient-ils avoir de lutter contre les charlataneries ?

De nombreuses personnes – charlatans compris – sont incapables de penser à autre chose qu’à l’argent en terme de motivation, la possibilité qu’une personne puisse passer du temps et de l’énergie sur quelque chose pour une raison altruiste leur échappe complètement. Donc, la raison la plus plausible est que les critiques critiquent par appât du gain – après tout, les vrais charlatans travaillent bien pour de l’argent.

Mon conseil : essayez de vous renseigner auprès de sources crédibles et essayez de déterminer qui pourrait être acheté par qui et qui a le plus d’intérêt à ce que la charlatanerie continue.

Même des prix Nobel sont d’accord avec moi.

Et c’est vrai : certains gagnants d ce prix sont convaincus par l’homéopathie ou d’autre traitements sans fondement. Chaque fois que cela arrive, les charlatans sont aux anges et s’en donnent à coeur joie pour citer le lauréat ad infinitum et impliquer que ses vues prouvent la véracité de leurs dires.

Ils ne se doutent pas un seul instant que tout ce qu’ils sont en train de faire est de se servir d’un autre sophisme classique : l’appel à l’autorité. Des affirmations nimportequoitesques émanant de célébrités, cela arrive chaque jour, tout ce que cela démontre est que des personnes très éduquées et intelligentes peuvent être tout aussi insensées que le premier venu.

Mon conseil est de commencer par vérifier ce que la personne a réellement déclaré – on est souvent surpris de ce que les personnes ont dit en réalité – et de continuer en vérifiant si l’affirmation a été faite par une personne dont c’est le domaine de compétence. Les prix Nobel d’économie sont rarement très au fait des problématiques liées à la médecine, par exemple.

reiki-820x550

maeelk

Petit guide exhaustif des biais cognitifs – Buster Benson

Par : Maeelk

J’ai passé de nombreuses années à consulter la liste Wikipedia des biais cognitifs chaque fois que j’ai eu le pressentiment qu’une forme de pensée était un biais cognitif « officiel » mais que je ne m’en rappellais pas en détail. Cela a toujours été une référence inestimable pour m’aider à identifier les failles cachées de mon propre raisonnement. Rien d’autre de ce sur quoi j’ai pu tomber ne m’a semblé aussi compréhensif et succinct.

Cependant, honnêtement, la page Wikipedia est légèrement bordélique. En dépit du fait d’avoir essayé d’absorber les informations de cette page, bien peu semble m’en rester. Je la parcours souvent en ayant le sentiment que je n’arrive pas à trouver le biais que je recherche et oublie rapidement ce que j’ai appris.

Cet article est une traduction de : Cognitive bias cheat sheet

NDT : le web anglophone étant bien plus fourni que son équivalent à baguette sous le bras, certains biais ne sont pas sourcés dans la langue de Molière, ils sont marqué d’un (?),  et d’autres sont parfois simplement définis, ils sont indiqués par un (-). Toute aide est la bienvenue pour compléter/améliorer la liste des sources.

Au jour de parution, on retrouve donc : Wikipedia (sous forme de liens WikiWand), Persée, Cairn, Memovocab, La Toupie, l’Université Lumière de Lyon II, le dictionnaire des Sceptiques du Québec, Google Book ainsi que de nombreux sites et blogs de marketings ou de management, deux sites d’actualité… et un site pour adulte.

Les professionnels prêts à se servir des failles de votre cerveau sont nombreux, contrez-les : bookmarkez cette page et suivez les conseils en bas de page !

Je pense que ça a à voir avec la façon dont la page a évolué organiquement ces dernières années. Aujourd’hui, elle regroupe 175 biais dans des catégories vagues (biais de prise de décision, biais sociaux, erreurs de mémoire, etc) – qui ne me semblent pas vraiment mutuellement exclusives – et les liste ensuite par ordre alphabétique à l’intérieur de ces catégories. Il y a foultitude de doublons et de nombreux biais similaires avec de différents noms, éparpillés bon an mal an.

J’ai pris du temps ces quatre dernières semaines (je suis en congé paternité) pour essayer de comprendre et intégrer plus profondément cette liste et pour tenter de parvenir à une organisation plus simple et plus claire pour épingler ces biais. Avoir beaucoup lu à propos de nombreux biais a donné à mon cerveau de quoi se mettre sous la dent pendant que je berçais petit Louie pour le dodo.

J’ai commencé avec la liste brute des 175 biais et les ai ajouté à une feuille de calcul, puis les ai passé en revue pour supprimer les doublons et grouper les biais similaires (comme l’effet de bizarrerie et d’humour) ou complémentaire (comme les biais de pessimisme et d’optimisme). La liste est redescendue à environ 20 stratégies mentales biaisées que nous utilisons tous pour une certaine raison précise.

J’ai fait quelques tentatives pour réussir à regrouper ces 20 finalistes à un plus haut niveau et ai finalement réussi à parvenir à les regrouper en fonction du problème mental général qu’ils tentent de résoudre. Chaque biais cognitif est là pour une raison – primitivement pour permettre à notre cerveau d’économiser du temps ou de l’énergie. Si vous les observez sous l’angle du problème qu’ils abordent, il devient bien plus simple de comprendre le pourquoi de leur existence, en quoi ils sont utiles et les compromis (et erreurs intellectuelles résultantes) qu’ils introduisent.

Quatre problèmes que les biais nous aident à régler :

La surcharge d’information, le manque de sens, le besoin d’agir vite et comment savoir de quoi on doit se rappeler plus tard.

Problème 1 : trop d’information

Il y a tout simplement trop d’informations dans le monde, nous n’avons pas d’autre choix que d’en filtrer la quasi-totalité. Notre cerveau utilise quelques trucs simples pour choisir les bouts d’informations qui sont les plus susceptibles de finir par être utiles.

  • Nous remarquons les failles plus facilement chez les autres que chez nous-même. Et oui, avant de considérer cette article comme une liste de choses qui vous énervent chez les autres, prenez conscience que vous y êtes sujet aussi.
    Voir : biais du point aveugle, réalisme naïf, cynisme naïf (?).

Problème 2 : pas assez de sens

Le monde est très déconcertant et nous ne sommes capables que d’en percevoir une petite partie alors qu’il nous est nécessaire d’en tirer du sens afin de survivre. Une fois que le flot réduit d’information nous est parvenu, nous relions les points, comblons les blancs avec ce que nous
pensons déjà savoir et mettons à jour nos modèles mentaux du monde.

Problème 3 : le besoin d’agir vite

Nous sommes contraints par le temps et l’information, et nous ne pouvons pas nous permettre de les laisser nous paralyser. Sans la capacité à agir vite face à l’incertitude, notre espèce aurait certainement disparu il y a bien longtemps. Chaque fois que survient un nouveau bout d’information, nous devons faire de notre mieux pour évaluer notre capacité à agir sur la situation, l’utiliser pour modifier nos décisions, s’en servir pour simuler ce qui pourra advenir dans le futur et, à tout le moins, travailler à modifier notre point de vue sur le monde.

  • Afin de rester concentré, nous favorisons ce qui nous est immédiat, ce qui nous fait face au détriment de ce qui est plus loin, moins flagrant. Nous accordons plus de valeur aux choses du présent qu’à celles du fuur et nous sentons plus concernés par les histoires impliquant un individu en particulier qu’à celles de groupes ou d’anonymes. Je suis surpris qu’il n’y ait pas plus de biais relatifs à cette tendance étant donné l’impact qu’elle a sur la façon dont nous voyons le monde.
    Voir : actualisation hyperbolique, appel à la nouveauté, effet de la victime identifiable (dans les médias : mort kilométrique NDT).

Problème 4 : de quoi devons-nous nous rappeler ?

Il y a trop d’informations dans l’Univers. Nous ne pouvons nous permettre que de nous occuper des morceaux qui sont les susceptibles de nous être utiles dans le futur et nous devons constamment faire des compromis et des paris en ce qui concerne ce dont nous allons nous rappeler ou oublier.

Par exemple, nous préférons généraliser plutôt que de s’occuper de cas spécifiques car cela prend moins d’espace de stockage et lorsqu’il y a vraiment trop de détails, nous en piochons quelques uns et ignorons
le reste. Ce que nous gardons est ce qui est le plus susceptible de nous servir pour les filtres du problème 1 (l’excès d’information disponible) ainsi que de nourrir ce qui nous vient à l’esprit dans le cadre du problème 2 (le besoin de sens et de remplir les blancs).

Cela s’appelle auto-renforcement.

Cool, comment je suis censé me rappeler tout ça ?

Vous n’êtes pas obligé, mais vous pouvez commencer par vous rappeler les quatre grands problèmes auxquels nos cerveau doivent faire face et qui ont évolué en conséquence ces derniers millions d’années (et aussi mettre cette page dans vos favoris si vous voulez vous y référez plus tard en cherchant le biais particulier que vous cherchez) :

  • le trop-plein d’information est nocif, donc on filtre en masse
  • le manque d’information rend confus, donc on remplit les trous
  • il faut agir vite pour ne pas rater son tour, alors nous sautons directement aux conclusions
  • ça ne va pas en s’arrangeant, alors on ne s’encombre que du strict nécessaire.

Afin d’éviter de se noyer dans un trop-plein d’information, notre cerveau doit écrémer et filtrer un montant incroyable d’informations et rapidement, sans trop d’effort, décider quelles sont les nouvelles choses à tirer de ce pucier et les en extraire.

Pour nous aider à construire du sens à partir des bouts et morceaux d’information qui nous parviennent, nous devons remplir les trous et assembler le tout pour créer nos modèles mentaux du monde. Dans le même temps, nous avons également besoin de nous assurer qu’ils restent aussi stables et efficaces que possible.

Dans le but d’agir vite, notre cerveau doit prendre des décisions en une fraction de seconde afin d’augmenter nos chances de survie, de sécurité ou de succès. Il doit également avoir confiance en sa (notre) capacité à agir sur le monde.

Et pour que tout cela se fasse aussi efficacement que possible, notre cerveau doit se rappeler des parties les plus importantes et utiles des informations qu’il rencontre et en informer ses systèmes afin qu’ils puissent s’adapter et s’améliorer au cours du temps, mais rien de plus.

Ça a l’air plutôt utile ! C’est quoi les revers ?

En plus des quatre principaux problèmes, il serait utile de se rappeler de ces quatre vérités à propos de comment nos solutions ont leur propres défaut :

  • Nous ne voyons pas tout. Et certaines des informations que nous écartons/filtrons sont en fait utiles et importantes.

  • Notre quête de sens peut générer des illusions. Nous imaginons parfois des détails qui ont été placés là par nos suppositions, et construisons des intentions et des histoires qui n’existent pas vraiment.

  • Les décisions rapides peuvent être complètement nulles. Certaines des conclusions auxquelles nous sautons sont injustes, égoïstes et contre-productives.

  • Notre mémoire renforce les erreurs. Une partie des choses dont nous nous rappelons le plus tard rendent juste les systèmes cités ci-dessus encore plus biaisés, et plus dommageables pour nos processus de pensée.

En gardant à l’esprit nos quatre problèmes avec le monde et les conséquences qu’ont les stratégies que notre cerveau utilise pour les résoudre, l’heuristique de disponibilité (et le phénomène de Baader-Meinhof en particulier) fera que nous remarquerons nos biais plus souvent. Si vous visitez cette page pour vous rafraîchir la mémoire assez souvent, l’effet d’espacement vous aidera à souligner certains des motifs les plus forts ce qui tiendra à l’écart point aveugle et réalisme naïf.

Rien de ce que nous pouvons faire ne peut éliminer les quatre problèmes (à moins de trouver un moyen d’améliorer la façon dont notre cerveau fonctionne pour mieux le faire coller à la réalité) mais si nous acceptons le fait que nous en permanence biaisé – mais qu’il y a de la marge pour s’améliorer – le biais de confirmation nous aidera à trouver des preuves allant dans ce sens, ce qui, au final, nous permettra de mieux nous comprendre nous-même.

Depuis que je connais le biais de confirmation, je le trouve partout.

Les biais cognitifs ne sont que des outils, utiles dans le bon contexte, néfastes dans d’autres. Ce sont également les seuls outils que nous ayons à disposition et ils ne sont pas si mauvais pour faire ce qu’ils sont censés faire. Autant se les rendre familiers et apprenons à apprécier le fait, qu’au moins, nous avons quelques capacité pour essayer de comprendre le monde qui nous entoure.
Illustration de John Manoogian III, une version française serait grandement appréciée, si un graphiste passe dans le coin… 🙂

biais-cog-list

maeelk

Existe-t-il une différence entre intelligence et rationalité ? David Z. Hambrick et Alexander P. Burgoyne

Par : Maeelk

Êtes-vous intelligent – ou rationnel ? La question peut sembler redondante, mais ces dernières années, des chercheurs ont démontré à quel point ces deux attributs cognitifs peuvent être différents.

Tout a commencé au début des années 1970, quand les psychologues Daniel Kahneman et Amos Tversky ont conduit une série d’expériences influentes montrant que chacun de nous, même les personnes hautement intelligentes, sont sujettes à l’irrationalité. Dans une large gamme de scénarios, les expériences ont montré que les gens tendent à prendre des décisions en se basant plus sur l’intuition que sur la raison.

Cet article est une traduction de : The Difference Between Rationality and Intelligence

Dans une étude, les Pr Kahneman et Tverski ont fait lire à des gens le descriptif de personnalité d’une femme nommée Linda : « Linda a 31 ans, est célibataire, franche et très intelligente. Elle a étudié la philosophie. En tant qu’étudiante, elle se sentait très concernée par des problèmes comme les discrimination ou la justice sociale, et a également participé à des manifestations anti-nucléaires .»

Puis, ils ont demandé aux sujets, ce qui était le plus probable : Linda est employée de banque (A) ou Linda est employée de banque et engagée dans le mouvement féministes (B). 80 % des gens ont choisi la réponse B, même si, en terme de logique, A est le plus probable (tous les employés de banque féministes sont employés de banque mais tous ne sont pas féministes).

Dans le « problème Linda », nous sommes la proie du biais de conjonction – la croyance que la co-occurrence de deux événements est plus probable que l’occurrence d’un seul. Dans d’autres cas, nous ignorons des informations concernant la prévalence d’un événement lorsque nous estimons leur plausibilité. Nous échouons à considérer des explications alternatives.

Nous évaluons les preuves d’une manière compatible avec nos croyances pré-existantes… Etc etc

Les humains, semble-t-il, sont fondamentalement irrationnels.

Mais à partir de la fin des années 90, les chercheurs ont commencé à ajouter un bémol significatif à ce point de vue. Comme le psychologue Keith Stanovich, et d’autres, l’a observé, même les données de Kahneman et Tverski montre que certaines personnes sont hautement irrationnelles.

En d’autres termes, il y a des différences individuelles dans la rationalité, même si nous faisons tous face à des challenge lorsqu’il s’agit de l’être au maximum. Alors, qui sont ces gens les plus rationnels ? Vraisemblablement les plus intelligents non ?

Et bien non, dans une série d’études, le Pr Stanovich et ses collègues ont fait subir à de larges panels (généralement plusieurs centaines de personnes) à la fois des tests de jugement – du style du « problème de Linda » et des tests de QI.

La principale découverte fut que l’irrationalité – ou ce que le Pr Stanovich appelle dysrationalité – est relativement faiblement corrélée avec le QI. Une personne ayant une haut QI a à-peu-près autant de chance de souffrir de dysrationalité qu’une personne en ayant un faible.

Dans une étude de 2008, le professeur et ses collègues ont proposé à des volontaires le test de Linda et ont pu montrer que ceux ayant le plus haut QI était aussi les plus sujets au biais de conjonction.

En se basant sur ces preuves, ils ont introduit le concept de quotient de rationalité (ou QR). Si le quotient intellectuel mesure quelque chose comme (en gros) la capacité intellectuelle au raisonnement abstrait et à l’habilité verbale, un test de QR mesurerait la propension à la pensée réfléchie – prendre du recul par rapport à votre propre réflexion et corriger ses tendances à l’erreur.

Il y a également maintenant des preuves que la rationalité, contrairement à l’intelligence, peut être améliorée par l’entraînement. Dans une série d’études publiées l’année dernière dans Policy Insight From the Behavioral and Brain Sciences, le psychologue Carey Morewedge et ses collègues ont fait passer à des volontaires (plus de 200 dans chaque étude) un test pour évaluer leur sensibilité à différents biais influant sur la prise de décision. Puis, certains d’entre eux ont pu voir un film concernant ces biais, tandis que d’autres jouaient à un jeu vidéo étudié pour faire décroître ces biais via des simulations de prises de décisions dans le monde réel.

Dans le jeu interactif, après chaque simulation, un résumé donnait aux participants des instructions concernant des biais liés à la prise de décision et des retours individualisés sur leur performance. Immédiatement après avoir regardé la vidéo ou s’être entraîné sur ordinateur, les volontaires ont passé une autre version des tests, puis à nouveau deux mois plus tard.

Le Pr Morewedge et ses collègues ont montré que l’entraînement sur ordinateur menait à des réductions statistiquement significatives et durables des biais. En d’autres termes, les sujets étaient considérablement moins biaisés après avoir joué, même deux mois plus tard.

Les baisses étaient plus importantes pour ceux qui avaient joué que pour ceux qui avait regardé la vidéo (même si les baisses étaient également notables dans ce groupe). Tandis qu’il n’y a que de maigres preuves montrant qu’il est possible d’améliorer son intelligence, il pourrait bien être possible d’entraîner les gens pour qu’ils soient plus rationnels dans leurs prises de décisions/

Il est, bien sûr, totalement irréaliste de penser que nous vivrons dans un monde où tout le monde est complètement rationnel, mais en développant des test pour identifier les plus rationnels d’entre nous et en proposant des méthodes pour réduire l’irrationalité des autres, la recherche scientifique pourrait bien pousser la société dans cette direction.

Pour aller plus loin :

Le court-métrage utilisé dans l’étude (le sous-titrage automatique est très correct) :

18gray-master768

maeelk

Dreyfus, les romains, votre cerveau et vous : avoir tort est-il si grave ? Julia Galef

Par : Maeelk

Alors, j’aimerais que vous imaginiez pour un moment que vous êtes un soldat au cœur de la bataille. Peut-être que vous êtes un fantassin romain ou un archer médiéval ou même un guerrier zoulou.

Quel que soit le lieu ou le moment, il y a des choses qui ne changent pas : votre adrénaline est élevée et vos actions sont motivées par des réflexes profondément ancrés, des réflexes qui prennent racines dans le besoin de vous protéger vous et ceux de votre côté, et de battre l’ennemi.

Cet article est une traduction de  : Julia Galef: Why you think you’re right — even if you’re wrong

S’agissant d’une conférence, le ton est très oral et le texte fait parfois référence à des images passant à l’écran mais cela ne nuit pas à la bonne compréhension du propos.

Et maintenant, j’aimerais que vous imaginiez jouer un rôle différent, celui de l’éclaireur. Le rôle de l’éclaireur n’est pas d’attaquer ou de défendre. Son rôle est de comprendre. L’éclaireur est celui qui part en avant, qui cartographie le terrain, qui identifie les obstacles potentiels. Et il peut espérer découvrir, disons, qu’il existe un gué à un endroit pratique de la rivière. Mais avant tout, l’éclaireur veut savoir ce qu’il y a vraiment là-bas, aussi précisément que possible.

Et dans une vraie armée, le fantassin et l’éclaireur sont tous les deux essentiels. Mais vous pouvez aussi penser à ces rôles comme à un état d’esprit – une métaphore de comment chacun de nous évalue les idées et les informations de nos vies quotidiennes.

Ce que je vais vous dire aujourd’hui est qu’avoir un bon jugement, faire des prédictions réalistes est surtout une question de quel état d’esprit vous choisissez.

Pour illustrer ces états d’esprit en action, je vais vous ramener dans la France du XIXème siècle, lorsque ce bout de papier à l’air innocent a déclenché l’un des plus grands scandales politiques de l’Histoire. Il a été découvert en 1894 par des officiers français. Il était froissé et déchiré au fond d’une corbeille, mais lorsqu’ils l’ont reconstitué, ils ont découvert que quelqu’un dans leurs rangs avaient vendu des secrets militaires à l’Allemagne.

Alors ils ont lancé une grande enquête, et leurs soupçons ont rapidement convergé sur cet homme : Alfred Dreyfus. Il avait un passé brillant, aucun acte répréhensible à se reprocher, aucune motivation pour commettre cela d’aussi loin qu’ils puissent en juger. Mais Dreyfus était le seul officier juif à ce niveau de grade dans l’armée française et, malheureusement, à cette époque, l’armée française était farouchement antisémite.

Ils ont comparé l’écriture manuscrite de Dreyfus à celle du mémo et ont conclu qu’elles coïncidaient, même si d’autres experts professionnels de la graphologie étaient bien moins confiants dans ladite similarité, mais c’est pas grave.

Ils ont continué et fouillé l’appartement de Dreyfus, en cherchant quelque signe d’espionnage que ce soit. Ils ont épluché ses dossier et ils n’ont rien trouvé. Et ça les a juste convaincu que non seulement Dreyfus était coupable mais en plus très fourbe car, manifestement, il avait réussi à cacher toutes les preuves avant qu’ils ne les trouvent.

Ensuite, ils sont allé plus loin et ont fouillé son histoire personnelle à la recherche de détails incriminant. Ils ont parlé à ses professeurs et découvert qu’il avait étudié des langues étrangères à l’école, ce qui montrait bien son désir de conspirer en faveur de gouvernements étrangers plus tard.

Ses professeurs se rappelaient aussi qu’il avait une bonne mémoire, ce qui était vraiment suspicieux non ? Vous savez, parce qu’un espion doit se souvenir de beaucoup de choses.

Puis l’affaire est allé au tribunal, et Dreyfus a été déclaré coupable. En conséquence, ils l’ont fait mené en place publique et on rituellement arraché ses insignes de son uniforme et brisé son épée. Ce qui fut appelé la Dégradation de Dreyfus. Et ils l’ont condamné à l’emprisonnement à vie sur les justement nommées Île du Diable, des rochers dénudés au large de l’Amérique du Sud.

Donc il est parti là-bas, et là-bas il a passé ses jours seuls, à écrire des lettres au gouvernement français en les suppliant de rouvrir son dossier pour qu’ils puissent découvrir son innocence. Mais dans sa grande majorité, la France considéré que l’affaire était close.

Une des choses qui est vraiment intéressante au sujet de l’Affaire Dreyfus, est la question de pourquoi les officiers étaient tellement convaincus qu’il était coupable. Je veux dire, vous pourriez penser que c’était une machination contre lui, qu’ils essayaient intentionnellement de monter tout cela contre lui. Mais les historiens ne pensent pas que c’est ce qui s’est passé.

Pour ce que nous pouvons en dire, les officiers croyaient sincèrement que le dossier contre Dreyfus était solide. Ce qui devrait vous faire demander «  Qu’est ce que cela veut dire de l’esprit humain qu’il soit possible de trouver des preuves aussi faiblardes suffisantes pour condamner un homme ? »

Et bien, c’est un exemple de ce que les scientifiques appellent « le raisonnement motivé ». C’est un phénomène dans lequel nos motivations inconscientes, nos désirs et nos peurs, modèlent la façon dont nous interprétons les informations.

Certaines informations, certaines idées, nous semblent être nos alliés : nous voulons qu’elles « gagnent », nous voulons les défendre. Et au contraire, d’autres informations, d’autres idées, sont nos ennemis et nous voulons les abattre. Voilà pourquoi j’appelle le raisonnement motivé « l’état d’esprit du fantassin ».

Il est probable que la majorité d’entre vous n’a jamais persécuté officier français juif pour haute trahison, du moins je suppose, mais peut-être que vous suivez le sport ou la politique, donc vous avez peut-être remarqué que lorsque l’arbitre juge que votre équipe a fait une faute, par exemple, vous êtes très motivé pour trouver des raisons expliquant pourquoi il a tort. Mais s’il décide que c’est l’autre équipe qui a fait une faute – Génial ! Voilà un jugement honnête, et n’allons pas y regarder de trop près.

Ou peut-être que vous avez lu un article ou une étude s’intéressant à un sujet politique controversé, disons la peine capitale. Et comme les chercheurs l’ont démontré , si vous supportez cette dernière et que l’étude montre qu’elle n’est pas efficace, alors vous êtes extrêmement motivé pour trouver toutes les raisons démontrant que l’étude a été mal conçue. Mais si elle montre une efficacité, alors c’est une bonne étude.

Et vice-versa : si vous êtes contre la peine de mort, c’est la même chose.

Notre jugement est fortement influencé, sans que nous en ayons conscience, par le côté que nous désirons voir gagner. Et cela tout le temps. Cela modèle la façon dont nous pensons à notre santé, nos relations, comment nous décidons de voter, ce que nous considérons comme juste ou éthique. Ce qui est le plus effrayant pour moi à propos du raisonnement motivé (l’état d’esprit du fantassin), est à quel point cela est inconscient.

On peut penser que nous sommes honnête et en train de tenir un raisonnement objectif et quand même tout faire pour ruiner la vie d’un homme innocent.

Cependant, et heureusement pour Dreyfus, cette histoire n’est pas finie. Voici le colonel Picquart, c’est un autre officier très haut gradé dans l’armée française et, comme la plupart des gens, il suppose que Dreyfus est coupable. Et tout comme la plupart des gens dans l’armée, il était au moins vaguement antisémite.

Mais à un certain moment, Picquart a commencé à se demander « Et si tout le monde se trompait sur Dreyfus ? » Ce qui est arrivé est qu’il a découvert que les fuites avaient continué, même après que Dreyfus ait été emprisonné. Et il avait aussi découvert qu’un autre officier avait une écriture qui correspondait parfaitement avec celle du mémo, bien plus que celle de Dreyfus.

Donc il a apporté ces preuves à ses supérieurs, mais à son grand désarroi, ils s’en sont fichus ou ont rationalisé de manière très élaboré pour expliquer ces découvertes. Des choses du style « Et bien Picquart, tout ce que vous avez réussi à montrer est qu’il y a un autre espion qui a appris à parfaitement imiter l’écriture de Dreyfus et qui a pris le relais après qu’il soit tombé. Mais Dreyfus est quand même coupable. »

Finalement, Picquart a réussi à faire exonérer Dreyfus, mais cela lui a pris 10 ans et il a passé une partie de ce temps en prison pour déloyauté à l’égard de l’armée.

Beaucoup de gens ont le sentiment que Picquart ne peut pas être le héros de cette histoire car il était antisémite, et que c’est mal, et je suis d’accord avec ça. Mais personnellement, pour moi, le fait que Picquart ait été antisémite rend ses actions encore plus admirables, parce qu’il partageait les mêmes préjugés, les mêmes raisons d’être biaisé, avec les officiers qui l’entouraient, mais sa motivation pour découvrir la vérité et la faire éclater au grand jour l’a poussé à dépasser cela.

Donc pour moi, Picquart est iconique de ce que j’appelle « l’état d’esprit de l’éclaireur ». C’est l’envie de ne pas faire gagner ou perdre une idée, mais juste être motivé d’aller voir ce qu’il y a, aussi honnêtement et précisément que possible, même si cela n’est ni pratique ni agréable à l’esprit.

Cet état d’esprit est vraiment ce qui me passionne, et j’ai passé les dernières années à étudier et essayer de comprendre ce qui déclenche cet état d’esprit.

Pourquoi est-ce que certaines personnes, au moins à un certain niveau, sont-elles capables de trancher à travers leurs propres préjugés, biais et motivations et juste essayer de voir les faits et les preuves aussi objectivement que possible ?

Et la réponse c’est l’émotion. Donc tout comme l’état d’esprit du fantassin est ancré dans les émotions dans la défensive et l’attachement à sa « tribu », l’esprit d’éclaireur l’est, lui aussi. Ce sont simplement d’autres émotions. Par exemple, les éclaireurs sont curieux, ils sont plus susceptibles de déclarer qu’ils ont du plaisir lorsqu’ils rencontrent une nouvelle information ou un détail permettant de résoudre un puzzle. Ils sont plus susceptibles d’être intrigués lorsqu’ils rencontrent quelque-chose qui va à l’encontre de leurs idées préconçues.

Ils ont également des valeurs différentes comme avoir plus tendance à dire qu’ils pensent qu’il est bien de tester ses propres croyances, et moins tendance à déclarer que quelqu’un qui change d’avis semble faible. Et par dessus tout, les éclaireurs sont terre à terre, ce qui veut dire qu’ils se voient comme des personnes qui ne sont pas particulièrement attacher à savoir si ils ont raison ou tort sur tel ou tel sujet.

Alors, si ils croient que la peine capitale est efficace est qu’ils tombent sur une étude montrant qu’ils ont tort, ils vont peut-être se dire « Ha, on dirait bien que j’ai tort, ça ne veut pas dire que je suis quelqu’un de mauvais ou de stupide ».

Cet ensemble de traits, ont découvert les chercheurs – et moi aussi incidemment – prédispose à un bon jugement. Et le point-clé à retenir pour vous est qu’ils n’ont pas de rapport avec si vous êtes intelligent ou non, ni avec votre niveau d’éducation. En fait, ils ne sont pas tellement corrélés avec le QI du tout, ils sont fonction de ce que vous ressentez.

Il y a une citation sur laquelle j’aime revenir souvent, qui est de St Exupéry, c’est l’auteur du Petit Prince :

 « Si tu veux construire un bateau, ne rassemble pas tes hommes et femmes pour leur donner des ordres, pour expliquer chaque détail, pour leur dire où trouver chaque chose… Si tu veux construire un bateau, fais naître dans le cœur de tes hommes et femmes le désir de la mer. »

En d’autres termes, pour moi, si nous voulons vraiment améliorer nos capacités de jugement en tant qu’individus ou comme sociétés, ce dont nous avons le plus besoin n’est pas plus d’éducation en logique, en rhétorique, en probabilité ou en économie, même si toutes ces choses ont bien sûr de la valeur. Ce dont nous avons le plus besoin pour bien utiliser tous ces principes, c’est un état d’esprit d’éclaireur, de changer la façon dont nous ressentons les choses.

Nous devons apprendre comment nous sentir fiers au lieu d’avoir honte lorsque nous remarquons que nous aurions bien pu avoir tort à propos de quelque chose, nous devons apprendre à nous sentir intrigués et non pas sur la défensive lorsque nous rencontrons une information qui contredit nos croyances.

Donc la question avec laquelle j’aimerais que vous repartiez est celle-ci : « De quoi avez-vous le plus envie ? Aspirez-vous à défendre vos propres croyances ? Ou à voir le monde aussi clairement que possible ? »

Merci.

am5yg1rq

maeelk

La face obscure des médecines alternatives – Samantha Selinger-Morris

Par : Maeelk

Sarah Mathieson voulait juste mettre toutes les chances de son côté pour tomber enceinte, donc elle a fait ce que nombre d’entre nous aurait fait : elle a cherché sur le web, évalué les options existantes… et est allée chez un naturopathe qui lui a prescrit 5 bouteilles d’un complément alimentaire.

Quand elle a commencé à avoir mal aux articulations, elle est retourné voir son naturopathe… qui lui a prescrit 16 bouteilles supplémentaires.

Cet article est une traduction de : The dark side of alternative health treatments

Le Dr Kerry Phelps, qui soutient les thérapies complémentaires basées sur la science et a présidé à la fois l’Australian Mediacal Association et l’Asutralasian Integrative Medical Association, a pris Mathieson en charge. « Elle est venu me voir en me disant qu’elle se sentait de plus en plus mal, douloureuse, fatiguée et mal à l’aise », il s’est avéré qu’elle avait ingéré certains micronitruments « à des niveaux toxiques ».

Pourtant elle fait partie des chanceux : après avoir arrêté tous les compléments et s’être fait prescrire un apport standard de vitamine pré-grossesse, elle a pu envisager une grossesse saine. Mais elle est un parfait exemple d’une tendance inquiétante que Phelps observe dans sa pratique quotidienne : des gens éduqués – principalement des femmes – devenant victimes de praticiens alternatifs non qualifiés, trouvés la plupart du temps sur le web.

« Elles sont à la recherche de réponse, pas satisfaites de  »Voilà votre ordonnance, au revoir » » indique Phelps, qui a écrit son livre, Ultimate Wellness, en partie à cause de son expérience avec ce genre de patients. « Elles sont préparées à investir du temps, de l’énergie et du capital intellectuel dans leur santé ; mais la question est : d’où tiennent elles ces informations ? Dans certains cas, elles les obtiennent de bons sites internet, et dans d’autres, de sites de mauvaise qualité et/ou de praticiens non qualifiés. »

Ces derniers temps, les thérapies alternatives ont fait les gros titres des journaux. Jess Ainscough, l’ex- journaliste derrière le populaire blog The Wellness Warrior, est décédée du cancer en Février à l’âge de 30 ans après avoir suivi – et promu – un régime contre le cancer constitué principalement de fruits, de légumes et de lavements au café.

Et le guérisseur chinois auto-proclamé Hongchi Xiao, qui faisait la promotion de ses services sur Facebook, a eu son « heure de gloire » en Avril lorsqu’un jeune garçon diabétique âgé de 7 ans, Aiden Fenton, est mort après avoir subi une séance de « thérapie par la gifle » où le patient est frappé, souvent au point d’avoir des bleus, afin de « libérer les poisons ».

Pourquoi certains d’entre nous prennent-ils conseils auprès de gourous de la « santé » plutôt que de professionnels formés de la santé ? Notamment lorsque tant de ces gourous prônent des thérapies qui sont, pour dire le moins, hautement suspectes ?

La Dr Sue Ieraci, médecin urgentiste et membre exécutive de Friends of Science in Medicine, un organisme qui lutte contre les thérapies non éprouvées scientifiquement, pense que de nombreux gourous de la santé du Web atteignent une énorme audience car ils permettent aux gens de se sentir plus en contrôle.

« Il n’est pas politiquement correct dans notre société post-moderne d’obtenir simplement vos réponses auprès de professionnels [de la santé] car c’est paternaliste et  »servi sur un plateau » » subodore-t-elle. Elle suppose que les gourous santé du web « vous font vous sentir en contrôle, parce que vous allez contre l’orthodoxie ».

Les gens qui se battent contre une maladie et n’ont pas de traitement sont particulièrement vulnérables. Comme les disciples de Kerry Riviera, une américaine qui fait la promotion (en ligne et dans son livre Healing the symptoms known as autism) de l’utilisation de lavement à l’eau de javel pour « guérir les enfants de l’autisme ». Elle croit que le dioxyde de chlore, un agent de blanchiment industriel, détruit les parasites qui « causent la maladie ».

Ces affirmations n’ont aucune base médicale et la FDA des États-Unis préviennent que ce traitement risque de causer des nausées, des vomissements sévères et des chutes de tension pouvant mettre la vie en danger.

NDT : plus d’informations sur cette page Facebook (en anglais – attention, certaines photos sont choquantes)

« Pour les gens qui se débattent avec ce genre de difficultés, cela doit vraiment être un challenge de tous les jours, donc ils cherchent quelqu’un pour compatir à leur situation et leur donner un coupable à blâmer » pense Ieraci des parents qui suivent les gourous du type de Riviera.

« Si vous allez sur plusieurs de ces sites, vous verrez qu’ils sont très bons pour flatter les gens, leur dire à quel point ils sont braves et qu’ils sont les seuls gens à ne pas suivre le  »troupeau » – les gens qui sont des moutons car ils croient ce qu’ils entendent [de la médecine établie]. »

Il y a deux ans, un homme de Brisbane âgé de 55 ans a creusé un trou de la taille d’une balle de golf sur le côté de sa tête après avoir utilisé un traitement corrosif à base de plantes appelé black salve ( »onguent noir » NDT) – une pâte souvent composée de sanguinaire du Canada et de chlorure de zinc – vendue en ligne comme pouvant « effacer » le cancer.

Phelps, qui a traité des patients qui avait utilisé ce remède déclare « ils disent aux gens ce qu’ils ont envie d’entendre, qu’ils n’auront pas besoin de subir de chimio ou de radiothérapie. Et pour être honnête, qui ne serait pas terrifié à l’idée de subir l’une ou l’autre de ces thérapies ? »

Le Dr Robert Walter, médecin généraliste à Hobart, affirme que la culure médical australienne est en partie à blâmer dans ce mouvement de pensée.

« Les praticiens alternatifs… accordent souvent plus de temps au patient » rappelle ce médecin qui a souvent eu à suivre des patients dont la condition avait été aggravée par praticiens non qualifiés. « C’est là que la profession médicale doit probablement faire un travail sur elle-même, parce que nous sommes trop pressés, trop hâtifs, les consultations sont trop brèves. »

« Si nous passions plus de temps à expliquer la médecine – et la médecine n’est pas si compliquée vous savez, c’est basiquement de la plomberie vous savez – si vous pouvez expliquer le processus de la maladie, expliquer ce dont il faut s’inquiéter et ce dont il n’est pas nécessaire de s’occuper, et juste passer un tout petit peu plus de temps avec vos patients alors je ne pense pas qu’ils iront chercher ailleurs des cures magiques à base de sorcellerie. »

S’ajoutent à cela que les pratiques alternatives sont largement dérégulées.

Les praticiens de la médecine chinoise traditionnelle, les ostéopathes et les chiropracteurs sont les seuls professionnels de la santé « alternative » à devoir s’enregistrer auprès de l’Australian Practitioner Ragulation Agency (la médecine chinoise traditionnelle n’est pas régulée en France NDT). Les autres ne rendent de comptes à aucune instance officielle.

Il existe des agences et des départements gouvernementaux, qu’ils soient d’état ou fédéraux, qui peuvent accepter les plaintes, cela inclut l’Asutralian Competition & Consumer Commission et la Therapeutics Good Administration. Mais les lourdeurs administratives et le manque de moyen – en en 2013-2014, l’ACCC a pris en charge 202.363 plaintes (pas toutes relatives à la santé) pour seulement 27 poursuites – font qu’il est difficile de les traiter toutes.

Il a fallu six ans aux autorités pour faire interdire à Homeopathy Plus !, une entreprise basée sur la côte Nord-Ouest, de vendre un « vaccin » homéopathique contre la coqueluche. En Octobre, l’entreprise et sa directrice Frances Sheffield se sont vu notifier l’interdiction de vendre leurs produits pendant 5 ans et condamné à payer un total de $138.000 d’amendes.

Mais tout ceci n’a pu avoir lieu qu’après des années d’injonctions et requêtes par l’ACCC et la TGA. A une occasion, Sheffield a refusé de publier une rétractation concernant l’affirmation qu’elle faisait sur son site Web à propos du « vaccin homéopathique », en arguant du fait qu’elle ne faisait pas de « publicité » mais qu’elle « fournissait des preuves » sur les traitements homéopathique de son entreprise.

Sheffield maintient toujours sur son site une section appelée « Inverser l’Autisme », avec des témoignages qui décrivent comment l’autisme de leur enfant a été soigné par l’homéopathie. « Melissa est passé de zéro mots à presque cinquante en une seule journée » écrit un parent.

Mais les gens ne peuvent pas être poursuivis pour avoir fait des affirmations relevant de croyances pseudo-scientifiques. « C’est comme essayer de réguler une religion, en un certain sens » rappelle l’avocat Mal Byrne, d’Adélaïde.

« Une bonne part de la difficulté c’est : comment pourriez-vous réguler quelque-chose d’aussi vague ? »

Byrne le saurait : quatorze de ses clients ont attaqué l’homéopathe d’Australie du Sud, Monika Milka, il y a trois ans pour les avoir volontairement infectés avec une bactérie et les avoir scarifié de manière irréversible après les avoir traité avec une technique appelée « biomésothérapie ». Cela implique d’injecter de la solution saline et d’autres substances sous la peau, un client avait opté pour ce traitement afin de soigner ses douleurs arthritiques, un autre pour « booster son sentiment de bien-être ». Ils n’ont obtenu que de la honte et un sentiment d’isolement.

« Vous savez, ils étaient très gênés, un bon nombre d’entre eux devait cacher [leur peau scarifiée] » indique Byrne. Certains de ses clients ont du prendre des antibiotiques pendant des années pour venir à bout de l’infection et avaient peur de toucher leurs enfant de crainte de les infecter à leur tour.

Milka a rejeté ces accusations en bloc, par l’entremise de son avocat, devant le tribunal. Elle s’est arrangée plus tard avec les 14 en dehors du tribunal mais continue de sévir comme homéopathe. En Octobre, elle a publié un communiqué sur Facebook clamant que son « Wellness Tonic » avait débarrassé sa mère de son cancer après que la chimiothérapie ait échoué.

Ceci, pour Byrne, est « une violation flagrante » à la fois du Code de Conduite d’Australie du Sud pour les Praticiens de la Santé Non-conventionnés et de la loi sur les conduites trompeuses et mensongères dans un cadre commercial. Les autorités se sont depuis saisies du dossier.

Donc, comment pouvons-nous déterminer quels traitement – et praticiens – sont sûrs et lesquels ne le sont pas ? Particulièrement lorsque certains traitements qui semblent complètement improbables ont pourtant des bases scientifiques solides…

Par exemple, la transplantation fécale microbiotique – lorsque les selles d’une personnes saines sont injectées dans le colon d’un malade – a été acceptée dans le New England Journal of Medicine en 2013 après qu’une étude ait prouvé son efficacité dans le traitement contre la bactérie Clostridium Difficile. Une infection dont les symptômes sont semblables à ceux de la maladie de Crohn et qui tue 15.000 personnes par an rien qu’aux États-Unis.

Et, même si c’est encore très controversé, certaines études en laboratoire ont montré que de fortes doses de vitamines C en intraveineuse amélioraient l’efficacité de la chimiothérapie dans le traitement de certains cancers.

Le signal d’alarme doit retentir si un praticien non issu du domaine médical vous décourage de continuer à suivre le traitement que votre médecin vous a prescrit. Les gens devraient chercher des conseils chaque fois qu’une thérapie implique ne serait-ce que le plus petit risque, notamment lorsqu’elle implique des manipulations, d’avaler quelque-chose ou de percer la peau.

Nous devrions aussi toujours penser à nous demander si, dans certaines situations, ce n’est pas surtout du soutien émotionnel que nous allons chercher conseille le Dr Sarah McKay, neuroscientifique à Sydney qui a étudié les gourous du Net.

En soulignant que ces derniers remplissent souvent ce rôle, elle demande « qui n’a pas envie d’un peu de maternage, un peu de TLC* ? »

* jeu de mot intraduisible, TLC pouvant se comprendre comme « Tender Loving Care » (soin tendre et aimant) et « Therapeutic Lifestyle Changes » (Changement Thérapeutique de Vie)

h3wy8ee0

maeelk

Complot lunaire : les réponses simples que vous attendez. Guy P. Harrison

Par : Maeelk

Quelle est la meilleure théorie de la conspiration de tous les temps ? Laquelle est la plus ambitieuse dans ses buts, si outrancière dans sa structure qu’elle mérite la palme d’or ?

Désolé Reopen 9/11, bel effort mais vous n’aurez pas la dernière marche du podium. Pas plus que les chemtrails d’ailleurs, ni que les Illuminatis, l’Antéchrist et les pyramidiots divers et variés, qui eux aussi voient leurs attentes douchées puisque la théorie de la conspiration la plus barrée qui ait jamais germé dans un esprit humain est certainement celle concernant la Mission Apollo 11 et l’alunissage du 20 juillet 1969.

Cet article est une traduction de : The Greatest Conspiracy Theory of All Time

Celle-là est tellement ambitieuse et audacieuse que la Terre elle-même ne lui suffit pas.

Au cas où vous n’y auriez pas encore prêté attention, des millions de gens pourtant sobres et dotés de systèmes nerveux normaux situés partout dans le monde récusent le fait que les six alunissages des missions Apollo des années 1960 et 1970 aient été de vrais événements. Et des millions d’autres expriment des doutes significatifs sur le fait de savoir si oui ou non ils ont vraiment eu lieu.

Pour certains, ils ne méritent pas qu’on leur prêtent attention parce que c’est trop dingue. Je ne suis pas d’accord et cela pour deux raisons : tout d’abord, il est assez triste que ces « croyants » passent à coté de ce qui est certainement l’un des plus beaux achèvements de l’aventure humaine – ils sont humains eux aussi et devraient eux aussi ressentir l’émerveillement et la joie qui viennent avec le fait de se sentir une part de cette épopée.

Ensuite, la croyance dans le canular lunaire devrait être un sujet d’étude car il nous offre un exemple brillant de comment n’importe quoi peut-être cru lorsque les eaux intellectuelles sont troublées et que les gens échouent à protéger leurs pensées et leur dignité avec un bon esprit critique.

Faites une petite liste des événements historiques aussi importants que spectaculaires et il devient évident que les missions Apollo étaient uniques dans la façon dont elles ont été documentées. Il n’y avait pas de caméras lors de la bataille de Marathon, pas de journalistes de guerre lors de la Révolution Française et la conquête du bassin indo-européen par Gengis Khan n’a fait l’objet d’aucune conférence de presse. Pas plus qu’il n’y a eu la moindre couverture de la fabrication du premier outil en pierre, la majorité de la 2ème Guerre Mondiale s’est déroulée en dehors du champs des caméras.

Comparé à tout cela, toutes les étapes qu’a franchi la NASA dans son effort pour atteindre la Lune a été méticuleusement documenté du début à la fin. Cette tâche titanesque a laissé derrière elle des milliers et des milliers d’archives manuscrites et tapuscrites. Des objets, des matériaux tangibles, des missions lunaires sont actuellement exposés dans de nombreux musées tout autour du monde. Sans même parler de la Lune elle-même : les spationautes sont revenus avec plus de 380kg de roches lunaires qui ont été partagés entre chercheurs afin d’êtres étudiés dans de nombreux pays pendant des décennies. Et aucun de ces experts n’a jamais exprimé le moindre doute sur leur origine.

Franchir 384.000km d’espace froid et hostile a constitué un exploit qui dépassait sa propre époque, un moment incroyable d’intelligence et de courage. J’ai discuté de ce complot avec des croyants de plusieurs pays et j’ai pu constaté que les affirmations suivantes étaient les plus courantes. J’aurais quelques pistes de réfutations ici, gardez-les sous la main afin de pouvoir répondre rapidement et facilement chaque fois que quelqu’un vous affirmera que l’un des plus grands achèvement de l’Humanité ne fut qu’un film de studio réalisé à Hollywood.

Le gouvernement états-unien a déjà menti sur d’autres choses. Bien sûr que ça a déjà été le cas, et ça le sera encore. Cependant, pointer du doigt le fait qu’un gouvernement peut mentir ne prouve pas que ça a été le cas dans ce cas précis. Le Watergate ne prouve pas le Moongate.

L’absence d’étoiles dans les photographies. Les appareils photos étaient réglées à une certaine exposition afin de photographier correctement des spationautes bien éclairés portant des combinaisons blanches ainsi que le (très réfléchissant) module lunaire, pas la pâle lueur d’étoiles distantes se détachant sur un fond noir. Si les appareils avaient été réglés pour que les étoiles apparaissent, tout le reste aurait été surexposé.

Pas de cratère d’éjection en dessous du module lunaire. Afin d’alunir, le moteur de descente du module lunaire a été mis au ralenti puis arrêté avant le contact avec la surface lunaire. Si le moteur avait utilisé un bon pourcentage de la poussé qu’il était capable de développer, le module n’aurait jamais pu alunir.

Le drapeau bougeait. Le drapeau américain qui a été déployé sur une barre étendue horizontalement à partir du mât ne bougeait pas à cause du vent mais à cause des efforts faits pour le planter dans le sol lunaire.

Ils ont menti. Des centaines de milliers de membres du personnel et de sous-traitants de la NASA pourraient avoir menti, puis continué à mentir pendant des décennies… mais j’en doute. Ces dernières années, j’ai interrogé des dizaines d’ingénieurs, de membres des missions de contrôle et de spationautes, peut-être qu’ils m’ont tous menti… mais j’en doute. Trop de gens racontent la même histoire, arrivé à un certain point, bidonner un truc pareil paraîtrait presque facile comparé au défi que serait le fait de s’assurer que des milliers de conspirateurs continuent de mentir toutes ces années.

Les États-Unis ont menti car ils étaient déterminé à gagner une guerre de communication publique avec l’URSS. Et l’URSS aurait tout eu à gagner à démontrer une fraude aussi vaste, mais les soviétiques, tout aussi compétents en technologie spatiale à l’époque, savaient que l’alunissage était réel et l’ont reconnu sans difficulté.

La NASA avait les compétences pour tout bidonner. Peut-être que la NASA aurait pu produire des vidéos convaincantes tournées en studio et assez bonnes pour leurrer des non-experts. Mais pourquoi le faire tant de fois ? Il y a eu 9 missions Apollo vers la Lune, dont 6 ont aluni. Les équipages d’Apollo 16 et Aplollo 17 ont passé trois jours sur place.

Pourquoi ? Si tout cela n’était qu’une vaste blague, pourquoi avoir répété l’opération en multipliant les risques d’être percé à jour ? Pourquoi rendre nécessaire le fait pour tellement de spationautes et de personnels au sol de continuer à mentir et à tout cacher ? Si tout cela avait été un canular, est-ce que ça n’aurait pas été bien plus logique que la NASA n’en fasse qu’un seul, organise un joli défilé puis passe rapidement à autre chose ?

Comme toutes les théories du complot manquant de preuves, celui-ci repose principalement sur l’absence d’esprit critique. Ne laissez pas les croyances irrationnelles de ce genre vous squatter le crâne sans aucune résistance : forcez-les à gagner leur place à l’aide de preuves et d’argumentaires logiques.

Assurez-vous que vous comprenez et n’oubliez jamais à quel point l’esprit humain est vulnérable quand il s’agit de se faire avoir par les affirmations les plus improbables (et que c’est même une de ses principales caractéristiques). Personne n’est à l’abri de se faire avoir.

Il n’y a pas de honte à avoir de cette vulnérabilité, mais pas d’excuses non plus à se trouver lorsqu’on cède à la paresse et la passivité intellectuelle. Mettez de l’ordre dans votre jardin quand on vous propose une théorie de ce genre, ne restez pas coi.

Travaillez à démonter vos propres mauvaises conclusions et tendez une main secourable aux autres afin qu’ils fassent de même !

moon-landing-hoax-1680x10502

maeelk

Elle a cliqué sur ce lien et sa vie a changé. Découvrez comment.

Par : Maeelk

Internet est si vaste que vous pouvez trouver à peu près n’importe quoi en ligne, aussi déraisonnable et bizarre que ce soit. Donc employer un filtre efficace est souvent nécessaire pour distinguer faits et fictions et éviter que les gens ne contribuent à propager n’importe quoi sans faire attention puisque les histoires virales exploitent nos biais afin de vous faire partager, liker ou retweeter.

Cette article est une traduction de : How to Avoid Falling for Bullshit on the Internet

Vous êtes fatigués de lire des histoires débiles sur la fin du monde, la nouvelle variété de chou qui va soigner le cancer, pourquoi tousser peut aider à empêcher une attaque cardiaque ou toute autre inanité virale si souvent partagée sur les réseaux sociaux ?

Alors voici un petit guide d’introduction sur comment éviter de vous faire avoir par une connerie sur le net.

Attendez plus de faits

L’un des plus gros risques quand on parle de se faire avoir sur le Web, c’est de réagir trop vite. Quand une nouvelle histoire ou vidéo virale frappe, elle est souvent partagée de milliers et des milliers de fois en une très courte période de temps. Les vidéos sont faites de ça, les posts Facebooks sont faits de ça et les tweets et les retweets inondent la toile mondiale.

Gardez la tête froide, prenez connaissance de l’histoire pour vous même mais ne vous faites pas avoir par les trucs de manipulations émotionnelles qui vous supplient de cliquer sur « Partager » là, maintenant, de suite.

Ne partagez pas les choses qui vous font de l’œil si vous n’avez pas pris un peu de temps pour vérifier les infos. La seule chose que vous réussiriez à faire c’est propager du n’importe quoi autour de vous, et risquer de passer pour une buse quand l’info se révélera fausse.

Vérifiez sur HoaxBuster et les autres sources sceptiques

Tout le monde n’a pas le temps ou l’envie de toujours tout vérifier minutieusement. C’est normal, les gens ont différents centres d’intérêt.

Cependant, il existe des méthodes de vérification faciles, efficaces et rapides : cherchez sur Google et ajoutez le terme « hoaxbuster » après. Par exemple tapez « données personnelles facebook hoaxbuster » et vous arriverez ici. Il s’agit d’un site qui analyse de façon critique des affirmations et légendes urbaines peu crédibles (et qui sont parfois pourtant vraies ! ) et c’est une super ressource pour vérifier facilement le niveau de véracité d’une histoire virale. Parfois, l’histoire est un peu trop récente ou peu commune pour qu’on l’y retrouve, mais vous pouvez essayer le forum ou leur page Facebook (où il y a moins de pub NDT…).

Ce n’est pas le seul site à faire du fact-checking sur le web : vous pouvez aussi aller chercher sur Google (ou Qwant ou Duckduckgo NDT) et ajouter les termes « sceptique », « hoax », « mythe » ou « fake » (ou d’autres termes du genre) afin de trouver des commentaires critiques.

Bon, et ne faites pas non plus automatiquement confiance à ces résultats parce qu’eux aussi peuvent s’être plantés. À la place, essayez de faire la part des choses entre ce qui vous semble le plus raisonnable : l’info virale ou ses critiques (et si vous vous êtes trompé, il n’y a pas de honte à modifier ou supprimer votre post).

Pour des infos plus spécifiques, comme sur la médecine, ajoutez des termes comme « HAS » (Haute Autorité de Santé) ou « OMS » afin de tomber sur des sites auxquels vous pouvez faire confiance . Si l’histoire virale mentionne des organisations comme la NASA, allez-y et ajouter ce terme aussi (ou utilisez « site:nasa.gov » avec Google pour voir si vous pouvez trouver des infos dessus directement sur leur site – et si vous ne parlez pas anglais… essayez avec GoogleTrad ça vous donnera toujours une idée).

Cherchez des « drapeaux rouges » en faisant attention aux faits !

Les histoires virales qui sont fausses font souvent des erreurs factuelles basiques. Est ce que quelque chose a l’air hautement improbable ou manifestement faux ? Est ce que l’histoire nous dit que la NASA a découvert quelque chose tout en promouvant une théorie de la conspiration ou fait des affirmations n’importequoitesques (comme affirmer qu’il n’y a pas de gravité dans l’espace) ?

Alors vous avez de bonnes raisons d’être sceptique envers cette histoire.

L’idée de base c’est ça : si l’histoire virale fait des raccourcis ou s’arrange avec les faits, il y a de bonnes chances pour qu’elle fasse la même chose avec la vérité de ce qui en constitue le socle. Si une source fait la promotion d’une théorie de la conspiration, vous ne devriez généralement pas lui faire confiance.

Ne faites pas confiance aux sites bidons ou satiriques :

Certaines pages webs, pages Facebook ou chaînes Youtube comme « Espritmétasciencepsychique.» , « On sait ce que l’on veut que l’on cache » ou « Dégénère » sont des sites pourris bien connus et il est inutile de les considérer comme fiables. Ne les utilisez pas comme référence pour quelque affirmation scientifique que ce soit et partagez encore moins leurs publications.

Et la liste des pages de ce genre s’allonge tous les jours, vous avez dû en voir passer vous même (elles se contredisent même assez souvent). Alors si vous aimez la science… faites attention à ce que vous partagez.

Et il ne faut pas se méfier que de ce genre d’arnaque intellectuelle : il existe de nombreux sites qui prétendent être des sites d’infos mais qui sont en réalité des sites parodiques ou satiriques et qui ne proposent aucun contenu de confiance d’aucune sorte mais seulement des infos bidons. On peut citer par exemple Le Gorafi, le Daily Béret, ScienceInfo, NordPresse, Al Manchar ou encore l’Agence France Presque et bien d’autres encore. Vérifiez toujours la nature du site sur lequel l’information apparaît, en farfouillant un minimum, vous devriez pouvoir facilement tomber sur des « nouvelles » manifestement fausses ou une note informant le lecteur qu’il est sur un site humoristique.

Est ce que l’histoire s’adresse à vos biais ?

S’ il ne devait y avoir aucun article critique disponible à ce moment, attendez que plus d’infos arrivent ou essayez de passer un peu de temps à analyser le type de biais auquel l’histoire fait appel. Est-ce une histoire à propos d’un politicien que les gens approuvent à 100 % ou au contraire détestent intensément ? Est-ce que l’histoire aurait un fort impact sur la popularité de telle ou telle idéologie si elle devait s’avérer vraie ? Est ce que c’est un sujet sensible comme le féminisme, l’immigration, les produits chimiques… ?

Si l’histoire en appelle à un biais particulier, faites attention : être conforme aux biais des gens est une des meilleures façons pour une histoire de devenir virale. Et faites d’autant plus attention si elle s’adresse à vos propres biais.

En raison d’un truc appelé « biais de confirmation », les humains ont une grosse tendance à accepter aveuglément tout ce qui va dans leur sens, tout en étant hautement critiques envers tout ce qui contredit leurs convictions.

Est-ce que l’histoire vous semble trop bien conforme à ce que vous attendez du monde ? Méfiance méfiance…

Essayez d’identifier à quels biais humains et positions politiques, intellectuelles, philosophiques, etc l’histoire fait appel. Militants nationalistes ? Activistes anti-OGM ? Propagandistes des chemtrails ? Karma dans ta face ?

La meilleure façon de réduire l’impact des biais est d’être au courant de leur existence et de l’influence qu’ils ont sur vous (et la façon dont vous réagissez à cette histoire de petite fille qui a besoin d’un « like » de plus pour être opérée – en fait c’est surtout le propriétaire de la page qui a besoin de vos informations personnelles, mais passons).

Attention cependant : aucune méthode n’est parfaite et des biais « résiduels » existeront toujours.

Quelles témoignages sont mis en avant ? Par qui ? A quoi font-ils appel ?

S’il s’agit d’une histoire virale qui n’implique pas la science ou une technologie mais la politique ou des événements sociétaux, faire des recherches critiques devient encore plus complexe. Tandis que les faits se précisent, essayer de déterminer quels sont les témoignages mis en avant dans la presse et les médias sociaux.

Qu’en pensent les gens ayant des idées différentes des vôtres ? Est-ce qu’il vous semble que leur point de vue est affecté par leurs biais ? Est-ce qu’un groupe en particulier est montré du doigt ? Est-ce que certains essaient de minimiser l’info en faisant des comparaisons bizarres ?

Pour chaque événement difficile à analyser, lorsque les faits ne pourront pas être tout à fait précis avant plusieurs semaines ou ont lieu si loin que les médias traditionnels ont du mal à obtenir des infos précises, il faut rester très prudent.

Sur quels faits tout le monde semble-t-il s’accorder ? Essayer d’en trouver et servez-vous-en comme base de recherche pour essayer de déterminer les biais de chacun.

Nan, sans déconner, prenez le temps de la réflexion

Les histoires deviennent virales à cause d’individus (comme… vous et… moi), chaque fois que vous partagez une information, vous la présentez à potentiellement des centaines de personnes, qui risquent de faire la même chose que vous.

Faites votre part et ne partagez pas une histoire sans l’avoir (au moins un peu) vérifiée avant.

Et sortez de votre zone de confort , allez vous frotter à ceux qui ne pensent pas comme vous ! (NDT)

578261729

maeelk

Ces biais cognitifs que votre médecin devrait connaître. John Byrne

Par : Maeelk

Les biais cognitifs sont des erreurs systémiques qui prédisposent notre pensée à adopter un point de vue plutôt qu’un autre. La méthode scientifique a été développée, en plus d’autres raisons, pour contrer ces biais afin d’obtenir des connaissances objectives.

Cet article est une traduction de : Cognitive Biases

Les biais sont souvent le résultat d’utilisation de raccourcis de la pensée, appelés heuristique. De tels raccourcis nous permettent de prendre des décisions rapides concernant des problèmes néanmoins complexes en suivant des règles approximatives et instinctives. Pour utiles qu’elles soient en de nombreuses situations (comme par exemple pour déterminer l’humeur de quelqu’un que vous venez de rencontrer) les heuristiques peuvent nous égarer. De nombreux problèmes devraient être examinés avec attention et recul, or, lorsque nous cédons à nos heuristiques rapides de la pensée, nous finissons souvent par agir en fonction de nos biais.

Le site de l’Institut National pour la Santé indique que ces biais sont… « des façons de voir partielles ou préjudiciables qui affecte l’interprétation d’un problème. »

« En recherche clinique, un biais est un facteur systémique plutôt que l’intervention d’un intérêt qui affecte la magnitude (c’est à dire qui tend à faire augmenter ou décroître) une différence observée entre les résultats d’un groupe suivant un traitement et le groupe contrôle. »

« Les biais diminuent la justesse ( mais pas forcément la précision) d’une observation. »

Nous ne jugeons pas rationnellement les nouvelles informations, du moins pas aussi rationnellement que nous aimons à le penser. La façon dont nous voyons le monde est différent de ce que le monde est en réalité.

Nous développons des modèles du monde dans notre esprit qui sont cohérents avec nos points de vue sur lui et nous-même. Les informations qui entrent en conflit avec notre vision interne du monde et ce que nous pensons de nous-même créent le sentiment désagréable appelé dissonance cognitive. Et nos biais nous empêchent de recevoir ces nouvelles informations objectivement : ils nous aident à préserver notre image mentale du monde et celle que nous nous faisons de nous-même.

Les psychologues ont identifié de nombreux biais cognitifs, ils entrent en jeu dans notre pensée quotidienne. Les docteurs sceptiques gagneraient à se familiariser avec eux, la liste ci-dessous n’est pas complète mais sont importants pour comprendre les sources d’erreurs inhérentes à notre réflexion.

Une liste plus exhaustive peut être trouvé sur Wikipedia.

Le biais de confirmation :

Le biais de confirmation est la tendance que nous avons à ne chercher ou à interpréter que les informations d’une façons qui confirme nos préconceptions, tout en ignorant celles qui ne les supportent pas. Nous avons discuté de cela dans la section What is Science.

Il est naturel de ne chercher que les données qui soutiennent nos idées car nous nous y attachons émotionnellement.

Nous expérimentons des dissonances cognitives lorsque nous nous trouvons en présence de preuves qu suggèrent que nos idées sont fausses, ce qui est une expérience déplaisante. Nombreux sont ceux qui évitent cette possibilité en ne recherchant que les informations allant dans leur sens. En d’autres mots, ils oublient le critère de réfutabilité de Popper.

Le biais de confirmation est le carburant de nombreuses affirmations. Un simple exemple est cele qui veut que les urgences sont plus occupées les nuits de pleine Lune. Bien des gens tiennent cette affirmation pour vraie et comme allant de soi, allant jusqu’à jurer sur leur expérience personnelle.

Cependant, cette affirmation n’est pas supportée par les preuves. En fait, les preuves la contredisent, de la même façon qu’il n’y a pas d’augmentation mesurable des suicides à la cette époque.

Donc l’affirmation se révèle être un mythe (appelons-le le Mythe de la Pleine Lune), mais pourquoi est-il si répandu dans la culture populaire ?

Une fois qu’une idée telle que le Mythe de la Pleine Lune devient connu, un certain nombre de personnes travaillant aux urgences auront tendance à se souvenir plus spécifiquement de tous les événements se passant durant les nuits de pleine Lune. Et les urgences sont des endroits où des choses très inhabituelles arrivent tout le temps.

Les partisans du mythe pourraient bien aller au travail en se disant « Oh non, Il y a la pleine Lune ce soir, ça va encore être une nuit infernale. » Et une telle pensée peut conditionner cette personne à se rappeler des événements ayant lieu ces nuits-là, tout en oubliant tout ce qui se passe aussi les nuits « normales ».

Les médecins peuvent avoir des ennuis en se reposant sur certains traitements avec lesquels ils ont eu quelques « succès » précédemment. Un praticien pourrait avoir prescrit un jour un traitement controversé (et potentiellement dangereux) à un patient présentant certains symptômes. Les symptômes peuvent avoir disparu pour une raison X ou Y et le patient remerciera tout de même le praticien pour le travail bien fait.

Ce dernier continuera donc à prescrire le traitement aux autres patients présentant les même symptômes, si quelques uns se sentent mieux et remercie de la même façon le médecin, qui aura tendance à se rappeler de ces cas avec fierté, tout en oubliant les patients s ‘étant plaint que leur état ne s’améliorait pas ou que les effets secondaires étaient trop importants.

La phrase « se souvenirs des succès, oublier les échecs » décrit l’essence du biais de confirmation. Les chercheurs doivent donc toujours employer au maximum l’aveuglement afin de réduire le biais de confirmation au maximum : si les données sont collectées sans que la personne qui les reccueille ne soit en mesure de dire si la variable testée est présente ou absente, alors elle n’aura aucune raison d’accorder plus d’importance à une partie de la donnée qu’à une autre.

Les médecins sceptiques devraient donc toujours faire attention à ne pas se reposer sur les souvenirs qu’ils ont de leurs expériences passées.

Un concept proche est celui de la Théorie de l’Exposition Sélective qui consiste en :

  • la perception sélective (tendance qu’on nos attentes à modifier nos perceptions – si ils sont confrontés à des données rebutantes, les gens n’y font pas attention ou les déforment pour les faire correspondre à leurs attentes)

  • l’exposition sélective (les gens veillent à ne pas communiquer avec le parti adverse)

  • la rétention sélective (les gens oublient purement et simplement les informations rebutantes).

Le biais de sélection :

Le biais de sélection est une distorsion des preuves ou des données qui émerge de la façon dont nous les collectons ou de la façon dont les échantillons étudiés sont choisis. Cela est particulièrement important dans les études médicales.

Par exemple, si quelqu’un désire étudier les effets d’un  »complément régime » sur l’embonpoint, il est possible que l’on recrute des volontaires en communiquant à travers des publications liées au sport et/ou aux régimes. Si 100 personnes se manifestent pour participer volontairement à l’étude et que l’on choisit comme groupe contrôle 100 étudiant de l’université où se déroule l’étude, alors le scénario sera fondamentalement biaisé en faveur d’un résultat positif.

Ceci s’explique par le fait que les deux groupes ne sont pas comparables : on peut facilement prédire que le groupe test aura de bien meilleurs résultats en terme de perte de poids, ce dernier étant composé de gens pour qui c’est une préoccupation pré-existante. Si elle devait exister, cette étude serait totalement inutile.

Cela semble assez évident mais de nombreuses pratiques ont bénéficié du soutien d’études entachées de biais de sélection.

Les chercheurs doivent utiliser des groupes randomisés afin de réduire le biais de sélection. En attribuant au hasard les participants aux groupe test et contrôle, le biais de sélection est moins susceptible de jouer.

Le biais de publication :

Le biais de publication joue sur le système de publication des journaux scientifiques : ces derniers sont plus susceptibles de publier des études positives, plutôt que des résultats négatifs. Les résultats positifs sont vus comme étant plus susceptibles d’attirer un lectorat et de faire augmenter les ventes du journal.

Elles sont également considérées comme étant plus attractives pour les grands médias généralistes, tandis que les études ne montrant pas d’effet (ou des effets négatifs), se seraient pas aussi intéressantes.

De manière intéressante, John PA Ionnadis, a souligné dans Pourquoi la majorité des études publiées sont fausses que « dans la plupart des conceptions et mise en place des études, il est plus probable que l’affirmation étudiée soit fausse plutôt que vraie. De plus, dans de nombreux champs de recherche actuels, les découvertes annoncées pourraient bien souvent être simplement de très bonnes mesures des biais pré-existants. »

Donc, non seulement des facteurs comme les biais de confirmation et de sélection contribuent potentiellement à fausser les résultats négatifs, mais les faux positifs résultants sont plus susceptibles d’être publiés.

Une étude de 2000 du BMJ a scruté 48 revues systématiques de la fondation Cochrane et affirme que « 26 (54%) d’entre elles avaient oublié des études et dans 10, le nombre d’études manquantes était significatif. »

Par conséquent, le problème est particulièrement prévalent dans la science médicale, un outil très utile pour mettre cela à jour est le  »graphique en entonnoir » (voir Détecter le biais de publication).

Le biais de publication peut être vu comme une forme du biais de sélection de la part des éditeurs. Il présente faussement des données à la communauté scientifiques qui sont biaisées en faveur d’un effet, au lieu de présenter l’ensemble des données disponibles, – qui, prises dans leur ensemble peuvent ne montrer qu’un effet réduit, voire pas d’effet du tout.

Récemment, des responsables éditoriaux de journaux ont appelé les chercheurs à enregistrer publiquement leurs études (et leur conception) avant de les conduire. Cela permettrait à la communauté scientifique d’accéder à toutes les recherches pertinentes dans un domaine.

C’est aussi en lien avec « l’effet tiroir », dans lequel les chercheurs tendent à laisser les études négatives « dormir dans le classeur à dossier » alors qu’il vont promouvoir les études positives confirmant leurs idées préconçues et ayant de plus grandes chances d’être publiées.

Autres biais notables :

Le biais d’ancrage : décrit la tendance qu’ont les humains à trop se reposer sur les premières informations reçues (l’ancre) lors de prises de décisions.

Nous sommes largement influencés par les premières informations reçues sur une question. Par exemple : on nous demande si nous envisagerions de payer 50€ pour un objet XY, puis on nous informe que l’objet en question vaut en fait 35€. Nous avons alors tendance à penser que l’objet est une affaire car tout ce que nous avons comme élément de comparaison est le 50€ de départ.

Des études ont montré que l’ancrage peut survenir même lorsqu’un concept sans aucun rapport est présenté avant la présentation du problème.

Dans son livre Prévisiblement irrationnel : les forces cachées qui modèles nos décisions, Dan Aierly décrit une expérience maintenant classique : on fait inscrire à des étudiants les deux derniers chiffres de leur numéro de sécurité sociale, puis on leur demande d’enchérir sur des objets comme à une vente aux enchères.

Les chiffres inscrits ont agi comme une ancre sur leurs enchères : ceux qui avaient les chiffres les plus bas faisaient les enchères les plus faibles et ceux avec les plus hauts faisaient les plus fortes.

Cependant, lorsqu’on les interrogeaient, les étudiants niaient que lesdits chiffres aient pu avoir la moindre influence sur leurs actions.

Ce biais influe sur les décisions médicales bien plus que les médecins veulent bien l’admettre : prenez un patient allant consulter un spécialiste car il pense souffrir de la maladie X, ce dernier peut ne pas considérer d’autre alternatives (peut-être plus probables) car le patient lui aura déjà présenté la chose comme étant « la maladie X ».

Le biais d’attribution : erreur systémique faite lorsque les gens évaluent un comportement ou tente de lui trouver une raison (qu’il s’agisse du leur ou de celui d’une tierce personne).

Les gens tendent à attribuer leurs succès à leur propres capacités plutôt qu’aux circonstances, et de l’autre côté, ils font l’inverse pour les autres. On se dira « Je l’ai fait car je suis doué » et cependant « Il l’a fait car il a eu de la chance. »

Le revers est tout aussi vrai et on mettra ses échecs sur le dos des circonstances… et ceux des autres sur leur incompétence.

L’heuristique de disponibilité : estimer ce qui est le plus probable en fonction de ce dont on garde le plus de souvenir (ce qui est biaisé en faveur d’exemples frappants, inhabituels ou émotionnellement chargés). Cela conduit généralement à utiliser des preuves anecdotiques et des généralisations abusives comme arguments.

Si l’on prend comme exemple l’épidémie d’Ébola de 2014 en Afrique de l’Ouest, cette dernière avait fait l’objet d’une vaste couverture dans les médias et il s’agit d’une maladie effrayante sans réel traitement.

C’était un problème réel pour les nations africaines dotées de peu de moyens pour identifier et mettre en quarantaine les malades dans des délais efficaces et les médias se sont fait l’échos de centaines de décès. Quelques rares personnes ont été diagnostiqués aux États-Unis après avoir voyagé en Afrique.

Le public, médecins compris, en entendait parlait constamment et le résultat fut que lorsque des gens se présentaient en consultation avec de la fièvre à cette époque, la prise en compte d’Ébola comme étant une cause possible était vue par certains comme étant bien plus probable que d’autres maladies qui étaient pourtant infiniment plus plausibles.

La disponibilité de l’idée d’Ébola à travers la forte exposition dans les médias a fait que de nombreux patients et soignants donnaient beaucoup plus de poids à cette hypothèse qu’elle n’en avait en réalité.

La cascade de disponibilité : un processus auto-entretenu dans lequel une croyance collective gagne de plus en plus de plausibilité auprès du public au fur et à mesure de sa répétition (parfois formulée comme « il suffit de répéter suffisamment quelque-chose pour que cela devienne vrai »).

Le mouvement anti-vaccin est un bon exemple de cela : la peur des vaccins fut relancée par un article paru dans le Lancet avant d’être retiré. Rapidement, de grandes figures médiatiques dissertaient sur les dangers des vaccins et des groupes se créaient pour faire passer le mot (ce qu leur valu à leur tout l’attention des médias).

Même après que d’innombrables études aient réfuté les soit-disant dangers des vaccins, l’hystérie a continué à grandir et se trouve encore largement « disponible » pour les nouveaux parents, qui refusent donc les vaccins à leurs enfants.

Le biais d’endogroupe :notre tendance à faire (ou croire) des choses parce que de nombreuses personnes autour de nous font (ou croient) la même chose. C’est un biais en lien avec la pensée de groupe et l’instinct de horde.

Dans les années 1990, on suspectait que le vitamine E puisse aider à faire baisser le risque d »attaque cardiaque en raison de ses effets anti-oxydants. L’effet était plausible et des études furent commanditées pour savoir si il était effectivement présent.

Il devint donc commun que le médecins prescrivent de la vitamine E à leurs patients car cela semblait raisonnable, la pratique se généralisa donc et fut même promue à la télévision. Depuis ce jour, de nombreux patients viennent en consultation avec l’espoir de se voir prescrire ce médicament.

Cependant… les études ne soutiennent pas cette mode. Deux décennies et des dizaines de milliers de patients ont échoué à faire la démonstration d’un bénéfice mesurable. Et il y a un risque potentiel car ces prescriptions ont été associés avec un risque accru de cancer de la prostate. Malgré cela, de nombreux praticiens semblent persister à recommander la vitamine E et elle est toujours largement promue par les entreprises la vendant.

L’effet Duning-Kruger : tendance qu’ont les individus non-qualifiés à surestimer leurs capacités, et paradoxalement la tendance qu’ont les individus compétents à sous-estimer les leurs. L’incompétence empêche de reconnaître ses propres limites et tandis que le niveau de qualification augmente, on est de mieux en mieux à même de les cerner.

Dans leur article de 1999, Dunning et Kruger ont mis cet effet en évidence.

En médecine, on s’y retrouve souvent confronté lorsque des personnes avec peu d’expériences en recherches médicales se convainquent d’une proposition (comme le danger des vaccins et des OGM ou des vertus de la nourriture bio) parcequ’ils « ont fait leurs recherches » en tapant ces termes dans un moteur de recherche ou en lisant des articles dessus sur leur réseau social favori.

Il est difficile, même pour des chercheurs expérimentés, de faire le tri entre le bruit et l’information et d’interpréter de manière critique les données disponibles lorsque l’on se documente sur un sujet particulier. Ceux ayant le moins d’expérience peuvent n’avoir aucune idée d’à quel point ils ont tort et manquent des compétences nécessaires pour s’en rendre compte.

D’un autre côté, les chercheurs les plus expérimentés ont pu apprendre que toute preuve est provisoire et peuvent aussi tenir pour acquis par tous le difficile ensemble de talents nécessaire à l’évaluation de données.

Le biais d’expérimentateur ou biais d’attente : la tendance qu’ont les expérimentateurs à croire, certifier et publier les données qui s’accordent avec ce qu’ils attendaient du résultat d’une expérience et, à l’inverse, leur tendance à refuser, douter et sous-noter celles qui contrarient ces mêmes attentes.

C’est un biais qui s’intrique avec ceux vus plus hauts (confirmation, sélection et publication).

L’effet de faux consensus : tendance qu’ont les gens à surestimer le nombre de personnes qui sont d’accord avec eux.

Les gens ont tendance à faire trop confiance à leurs opinions s’ils pensent que « tout le monde sait ça ». En médecine, un docteur peut finir par avoir des problèmes en supposant que tous ceux qui sont impliqués dans un cas sont d’accord avec leur diagnostic/plan.

L’effet Hawthorne : tendance qu’ont les gens à mieux réussir ou percevoir quelque-chose lorsqu’ils se savent observés.

Une erreur systémique potentielle dans la recherche vient de cet effet : les gens se comportent différemment lorsqu’ils sont au courant qu’ils font partie d’une étude. Si l’on désire s’intéresser aux effets d’un médicament sur l’arrêt du tabac, les participants seront plus susceptibles d’effectivement arrêter de fumer juste parce qu’ils savent qu’on les observe, que le médicament soit efficace ou non.

Pour pallier à cela, les participants doivent être randomisés au sein d’une étude en double aveugle entre un groupe test et un groupe placebo.

Seule la différence nette, s’il en existe une, entre les deux groupe sera à attribuer au médicament.

L’instinct de horde : tendance commune à adopter les opinions et comportements de la majorité pour se sentir plus à l’aise et éviter les conflits.

Une explication possible pour la prolifération de la Médecine Intégrative au sein des institutions médicales est cet instinct. On a tendance à ne pas regarder de trop près les affirmations dont nous percevons qu’elles sont largement partagées par ceux qui nous entourent.

De nombreuses institutions médicales ont créé de tels départements où d’improbables traitements « alternatifs » côtoient ceux basés sur les preuves et la science. Il existe peut-être d’autres raisons, comme le fait de maintenir la compétition avec d’autres institutions, mais il se pourrait bien que cet instinct soit ce qui empêche les établissements de questionner ce qui semble être un double standard.

Le biais de solidarité : tendance qu’ont les gens à allouer des traitements préférentiels à ceux qu’ils identifient comme faisant partie de leur propre groupe.

Lorsque l’on s’identifie émotionnellement à un groupe, on tend à prendre plus à cœur le fait qu’un de ses membres soit accusé ou menacé. En médecine, si un docteur est accusé d’erreur ou de négligence, on s’attend donc à ce que ses pairs soient plus susceptibles de rejeter les charges retenues contre lui sans étudier scrupuleusement les preuves.

De la même manière, si un compétiteur est accusé des mêmes malversations, on aura tendance à donner plus d’importance aux charges et preuves.

L’aversion à la perte : l’insatisfaction liée à la perte d’un objet est supérieure à la satisfaction de l’avoir acquise.

Nous sommes nombreux à préférer « double » plutôt que « quitte » lorsque nous parions, nous ne supportons pas de perdre quelque chose, même si cela signifie persister dans un comportement à risque en escomptant réduire ses pertes.

C’est ce que l’on observe dans les casinos : nombreux sont ceux qui continueront à jouer même lorsqu’ils ne cessent de perdre, du fait de l’aversion à la perte.

En médecine, on peut continuer à donner un traitement, même si ce dernier ne donne pas de bons résultats plutôt que d’admettre que l’on a pris une mauvaise décisions et essayer autre chose. La perte de « avoir raison » est probablement l’une des plus difficile à admettre (Cf Dissonance Cognitive)

Le biais d’omission : tendance à juger les actions néfastes comme pire, ou moins morales, que de toutes autant néfastes omissions (ou inactions).

Laquele est le pire ? Décider une action résultant en un préjudice ? Ou laisser passivement les choses se faire mais si l’on aurait été capable d’intervenir ?

Nous serons nombreux à penser qu’il est pire d’agir et de causer un tort même si le résultat pourrait être le même in fine.

Le biais d’omission est souvent démontré à travers le fameux « dilemme du tramway ».

Le biais de projection : la tendance à supposer inconsciemment que les autres partagent nos pensées, points de vues, croyances et positions.

C’est un biais lié au biais de faux consensus.

Le biais de récence :tendance à accorder plus de poids aux événements récents qu’aux anciens.

C’est un biais similaire à l’heuristique de disponibilité. Un médecin peut avoir rencontré des succès dans un passé récent avec un traitement particulier et pour un patient particulier. Même si cette stratégie n’a pas été la meilleure dans la majorité des cas, que ce soit dans un passé plus lointain ou dans les recherches faites sur le sujet, le docteur risque d’accorder à ce traitement une valeur plus forte que ce qu’elle mérite simplement du fait des récents succès.

Le biais de rétrospection heureuse : la tendance qu’ont les gens à juger les événements passés de manière plus positive qu’ils ne l’auraient fait sur le moment.

La prophétie auto-réalisatrice : tendance à avoir des comportement qui vont (consciemment ou non) valider nos croyances.

Le biais d’auto-promotion : tendance à revendiquer plus de responsabilité dans nos succés que dans nos échecs. Il peut également se manifester comme une tendance pour les gens à évaluer les informations ambiguës d’une façon qui sert leur intérêt propre.

Le réflexe de Semmelweis : tendance à rejeter les nouvelles preuves qui viennent contredire un paradigme établi.

Il a été montré dans une récente étude randomisée que la chirurgie arthroscopique dans le cas de ostéoarthrite du genou n’est pas plus efficace que des soins vigilants. Et malgré tout, la pratique continue. Le paradigme établi de la chirurgie arthroscopique soutient que cela fonctionne.

Les nouvelles preuves du contraire ont été rejetées par de nombreux chirurgiens orthopédiques, dont aucun n’était à l’origine d’études randomisées prouvant le contraire.

D’une certaine façon, cela semble prudent au premier regard : les affirmations extraordinaires demandent des preuves extraordinaires. Et si une affirmation vient contredire un paradigme établi, alors les preuves en sa faveur doivent être solides : avoir été revues par les pairs et répliquées.

Cependant, si les preuves en faveur de cette affirmation finissent par l’emporter, alors il faut abandonner l’ancien paradigme. Mais c’est un passage difficile pour beaucoup (pour de nombreuses raisons, allant des différents biais évoqués ici à la Dissonance Cognitive – une fois de plus).

Le stéréotypage : attendre d’un membre d’un groupe qu’il ait certaines caractéristiques sans avoir réuni d’informations à son sujet.

Le biais du survivant : notre tendance naturelle à sur-estimer les qualités et les vertus des survivants, tout en oblitérant les autres.

Imaginez une conversation entre un coiffeur et un client. Le client parle de son grand-père, fumeur et buveur invétéré qui travaillait dans une mine avant de partir à la retraite et de décéder à l’âge de 98 ans. « Tout ça montre bien que tous ces trucs qu’on vous dit sur boire et fumer c’est n’importe quoi, ce qui compte c’est de se lever le matin pour aller travailler dur, voilà ce qui garde la santé. »

Nous avons tendance à mieux nous rappeler des exceptions aux règles et à prendre leur qualités comme des raisons expliquant pourquoi la règle est fausse. Nous avons également du mal à prendre en compte les exemples typiques, comme tous les gens morts d’avoir trop bu ou trop fumé, car ils ne sont plus là pour que nous les voyons.

NDT : pensez également à tous les exemples de constructions/voitures/… dont on se dit « on savait construire à l’époque » en oubliant les milliers de ruines/épaves/… qu’il a fallu pour laisser ces quelques items en bon état.

Le biais du chevalier blanc : biais menant à des distorsions des informations basés sur des recherches en faveur de ce qui est perçu comme plus vertueux/moral.

Ce biais a été identifié par Cope et Allison en 2010 alors qu’ils cherchaient des articles sur les facteurs de risque d’obésité. Ils ont découverts des disparités dans la communication autour des études en faveur de pratiques qui semblaient plus morales que d’autres.

Par exemple, un biais de publication (cf plus haut) existait dans la comparaison entre allaitement et lait maternisé. Les études favorisant le premier tendaient à être plus publiés que celles montrant des effets moins favorables, peut-être parce que l’allaitement semble plus vertueux que d’autres pratiques.

La pensée magique : formations de croyances et prises de décisions en accord avec ce qu’il est plaisant d’imaginer plutôt qu’en faisant appel aux preuves ou à la rationalité.

Le biais du zéro-risque : préférence poussant à préférer la réduction d’un petit risque à zéro plutôt qu’une baisse d’un risque plus fort.

De nombreux parents vont préférer ne pas faire vacciner leur enfant du fait des risques perçus des effets secondaires. Même si de tels risques sont extrêmement faibles (et parfois virtuellement égaux à zéro en ce qui concerne certains mythes tenaces), ils préféreront tout de même éviter de vacciner.

Dans la réalité, les maladies infectieuses posent de grands risques au public et les vaccins les réduisent significativement… mais ils ne les réduisent pas à zéro. Des gens choisiront donc le « zéro risque » d’effets secondaires au risque bien plus grand de contracter une maladie évitable par un vaccin.


Les biais cognitifs faussent notre vision du monde, tout comme la dissonance cognitive, ils font partie intégrante de notre psychologie. Et si nous n’apprenons pas à le reconnaître lorsque nous y sommes confrontés, alors nous sommes plus sujets à l’erreur et les patients ne peuvent pas se permettre de consulter des praticiens qui ne feraient pas ce travail.

house

maeelk

❌