Débiaisage

C'est ainsi que certaines de nos convictions les plus ancrées ne reposent sur aucune preuve, hormis le fait que des gens que nous aimons et en qui nous avons confiance les partagent. Compte tenu de leurs maigres assises, la confiance que nous avons en nos convictions est absurde - mais elle est aussi essentielle. 
Daniel Kahnemanndt

Le débiaisage repose sur les méthodes, stratégies et techniques qui servent à surmonter les biais cognitifs. Ces derniers tiennent souvent leur origine d'un avantage évolutif ou d'une idée bien ancrée dans la tradition culturelle, sans exclure tous les autres facteurs personnels ou sociaux.

Les biais cognitifs ne conduisent pas toujours à des jugements erronés ou à de mauvaises décisions. Avant tout, un biais est une inclinaison. Si cette inclinaison repose sur un savoir bien établi, d'une compétence reconnue ou sur de nombreuses années d'expérience, alors ce qui ressemble à une erreur de disponibilité peut entraîner des décisions et des jugements rapides non forcément erronés. Comme le dit si bien Daniel Kahneman :

L'intuition de l'expert nous frappe parce qu'elle nous semble magique, alors qu'elle ne l'est pas. En fait, nous accomplissons tous des exploits d'expertise intuitive plusieurs fois par jour. Nous sommes, pour la plupart, parfaitement affûtés quand il s'agit d'identifier la colère dès le premier mot d'une conversation téléphonique, comprendre en entrant dans une pièce que nous étions le sujet de la conversation, réagir rapidement à des signes subtils prouvant que le conducteur de la voiture sur la voie d'à côté est dangereux. [...] Il n'y a pas de magie dans la psychologie de l'intuition exacte. La meilleure description, et la plus courte, que l'on en ait donnée est peut-être celle du grand Herbet Simon, qui a étudié les maîtres d'échecs et a montré qu'au bout de milliers d'heures de pratique, ils finissent par ne plus voir les pièces sur l'échiquier comme nous. On peut percevoir l'agacement que suscite en lui la mythification de l'intuition des experts quand il écrit : « La situation fournit un indice; cet indice donne à l'expert un accès à une information stockée dans sa mémoire, et cette information, à son tour, lui donne la réponse. L'intuition n'est rien de plus et rien de moins que de la reconnaissance (2012, p. 19). »

Or, nous ne sommes pas tous reconnus experts et ne pouvons pas être spécialistes de tout : nous manquons beaucoup d'expérience dans bien des domaines, ce qui est normal considérant l'étendue actuelle des connaissances possibles. Ainsi, les biais cognitifs rendront notre raisonnement et nos actions peu adaptés à une situation donnée. Heureusement pour nous et notre estime de nous-mêmes, nous rationalisons constamment nos actions et nos croyances, ce qui fait que nous ignorons souvent cette incapacité que nous avons à reconnaître que nous sommes de parti pris. Par contre, si notre objectif est de connaître la vérité, ou du moins, de s'attacher aux preuves scientifiques pour construire notre raisonnement (ce qui se rapproche le plus de la vérité), cette aptitude à tout rationaliser ne nous aide en rien, car nos pensées ne sont en fait qu'illusions cognitives. Sommes-nous capables de nous débarrasser de ces illusions? Sommes-nous condamnés à vivre avec tous ces biais? Les preuves, selon un spécialiste reconnu du domaine des illusions et des biais cognitifs, « n'ont rien d'encourageant » (Kahneman : 2012). Il est plutôt difficile de reconnaître le fait que nous ayons si peu de contrôle sur nos pensées, et que, en fait, nous ne connaissons presque rien sur nous-mêmes. En effet, nos pensées sont produites majoritairement de façon automatique, et il est impossible d'éliminer ce type de pensées intuitives à notre guise. Kahneman note :

Toutefois, il n'est pas forcément bon de vivre constamment sur le qui-vive, et c'est assurément peu pratique. La constante remise en question de vos propres réflexions serait [un processus] incroyablement pénible [...] beaucoup trop lent et inefficace [...] Le mieux que nous puissions faire c'est de trouver un compromis : il faut apprendre à reconnaître les situations propices aux erreurs, et veiller attentivement à éviter les grosses erreurs quand les enjeux sont importants (2012 : 38).

Un biais partagé par de nombreuses personnes est celui de faire confiance à son intuition, et ce, au détriment des faits avérés de la science; nous devrions nous en préoccuper davantage. Évidemment, ce genre de biais est excusable dans des situations comme celle de Boris Johnson, qui, après avoir vécu un hiver particulièrement rigoureux, nie l'existence du réchauffement climatique malgré l'avis contraire du consensus scientifique. Là où ce genre de biais est inexcusable, c'est quand ce sont des experts qui suivent leur intuition sans pousser la recherche plus loin, dans une situation où ils doivent prendre des décisions et ne reconnaissent pas que c'est une situation à faible validité prédictive.

Dans son livre The Youngest Science : Notes of a Medicine-Watcher, feu le physicien Lewis Thomas nous raconte l'histoire d'un médecin reconnu, qui, au temps où le père du Dr. Thomas était encore aux études, était un homme âgé, et pratiquait à l'hôpital Roosevelt à New York. À l'époque où il était lui-même étudiant, la médecine n'était pas aussi évoluée qu'aujourd'hui : on ne comprenait pas encore comment les maladies se transmettaient.
 
Ce médecin était reconnu pour son don remarquable : diagnostiquer la fièvre typhoïde, maladie très répandue à l'époque. Sa méthode: examiner méticuleusement la langue de ses patients. Le jeune Dr. Thomas rapporte que ses tournées étaient principalement constituées de ces examens de langue. Les patients sortaient leur langue, et le médecin les palpait, leur texture et leurs irrégularités déterminant à tout coup s'ils étaient dans la toute première phase de la maladie. Et à chaque fois qu'il posait un diagnostic, une semaine plus tard, le patient souffrait bien des symptômes de la maladie, ce qui ne manquait pas d'épater tout le monde.
 
Mi-figue mi-raisin, l'essayiste conclut: « Avec ses mains, il arrivait à propager le virus plus rapidement que Mary typhoïde. »*

Pour arriver à contrecarrer nos biais cognitifs, ce qui n'est somme toute pas chose facile, il semble évident qu'il faut d'abord apprendre à reconnaître les illusions et les biais les plus communs dans la vie de tous les jours, et reconnaître les situations dans lesquelles ils peuvent prendre le dessus. La deuxième étape, qui semble tomber sous le sens, est de trouver une manière d'empêcher chacun des différents biais de s'immiscer dans nos raisonnements, ce qui demande beaucoup de travail et de réflexion. (Stanovich 2010) La troisième étape est moins évidente à trouver, surtout pour ceux qui ont trop confiance en leur capacité à prendre des décisions rapidement. Elle n'en est pas moins l'étape la plus importante du processus : il faut être capable de reconnaître les situations à dénouement imprévisible, ainsi que celles qui permettent un temps de réflexion. Cela va sans dire : il n'est pas très avisé de suivre son intuition dans une situation imprévisible, alors qu'il est tout à fait avisé de recueillir les conseils et avis des autres avant de prendre une décision importante.

Dans un monde idéal, inculquer aux étudiants la méthode du débiaisage serait un objectif prioritaire au cheminement scolaire. Après tout, il est important dans une société que le peuple sache prendre les bonnes décisions et porter de bons jugements en annihilant tout biais cognitif. Il est triste de voir que la notion de biais cognitif n'est même pas connue de la plupart des étudiants, que ce soit au niveau du collège ou de l'université. C'est une autre paire de manches que d'essayer d'enseigner à diminuer leur implication dans nos décisions...

Toutefois, arriver à anéantir tout biais cognitif semble être une utopie. Même Daniel Kahneman, expert chevronné tout désigné en ce qui concerne ce domaine, n'y arrive pas. Il l'explique très bien lui-même à la fin de son livre :

À l'exception de quelques effets que j'attribue principalement à l'âge, ma pensée intuitive est toujours aussi prompte à l'excès de confiance, aux prédictions extrêmes et à l'erreur de prévision qu'avant que je ne m'intéresse à ces questions. Je n'ai progressé que dans ma capacité à reconnaître des situations où les erreurs sont probables [...] Et j'ai fait bien plus de progrès pour reconnaître les erreurs des autres que les miennes (2012 : 502).

Malgré tout, il y a encore un peu d'espoir pour nous. Par exemple, il a été prouvé qu'on peut réduire l'influence du biais d'optimisme dans les entreprises et organismes, quoique ce biais se trouve à être pratiquement insurmontable à l'échelle individuelle. L'expression « biais d'optimisme » (optimistic bias en anglais) a été introduite par Kahneman lui-même, qui en fait la description suivante : « La plupart d'entre nous considèrent le monde comme plus bienveillant qu'il ne l'est en réalité, nos propres atouts comme plus positifs qu'ils ne le sont, et les objectifs que nous nous fixons comme plus réalisables qu'ils ne le seront probablement. » Ainsi avons-nous tendance à exagérer notre capacité à prédire l'avenir. Une bonne technique pour diminuer ce biais est de se demander, par rapport à certaines décisions importantes, « Qu'est-ce qui pourrait arriver de mal? » ou, « Quelles seraient les conséquences d'un échec? ». Le but ici n'est toutefois pas de briser des rêves; en fait, en prévenant d'éventuels échecs, on peut se préparer dans le but d'éviter que le pire arrive. Voici ce que Gary Klein conseille aux entreprises :

Lorsqu'une grande entreprise est sur le point de prendre une décision importante mais qu'elle ne s'est pas encore engagée officiellement, Klein suggère de rassembler, pour une courte séance, un groupe d'individus au courant de la décision. La séance débute par une brève présentation : "Imaginez que nous soyons dans un an. Nous avons mis le plan en œuvre tel qu'il est. Le résultat est une catastrophe. Prenez cinq à dix minutes pour rédiger une histoire succincte de cette catastrophe." (2012 : 319)

C'est ce que Klein appelle la technique du pre-mortem. Kahneman commente cette technique :

Le pre-mortem a deux grands avantages : il évite le mode de pensée grégaire qui affecte nombre d'équipes une fois qu'une décision a été prise, et il libère l'imagination de gens avertis, l'orientant sur un sujet où l'on en a besoin. [...] La neutralisation du doute contribue à l'excès de confiance dans un groupe où seuls les partisans de la décision ont la parole. La principale vertu du pre-mortem, c'est qu'il légitime le doute. De plus, il encourage même les partisans de la décision à identifier des menaces potentielles qu'ils n'avaient pas envisagées auparavant. (2012 : 319)

Les techniques du débiaisage ont aussi fonctionné avec « l'erreur de prévision », terme inventé par Kahneman et Amos Tversky « pour décrire des plans et des prévisions qui :

  • sont beaucoup trop proches de scénarios ultra-optimistes;
  • pourraient être améliorés en consultant les statistiques de cas semblables [...] » (2012 : 302)

Pour contrebalancer cette tendance que l'on a à fixer des délais irréalistes quant à une tâche, il faudrait rechercher des cas réels d'autres tâches de nature similaire, et noter le temps qui a réellement été pris en le comparant avec le temps qui était prévu. Toujours selon Kahneman : « La "vision externe" consiste à utiliser les informations distributionnelles tirées d'autres entreprises comparables à celle qui fait l'objet de la prévision, et c'est elle le remède à l'erreur de prévision » (2012 : 303). 

D'ailleurs, ce conseil a été si souvent appliqué qu'on lui a donné un nom : la prévision par catégorie de référence. Le procédé a été employé au Royaume-Uni, aux Pays-Bas, au Danemark et en Suisse. Devrions-nous être optimistes? Difficile à dire. Malheureusement, il y a encore peu de preuves de la réussite de méthodes de débiaisage à l'échelle individuelle...

 

Note du traducteur: 

Toutes les citations de Daniel Kahneman dans cet article proviennent de son livre « Thinking, Fast and Slow » qui a été traduit de l’anglais sous le titre « Système 1, système 2, les deux vitesses de la pensée » par Raymond Clarinard.

Source: Skeptic's Dictionary Retour à l'index

Haut de page
© 2017 Robert Todd Carroll (version anglaise)
© 2017 Les Sceptiques du Québec (version française)