Les Sceptiques du Québec

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierEsprit Critique | Critical Thinking

Religiosité et attitude à l’égard des sciences

 

Résumé en français de l’article Religiosity predicts negative attitudes towards science and lower levels of science literacy écrit par Jonathon McPhetres et Miron Zuckerman, publié en 2018 dans PLOS ONE.

 

Science versus religion : conflit localisé ou conflit général ?

Les sondages montrent qu’aux Etas-Unis une partie du grand public, et même des scientifiques, pensent que la science et la religion ne s’opposent pas. Pourtant, la recherche montre qu’en général les personnes religieuses ont moins de culture scientifique. Le conflit entre religion et science existe donc, mais quelle est son ampleur ?

La première hypothèse est que le conflit n’existe que pour les sujets où la science contredit les affirmations religieuses, comme l’origine de la Terre et l’origine des humains, et pour les sujets qui peuvent avoir des implications morales auxquelles s’opposent les religieux, comme la recherche sur les cellules souches.

Cependant, des recherches suggèrent que le conflit entre la science et la religion est plus général, du moins aux États-Unis. Par exemple, une plus grande religiosité est liée à des opinions moins favorables envers les innovations scientifiques et la nanotechnologie, et les gens religieux sont moins susceptibles de choisir une carrière scientifique. Les données d’enquête montrent également que les croyances religieuses sont en corrélation négative avec les consensus scientifiques sur un certain nombre de questions (vaccination, changement climatique, etc.), même lorsque ces questions ne remettent pas directement en question les revendications religieuses.

Vu sous cet angle, le conflit semble demander de choisir entre la science et la religion comme outil pour comprendre et expliquer le monde. Ainsi, l’hypothèse générale du conflit impliquerait que les religieux ont des attitudes plus négatives et moins de confiance envers la science comme source d’information.

Etudier l’impact des croyances et pratiques plutôt que celle de l’affiliation religieuse

Dans l’article résumé ici, McPhetres et Zuckerman (2018) ont tenté de mieux décrire ce phénomène en étudiant l’impact des croyances et pratiques religieuses – plutôt que de la simple affiliation religieuse – sur les connaissances scientifiques et l’attitude envers les sciences.

Contrairement aux études précédentes, ils ont cherché à déterminer si les éléments de religiosité, tels que la croyance en Dieu, la fréquentation de lieux de culte, la fréquence des prières, etc., contribuent de façon unique au rejet de la science, et non si certains groupes religieux en savent plus ou moins sur la science que d’autres.

Ils ont utilisé deux grands ensembles de données représentatifs à l’échelle nationale ainsi que deux ensembles de données originaux, en tenant compte d’un grand nombre de variables démographiques. Ces quatre études (N = 9 205) ont montré que la religiosité est associée de façon négative au niveau de connaissances scientifiques.

La religiosité minimiserait les connaissances scientifiques en entretenant une attitude négative envers les sciences

De plus, leurs résultats indiquent qu’un médiateur possible de la relation négative entre la religiosité et le savoir scientifique est l’attitude négative envers la science. Leur interprétation est la suivante : dans la mesure où la science est considérée comme moins intéressante, moins utile ou moins valide, il est moins probable qu’on s’y intéresse.

Le niveau d’éducation représentait une petite partie de la relation entre la religiosité et le savoir scientifique, ce qui donne à penser que la religiosité est associée à des niveaux inférieurs de culture scientifique résultant en partie d’une moindre éducation formelle.

Une des quatre études suggère également que ces attitudes négatives à l’égard de la science peuvent commencer tôt dans la vie lorsque l’on est exposé aux croyances religieuses de ses parents. En effet, cette étude a montré que la religiosité des parents et son rôle dans l’éducation de leurs enfants prédisaient, une vingtaine d’années plus tard, l’attitude de leurs enfants envers la science. Cette étude, en partie longitudinale, suggère un lien directionnel entre une religiosité plus élevée et des connaissances scientifiques moindres.

Défiance ou désintérêt pour les sciences et défi à relever

Ainsi, la religiosité semble associée à un moindre intérêt pour la science et à une croyance que la science est peu importante ; de telles attitudes sont liées à des niveaux un peu plus faibles de culture scientifique et à une confiance moindre dans les sources d’information scientifique. Suivant Evans, ces résultats suggèrent que, comme la religion offre sa propre voie vers la connaissance, les croyants pourraient être moins intéressés par ce que la science a à offrir.

Cependant, il existe d’autres voies menant de la religiosité à un moindre niveau de connaissances scientifiques. Par exemple, une étude a révélé que des stéréotypes sur la faible compétence scientifique des chrétiens peuvent les amener à sous-performer en sciences. Elsdon-Baker a suggéré que la prolifération de tels stéréotypes pourrait en fait « créer des créationnistes » en renforçant la croyance que les chrétiens n’ont pas leur place dans la science, favorisant ainsi l’identification aux croyances contre-scientifiques.

Au vu des résultats de l’article, le défi consiste à savoir comment accroître les connaissances scientifiques face à l’opposition religieuse. L’amélioration des connaissances et de la culture scientifiques permettra aux gens de prendre des décisions plus éclairées et fondées sur des données probantes au sujet des choix, des croyances et des activités, ainsi que des produits et services qu’ils utilisent ou évitent. Etant donné que la majorité de la population mondiale se définit encore comme religieuse, les auteurs pensent qu’il faudrait trouver un moyen pour les gens de conserver leurs croyances religieuses tout en ouvrant leur esprit à la science.

 

 

Audrey Bedel

Les capacités cognitives ne sont pas suffisantes pour diminuer l’adhésion aux croyances non fondées

Résumé en français de l’article Unfounded beliefs among teachers: The interactive role of rationality priming and cognitive ability écrit par Jaïs TroïanDenis CarotiThomas Arciszewski et Tomas Ståhl, publié dans Applied Cognitive Psychology.

 

La présente étude s’inspire de recherches antérieures indiquant que les capacités cognitives doivent être associées à une motivation à être rationnel et à fonder ses opinions sur des preuves pour faire diminuer l’adhésion à des croyances non fondées (croyances surnaturelles et mentalité conspirationniste). Sur la base de ce travail, nous avons cherché à déterminer s’il était possible « d’activer » cette motivation à être rationnel de manière subtile, et si cela était suffisant pour renforcer la relation négative entre les capacités cognitives et les croyances non fondées. Pour cela, nous avons testé deux groupes équivalents d’enseignants du second degré français (762 en tout), le premier étant « amorcé » par une simple question demandant aux sujets de juger à quel point ils se jugeaient comme étant des personnes rationnelles.


Nous avons pu démontrer que cet amorçage, même subtil, renforçait la relation négative entre les capacités cognitives et les croyances surnaturelles non fondées, ainsi que la mentalité conspirationniste,
et ce d’autant plus que les sujets se déclaraient être des personnes rationnelles. En d’autres termes, la diminution de l’adhésion aux croyances non fondées est liée négativement aux capacités cognitives que dans le cas de personnes se déclarant être rationnelles. Notons que si cette amélioration de la rationalité détermine complètement le lien entre capacités cognitives et mentalité conspirationniste, elle ne sert qu’ à amplifier la relation entre capacités cognitives et croyances surnaturelles.


Ces résultats ouvrent des pistes intéressantes d’application pédagogiques. Des études antérieures ont montré qu’il est possible de promouvoir un scepticisme argumenté à l’égard de croyances non fondées en fournissant aux gens des contre-arguments spécifiques, l’inconvénient étant que de telles interventions ne ciblent que certaines affirmations, et qu’elles peuvent par ailleurs entraîner un effet rebond. En revanche, ces résultats confirment que les interventions pédagogiques visant à développer l’esprit critique pourraient être ciblées, non pas sur des sujets spécifiques, mais plus généralement sur la motivation des personnes à être « épistémiquement rationnelles », c’est-à-dire à reconnaître la valeur de la connaissance et à fonder leurs opinions sur des preuves fiables. Le recours à des stratégies pédagogiques allant dans ce sens, comme le choix de thématiques dont l’intérêt et l’enjeu sont perçus et en rapport avec les motivations du public cible (comme une utilité dans la vie de tous les jours), ou la mise en valeur (et désirabilité) de vertus épistémiques tendant vers la valorisation des connaissances, nous semblent des pistes intéressantes dans le cadre d’enseignements dont l’objectif est la formation de l’esprit critique.

 

Denis Caroti

Humilité intellectuelle : l’importance de savoir que l’on peut se tromper

Javier Zarracina/Vox

Résumé en français de l’article Intellectual humility: the importance of knowing you might be wrong de Brian Resnick publié en ligne sur Vox

Dans son article, Brian Resnick milite pour développer l’humilité intellectuelle dans notre culture.

S’appuyant sur l’exemple de la recherche scientifique, il nous encourage à dépasser nos préjugés pour chercher à être plus humbles intellectuellement.

Qu’est-ce que l’humilité intellectuelle ?

Selon Mark Leary, l’humilité intellectuelle c’est « reconnaître que les choses auxquelles on croit peuvent en fait être fausses ». C’est donc une méthode de réflexion qui prend en compte la possibilité que l’on peut se tromper. Rechercher l’humilité intellectuelle ne signifie pas abandonner toute certitude, mais choisir ses convictions avec soin, rechercher leurs défauts et accepter de les réajuster.

Un bon exemple d’humilité intellectuelle est celui incarné par la méthode scientifique : lorsqu’il fait une expérience, un scientifique travaille notamment contre sa propre hypothèse, tout en essayant d’éliminer toute autre explication alternative, avant de donner sa conclusion.

Hors du cadre scientifique, les personnes qui obtiennent des résultats plus élevés aux questionnaires d’humilité intellectuelle sont plus disposées à entendre des points de vue opposés et recherchent plus facilement des informations en conflit avec leur vision du monde. Ces personnes accordent aussi plus d’attention aux preuves. Lorsqu’elles donnent une réponse incorrecte, elles s’en rendent plus facilement compte et sont également plus susceptibles d’admettre quand elles ont tort.

En conclusion, l’humilité intellectuelle est une vertu qui valorise la vérité sans pour autant stigmatiser l’erreur, à condition qu’on soit capable de la reconnaître.

Pourquoi est-ce si difficile d’être intellectuellement humble ?

La difficulté à percevoir ce que nous ne savons pas fait partie de notre condition humaine. Une illustration de notre aveuglement devant notre propre ignorance est l’effet Dunning-Kruger : moins on est compétent, plus on a tendance à surestimer nos capacités.

De plus, nous nous basons parfois (inconsciemment) sur des indicateurs imprécis pour considérer une information comme vraie ou non. Par exemple, le professeur Chris Chabris explique que lorsqu’une pensée nous vient immédiatement et sans effort, elle nous semble vraie. Or, lorsque vous entendez quelque chose pour la deuxième ou la troisième fois, votre cerveau y répond plus vite, et cette fluidité vous donne une impression de confiance. C’est pourquoi un mensonge répété plusieurs fois a plus de chance d’être considéré comme vrai.

En plus de nos limitations cognitives, d’autres obstacles à l’humilité intellectuelle viennent de notre culture : d’une part, notre société promeut et récompense beaucoup la confiance et l’arrogance (l’élection de Trump illustre sans doute bien cela). D’autre part, quand on s’est trompé, il peut être socialement très difficile de l’admettre, notamment par crainte de l’humiliation.

Comment promouvoir l’humilité intellectuelle ?

Tout d’abord, rappelons à tous qu’il est normal et humain d’avoir tort. Il faut se rendre compte que notre cerveau est biaisé et qu’il risque parfois de nous tromper. Lorsque l’on apprend comment fonctionne le cerveau, comment nous percevons le monde, il devient difficile de ne pas être plus modeste.

Ensuite, dire publiquement que l’on s’est trompé demande à la fois du courage et un environnement dans lequel cette démarche est acceptée et encouragée. Beaucoup d’entre nous craignent d’être perçus comme moins compétents, moins dignes de confiance si nous admettons avoir eu tort. Pourtant, comme le chercheur Adam Fetterman l’a montré dans ses études, l’admission d’erreurs n’est généralement pas jugée sévèrement. Encore plus surprenant, admettre ses erreurs est une pratique bénéfique à la réputation parmi les scientifiques, malgré leur impression contraire.

Pour construire une culture qui récompense l’humilité intellectuelle, la reconnaissance de l’erreur peut être davantage célébrée. Cela comprend la construction d’endroits sûrs permettant aux gens d’admettre qu’ils se sont trompés, comme le Loss of Confidence Project, où les chercheurs peuvent exprimer leur perte de confiance en leurs résultats passés.

 

En conclusion, l’humilité intellectuelle est une démarche nous permettant de dépasser nos erreurs et nous aidant à construire des convictions plus justes. Cela demande un travail sur soi, mais aussi la construction d’un environnement propice, c’est-à-dire d’une société où l’arrogance n’est pas autant valorisée et où l’humilité peut prospérer. Dans un monde où nous sommes de plus en plus confrontés à des informations contradictoires, encourager l’humilité intellectuelle demandera beaucoup d’efforts mais s’imposera comme une nécessité.

 

 

Audrey Bedel

Les étudiants ne savent pas ce qui convient le mieux à leur propre apprentissage

 

Résumé en français de l’article Students don’t know what’s best for their own learning de Arthur Poropat publié en ligne sur The Conversation

L’article de Arthur Poropat remet en cause un système aujourd’hui utilisé dans les universités : l’évaluation des cours et professeurs par leurs élèves.

S’appuyant sur deux études, la première à l’United States Air Force Academy et la seconde à la Bocconi University en Italie, il montre les dangers d’une trop grande confiance accordée au jugement des étudiants pour estimer la valeur de leurs enseignants.

L’évaluation des professeurs par les élèves est-elle un indicateur fiable de la qualité des enseignants ?

C’est, en tout cas, ce que semblent croire les universités qui se basent sur ces évaluations pour juger leurs professeurs et leurs cursus.

Mais Arthur Poropat met en doute le bien fondé de ce procédé. Pour cela, il présente deux études montrant que les évaluations données par les étudiants ne valorisent pas les professeurs qui les aident le plus à apprendre, bien au contraire.

Comment ces études concluent-elles que les élèves ne savent pas ce qui les aident à apprendre ?

A l’université, on peut raisonnablement évaluer la qualité d’un professeur à la future performance de ses élèves dans les classes plus avancées.

Pourtant, les deux études montrent que l’évaluation donnée à un professeur par ses élèves n’est pas corrélée avec leur réussite future, mais avec les notes que ce professeur leur a données dans son cours. En résumé, plus un professeur donne de bonnes notes, meilleure est son évaluation par les élèves, et inversement.

Or les élèves qui ont donné les meilleures notes à leur professeur ont eu de moins bons résultats que les autres dans la suite de leur étude. Cela veut dire que meilleure était l’évaluation d’un professeur par ses élèves, moins ces mêmes élèves ont réussi par la suite ! On imagine le problème que cela pose si les universités promeuvent uniquement les professeurs ayant les meilleures évaluations d’élèves.

Pourquoi les élèves confondent-ils bonnes notes et efficacité d’un cours ?

Arthur Poropat propose de se tourner vers la psychologie de l’éducation pour trouver à ce phénomène des explications basées sur les preuves.

Les recherches du psychologue Robert Bjork de UCLA ont montré que les étudiants jugent la qualité de leur apprentissage en fonction de la facilité avec laquelle ils accomplissent une tâche d’apprentissage. Ils confondent donc facilité de la tâche avec maîtrise du sujet. On comprend bien que cela puisse mener les élèves à mieux évaluer un cours qu’ils ont trouvé plus facile et dans lequel ils ont reçu de bonnes notes.

Quelles sont les autres conséquences de cette confusion entre facilité et apprentissage ?

En parallèle du biais introduit dans l’évaluation des professeurs, les élèves se trompent aussi sur les exercices qui les aident ou non à apprendre.

Les tâches difficiles qui demandent beaucoup d’effort, comme reformuler son cours ou s’auto-tester, diminuent l’estime qu’ont les élèves de leur propre compétence. A l’inverse, des tâches peu compliquées, comme relire ou surligner son cours, leur donne l’illusion de maîtriser le sujet. En conclusion, les tâches les plus utiles à l’apprentissage sont considérées comme les moins efficaces !

Dans le même esprit, les recherches de Carol Dweck ont montré que certains étudiants pensent la réussite plus influencée par l’intelligence que par les efforts fournis. Or les travaux de Arthur Poropat montrent que les efforts ont un effet plus grand que l’intelligence. Quand les élèves se reposent sur leur potentiel ou pensent que travailler plus ne les aidera pas, ils finissent par moins bien réussissent que les autres.

Quelles conclusions tirer de ces observations ?

Ces études montrent l’importance pour les étudiants de savoir différencier ce qui les aide vraiment à appendre et ce qui leur en donne seulement l’impression.

De plus, les universités utilisant l’évaluation des professeurs par les élèves doivent être conscientes que ces évaluations peuvent discréditer les cours les plus difficiles et efficaces, et encourager les professeurs à rendre leurs cours trop faciles.

Pour les professeurs, le challenge reste de maximiser l’apprentissage des élèves tout en maximisant leur motivation, c’est-à-dire de trouver le niveau juste de difficulté, pour enseigner le plus de connaissances possibles aux étudiants sans pour autant leur enlever l’envie d’apprendre.

 

Audrey Bedel

Projet EEC

Par : admin9093

Nous sommes heureux d’annoncer que le projet de recherche « Education à l’Esprit Critique » (EEC) a été sélectionné par l’ANR qui en finance une partie. Ce projet de recherche se déroulera de janvier 2019 à décembre 2022.

Contexte : Appel à projets générique 2018, Agence Nationale de la Recherce (ANR)

RÉSUMÉ
L’esprit critique – notion proche des  » HOTS  » (High Order Thinking Skills) et en lien avec les EMI – est au cœur des politiques éducatives les plus récentes. Le ministère de l’Éducation Nationale a lancé fin 2016 un projet sur l’éducation à l’esprit critique et une large consultation des enseignants à ce sujet. On découvre en effet qu’à l’ère du numérique, les citoyens ne sont pas armés pour faire face au flux d’arguments charrié par Internet, se trouvant souvent démunis. On observe aussi que la persistance de croyances irrationnelles fait parfois peser une menace sociale importante, comme celle que revêt le rejet des vaccins ou la remise en cause du réchauffement climatique. Permettre aux élèves tout d’abord, puis aux citoyens, de se former à l’esprit critique afin de mieux tirer profit du monde de l’information dans lequel nous vivons est donc une question sociale majeure. Or, si les projets éducatifs se multiplient dans ce sens, il n’existe que peu d’études scientifiques pour valider les méthodes proposées par les différents acteurs de l’éducation et de la formation. Les projets pédagogiques mis en œuvre par les acteurs de l’éducation ne s’appuient en général pas non plus sur les résultats de la recherche scientifique internationale. Il est assez paradoxal que la volonté d’enseigner aux jeunes à se méfier de leur intuition, à passer toute information au crible de la raison et de la méthode, ne s’accompagne pas toujours du sentiment que l’éducation à l’esprit critique elle- même devrait se soumettre aux mêmes exigences de validation empirique. Il nous semble qu’il y a là une lacune à la fois scientifique et éducative importante et que l’éducation à l’esprit critique devrait être le premier champ à entrer de plain-pied dans le monde de l’éducation de la formation fondée sur les preuves.

COORDINATEUR

Nicolas Gauvrit (CHART-EPHE)

AUTRES MEMBRES DU PROJET

Katia Allégraud (Fondation La Main à la Pâte)

Gérald Bronner (Université Paris Diderot)

Roberto Casati (Institut Jean Nicod)

Sylvain Delouvée (Université Rennes 2)

Mathieu Farina (Fondation La Main à la Pâte)

Mathieu Hainselin (Université d’Amien)

Laurence Honnorat (Société Innovaxiom)

Yvonnick Noël (Université Rennes 2)

Elena Pasquinelli (Fondation La Main à la Pâte)

Gabrielle Zimmermann (Fondation La Main à la Pâte)

Philosopher, kit de démarrage (note de lecture)

Par : admin9093

Note de lecture, à paraître également dans Science et Pseudosciences.

Philosopher

Kit de démarrage

Jay F Rosenberg

Éditions Markus Haller, 2018

Site de l’éditeur

 

On dit souvent que si les vieux livres sont, en moyenne, de meilleure qualité que les plus récents, c’est qu’on ne voit des anciens que ceux ayant passé le filtre sévère du temps. Le livre de Jay Rosenberg a, pourrait-on dire, déjà réussi cette épreuve temporelle. Sa première édition – en anglais – date en effet de 1978. Sa survie et ses rééditions sont signes de ses qualités. Philosophie, kit de démarrage est une introduction didactique à la philosophie qui ne suppose aucune connaissance préalable. Ou plutôt, il constitue une présentation d’une des formes de la philosophie, celle que Pascal Engel décrit si bien dans une préface percutante ; celle qui se soucie plus de bien penser que de bien écrire. La philosophie selon Rosenberg est en effet un art de penser juste, de réfléchir de manière ouverte, honnête et critique.

Par des exemples variés présentés de manière limpide, Rosenberg nous fait découvrir les questions qui font vibrer les philosophes de son acabit, la manière dont on peut jongler logiquement avec les concepts, à quoi servent les expériences de pensée, où se nichent les erreurs de raisonnement et les pièges de la raison. Produire un raisonnement juste, contrer un raisonnement défectueux, avoir une approche critique mais bienveillante, tels sont les exercices mentaux que le lecteur est amené à réaliser, sans même s’en rendre compte, en parcourant les pages de cet ouvrage qu’on pourrait dire initiatique.

Au fil des chapitres, Rosenberg nous montre comment analyser et percevoir la structure logique d’un argument – un travail éminemment difficile mais ô combien indispensable pour l’exercice de l’esprit critique ; comment, grâce à cette mise en évidence d’une structure logique, on peut invalider, le cas échéant, un argument par la pratique de la transposition. Pour réfuter un argument bancal, la méthode décrite par Rosenberg fera toujours mouche : reprenez, nous dit l’auteur, la même structure logique ; déroulez les mêmes principes sur un exemple adéquat ; aboutissez enfin à une conclusion intenable ; le tour est joué.

Le manuel de Rosenberg est à la fois accessible, agréable à parcourir et tout à fait stimulant pour l’esprit critique. À mettre entre toutes les mains !

Nicolas Gauvrit

L’art de ne pas dire n’importe quoi (note de lecture)

Par : admin9093

Note de lecture, à paraître également dans Science et Pseudosciences.

L’art de ne pas dire n’importe quoi

Ce que le bon sens doit aux mathématiques

Jordan Ellenberg

Éditions Cassini, 2017, 534 pages, 20 €

Site de l’éditeur

Jordan Ellenberg est l’un de ces rares mathématiciens habitués à rendre accessibles au public les subtilités de sa discipline. Il en est également amoureux, un penchant qui se ressent et se transmet de page en page pendant un parcours fluide qui amène le lecteur à découvrir de nombreuses pépites de déduction fulgurante et inattendue. Le titre de l’ouvrage évoque les nombreux livres qui, depuis quelques années maintenant, exposent la méthode scientifique, l’esprit critique, l’art du doute ou l’auto-défense intellectuelle. Il y a un peu de ça en effet, mais il y a bien plus.

Ellenberg nous montre, au travers de nombreux exemples historiques et souvent drôles, comment l’art du raisonnement mathématicien a pu sauver des vies ou aide à rester prudent quand on vous démontre, preuve à l’appui, qu’un poisson mort peut lire les émotions sur les visages. Que certains ont pu s’enrichir parce qu’ils savaient raisonner juste et que la vicieuse loterie, réputée toujours gagnante, fut par le passé quelquefois une bonne affaire pour les malins. Que certains pourcentages assénés dans les médias mériteraient d’être un peu mieux décortiqués car, même s’ils sont justes, ils ne représentent pas toujours ce qu’on imagine ! Pensez-vous par exemple que deux régions de France différentes pourraient chacune s’attribuer 80 % des créations de postes dans le pays sans mentir ? C’est pourtant possible, et l’auteur en fournit des illustrations (américaines celles-ci).

Toute la réflexion sur l’art du raisonnement juste, sur la méfiance vis-à-vis des intuitions (les mathématiques ont bien souvent montré que ce qui est l’évidence même est parfois pourtant faux) aurait une place de choix dans une bibliothèque de l’autodéfense intellectuelle, et ce n’est pas une mince qualité. Il y a pourtant aussi autre chose de rare et précieux dans ces pages. Ellenberg s’était donné pour mission « d’expliquer aux gens, en détails, combien les mathématiques sont fantastiques ». Eh bien, c’est une sacrée réussite ! Ellenberg n’est pas de ceux qui vous racontent de loin que les mathématiques sont belles et que, quelquefois, éclosent des idées déconcertantes et magnifiques, tels les liens inattendus entre géométrie et théorie de l’information, mais vous laissent à l’écart, spectateur incrédule d’une joie dont les causes vous échappent. Au lieu de cela, il vous prend par la main pour vous faire voir de tout près quelques fleurs du champ mathématique, en bordure, là où ça reste simple mais où déjà on peut rêver. Avec lui, on touche du doigt le sublime des mathématiques, sans jamais se salir dans le cambouis du calcul, ni se perdre dans des difficultés d’experts. Ellenberg nous entraîne dans cette partie des mathématiques où vivent des idées à la fois simples et profondes.

C’est un livre qui montre la beauté des mathématiques, celle de la logique ordinaire dont, pense Ellenberg, les mathématiques ne sont que le prolongement naturel. À lire sans plus attendre, pour le développement de l’esprit critique, pour la balade intellectuelle, pour les mathématiques !

Nicolas Gauvrit

Croyances épistémiques et fake news

Par : admin9093

Selon une étude de Kelly Garrett et Brian Weeks qui vient d’être publiée dans la revue PLOS One, la manière dont nous envisageons la connaissance – comment nous pouvons connaître le monde et ses lois – est liée à notre propension à adhérer à des théories non étayées, telles que les « fake news » ou les théories du complot. Voici une traduction du résumé de l’article. L’article est disponible en entier ici.

Des perceptions erronées largement répandues nuisent à la capacité de décision des citoyens. Les conclusions fondées sur des mensonges ou des théories du complot non étayées sont risquées. Cet article montre que les croyances épistémiques des individus – c’est-à-dire les croyances sur la nature de la connaissance et la façon dont se crée la connaissance – ont des implications importantes de ce point de vue. La présente étude utilise une série d’enquêtes de grande envergure et représentatives à l’échelle nationale de la population américaine pour produire des mesures valides et fiables de trois aspects des croyances épistémiques : la foi dans l’intuition pour connaître les faits (Faith in Intuition for facts), l’importance de la cohérence entre les preuves empiriques et les croyances (Need for evidence) et la conviction que les faits sont en réalité construits politiquement (Truth is political). Les analyses confirment que ces facteurs prédisent une vision faussée de la réalité et sont corrélés à la propension des individus à adhérer à des théories du complot et à leur tendance à croire les mensonges sur des questions scientifiques et politiques. Les individus qui considèrent la réalité comme une construction politique sont beaucoup plus susceptibles d’accorder foi aux fake news, alors que ceux qui croient que leurs conclusions doivent tenir compte des preuves disponibles ont tendance à s’en tenir à des croyances plus rigoureuses. La confiance dans la capacité à reconnaître intuitivement la vérité est un prédicteur de l’idéologie conspirationniste. Nos résultats suggèrent que les efforts visant à contrer les perceptions faussées peuvent être aidés en favorisant une approche mettant l’accent sur l’importance de la preuve, l’utilisation prudente des sentiments et le fait que l’évaluation rigoureuse par des spécialistes compétents est une protection efficace contre la manipulation politique.

Référence

Garrett RK, Weeks BE (2017) Epistemic beliefs’ role in promoting misperceptions and conspiracist ideation. PLoS ONE 12(9): e0184733. https://doi.org/10.1371/journal.pone.0184733

La vie, la vraie

Par : admin9093

L’intelligence et l’esprit critique sont des concepts un peu abstraits dont certains se demandent s’ils sont à même de prédire la réussite dans la vie quotidienne réelle. Pour répondre à cette question, des chercheurs ont étudié empiriquement le thème et ont publié leurs résultats dans un article récemment paru dans la revue Thinking Skills and Creativity.

Heather Butler, Christopher Pentoney et Mabelle Bong ont fait passer des tests d’intelligence (INSBAT), d’esprit critique (HCTA) et de « real-world outcome« . Ce dernier test permet d’estimer à quel point les participants subissent des difficultés dans la vie quotidienne, difficultés potentiellement liées à leur inadaptation (par exemple, si vous avez tendance à rater l’avion, à négliger de rendre des livres à la bibliothèque, à dépasser la limite de vitesse sur la route, etc.). Résultats : si les trois mesures sont liées entre elles, les capacités d’esprit critiques expliquent mieux les « real-world outcomes » que l’intelligence abstraite. Une interprétation possible de ces résultats est que l’esprit critique est plus utile que l’intelligence telle que mesurée par le QI pour éviter les petits soucis du quotidien…

 

Un effet de simple exposition pour les croyances

Par : admin9093

 

En psychologie, on appelle « effet de simple exposition » le fait que l’on a tendance à préférer un objet qu’on a déjà vu (ce que les publicitaires se sont évidemment empressés de prendre en compte). Un phénomène similaire vient d’être mis à jour dans le cadre des croyances et des « fake news ». Pennycook et ses collègues ont montré (dans un article non encore publié mais dont un preprint est disponible ici) que le simple fait d’avoir déjà vu une fausse nouvelle la rend plus crédible et plus juste à nos yeux. Ce phénomène explique la prodigieuse santé des rumeurs sur Internet, qui, en combinant cet effet de simple exposition et la création de « bulles » massives où tout le monde a les mêmes opinions, peut rendre crédibles des histoires totalement inventées et manifestement fausses. Voici une traduction du résumé de l’article :

L’élection présidentielle américaine de 2016 a attiré l’attention sur le phénomène des « fausses nouvelles » (fake news), des récits entièrement inventés et souvent très partisans, présentés comme des informations véritables. La désinformation de ce genre constitue une menace majeure pour la démocratie. Qu’est-ce qui explique le succès de fausses nouvelles sur les médias sociaux (et ailleurs)? Ici, nous démontrons un mécanisme cognitif qui sous-tend la crédibilité des fausses nouvelles : la familiarité. Les travaux antérieurs portant sur l’effet de vérité illusoire a montré que la familiarité augmente la justesse perçue de déclarations plausibles et inoffensives (mais pas nécessairement vraies). Nous cherchons ici si cet effet s’étend à des déclarations hautement invraisemblables et partisanes. En utilisant de faux titres d’actualités présentés comme ils sont vus sur Facebook, nous montrons que la réponse est oui : même une exposition unique augmente l’impression de précision, à la fois lors de la session et après une semaine de délai. De plus, l’impression de justesse accrue pour les faux titres d’actualités familières se produisent même lorsque les histoires sont explicitement étiquetées comme contestées par des vérificateurs de fait ou sont incompatibles avec l’idéologie politique du lecteur. L’effet est également évident lorsqu’il n’y a pas de conscience d’avoir déjà vu le titre. Globalement, nos résultats indiquent que la familiarité est utilisée de manière heuristique pour déduire la justesse. Ainsi, la propagation de fausses nouvelles est soutenue par des processus cognitifs de bas niveau qui rendent les déclarations même très peu plausibles et partisanes plus crédibles avec la répétition. Nos résultats suggèrent que les chambres d’écho politiques isolent non seulement des points de vue opposés, mais aussi contribuent à créer des chambres d’incubation pour des rumeurs partisanes totalement fausses (mais très saillantes et politisées).

Référence

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2958246

Les retweets rendent les messages plus convaincants

Par : admin9093

Dans une publication récente, les chercheurs Lee et Oh concluent que le nombre de retweets est compris comme un indice de fiabilité de la part des Internautes. Ainsi, plus une « information » est partagée, plus elle est considérée comme fiable et crédible. Ce phénomène pourrait expliquer comment certaines informations se répandent de manière incontrôlable à partir d’un nombre de retweets formant une « masse critique ». Voici une traduction du résumé de l’article :

Cette étude vise à comprendre l’impact des normes sociales sur la crédibilité perçue et la transmission d’un message sur Twitter, ainsi que le mécanisme sous-jacent. En utilisant deux types d’informations (des nouvelles réelles et des rumeurs) présentées comme des tweets, nous avons analysé l’influence du nombre de retweets en tant qu’indice de fiabilité. Le résultat de notre expérience en ligne avec 639 utilisateurs de Twitter suggère que quel que soit le type « d’information », la crédibilité des messages et l’intention de partager sont plus forts pour un tweet avec un nombre élevé de retweets. Un test de médiation a montré que le phénomène s’explique par le fait que pour les internautes, un nombre élevé de retweets est le signe que le message est considéré comme crédible par les autres.

Référence

Lee, H., & Oh, H. J. (2017). Normative mechanism of rumor dissemination on twitter. Cyberpsychology, Behavior, and Social Networking, 20(3), 164-171. [résumé]

❌