Les Sceptiques du Québec

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierPsychologie, mathématiques et choses connexes

Le blog déménage

Par : Nicolas

Deux événements me poussent à transférer ce blog vers d'autres cieux, et c'est donc ici le dernier billet qui sera posté à cette adresse.

  • Nima Yeganefar, l'excellent auteur du blog rationaliste Sham and Science, me fait l'honneur d'accepter de recevoir mes billets de temps à autres. Deux billets ont déjà été publiés sur son site.
  • Quant à la revue Pour la Science, la référence francophone en matière de vulgarisation scientifique, elle vient de lancer une série de blogs sur la plateforme "scilogs".

Désormais, mes billets les plus "scientifiques", portant sur la psychologie, les pseudo-sciences, ou l'application des mathématiques aux sciences humaines, seront hebergés chez Pour la Science, sur le nouveau blog Raison et Psychologie (un billet vient d'être déposé). Les articles plus polémiques, politiques ou généralistes seront postés sur Sham and Science.

L'aventure continue donc... mais ailleurs.

Guérisons à Lourdes ? Ca dépend qui fait le graphique.

Par : Nicolas



Petite agitation sur les réseaux sceptiques ces derniers jours à propos de l'évolution du nombre de miracles reconnus à Lourdes. La baisse de fréquence des guérisons est avancée comme un argument contre la croyance en une intervention divine. Cela semble avoir commencé avec la diffusion du film pilote de Lazarus Mirage (voir ci-dessus) où l'on peut voir une courbe donnant l'évolution du nombre de guérisons inexpliquées annuelles ayant eu lieu à Lourdes. Cette courbe bien lisse à décroissance exponentielle a étonné quelques spectateurs, qui en ont cherché l'origine.

Le graphique de CharlatanInfo


Un autre graphique peut être trouvée sur le site CharlatanInfo (ci-dessus) mais est bien différent de celui présenté dans le documentaire de Lazarus. Henri Broch en proposait encore un autre dans un article paru dans la revue Agone. Ce graphe est proche de celui de Lazarus, mais on ne sait pas s'il s'agit des mêmes données.

Dans tous les cas, on ne sait trop à quel saint se vouer, d'autant que la manière dont sont construites les courbes n'a rien d'évident. Parmi les questions importantes :
  1. S'agit-il du nombre de miracles déclarés ou reconnus (par l'église) ?
  2. Compte-t-on l'année du miracle ou de sa reconnaissance officielle ?
  3. Travaille-t-on en données brutes (nombre de miracles) ou relative (en pourcentage) ?
Il existe un autre problème : la représentation la plus évidente n'est pas lisible, comme nous allons le voir. A partir des données d'un site qui fait la liste des miracles reconnus par l'Eglise, nous pouvons reconstituer la base de données. Dans la suite, on considère les années où les miracles ont eu lieu, et on ne compte que les miracles reconnus. Il y en a 68 en tout. La représentation standard des données donne ceci :


Voilà qui n'est guère lisible... Ce que nous voulons, c'est bien sûr avoir une idée de la densité de miracles par unité de temps. La fonction density du logiciel R fait cela très bien (et c'est bien mieux qu'un histogramme) : elle calcule grâce à un noyau (ici gaussien) une approximation de la densité. Il y a des paramètres à régler, qui peuvent modifier la forme globale, mais voici une courbe possible obtenue avec cette fonction :



Voilà qui est bien, et ressemble, quoiqu'en moins "lisse" à la courbe de Lazarus. Une autre approche est de penser que nous souhaitons avoir une idée du lien entre l'année et le nombre de miracles correspondant. Dans ce cas, on considère les variables "année" et "nombre de miracles reconnus", et on veut représenter une courbe de tendance qui rende compte du lien. Un bon moyen de faire cela est d'utiliser un lissage par splines, qui consiste à utiliser localement des polynômes de tendance et à les recoller. La fonction smooth.spline de R fait cela très bien pour nous. Là encore, il y a des paramètres (le degré du polynôme, notamment), si bien que la courbe dépend d'un choix somme toute arbitraire. Voici par exemple les courbes obtenues avec 4 valeurs différentes du paramètre degré de liberté (df) :


Quelle est la morale de cette histoire ? C'est que lorsqu'on ne présente pas les données brutes mais des courbes de tendance qui ont été calculées à partir d'icelles, il faut absolument préciser de quoi on parle et ce qu'on a fait, parce que les résultats et l'interprétation graphique en dépendent grandement. Certes, toutes les courbes confirment une baisse du rendement des miracles à l'année.

Un argument bien plus frappant concernant les miracles de Lourdes est donné sur CharlatanInfo : apparemment, la probabilité d'un miracle médical n'est pas plus grande à Lourdes qu'ailleurs...

Raisonnez probabilités

Par : Nicolas
Amazon | FNAC | Gibert Joseph


A propos de : Pierre Spagnou (2012). Raisonnez probabilités. Sans vous faire piéger ! Paris : Ellipses.

À mi-chemin entre le petit cours d’autodéfense intellectuelle de Normand Baillargeon et les livres zététiques de Henri Broch, ce petit ouvrage agréable et très accessible nous met en garde contre l’intuition, souvent trompeuse lorsque nous estimons la plausibilité d’événements hypothétiques. Pierre Spagnou se concentre sur un type de raisonnement probabiliste dont les psychologues ont montré l’importance capitale dans le raisonnement quotidien : le raisonnement « bayésien », par lequel nous estimons la probabilité des causes d’après l’observation des conséquences.

L’importance du raisonnement bayésien est aujourd’hui telle que les psychologues parlent d’une « révolution bayésienne » dans leur discipline. Etonnamment, alors que des outils mathématiques (les « réseaux bayésiens ») sont utilisés depuis des décennies pour représenter et traiter ce type de raisonnement, le livre de Pierre Spagnou semble être le premier en langue française à fournir une présentation très accessible de l’idée qui se cache derrière ces réseaux. C’est une des grandes qualités et une originalité de cet ouvrage que de présenter de manière élémentaire mais rigoureuse cette importante théorie.

Spagnou développe également une réflexion probabiliste et « zététique » à divers domaines. On pourrait rester dubitatif sur le traitement du paradoxe de Fermi et de la question toujours ouverte de savoir si l’existence d’une vie extra-terrestre est probable ou non. On sera en revanche ébahi de découvrir à quel point les erreurs judiciaires sont favorisées par l’approche totalement irrationnelle que préconise la « justice »… alors même que les réseaux bayésiens trouveraient en l’occurrence une application utile et salutaire.

Voici un exemple étonnant tiré du livre : supposez un accusé, qui lors de son procès, est déclaré innocent. Vous apprenez par la suite que cet accusé avait en fait été antérieurement condamné. Cela augmente-t-il la probabilité qu’il soit coupable (du deuxième crime) ? Pierre Spagnou nous montre que c’est l’inverse. Le fait de savoir qu’il a été condamné auparavant doit nous inviter à penser qu’il est encore plus probablement innocent, à l’inverse de ce que nous dicte l’intuition.

— POUR —
L’excellente présentation des réseaux bayésiens
Le style toujours frais
Le traitement des spectaculaires applications médicales et judiciaires

— CONTRE —
Le traitement un peu long de la question de l’existence d’une vie extra-terrestre

Effet Bouba-Kiki

Par : Nicolas
En 1929, Wolfgang Köhler publie pour la première fois un résultat étonnant qui sera par la suite répliqué en de nombreuses occasions et dans différentes cultures, que l'on nomme effet Bouba-Kiki, ou encore parfois effet Takete-Maluma.

Les humains semblent tous partager une certaine forme de synesthésie. S'il est rare de voir de la musique ou de percevoir des couleurs dans les lettres ou les formules mathématiques, il est en revanche plus que courant de faire le lien entre certaines sonorités linguistiques (pseudo-mots) et des formes ou types de lignes. Dans une version de l'expérience de Köhler, on demandait par exemple à des adultes de deviner les noms des formes suivantes, sachant que l'une des deux s'appelle Takete et l'autre Maluma.
Takete et Maluma. Source.

Entre 95% et 98% des personnes supposent que Takete est la forme de gauche, et Maluma celle de droite. Ce résultat a été reproduit dans des cultures diverses, avec toujours le même succès. Les noms varient un peu (bouba et kiki correspondent à l'une des nombreuses versions testées), ainsi que les formes, mais l'effet bouba-kiki reste.

Un article de 2011 fait le point sur les hypothèses explicatives de ce phénomène. L'importance théorique de la chose, par ailleurs amusante, tient à ce qu'elle a apporté des éléments au débat sur la question du caractère arbitraire des langues naturelles. Il semble finalement que le langage ait aussi des bases — ou du moins quelques caractéristiques — innées, d'autant que l'effet bouba-kiki apparaît déjà chez des enfants assez jeunes (mais bien sûr ayant déjà un accès au langage et donc imprégnés de culture !). Par exemple, cet article de 2006 montre un effet significatif dès 5 ans. Il montre aussi une augmentation avec l'âge.

Ces trouvailles de psychologues ont inspiré Gabrielle Odowichuk, qui a réalisé deux sculptures-installations que l'on peut voir à cette adresse.

D'autres associations étonnantes entres stimuli ont été étudiées ou mises en évidence (voir ici). Par exemple, les sons aigus sont largement associés aux couleurs claires, et les sons graves aux couleurs sombres...

Croissance exponentielle

Par : Nicolas
Temps mis pour une grandeur qui augmente de a% par an pour doubler (ligne pleine) et estimation obtenue par la formule 70/a (pointillés).
Ce billet répond à une petite question technique qui m'a été posée tout récemment :
On m'a dit que pour savoir au bout de combien d'années une grandeur à croissance exponentielle aura doublé, on peut utiliser la méthode suivante : Diviser 70 par l'augmentation annuelle en %. Par exemple, si la quantité augmente de 2% par an, cela signifie qu'elle aura doublé en 70/2 = 35 ans. Est-ce vrai ? Quelles sont les limites de cette approximation ?
Beaucoup de grandeurs ont une croissance exponentielle. C'est ce qui se passe quand une variable est multipliée par une constante à intervalles réguliers. Par exemple, si vous avez placé quelques économies à la banque (Livret A en France, par exemple), cela vous rapporte entre 1 et 3% par an. Chaque année, les intérêts s'ajoutent à votre capital, et votre compte a ainsi une croissance "exponentielle".

Question : Au bout de combien de temps votre capital aura doublé, s'il est placé à un taux de % par an ?

— La méthode exacte —


Le facteur multiplicatif au bout de t années est donné par \( f(t)=\exp (kt) \) où k est un paramètre. Au bout d'un an, on a \( f(t)=f(1)=e^{k}\). Si cela correspond à une augmentation de a %, c'est que $$e^{k}=1+\frac{a}{100},$$ et donc $$k=\ln \left( 1+\frac{a}{100}\right).$$

Le temps t pour lequel \( f(t)=2 \) est donné par $$\exp \left( \ln \left( 1+\frac{a}{100}\right) t \right)=2,$$ donc
$$\ln \left( 1+\frac{a}{100}\right) t=\ln (2),$$
ou encore
$$t=\frac{\ln (2)}{\ln \left( 1+\frac{a}{100}\right)}.$$

Cette dernière formule donne la valeur exacte de t.

— L'estimation —


Pour obtenir une estimation, on utilise alors l'équivalence en 0 \( \ln(1+h)\sim h \) d'où \( t\sim \frac{100\ln(2)}{a} \). Comme \( 100\ln(2)\simeq 70 \) (plus précisément 69,31...), on a une approximation de t en divisant 70 par a.

— L'erreur —

La figure en en-tête montre la vraie valeur de ainsi que l'estimation 70/a, pour des augmentations allant de 1% à 100%. On voit que l'estimation paraît correcte à vue d'œil.

Comme il s'agit bien sûr d'une approximation, la question de l'erreur se pose. On pourrait étudier les variations de la différence pour démontrer un résultat qui paraît clair sur le graphe suivant : l'erreur de l'estimation ne dépasse pas 0,3 ans, soit environ 4 mois, à condition que a soit au moins égale à 1. La restriction à \( a\geq 1 \) vient de ce que 70 n'est pas la bonne valeur (qui est de l'ordre de 69,31), et cela devient gênant quand a est petit.
Erreur en années correspondant à l'approximation 70/a, pour des pourcentages de 1 à 1 000%. On voit que l'erreur ne dépasse jamais 0.3 ans, soit environ 4 mois.

Pour répondre à la question de départ : la méthode est correcte et repose sur le développement limité de ln(1+x) en 0. Cela garantirait la qualité de la procédure pour des valeurs très proches de 0 si on remplaçait 70 par 100ln(2). Elle est en fait valable avec toute valeur de a dépassant 1%, et donne alors une réponse valable à 4 mois près.



Système de numération Wolof

Par : Nicolas
Source

Billet écrit en collaboration avec Clara de Cillia, étudiante en Master Education

C’est au Sénégal, en Gambie et en Mauritanie qu’est parlé le wolof (parfois écrit ouolof). La numération orale du wolof est intéressante d’un point de vue pédagogique, parce qu’elle est décimale comme la nôtre, mais que les groupements par dix y sont plus transparents, puisque « vingt » se dit par exemple « deux-dix » comme en chinois.

Elle se distingue de notre système par la décomposition systématique des nombres de 6 à 9 en 5+n, ce qui permet de montrer aux élèves la possibilité d’une autre base (ici 5) et d’un système additif. La numération wolof est ainsi plus transparente que la nôtre et présente des différences intéressante et sans doute exploitables à l'école. Ce site donne une liste de nombres traduits en wolof et montrant la structure de la numération, mais voici quelques exemples :

Pour les unités
  • 6 =5+1 ,5= juróom et 1= benn , alors 6 = juróom-benn (cinq un)
  • 7=5+2 , 5= juróom et 2= ñaar , alors 7= juróom -ñaar (cinq deux)
  • 8=5+3 ,5= juróom et 3= ñett , alors 8= juróom- ñett (cinq trois)
 Pour les dizaines
  • 20 c’est 2 dizaines donc 2= naar et 10=fukk , 20= naar-fukk ( deux dix)
  • 30 c’est 3 dizaines donc 3= nett et 10=fukk , 30= nett-fukk (trois dix)
Pour tous les autres nombres On utilise le mot ak (signifiant et). Il sépare les unités des dizaines, les dizaines des centaines, les centaines des milliers, etc.
  • 22 c’est deux dizaines et 2 unités alors on écrit naar-fukk ak naar (deux dix et deux)
  • 36 c’est 3 dizaines et 6 unités alors on écrit nett-fukk ak juroom-benn  (trois dix et cinq un)
Pour en savoir plus : Ce livre sur la langue wolof décrit la numération pages 38-39 ; et celui-ci pages 170-. Enfin, ce site regroupe de très nombreux systèmes de numérations organisés par complexité décroissante. Le plus simple est le système des Iles Tonga, dans lequel on dit simplement la suite des chiffres (ainsi, 327 se dit "trois, deux, sept"). Le plus complexe est un système de Papouasie fondé sur une base 15, mais avec une manière assez complexe de dire les unités... Par exemple, 32 (2 fois 15 plus 2) se dit en fait "deux quinze et deux unités du troisième quinze".

Peut-on survivre avec des parents homosexuels ?

Par : Nicolas
Le faux mariage de Coluche et Thierry Le Luron (1985). Source.
Le débat fait rage en ce moment sur la question du mariage homosexuel, et plus encore de l'adoption par des homosexuels... et pas seulement en France. On a pu ouïr quelques conservateurs remontés hurler dans le poste, des politiques influents s'interroger d'un air dubitatif ou militer dans la rue. Chez les opposants, on agite souvent l'épouvantail d'une société décadente, et surtout le risque de nous retrouver avec une génération d'enfants malheureux, inadaptés, dépressifs ou pire. Un enfant, ça a une maman et un papa, affirmait le 18 novembre un cortège de manifestants dans les rues de la capitale. Virginie Despentes répond au frileux Jospin dans Tétu et d'un ton agacé — mais avec une certaine logique — que vu l'état de délabrement du mariage hétérosexuel, le présenter comme l'assurance que chaque enfant aura "une maman et un papa" est un peu décalé.

Grande absente des débats comme souvent, la science. Les familles avec parents de même sexe sont certes rares, mais elles existent depuis toujours, et les recherches ne manquent pas sur le devenir des enfants de parents homosexuels. Google Scholar recense plus de 340 articles scientifiques sur cette question pour la seule année 2012. N'est-il pas étrange que ces nombreuses études ne soient presque pas citées ? Voyons un peu ce qu'elles disent...

Il y a une bonne raison pour que les enfants de parents homosexuels aillent moins bien que les autres. Cette raison, c'est la stigmatisation dont il peuvent souffrir, notamment à l'école. Pourtant, cette étude de 2004 ne trouvait, à l'instar de centaines d'autres, aucune différence significative chez des adolescents de parents hétérosexuels par rapport à des enfants de parents de même sexe, ni sur les résultats scolaires, ni sur le bien être, ni sur les orientations sexuelles, ni sur les rapports sociaux. En 2005, la plus grande association mondiale de psychologie, l'APA (American Psychological Association) publiait une note synthétisant les résultats de la recherche. Elle concluait qu'il n'existait aucune raison scientifique de penser que les parents de même sexe élevaient moins bien leurs enfants, ou que les enfants souffriraient d'avoir des parents de même sexe.

Ces résultats ont cependant été remis en cause récemment. On a remarqué qu'ils étaient en général pauvrement démontrés, fondés sur des échantillons faibles, et que les groupes témoins étaient parfois biaisés. En réponses à ces critiques justifiées, un travail de grande ampleur a récemment été mené, le New Family Structure Study. Nous avons désormais accès à un grand corpus de données qui a récemment livré ses secrets. Les résultats de l'étude laissent voir un tableau un peu moins rose que celui décrit précédemment. Les grandes lignes de la conclusion sont les suivantes :

  • Les enfants de parents de même sexe (en général deux femmes, le cas de deux hommes étant très rare) sont désavantagés par rapport aux enfants dont les parents biologiques sont toujours restés unis.
  • Ce désavantage se manifeste de plusieurs manières : risque de dépression, résultats scolaires, prise de drogue, stress.
  • Il est explicable par la stigmatisation dont ces enfants souffrent.
  • Par rapport à des enfants de parents hétérosexuels séparés, les enfants de parents de même sexe ne sont en revanche pas désavantagés.
Même s'il faut mettre des bémols aux études des années 1980-2000, c'est donc bien à une absence de risque intrinsèque que l'étude aboutit. En réalité, les difficultés particulières vécues par les enfants de parents homosexuels proviennent probablement de la stigmatisation de la société et ne sont en tout état de cause pas plus importantes que celles que doivent surmonter les enfants de parents divorcés.


Dans une école primaire, une élève de CE1 disait la semaine dernière à qui voulait l'entendre qu'elle était "contre les homosexuels" parce que son papa lui a dit que ce n'est pas bien. Ca se passait en 2012, à Paris intra-muros.

Taille d'effet

Par : Nicolas
Décalage entre distributions correspondant à des effets faible, moyen et fort selon les indications de Cohen.
En sciences humaines, on trouve souvent des "effets" (typiquement : des différences entre groupes) à la fois statistiquement significatifs (autrement dit, on est presque sûr qu'ils sont généralisables) et négligeables dans la pratique (autrement dit, l'effet est minuscule). Docherty et ses collègues (2010) ont par exemple démontré un effet de 43 gènes bien identifiés sur le niveau mathématique d'enfants de 7 à 12 ans (ici pour une présentation en français). Cet effet avéré n'explique pourtant que 0,53% des variations de compétence. En schématisant, cela revient à dire que si un enfant obtient 0 et un autre 20 à un même devoir de mathématiques, on pourra supposer que les différences génétiques liées à l'ensemble des 43 gènes sont responsables d'environ 0,1 point de différence, les 19,9 points restant étant dus à d'autres facteurs...

Quantifier la taille d'un effet

Pour quantifier la taille d'un effet dans le cas de deux groupes sur lesquels on compare une même variable X, on exprime simplement la différence de moyennes en nombre d'écart types. Cela se fait en divisant la différence moyenne par l'écart type. C'est la "taille d'effet" proposée par Cohen (1992) et notée d.

Par exemple, le QI a un écart type de 15. Si on trouve dans un groupe A un QI moyen de 90 et dans un groupe B un QI moyen de 120, cela représentera une taille d'effet de d=(120-90)/15=2. Cela correspond à un effet considérable du groupe sur la variable X. Cette valeur d=2 est aussi celle que l'on trouve en comparant la stature des hommes et des femmes au Royaume-Uni : l'effet du sexe sur la stature est importante.

Cohen propose d'appeler "faible" un d de 0,2 ; moyen un effet de d=0,5 ; et fort un effet de 0,8 lorsqu'on compare deux groupes. La figure en en-tête de billet montre à quoi ressemblent les décalages correspondant à de tels effets.

Comment un effet faible peut être très visible

Il arrive que des effets faibles aient des conséquences très visibles. Par exemple, la différence d'impulsivité entre hommes et femmes est typiquement faible ou moyenne (Cross, Copping & Campbell, 2011) mais c'est pourtant par cette différence modérée qu'on explique (avec d'autres facteurs bien sûr) la surreprésentation masculine écrasante des hommes parmi les assassins (90% des meurtres environ sont commis par des hommes). Comment un effet faible (ici du sexe sur l'impulsivité) pourrait expliquer un résultat aussi manifeste ?

Une explication possible est la suivante : un petit décalage dans les courbes donne lieu à un grand déséquilibre si l'on "coupe" la courbe. Imaginons pas exemple qu'on mesure l'impulsivité par une variable continue, et que la comparaison homme-femme donne une figure similaire à la première (voir au début du billet). Supposons en outre que seuls les personnes ayant une impulsivité  élevée, disons supérieure à une valeur limite  de 4, commettront un meurtre. Alors, le pourcentage d'hommes parmi les meurtriers sera de 70% environ. La courbe ci-dessous montre, pour chaque valeur limite x, le pourcentage d'homme qu'on trouvera dans le groupe constitué par les personnes ayant une impulsivité supérieure à x.
On voit qu'avec une valeur limite théorique de 10, on atteindrait 90%. Bien sûr, l'exemple inventé ici n'est pas réaliste, puisqu'il n'existe pas de mesure permettant de déterminer avec certitude si quelqu'un deviendra criminel, mais l'idée générale reste juste. La morale de cette histoire est qu'une toute petite différence  entre deux groupes concernant une mesure X peut devenir très visible si l'on sélectionne des sous-populations en "coupant" la population pour ne garder que les valeurs extrêmes de X. Pour reprendre l'exemple introductif des 43 gènes identifiés par Docherty et ses collègues : bien que l'effet de ces gènes soit ridiculement petits, il est possible que si l'on étudiait seulement les médaillés Fields, on trouverait qu'ils ont en très grande majorité les bonnes versions des gènes...

L'anti-sexisme au service de l'anti-science

Par : Nicolas
Source
Le Plus du Nouvel Observateur nous gratifia le 27 octobre 2012 d'un texte de Nathalie Blu-Perou intitulé Les hommes infidèles à cause de leurs testicules ? La science au service du sexisme. Son billet montre le triste tableau de l'idéologie étouffant la raison. Dans la suite, je n'évoque que ce qui est écrit dans la première partie du document, à propos du lien entre... vous verrez plus bas.

Tout commence avec des études démontrant que, chez les primates, la taille des testicules est liée positivement à la probabilité de polygamie. Pour le dire autrement : plus un singe mâle dispose de conséquentes gonades, plus il est probable qu'il vive dans un système polygame. Attention : il s'agit d'une comparaison entre les espèces, et non entre les individus d'une même espèce. Voilà qui n'est toutefois pas du goût de Blu-Perou. Sans citer la source (elle s'appuie seulement sur une émission de télévision qui fait référence à ce résultat), l'auteure affirme que de telles études sont

1. inintéressantes ;
2. fausses ("qui n'a de scientifique que le nom") ;
3. immorales ("la science prise en flagrant délit de sexisme").

1. Intérêt : comprendre la théorie de l'évolution sur un cas singulier

Les chercheurs ont été intrigués par un décalage inattendu : les gorilles sont nettement plus forts et grands que les chimpanzés, mais leurs testicules sont 4 fois plus petits (voir ici par exemple). C'est en termes d'évolution qu'ils ont cherché à comprendre cette réalité. Même si le fait de chercher des corrélations entre la taille des bourses et le nombre de partenaires peut sembler absurde ou idiot, il s'agit bien d'un élément d'observation qui va au-delà du simple amusement. Si les chimpanzés sont plus sévèrement burnés que les gorilles, c'est parce que chez eux, ceux qui "en ont" jouissent d'un avantage sélectif.

L'explication est la suivante : chez les chimpanzés, tout le monde couche avec tout le monde, pour le dire simplement. Du coup, avoir un sperme abondant (ce qui correspond aussi à des glandes taillées pour ça) donne un avantage reproductif : à chaque copulation, on a une plus grande chance d'avoir une descendance. Chez les gorilles, seul le mâle alpha, qui est dominant parce qu'il est le plus fort et non sur la base de ses roustons, copule avec les femelles. Autant chez les gorilles la force brutale est un avantage sélectif, autant la taille des testicules y est sans importance.

Quant aux humains, ils ont des testicules de taille moyenne comparée aux autres primates, ce qui laisse penser qu'ils ont depuis longtemps vécu sur un mode semi-polygame, pas très éloigné des réalités actuelles, en somme.

2. Un résultat bien établi

Il n'y a pas le moindre début d'argument dans tout le billet rageur de la blogueuse laissant penser que les études dont elle parle (sans donner de référence, encore une fois) soient mal faites. En réalité, il s'agit d'un résultat bien établi et consensuel dans la communauté scientifique (la requête "testis size chimpanzee" sur Google Scholar renvoie 8910 articles scientifiques, dont plusieurs dans Nature). Son affirmation qu'il s'agit de fausse science ne repose visiblement sur rien d'autre que la colère née de son interprétation biaisée des résultats.

3. La science n'est ni sexiste ni anti-sexiste

Le but de la science est de trouver la vérité, et non de donner des leçons de morale. Dans l'esprit de Blu-Perou, oser trouver une corrélation entre la taille des testicules et le nombre de partenaires sexuelles chez les primates est pourtant une preuve de sexisme... Pourquoi ?

On comprend ce que cherche à nous dire l'auteure en lisant son billet : selon elle, si on trouve que la taille des glandes est liée au nombre de partenaires chez les singes, alors il s'agit forcément d'une relation causale directe [sophisme 1 : confusion corrélation-causalité]. Si on applique la même chose aux humains, cela implique selon la chroniqueuse que les hommes qui trompent leur femme ne sont pas coupables, puisque ce sont leurs roustons qui parlent [sophisme 2 : dualisme].

Premier point : le lien causal entre la taille des gonades et la polygamie semble en effet établi par la science, mais dans le sens inverse de ce qu'a compris Blu-Perou. Elle titre "les hommes infidèles à cause de la taille de leurs testicules", alors que les scientifiques disent "la taille des testicules est importante à cause de la polygamie". Le volume est donc considéré comme une conséquence, et non une cause, de la polygamie. En outre, il s'agit de polygamie féminine : c'est parce que les femelles chimpanzés ont des relations multiples que les mâles à grosses glandes sont avantagés. Chez les gorilles, le mâle alpha copule avec toutes les femelles, mais cela ne favorise pas l'importance des testicules.

Second point : les scientifiques n'ont pas pour habitude de donner des conseils moraux dans leurs articles et la conclusion que les maris infidèles ne sont donc pas coupables, qui exaspère tant la chroniqueuse, n'est sûrement pas d'eux. Supposons que le lien entre taille des roubignoles et nombre de partenaires soit vrai chez les humains, en quoi cela disculperait les maris infidèles comme le suppose Blu-Perou ? Passons sur le fait que ce sont plutôt les femmes qu'il faudrait interroger, puisque c'est la polyandrie et non la polygynie qui joue dans l'évolution. C'est là qu'intervient une pensée dualiste trompeuse. Il n'y a pas d'un côté le biologique et de l'autre, sans aucun lien avec le premier, le psychologique. Que certaines hormones augmentent l'appétit sexuel n'excuse par exemple pas les violeurs. La justice ne prend pas en compte, fort heureusement, ce genre de défense ! On n'imagine pas un cambrioleur montrer son scanner pour prouver qu'il avait très envie d'argent, que cela vient de ses neurones, et qu'il faut en conséquence l'acquitter. Bien sûr que ça vient des neurones, de la biologie et de la chimie ! C'est quand même interdit.

L'attaque de Nathalie Blu-Perou est donc triplement sophistique : (1) elle affirme qu'une série d'études est fausse sur la seule base de son intime conviction qu'on ne peut rien trouver de vrai dont elle puisse déduire une conclusion contraire à ses désirs politiques, (2) elle ne perçoit pas en quoi la question, certes amusante au premier abord, peut en fait permettre une meilleure compréhension de l'évolution et (3) elle accuse la science d'être sexiste parce qu'elle a trouvé une interprétation des observations qui permet de justifier l'infidélité. Cette interprétation n'est pourtant ni celle des scientifiques, qui se garderaient bien de telles considérations, ni de la loi, qui ne prend pas en compte les taux d'hormones ou autres critères du même acabit pour savoir si quelqu'un est coupable ou non (sauf cas exceptionnel : si les taux sont pathologiques, on pourrait sans doute considérer un accusé comme "malade" au lieu de "coupable").

— pour les passionnés qui veulent en savoir plus (en anglais) —

Un billet de blog expliquant pourquoi les chimpanzés sont ainsi faits.
Un article de Nature datant de 1981, citant déjà plusieurs dizaines d'autres travaux.
Un article de NewVision sur le lien entre la taille des noix l'infidélité.
Un livre paru en 2009 sur la question, en partie lisible sur Google Books.

Séralini n'aime pas les statistiques

Par : Nicolas
Source : http://www.ubest1.com/?page=videos&cat=2
Voilà quelques semaines qu'on entend sur les radios et qu'on voit à la télévision Gilles-Eric Séralini dérouler son argumentation autour de sa publication dans Food and Chemical Toxicology concernant la toxicité du maïs NK603.

Je me souviens du matin où j'ai entendu pour la première fois parler de cette étude. On m'a dit "ça y est, on a démontré que les OGM donnent le cancer." J'y ai cru tout de suite, moi, aux conclusions annoncées sur le maïs NK603. Et pourtant, j'ai trouvé la phrase absurdement généraliste. Aussi absurde que si on m'avait dit "ça y est, on a prouvé que les plantes donnent le cancer". Pas toutes. Le tabac, oui. Pour les OGM c'est pareil. Si on prouvait que le maïs NK603 donne le cancer, en quoi cela remettrait-il en cause les études antérieures sur tel soja, tel riz ou même tel autre maïs ? C'est donc sans panique excessive que j'ai reçu cette nouvelle, mais oui, j'ai fait confiance aux médias.

Et puis les critiques sont venues (une récente, accablante, est disponible ici). La variété de rats n'est pas correctement choisie. Les groupes sont trop petits. Il est étonnant que les rats meurent si peu dans le groupe témoin. Les "cancers" annoncés n'en sont pas (la publication scientifique ne parle pas de cancer ; la presse a transformé "tumeur" en "cancer"), etc. De tout cela bien sûr, je ne peux pas vraiment juger.

Puis d'autres voix encore hostiles à Séralini s'élèvent et on me contacte pour me demander mon avis. "3 rats morts, ça n'est sûrement pas significatif ?", me demande-t-on. Aussitôt je réponds, confiant dans la communauté scientifique "bien sûr que si, c'est forcément significatif ! d'après les biologistes, Food and Chemical Toxicology est une bonne revue. Jamais une revue scientifique sérieuse n'accepterait de publier des résultats non significatifs assortis d'une conclusion de toxicité !".

Tout ça, c'était avant que j'allume la télévision, jeudi 18 octobre 2012 au soir, pour être estomaqué par Séralini qui, au cours d'un "reportage" de promotion sur France 5 (OGM. Vers une alerte mondiale ?), déclarait texto que ses résultats n'étaient en effet pas significatifs, mais affirmait dans la foulée que ça ne changeait rien pour lui. "Pas besoin de chiffres devant ces graphiques" se justifiait-il après nous avoir expliqué en long en large et en travers à quel point la méthodologie de son étude était rigoureuse...  Une méthodologie rigoureuse et un traitement statistique flou et fumeux ? Voilà une manière de procéder inconséquent, mais qui convaincra bien des téléspectateurs hélas, puisque beaucoup ne donnent aucun sens précis à "significatif", puisque la statistique n'est pas enseignée.

Un résultat est non significatif s'il s'explique parfaitement par le hasard.

Qu'un rat vive un peu plus longtemps qu'un autre, ou un peu moins, voilà qui peut arriver par hasard. Si la différence entre les groupes de rats est suffisamment grande, on pourra conclure que ça n'est pas seulement le hasard, et que les produits testés ont joué un rôle. Dans le cas contraire, on ne sait pas. C'est dans cette situation que se trouve Séralini. Autrement dit, admettre que ses résultats ne sont pas significatifs revient très exactement à dire "les différences observées entre les groupes de rats sont cohérentes avec l'hypothèse que ni l'OGM ni le pesticide n'ont d'effet". C'est donc un résultat purement négatif.

A ce stade de l'émission, mon hypothèse était que Séralini souffrait d'une allergie sélective à la statistique. Mais le débat avec Philippe Joudrier a achevé de me convaincre qu'il y avait pire. "Il n'y a jamais eu d'étude aussi longue (2 ans) sur un OGM" déclare Séralini. Joudrier lui cite une étude publiée en 2008 sur un soja GM, qui a durée deux ans et que Séralini connaît. "Oui mais je parlais d'études contrôlant autant de facteurs sanguins que ce que j'ai fait" répond en substance Séralini... Ce merveilleux sophisme, qui consiste lorsqu'un adversaire vous prouve que vous avez tort, à changer rétrospectivement votre première affirmation, Schopenhauer la cite déjà dans son Art d'avoir toujours raison, et c'est toujours fascinant de voir qu'un truc aussi gros peu fonctionner.

C'est souvent le cas avec les sophismes : quand on lit leur description, on ne peut pas croire que ça marcherait. Et pourtant, en situation, c'est redoutable. Séralini a gagné la bataille médiatique, et a réussi en s'appuyant sur un résultat négatif a se faire passer pour celui qui a enfin prouvé quelque chose. De manière assez ironique, Monsanto a trouvé sur d'autres OGM des résultats significatifs (mais qui ont été jugés non inquiétants ; qu'il y ait une différence n'est pas forcément un problème). Séralini est donc plus loin d'avoir démontré la toxicité d'un OGM que Monsanto... Mais on voit nettement sur Google Trends l'effet de son annonce fracassante.

Les titres des grands journaux du type "Oui les OGM sont des poisons" auraient mieux collés à la réalité scientifique s'ils avaient été "Séralini tente de prouver qu'un OGM est toxique. C'est un échec".

Fluctuations d'échantillonnage

Par : Nicolas



L'enseignement de la statistique est au coeur des préoccupations actuelles de l'Education Nationale. Si on a introduit il y a quelques années les probabilités et la statistique dans les programmes de 3ème, on commence maintenant à se demander s'il ne faudrait pas démarrer le sujet dès le primaire, avec une initiation au hasard.

Parmi les points clés de l'enseignement se trouve la fameuse fluctuation d'échantillonnage.

Etant donnée une variable aléatoire \( X \) de moyenne \( \mu \) sur une population supposée infinie, choisissons un échantillon de taille \( n \).

Qu'appelons-nous alors la moyenne ? Il y en a en réalité trois :

  • Le paramètre \( \mu \), qui est la "vraie" moyenne de la population, nombre inconnu en général.
  • La moyenne observée \( \overline{x} \), le nombre que nous avons trouvé.
  • Enfin, la statistique \( \overline{X} \).
Cette dernière "moyenne" n'est pas un nombre, mais une variable aléatoire. Puisque l'échantillon choisi est aléatoire et varie d'un essai à l'autre, la moyenne que l'on trouve est également variable. Ce constat est à la base de toute la théorie de l'estimation : en étudiant les variations (fluctuations) de \( \overline{X} \), on peut déterminer des intervalles de confiance pour la moyenne. Un point important qui rend possibles de bonnes estimations est que les fluctuations diminuent avec la taille de l'échantillon.

L'objet du petit clip pédagogique en tête de ce billet est de visualiser cette réduction de l'écart type de \( \overline{X} \). Pour le produire, on a choisi une variable \( X \) uniforme sur \( \{0,1,\ldots  ,50 \} \). On a ensuite tiré aléatoirement 100 échantillons de taille \( n \) (pour différentes valeurs de \( n \)). Pour chaque valeur de \( n \), on représente (graphe du haut) les différentes moyennes  \( \overline{x} \) obtenues, qui sont des réalisations de  \( \overline{X} \), ainsi que la distribution des moyennes observées (graphique du bas). La décroissance de la fluctuation est nette.

Pour les aspects théoriques, on pourra se référer à ce cours très concis de niveau lycée, ou bien celui-ci, de niveau universitaire (très accessible).

Conceptions du hasard chez des enseignants

Par : Nicolas
Source.

Dans le cadre de la formation dont nous avons parlé récemment (lien), une seconde expérience a été menée. Il s'agissait pour les participants de juger si des événements étaient représentatifs ou non du hasard, en donnant à chacun de ces événements une note entre 1 et 4, 1 signifiant "pas représentatif du tout du hasard" et 4 "très représentatif du hasard". Les participants remplissaient ce questionnaire juste avant, puis juste après la formation, mais les questions étaient contrebalancées pour l'ordre (la moitié des participants répondaient d'abord aux questions impaires puis aux questions paires, et l'autre moitié inversement).

L'impact de la formation sur les conceptions du hasard n'est pas significatif, les différences observées pouvant s'expliquer par les seules variations aléatoires. Néanmoins, les données permettent d'étudier globalement les conceptions du hasard chez les enseignants de mathématiques et sciences.

Les résultats obtenus sont résumés dans le tableau qui suit. Les événements y sont classés de celui jugé le moins représentatif à celui jugé le plus représentatif du hasard.

Événement
Représentativité moyenne
(1.4) Un feu tricolore est réglé pour rester 50 secondes vert, 4 secondes orange, et 10 secondes rouge à chaque cycle. Il est vert lorsque vous arrivez au niveau du feu.
2,59
(2.1) Dans les décimales de Pi (3,14159…), on trouve une série de six « 9 » consécutifs à partir de la 762ème décimale.
2,65
(1.7) Une installation électrique tombe en panne à Nancy le 4 mars 2011.
2,70
(2.2) Un dé truqué tombe sur 6 avec une probabilité de 50%, et sur chaque autre face avec une probabilité de 10%. On le lance, et il tombe sur 6.
2,75
(1.6) On choisit 8 cartes de suite dans un jeu de 54 cartes ordinaires, et on considère la couleur des cartes (R : rouge ou N : noir). On obtient dans l’ordre RNRNRNRN.
2,91
(2.7) Pendant un orage, une installation électrique tombe en panne à Nancy.
2,94
(1.5) Lors d’une pluie de météorites qui touche les côtes de l’Europe, une petite météorite tombe dans l’océan à 1000km des côtes portugaises.
2,95
(1.2) Un dé truqué tombe sur 6 avec une probabilité de 50%, et sur chaque autre face avec une probabilité de 10%. On le lance, et il tombe sur 1.
3,00
(2.3) On lance 8 fois de suite une pièce. On obtient PFPFPFPF (P signifiant « pile » et F « face ») dans cet ordre.
3,04
(1.1) La fonction ALEA() des tableurs courants permet, au moyen d’un calcul, de générer des nombres « suivant une loi uniforme » entre 0 et 1. Après avoir allumé un ordinateur, on tape « =ALEA() », et 0,384 s’affiche.
3,06
(1.3) On lance 8 fois de suite une pièce. On obtient PFFFPFPP (P signifiant « pile » et F « face ») dans cet ordre.
3,11
(2.4) Un feu tricolore est réglé pour rester 30 secondes vert, 4 secondes orange, et 30 secondes rouge à chaque cycle. Il est orange lorsque vous arrivez au niveau du feu.
3,13
(2.6) On choisit 8 cartes de suite dans un jeu de 54 cartes ordinaires, et on considère la couleur des cartes (R : rouge ou N : noir). On obtient dans l’ordre RRNRNNNR.
3,13
(2.5) Une petite météorite tombe dans l’océan à 1000km des côtes portugaises.
3,35


Ce qui semble ressortir de ce tableau :
  • Étrangement, tous les événements sont jugés représentatifs du hasard (note supérieure à la moyenne 2,5), même lorsqu'ils sont manifestement déterministes (comme les décimales de pi).
  • Un événement improbable est plus représentatif du hasard qu'un événement probable.
  • Un événement complexe est plus représentatif du hasard qu'un événement simple.
  • Certains événement issus de processus prototypiques dans l'éducation (fonction ALEA, pièces) sont jugés toujours représentatifs du hasard, presque indépendamment des résultats.
  • La présence d'un contexte explicatif réduit la représentativité (comparer les météorites).
Et vous, auriez-vous jugés de même ces événements ?

Biais probabilistes chez des enseignants

Par : Nicolas
Source: Le devin, Astérix (http://www.asterix.com/edition/albums/le-devin.html)

L'an dernier, une formation sur les probabilités a été proposée aux enseignants de mathématiques et de sciences des collèges et lycées. Pour évaluer l'impact de cette formation, de petits exercices ont été proposés aux participants, juste avant la formation, et à nouveau 6 mois plus tard. Les résultats devraient être publiés dans quelques mois, mais voici un court résumé de ce qui a été obtenu.

Ces exercices étaient choisis précisément pour mettre en évidence des biais de raisonnement probabilistes qui sont connus pour toucher à peu près tout le monde, y compris les experts en probabilités. Voici les quatre exercices utilisés :


Question

Réponses possibles

Biais étudié

On lance trois dés équilibrés en même temps. En rangeant les trois valeurs obtenues par ordre décroissant, on forme un nombre de trois chiffres, par exemple 421 (si on a tiré un 4, un 1 et un 2) ou 422 (si on a tiré un 4 et deux 2)

(1) probabilités égales (2) 421 plus probable (3) 422 plus probable (4) on ne peut pas savoir.

Équiprobabilité

Un jeu de pile ou face fonctionne de la manière suivante : On parie une mise X (au choix) sur le résultat du tirage (pile ou face). Si on a deviné juste, on empoche le double de sa mise. Dans le cas contraire, on perd la mise. On peut parier autant de fois qu’on le souhaite. On dira qu’on a « gagné » si on a plus d’argent à la fin du jeu qu’au début

(1) aucune méthode ne peut donner une probabilité de gain de plus de 50% (2) il existe une méthode donnant une probabilité de gain de plus de 90% (3) il existe une méthode donnant une probabilité de gain dépassant 50%, mais pas 90% (4) je ne sais pas.

Heursitique d’invincibilité (moyenne/proba)

Une maladie M touche 1 personne sur 100. Il existe un test fiable à 90% pour détecter la maladie : le test sera positif pour 90% des malades, et négatif pour 90% des personnes n’ayant pas la maladie. On choisit une personne au hasard dans la population générale et on lui fait passer le test. Il est positif. La probabilité que cette personne soit atteinte de la maladie M est

(1) comprise entre 0 et 0,5 (2) comprise entre 0,5 et 0,9 (3) supérieure ou égale à 0,9.

Négligence du taux de base

Une urne contient 4 boules rouges, 2 blanches et une noire. On tire une première boule de l’urne. Sans la replacer, on tire une seconde boule. Cette seconde boule est blanche. La probabilité que la première boule soit blanche est

(1) inférieure à la probablité qu’elle soit noire (2) égale à la probabilité qu’elle soit noire (3) supérieure à la probabilité qu’elle soit noire (4) on ne peut pas savoir

Phénomène Falk


Les réponses soulignées sont les bonnes réponses, alors que les réponses en italique sont les réponses fausses auxquelles on peut s'attendre, compte tenu de la littérature sur le sujet.

La figure ci-dessous présente les résultats globalement:

Chaque ligne correspond à un exercice (voir le tableau au-dessus). Les barres rouges correspondent aux erreurs auxquelles on s'attendait, les vertes aux réponses correctes. La première colonne indique les résultats obtenus avec la totalité des participants. La seconde donne les résultats donnés AVANT la formation par les 18 participants qui ont accepté de répondre la seconde fois (6 mois plus tard), et la dernière les résultats donnés par ces mêmes 18 participants 6 mois APRES la formation.

Ce qui ressort de ces résultats est (1) la confirmation que les enseignants commettent les erreurs que nous commettons tous sur les probabilités (2) un effet mitigé de la formation en terme de réduction des erreurs et (3) une sorte d'apprentissage du doute, qui poussent les participants à donner des réponses plus prudentes (même si fausses) après la formation.

Intérêts pour les arts dans la littérature

Par : Nicolas
On parle énormément ces derniers temps de la base de données Google Books et de son interface ngram viewer, qui permet de visualiser l'évolution de l'utilisation de mots ou d'expressions dans la littérature. Il est possible de télécharger les fichiers des données brutes, pour pouvoir les traiter soi-même. (les fichiers sont tout de même très volumineux!).

En guise d'amusement mais aussi pour illustrer le principe de l'analyse en composantes principales, je vous propose un petit traitement statistique à partir des noms d'art : "musique", "littérature", "architecture", "peinture" et "sculpture". Chaque année depuis 1800 (il existe des valeurs depuis le 16ème siècle, mais très éparses) est considérée comme un individu statistique, et le nombre d'occurrences de chaque nom d'art exprimé en pourcentage du total de tous les mots de la même année est une variable.

Nous avons donc 5 variables quantitatives, correspondant aux 5 arts considérés. Une analyse en composantes principales (ACP) permet de visualiser sur deux dimensions (expliquant 75% des variations, ce qui est assez bien) le pattern suivant :

Ce graphique montre un lien positif, du côté de l'axe horizontal, entre musique, architecture, et littérature. Cela signifie que les grandes valeurs de la variable représentée par l'axe 1 correspondent à des années pour lesquelles il y eut beaucoup de "musique", "architecture" et "littérature". Si l'on interprète un plus grand nombre d'apparitions du nom d'un art comme le signe d'un intérêt pour cet art, cela veut dire que l'intérêt pour la musique, l'architecture et la littérature sont liés. Au contraire, l'intérêt pour la sculpture, qui fait presque un angle droit avec ces trois premiers arts, est indépendant de celui pour la musique. La peinture se retrouve entre les deux, liée positivement aux deux blocs.

On peut ensuite représenter les individus (ici les années) dans le plan. Sur la figure ci-dessous, chaque année correspond à un point. Les points les plus à droite correspondent à des années où "musique", "architecture" et "littérature" sont plus représentés. Les points les plus hauts correspondent à des années de publication importante du mot "sculpture" et, dans une moindre mesure, "peinture". La courbe du graphique est moins chaotique que la "vraie", car j'ai appliqué un double lissage par spline (cet article en français explique ce que c'est), pour faire apparaître des tendances. On y voit depuis les années 1950 un intérêt croissant pour la musique-architecture-littérature, et un désintérêt pour la sculpture. Depuis 2000 cependant semble poindre un regain d'intérêt pour cette dernière.

Un grand merci à Florent, qui a aimablement programmé un script PERL permettant d'extraire les données voulues des bases de Google Livre.

Insérer du LateX dans une page web

Par : Nicolas

$$x=\frac{-b\pm\sqrt{b^2-4ac}}{2a}$$

Je ne suis sûrement pas le seul à vouloir de temps en temps à incorporer une formule mathématique dans mon blog ou sur un site, tout en étant totalement incompétent en matière de programmation. En googlisant "TexToMathml" ou autre, on tombe sur une quantité industrielle de programmes absolument pas conviviaux qui traduisent péniblement du \(\LaTeX\) en MathML. On trouve aussi beaucoup de sites fermés... Il m'a fallu un certain temps pour découvrir LA solution idéale pour les handicapés de l'informatique, que je vous livre ici. Bien sûr, j'invite vivement tout lecteur qui connaîtrait un procédé aussi simple donnant de meilleurs résultats à l'indiquer en commentaire.

Comment faire ?

Il suffit d'ajouter au début de la page concernée (ou en en-tête de billet sur un blog) le code suivant :
< script src="https://c328740.ssl.cf1.rackcdn.com/mathjax/latest/MathJax.js?config=TeX-AMS-MML_HTMLorMML" type="text/javascript" > < /script >
Avec cela, les codes LateX entre double dollars seront interprétés. Attention : les simples dollars ne seront pas interprétés en revanche. Pour une équation en ligne, il faut utiliser d'autres symboles (antislash-parenthèse ouvrante et antislash-parenthèse fermante).

Plus d'information sur cette méthode disponible ici.

Qui a peur des mathématiques ?

Par : Nicolas

Source : FNAC
Anne Siety est psychologue et travaille avec des personnes en difficultés avec les mathématiques. Elle est chargé de cours en sciences de l'éducation aux universités Paris X et Paris XIII. Dans Qui a peur des mathématiques (2012), elle aborde le thème du "blocage" en mathématiques.

Le livre prend la forme d'un témoignage ou d'une réflexion toute personnelle. Il est écrit dans un style agréable et fluide, mais terriblement délayé! Loin d'une approche scientifique, la pensée se développe à partir de métaphores, de rapprochements par analogie et se fondent sur énormément d'anecdotes vécues, dont certaines semblent un peu embellies. Une tendance à l'interprétation "psychologique" peut agacer par moment, même si Siety reste prudente : elle cite par exemple le cas d'une jeune fille qui ne comprend pas les fonctions, mais à qui elle finit par faire dire que "fonction" est aussi un mot de la langue courante. "J'agis en fonction de ma mère" propose la jeune fille en guise d'illustration. La psychopédagogue y voit apparamment une piste de réflexion sur la difficulté en mathématiques : ne pourrait-elle pas provenir de la relation maternelle ? Plus loin, elle s'accroche au fait qu'une élève donne la natalité en exemple dans un cadre statistique pour y voir le signe d'une cause familiale des difficultés...

Pour celui qui s'intéresse vraiment aux raisons des difficultés mathématiques des élèves en général, le livre est très décevant. Pour autant, il n'est pas entièrement vide de sens, et l'on trouve par moment des réflexions intéressantes. Par exemple celles-ci :
  • Travailler plus n'est sans doute pas la solution pour un élève "bloqué" puisque le blocage est précisément l'impossibilité à ce mettre au travail.
  • La culpabilité joue parfois un rôle, dans un cercle vicieux : bloqué, l'enfant se sent coupable de ne pas arriver à travailler, ce qui renforce son blocage.
  • Les mathématiques sont souvent perçues en terme de droit et de devoir "il faut faire ceci avec les équations", "on n'a pas le droit d'écrire cela".
Mais on trouve aussi des remarques que les didacticiens trouveront au moins douteuses. C'est ainsi que Siety nous parle page 64 d'un jeune (Antonin) en difficulté avec le raisonnement par récurrence. Au lieu de montrer que $$P(n)\Rightarrow P(n+1),$$ l'adolescent montre $$P(n+1)\Rightarrow P(n).$$ Pour lui expliquer son erreur, Siety prend l'image de l'hérédité : c'est le fils qui hérite de son père, et non l'inverse, explique-t-elle (inutile de dire qu'elle suggère ici en passant qu'une mauvaise représentation de la relation père-fils pourrait bien être à l'origine de la difficulté). Par cette explication, elle risque fort de faire croire à Antonin que si l'on utilise toujours la récurrence dans le sens des nombres croissants, c'est à cause d'une propriété essentielle des nombres, qui ne peuvent hériter que de leur prédécesseur. Bien sûr il n'en est rien, et l'on peut tout à fait démontrer qu'un résultat est juste sur les nombres négatifs par exemple, ou qu'un résultat est vrai "jusqu'à 10000" par une récurrence descendante. L'explication de Siety risque fort d'induire Antonin en erreur en lui faisant croire que c'est une sorte de propriété immanente des nombres qui explique le détail technique de la récurrence.

Page 90 est avancée l'idée que nous aurions tous en nous les connaissances préalables à la compréhension mathématique, et que la seule difficulté serait de faire le lien entre nos intuitions et les objets mathématiques correspondant. Cela n'est sûrement valable que pour des mathématiques élémentaires, et même là parfaitement discutable (même si les travaux sur la numérosité confirment en partie cette intuition). On peut au contraire penser que la difficulté inhérente aux mathématiques tient justement à cela que les objets mathématiques renvoient faussement à une intuition.

Au final, Qui a peur des mathématiques pourra sans doute convenir à celui qui, ayant connu des difficultés en mathématique, souhaite lire des anecdotes variées pour se rendre compte que sa difficulté n'a rien d'extraordinaire. Peut-être y trouvera-t-il des remarques éclairantes, quelques réflexions lui donnant des pistes pour se comprendre. Il ne faudrait pas en revanche chercher dans cet ouvrage une théorie de la difficulté mathématique, des résultats fiables sur ses causes ou des solutions validées.

Le mystère du 2044

Par : Nicolas
Nombre d'occurrences de "2043", "2044" et "2045" dans la littérature allemande, de 1800 à 2008 selon ngram viewer. Des courbes tout à fait similaires se retrouvent en Français, Espagnol et Anglais. Source : Ngram.
Le site ngram viewer permet en quelques clics de créer de magnifiques graphiques à partir des données monumentales accumulées par Google Books (5 millions de livres ont été numérisés). On peut ainsi visualiser, année par année de 1800 à 2008, le nombre d'occurrences d'un mot ou d'une expression. Cela ouvre la voie à des recherches tout à fait nouvelles et peut-être même à une nouvelle discipline, la culturomique. Cette possibilité a suffisamment marqué la communauté scientifique pour que de nombreux articles aient déjà été publiés (159 selon Google Scholar), y compris dans Nature ou Science, et des chercheurs ont déjà commencé à utiliser des outils mathématiques imbitables récents pour analyser cette base colossale (voir ici par exemple).

En testant quelques mots, vous trouverez sans aucun doute des choses surprenantes. En voici une, qui a donné lieu à une petite enquête assez amusante.
On a constaté que le nombre 2044 apparaît de manière étonnamment fréquente jusqu'en 1920, puis baisse subitement pour rejoindre le niveau ordinaire des nombres du même ordre de grandeur (voir par exemple le blog de Jim Fowler).

Ce phénomène est visible en Anglais, Espagnol, Français, Allemand, mais ni en Russe ni en Chinois. Sur le blog de Jim Fowler, où le phénomène a été noté en premier, il n'y a pas d'explication, et Jean-Paul Delahaye, auteur d'un article sur la culturomique dans Pour la Science, m'a suggéré d'enquêter. J'ai donc cherché ce qui pouvait expliquer cette surreprésentation du "2044". Une éclipse est certes prévue à cette date, mais il paraît peu probable que ce phénomène suffise à expliquer l'explosion enregistrée, et surtout la chute brutale en 1920 ! 2044 n'est pas un nombre particulier, n'ayant ni beaucoup ni très peu de diviseurs premiers, et aucun mythe populaire ne semble entourer l'année 2044. On le retrouve dans des tables de logarithmes, mais celles-ci contiennent également des 2043 et des 2045, 2046, etc. De même, il ne semble pas que 2044 désigne une quelconque position géographique passionnante.

Après quelques recherches, j'ai enfin trouvé  se trouvaient une bonne partie des 2044 de la base de données....
Sur des codes barres !

La bibliothèque de l'Université de Harvard a accumulé plusieurs millions de livres, et une bonne partie des livres anciens de Google Books a été numérisée depuis cette source presque inépuisable. Or, la liste des "ngrams" inclut les codes barres attribués aux livres par cette bibliothèque. Je suppose que le code "3 2044 ..." est celui par lequel commence tous les livres "anciens" (avant 1920), ce qui expliquerait la forme étonnante de la courbe. Voici donc presque résolue cette énigme : il n'y a pas vraiment de mystère du 2044, mais seulement un artefact lié au codage utilisé par Harvard.

J'ai écrit à la bibliothèque de Harvard pour connaître le sens de ce code "3 2044", et ne manquerai pas de vous signaler leur réponse le cas échéant.

Beaucoup de livres de la bibliothèque de l'Université de Harvard portent un code barre commençant par "3 2044", qui a été numérisé avec le reste de l'ouvrage.

Quelques modèles de mémoire de travail

Par : Nicolas

Si le modèle de Baddeley (voir vidéo ci-dessus) reste le modèle de base le plus cité dans les travaux sur la mémoire de travail, il est loin d'être le seul disponible. Dans un livre de 1999 dont on peut lire l'introduction ici, Miyake et Shah citent 10 modèles différents, sans épuiser le sujet — notamment, de nouveaux modèles sont apparus depuis la publication du livre. Tous expliquent à leur manière comment l'augmentation, dans les épreuves de double tâche, de la charge cognitive, réduit l'empan.

Nous présentons ci-dessous les grandes lignes de quelques-uns de ces modèles — qui se recoupent parfois largement.

Alan Baddeley (source)
Le modèle de Baddeley et Hitch (1974) est modulaire : il suppose l'existence de ressources distinctes travaillant de manière connectées.

L'administrateur central (central executive) est le cœur de la mémoire, et relie la boucle phonologique (mémoire verbale) et le calepin visuo-spatial (mémoire visuelle) — ces deux derniers portant le nom de "systèmes esclaves". L'administrateur central peut en première approximation être identifié à une capacité d'attention et de traitement des données, qui n'a pas de mémoire propre.

Dans les versions récentes du modèle, on ajoute un troisième système "esclave", le buffer épisodique, qui est a-modal et contient des informations à la fois visuelles, auditives, ou autre.




Le modèle de Cowan (1995) est radicalement différent de celui de Baddeley-Hitch parce qu'il est unitaire. Pour Cowan, il n'y a ni systèmes séparés traitant les différents types de données (verbales vs. visuelles), ni même de distinction réelle entre mémoire de travail et mémoire à long terme.

Randy Engle (source)
Dans ce modèle qu'on pourrait dire emboîté, on distingue seulement des éléments plus ou moins activés en mémoire : les éléments en mémoire à long terme ont par défaut une activation de base faible. Parmi ces éléments, ceux qui se trouvent dans la mémoire à court terme (qui n'est qu'une partie de la mémoire à long terme — ou mémoire tout court) sont plus activés. Ceux qui, enfin, se trouvent dans le "focus attentionnel" (4 éléments maximum) sont encore plus activés.

Ce modèle est très semblable au modèle de Engle (lire ceci), la différence tenant sans doute au fait que Engle (1999) distingue tout de même nettement deux structures : la mémoire d'un côté (unitaire), et les capacités attentionnelles. Pour Engle, mémoire de travail est quasiment synonyme de capacité attentionnelle.

Une présentation très complète du modèle de Cowan (1988) est disponible en anglais ici.



Robbie Case (source)
Le modèle de Case (1985) est assez peu présent dans la littérature internationale, parce qu'il ne s'agit pas à proprement parler d'un modèle de mémoire : c'est un modèle de développement néo-piagétien plus général. Il est fondé sur une métaphore énergétique. Nous disposerions d'une ressource limitée (Total Processing Space), dont une partie peut servir au traitement (Operating Space) et le reste au stockage (Short Term Storage Space).

Plus on doit traiter de données, moins il reste de place disponible pour stocker, car il y a un phénomène de partage (trade-off). Pour Case, l'évolution des empans vient simplement du fait que les traitements, devenant plus efficaces avec l'âge, prennent moins de place et laissent ainsi plus d'espace pour le stockage.

(Case est décédé en 2000.)



John N. Towse (source)
Le Task-Switching model de Towse, Hitch et Hutton (1998). Ce modèle suppose qu'il existe une ressource attentionnelle qui peut être utilisée soit pour rafraîchir les traces mnésiques des items à retenir, soit pour traiter les données de la tâche concurrente (dans les double tâches), mais pas les deux en même temps.

Il suppose aussi que les traces mnésiques diminuent spontanément au cours du temps, sauf si l'attention se porte sur eux, d'où la nécessité du rafraîchissement. Cette hypothèse naturelle n'est pas partagée par tous, et Lewandowski suppose que seules les interférences jouent dans le déclin des traces mnésiques.

Dans ce modèle, les sujets alternent donc entre les deux tâches de traitement et de rafraîchissement. Un appui expérimentale à cette idée vient de ce que l'on peut contrôler la durée de la tâche de distraction et sa charge cognitive, et qu'on observe alors un effet plus important de la durée que de la charge. Pour le montrer, les auteurs ont comparé dans une tâche de counting spam trois conditions :

  1. Feature, où les figures à dénombrer sont faciles à reconnaître (donc charge faible, durée faible), 
  2. Conjonction, où les cibles et les distracteurs se ressemblent car ils ont la même couleur (charge élevée, durée élevée)
  3. Feature low, identique à la situation "feature", mais avec plus de cibles (charge faible, durée élevée).


Pierre Barouillet (source)
Le Time-Based Resource-Sharing Model de Barouillet et Camos (2007) est assez proche du modèle de Towse et al., mais prévoit que l'alternance entre le rafraîchissement et le traitement de la tâche secondaire s'effectue aussi pendant la tâche secondaire. Ainsi, nous pourrions réactiver les informations à retenir au cours de micro-pauses pendant cette tâche.

La force de ce modèle est qu'il est mathématisable, et donc plus facile à tester et plus précis.  Lewandowski, qui critique ce modèle parce qu'il suppose un déclin au cours du temps des traces mnésiques même en l'absence d'interférence, en a pourtant proposé une implémentation (avec des petites variations) sous forme de réseau de neurones. Des recherches en cours avec Valérie Camos, Pierre Barouillet et Fabien Mathy, tentent de développer une version analytique du modèle.

Les auteurs présentent ce modèle comme un compromis entre les théories unitaires (une seule ressource attentionnelle étant disponible), et le modèle de Towse (le partage ou trade-off — rendu nécessaire par un goulet d'étranglement — entre réactivation et traitement étant fait sur une base temporelle).

Dans ce modèle, la probabilité de rappel d'un item dépend uniquement du cognitive load, défini comme la proportion de temps accaparée par la tâche secondaire. Cette hypothèse forte a des implications mathématiques : On trouvera ici un poster sur ce sujet.

Développement de l'empan complexe

Par : Nicolas
Source : Le cerveau McGill
Avant de lire ce billet, mieux vaut avoir lu au moins celui d'hier.

L'empan complexe, comme les empans simples, évolue au cours du développement. Par rapport aux empans simples, on note
  • un développement plus lent ;
  • qui se poursuit plus longtemps (jusqu'à la fin de l'adolescence) ;
  • en restant très inférieur à l'empan simple de 2 items au moins (à 6 ans, le couting span est de 2,6 environ, les chiffres à rebours et le listening span à 1,5 environ, contre 4 pour l'empan de chiffres simple).
Une explication de ces différentes évolutions est que les zones cérébrales impliquées dans les empans simples (lobe pariétale gauche essentiellement, notamment avec l'aire de Broca) ne sont pas les mêmes que pour les empans complexes (lobe préfrontal en particulier).

Plusieurs facteurs ont été avancés pour expliquer le développement des empans complexes — indépendamment des empans simples.
  • L'efficacité des traitements. Il y a un lien linéaire entre la vitesse de dénombrement et le counting span. Lorsque l'on fait "compter" des adultes avec des faux-mots-nombres, ils se retrouvent au niveau d'enfants de 7 ans tant pour la vitesse de dénombrement que pour le counting span : il y a donc un lien entre efficacité (ou vitesse) et empan complexe. On peut l'interpréter en termes de trade-off (répartition d'une même "ressource") comme dans le modèle de Case, ou bien comme un partage plus temporel : si l'on est plus rapide, les traces mnésiques, supposées décroître lorsqu'elles sortent du focus attentionnel, ont moins de temps pour diminuer. C'est ce que propose le modèle de Hitch (1995).
  • L'accroissement des resources. Gavens et Barouillet (2004) montrent qu'on observe un développement même en contrôlant efficacité et durée du traitement, ce qui pourrait étayer l'hypothèse de Pascual-Leone d'une ressource grandissante. Cowan montre également que le rappel hors attention augmente avec l'âge (il faut rappeler des chiffres auxquels on ne doit pas faire attention). Mais ne faut-il pas voir dans tout cela plutôt un accroissement des capacités du focus attentionnel ? La question reste ouverte.
  • Vitesse et déclin des traces mnésiques. On sait en effet que le déclin en mémoire est plus lent chez les adultes que chez les enfants. Cela pourrait être une explication.
  • Rafraîchissement de l'information. Les différences dues à l'âge sont fortement réduites si le rafraîchissement est rendu impossible par une tâche exigeante...
  • Les stratégies. Certaines stratégies sont plus efficaces que d'autres. Par exemple, dans l'empan de lecture, on peut construire une histoire ou une phrase avec les mots à retenir, ce qui améliore les résultats. On peut imaginer qu'il existe ainsi au cours du développement une capacité croissante, et donc une évolution qualitative et pas seulement quantitative de la mémoire de travail.
Les différents facteurs évoqués ici sont liés aux empans complexes, mais il est difficile d'établir les "causes" et les "effets", du fait qu'ils sont également tous liés entre eux. Plusieurs modèles alternatifs tentent d'expliquer les effets observés, sans qu'il y ait encore de consensus scientifique.

La mesure de l'empan complexe

Par : Nicolas


Ce billet suppose que vous avez lu les deux précédents, sur la mémoire de travail.

Les épreuves d'empan simple ne mettent que très peu le central executive à contribution. Si l'on souhaite mesurer la mémoire de travail proprement dite (et pas seulement l'un des systèmes esclaves), mieux vaut utiliser des épreuves plus complexes. Les plus classiques sont :
  • Les empans de chiffres à rebours (backward digit span), où le sujet doit répéter des séries de chiffres, mais à l'envers. Par exemple, si le psychologue dit "3, 8, 5", il faut dire "5, 8, 3".
  • Des tâches d'inhibition, comme le Stroop (voir la vidéo en tête de billet), le Hayling test ou des go-no-go (un exemple interactif se trouve ici).
  • Des épreuves de flexibilité comme le Trail Making Test où le sujet doit — entre autre — relier des points dans l'ordre 1-A-2-B-3-C... en alternant lettres et nombres.
  • Des épreuves de planification comme celle de la Tour de Londres :

  • Enfin, des épreuves de double tâche — comme le Brown Peterson, qui suppose de compter à rebours tout en retenant une série de lettres — où le sujet doit simultanément retenir une information en mémoire et mener à bien une autre tâche. Nous détaillons dans la suite plusieurs exemples de telles épreuves.
En ce qui concerne les épreuves de double tâche qui s'appuient sur la boucle phonologique, on peut citer des mesures du
  • reading span, où le sujet lit des phrases sans lien dont il doit retenir le dernier mot (pour un article en français, cliquez ici. Pour un exemple interactif, voir ici) ;
  • listening span, plus adapté aux enfants, où l'on se contente d'écouter les phrases ;
  • counting span, où l'on doit compter des objets sur des cartes et retenir les nombres correspondants ;
  • operation span, où il faut retenir des lettres et, entre les présentations des lettres, dire si des opérations sont correctes ou non. Cette épreuve est particulièrement difficile. L'épreuve proprement dite apparaît à la fin de cette vidéo de présentation :

  • baba span, conçue pour supprimer la boucle articulatoire mais constituer une charge cognitive minimale : le sujet doit répéter "baba" en boucle entre les présentations d'items à retenir. Cette épreuve à été développée par Camos et Barouillet comme une épreuve où la tâche concurrente est à la fois gourmande en temps et pas en charge cognitive pour valider leur modèle (TBRS).
Il existe également quelques épreuves (rares) de mémoire de travail visuelle. On peut citer dans cette catégorie, bien qu'il soit discutable de les classer dans les mesures d'empan complexe :
  • Mister cucumber, où il faut rappeler l'emplacement de pastilles sur un pantin ;
  • Odd-one-out, où il faut retenir la position des intrus successifs ;
  • Mister X., qui fait intervenir des rotations mentales avec deux pantins tenant des boules...
❌