Agrégateur de flux RSS,

d'après une sélection de blogs sceptiques.

Une émission de liveplay de jeu de rôles de qualité ? Ça vous tente ? Vous voulez découvrir de quoi il s’agit ? J’écoute plusieurs émissions en podcast et je me suis mis en tête de vous en parler de certains, de manière privilégiée, pour vous en faire (peut-être) découvrir. Je commencerai cette série de recommandations avec « Pour une poignée de dés » (ou P1PDD).

100c2a411bba42afb8c07c73ce616fe1_9_960

Il s’agit donc d’un « liveplay », c’est-à-dire de parties de jeu enregistrées, en l’occurrence, d’un jeu de rôles. Un jeu de rôles, pour ceux qui ne connaîtraient pas cet aspect, ou penseraient que cela se résume à certains formats de jeux vidéo, consiste à rassembler quelques copains autour d’une table : chacun interprète un personnage, dont les caractéristiques sont définies sur une feuille de personnage et doit décrire les réactions de son personnage suite à des événements décrits par un des joueurs : le maître de jeu. Ce dernier doit alors déterminer l’évolution de la situation en fonction des actions des joueurs et la leur décrire. Certaines actions nécessitent des lancers de dés, influencés par les caractéristiques des personnages, pour déterminer si ces derniers réussissent ou l’action. Le plus célèbre des jeux de rôles reste probablement le premier : Donjons & Dragons, mais sachez qu’il n’est probablement plus le plus joué (et en particulier en France), et qu’il n’est absolument pas représentatif de la diversité et de la multiplicités des thèmes de jeux de rôles.

J’ai pour ma part longtemps joué aux jeux de rôles, et notamment animé en tant que meneur divers jeux de différentes mécaniques, durant mon adolescence. J’avoue même que cela m’a aidé à une certaine construction dans ma vie au quotidien et dans ma relation avec les autres. J’entendais, pas plus tard qu’hier, une émission de radio où la maman s’inquiétait de son fils qui jouait aux jeux de rôles. J’ai été surpris que ces clichés subsistent…

Dans « Pour une poignée de dés », chaque joueur dispose d’un micro, un héritage précieux d’un autre podcast que gérait le meneur de jeu, Mr Piouf (Bazingcast). Et c’est un point déterminant car le son, régulièrement passable dans ce type d’exercice, est ici particulièrement bon.

Je ne souhaite pas trop en dire sur la nature de l’intrigue, je risquerais de rapidement vous spoiler. En revanche, sachez que leurs parties adoptent les règles d’un célèbre jeu de rôles : Vampire la Mascarade (Edition 20ème anniversaire pour les techniciens passionnés). Les historiques de chaque personnage sont très fouillés et on sent que l’ensemble des scénarios s’enchaîne naturellement.

Pour qui ? 
Pour tous ceux qui souhaiteraient découvrir le jeu de rôles. Pas besoin de rassembler un groupe d’amis, ni de se farcir des règles de jeu : il suffit d’écouter.

Les points forts :
La qualité globale du son, l’intrigue, la personnalité des participants.

Comment écouter ?
Tout est très bien expliqué sur leur site :-) Vous pouvez écouter les épisodes directement sur leur site ou vous abonner au podcast.

Tweet

The post Recommandation : le podcast « Pour une poignée de dés » appeared first on Guillaume Vendé.

Communiqué de l'Association Française pour l'Information Scientifique Le 11 mars 2013 Il y a cinq ans, le 19 mars 2008, l'AFIS (Association Française pour l'Information Scientifique) publiait une mise au point1, suite aux accusations formulées par Marcel-Francis Kahn, rhumatologue. La source du différend remontait aux prises de positions de l'AFIS sur la querelle des OGM. Mécontent du numéro spécial de la revue Science et pseudo-sciences sur les OGM publié2 en octobre 2007, Marcel-Francis Kahn, plutôt (...) Communiqués
Début de mon expérience de plantations avec ou sans lune. Sans suivre la lune, au chaud dans ma cuisine (20°), en godets de germination : - le 28 janvier, des bulbilles d’oignons, et des graines de tomates et d’aubergines. En suivant le calendrier lunaire,...
La semaine dernière, le gouvernement a lancé une campagne officielle pour lutter contre ce qu’on appelle communément les « théories du complot ». Intitulée On te manipule , elle se compose d’une vidéo réalisée par Kevin Razy et d’une page de sensibilisation destinée à expliquer en quoi consistent ces discours et comment les identifier. Elle contient notamment […]
Vous pouvez me retrouver quelques minutes par mois dans le Magazine de la santé (France 5) pour une chronique dont le thème générique est (en gros) : « évaluer les croyances médicales enracinées, à l’aune de la méthode scientifique ». Une chronique pour laquelle toutes les propositions de sujet sont bienvenues (si possible, qui ne concerne pas […]
L’assassinat d’Ilan Halimi, « c'est un complot sioniste » !
Dix ans après l'affaire du "gang des barbares", nous republions ce texte paru en 2006 dans le magazine L'Arche.

L’enlèvement et l’assassinat d’Ilan Halimi ne sont pas ce que vous croyez. C’est un complot sioniste visant à faire échouer le projet d’abrogation de la loi qui réprime le négationnisme, dite «loi Gayssot». Heureusement que nous avons en France quelques valeureux combattants du négationnisme, comme Robert Faurisson, Roger Garaudy, Pierre Guillaume et Serge Thion (ce dernier est un ancien militant d’extrême gauche et ancien chercheur au CNRS, dont il a été licencié parce qu’au lieu de travailler sur le Cambodge il publiait des textes antisémites et négationnistes), pour déjouer les plans sionistes et faire connaître la vérité sur l’imposture du prétendu Holocauste.

On apprend tout cela dans un article signé du pseudonyme, «Serge Noith» (où a-t-il trouvé cela ? On se le demande), intitulé «Ça sent le Carpentras», daté du 26 février 2006 et publié successivement sur le site islamiste Quibla.net et sur dieudo.net/2007, le site de campagne de Dieudonné, candidat à la présidence de la République.

L’article commence par cette phrase : «Aujourd’hui les rues de Paris sentent furieusement le Carpentras.» Pour qui ne l’aurait pas compris, Carpentras c’est la profanation du cimetière juif qui, en 1990, avait ému la France entière. Or, l’affaire de Carpentras, révèle l’auteur, était «une provocation grotesque» qui avait débouché sur «une grande communion nationale de prosternation devant l’Étoile de David». En vérité, les auteurs de la profanation étaient «manipulés par la Sécurité Militaire». Les Français «s’étaient fait rouler dans la farine par Joxe, ministre socialiste de l’Intérieur, par les organisations sionistes et par la presse, qui avait suivi le mouvement, comme toujours». À quelles fins ? «Le résultat le plus durable de cette esbroufe avait été le passage, sans douleur et sans réelle opposition, de la loi Gayssot.» Pour ce qui est du lien entre la loi Gayssot et la Sécurité Militaire, peut-être «Serge Noith» en sait-il le secret mais il ne le partage pas avec les lecteurs de Quibla et de Dieudo.net.

Retour à Paris, en 2006. «L’affaire du jeune homme enlevé, torturé et tué par des voyous, sent le Carpentras à plein nez.» Les auteurs de la manipulation sont «les éléments les plus extrémistes de la droite hypersioniste à Paris». Pourquoi ? Là encore, «Serge Noith» a la réponse. «Ne cherchons pas loin : un fort vent de contestation de la loi Gayssot s’est levé en décembre dernier. Elle a subi une avalanche de discrédits. On la classe désormais dans ces lois liberticides qu’il faut abroger ! Il fallait s’attendre à une réaction de la part de ceux à qui elle fournit un énorme privilège d’impunité.»

L’article de «Serge Noith» paraît, rappelons-le, le 26 février 2006, c’est-à-dire le jour même où une marche avait lieu, à Paris, et dans plusieurs villes de province à la mémoire d’Ilan Halimi. Et «Serge Noith» d’alerter ses lecteurs : «Regardez bien la tête de ceux qui vont défiler aujourd’hui : ce sont ceux qui cherchent à détruire nos libertés.»

Un dessin ?


Source : L’Arche , n° 577, mai 2006.

Voir aussi :
* Carpentras : ''manipulation anti-FN''... ou simple mythe lepéniste ?
* Shoah, quenelle et sodomie... Dieudonné reprend ses classiques dans "La bête immonde" (FranceTV.info, 1er juillet 2014)
* Négationnistes : quand tombent les masques…

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot

Les études d’anthropologie se font souvent « en immersion », le chercheur allant à la rencontre des peuples étudiés, vivant comme et avec eux. C’est ce qu’a fait Colin McRoberts en participant à une « croisière de la conspiration » après avoir réalisé un crowfunding afin de financer son billet à bord.

Il a ensuite publié au jour le jour son journal de bord sur le blog de sa compagne Violent Metaphor.

Le style de l’auteur étant plein de blagues intraduisibles sur la marine, la pêche et la mer, la traduction peut parfois sembler laborieuse et le lecteur est prié de bien vouloir ne pas trop se formaliser.

Un des aspects intéressant à noter et que la société américaine étant relativement judiciarisée, on voit des pseudo-avocats parmi les conférenciers, ce qui montre bien une fois de plus que les pseudo-sciences peuvent apparaître partout où se situe l’intérêt du public.

Ps : il manque quelques passages relatifs aux demandes faites par l’auteur aux lecteurs de bien vouloir s’auto-modérer dans les commentaires, ces derniers n’étant pas traduits ici ces passages étaient peu pertinents.

Cet article est une traduction de A skeptic on the Conspira-Sea Cruise: Day 1


Si vous n’êtes pas familier avec le Conspiracy Cruise, les organisateurs ont toujours leur page promotionnelle ici. Je suis sûr qu’ils vont finir par la retirer cependant, donc pour des d’archives, vous pouvez aller voir sur ma page GoFundMe ou sur notre pré-couverture de la chose sur Violent Metaphor.

Et avant d’aller plus loin, MERCI à tous les supporters GoFundMe ! Votre intérêt pour la culture des conspirationnistes n’a pas seulement rendu ce voyage possible, il est aussi une inspiration comme je continue à faire de lents mais certains progrès pour mon livre à propos de la dissémination et du débat – à propos NDT – des idées irrationnelles.

Le séminaire se tient sur le Ruby Princess, qui est globalement un centre commercial flottant et un hôtel. Je n’ai jamais été sur un bateau de croisière avant donc je n’étais pas vraiment préparé pour bien me rendre compte d’à quel point c’est immense. Mon taxi Uber est passé à côté du vaisseau de combat Iowa sur la route du terminal et aussi gigantesque que cette forteresse flottante soit, le bateau de croisière m’a semblé être deux ou trois fois plus grand. Nous ne sommes pas les seuls passagers du bateau bien sûr, juste une goutte dans les seau géant des touristes. Nous avons des badges nominatifs « ConspiraSea Cruise » et des cordons, et j’ai eu droit à quelques regards de travers dans l’ascenseur.

Après que nous ayons embarqué hier, le premier événement fut une session de présentation où tous les orateurs ont dit bonjour et ont introduit brièvement ce sur quoi aller porter leurs conférences. Je pense qu’il est approprié pour ce premier rapport de faire de même et de présenter nos personnages. Tout le monde a fait un discours de dix minutes, plus ou moins, donc ce qui suit n’est qu’un petit échantillon de leurs idées. J’ai fait ça vite donc il y a peut-être quelques détails erronés mais nous rencontrerons à nouveau chacune de ces personnes pour des sessions plus détaillées.

Sean David Moton : un « spécialiste dans droit autodidacte » (je suis quasi-sur qu’il a dit « dans droit» et pas « en droit » et la distinction semblait importante à ses yeux) avec des liens étroits avec Art Bell. Déclare qu’il « a eu maille à partir » et a gagné contre l’IRS (le Fisc des États-Unis NDT), le SEC (le gendarme de la Bourse), l’état et le gouvernement fédéral. Je suis sceptique des gens qui disent avoir gagné des procès mais ne peuvent rien fournir pour vous le prouver ; nous verrons si il le peut ou non j’espère. Durant la présentation de Sherri Tenpenny, un peu plus tard, il l’a interrompue pour rappeler brièvement à quel point Sesame Street (une série pour enfant NDT) est pernicieuse d’avoir un personnage autiste, parce que ça normalise l’autisme. Il a également déclaré que ses enfants son sa propriété au point qu’il avait (ou aurait pu avoir ?) un droit commercial dessus pour refuser les vaccinations obligatoires. J’espère que j’aurais l’occasion d’en entendre plus là-dessus plus tard. Parceque vous savez, en tant que spécialiste en droit, je suis plutôt confiant dans le fait que, non, vous ne possédez pas vos enfants et, non, vous ne pouvez pas avoir de réelle prérogative commerciale sur eux. Les enfants sont des êtres humains et ne peuvent pas être possédés.

Helen Sewel : une astrologue, pas tellement plus à dire sur elle, l’astrologie ça n’est pas tellement mon truc. Je peux dire que le matin suivant, lorsqu’un des orateurs a eu un problème technique, quelqu’un dans le public a crié une explication astrologique pour le plantage de PowerPoint – quelque-chose à propos de la nouvelle Lune, peut-être ? Une autre femme a répliqué « Non, les étoiles ne nous contrôlent pas, c’est nous qui contrôlons les étoiles ». Ils n’en sont pas venus aux mains.

Andy Thomas : agroglyphe. Encore quelqu’un sur qui je ne connais pas grand-chose, mais je crois l’avoir entendu sur The Unexplained avec Howard Hughes. Et c’est un super podcast si vous vous intéressez à la culture des théories de la conspiration. Un genre de version raffiné, British, de Coast to Coast.

Sherri Lane et Leonard Horowitz : wow. Je n’avais jamais entendu parler de ces deux-là avant cette semaine. J’écrirais plus sur eux plus tard, puisqu’ils étaient les derniers orateurs aujourd’hui. Il suffit de dire qu’ils expliquaient qu’ils allaient montrer comment la pieuvre de Spectre (le logo de l’organisation criminelle de James Bond) était derrière une « opposition contrôlée », ou la cooptation de théories de la conspiration par de puissants intérêts pour supprimer les théories de la conspiration. Et ils expliquaient que la fréquence de 528Hz est le remède à tous nos maux, pour des raisons quantiques et/ou acoustiques. Et qu’il y a neuf fréquences créatrices essentielles à partir desquelles l’Univers est construit. Et que les attaques de Paris avaient été mises en scène (même si ils croient vraiment que des gens ont été tués, ce qui n’est pas le cas de tous les théoriciens de la conspiration). Un duo de très haute énergie, à toutes les fréquences. Le lendemain, comme nous le verrons bientôt, ils se sont payé certains de leurs ennemis personnels du monde de la santé alternative. Ce n’est pas parce que vous êtes parano aussi qu’ils ne sont pas là pour vous avoir.

Laura Eisenhower : une « alchimiste globale » et l’arrière petite-fille du président Eisenhower. Et c’est la dernière fois que je le mentionne car ça n’a aucune utilité, même si ils ont pris soin de la présenter comme telle. C’est aussi une oratrice très énergique, mais je ne pourrais pas vraiment vous dire dire ce qu’elle essayer de présenter. Son idéologie implique des ADN à 12 brins, une matrice spatio-temporelle à 15 dimensions, des ET qui coopèrent avec le gouvernement, des ET qui ne coopèrent pas avec le gouvernement, de nombreuses portes des étoiles, et bien bien bien plus encore. Ces présentations ne duraient pas beaucoup plus de 5mn donc elle a vraiment condensé. Et tandis qu’elle déroulait le fil, rien de tout ça ne semblait avoir de sens pour moi. J’espère pouvoir lui poser des questions plus tard – notamment une « comment savez-vous ? ».

Andy Wakefield : inutile de le présenter, il l’a à peine fait lui-même. Nos hôtes l’ont décrit comme un documentariste et un producteur de film et il a fait de même lors de sa grande conférence de ce matin. Il a mentionné dans son introduction de dimanche (et à nouveau ce matin) qu’une étude du MIT montrait qu’un enfant sur deux serait autiste d’ici quelques décennies, ce dont je pense fortement qu’il s’agit d’une extrapolation linéaire du genre qu’aucune personne instruite ne prendrait au sérieux (je fais une pompe le lundi, deux le mardi, quatre le mercredi, huit le jeudi, etc. Est-ce que je vais faire des centaines de pompes d’ici la semaine prochaine ? Non, et un enfant sur deux ne va pas naître autiste).

Winston Shrout : un autre autodidacte en droit. Je connais bien plus le droit que les autres sujets discutés ici – je suis licencié en droit d’Harvard et je résolvais des litiges commerciaux complexes avant de me lancer dans le consuting – donc je peux dire assez fermement que cet homme n’a aucune idée de ce dont nous parlons. Il s’est construit un monde fantasmé bizarre où il est un génie du droit, mais n’a en quelques sortes jamais réussi à gagner un grand procès pour le prouver. L’écouter parler m’attristait car les gens qui croient à ses effets de manche peuvent vraiment se faire du tort en faisant des choses stupides et/ou illégales plutôt que de vraiment régler leurs problèmes. Plus là-dessus quand on étudiera sa présentation ! Pour le moment, disons simplement que la propre description qu’il donne de lui-même explique pourquoi ses idées sont si dingues : il déclare agir depuis le haut du plan de la 5ème dimension et que parfois il atteint même le bas du plan de la 6ème dimension donc il est difficile pour nous de le suivre à partir de la 3ème dimension. Il a expliqué quelques fois qu’il n’avait jamais travaillé dans cette dimension avant sa vie actuelle et semblait être un peu ailleurs. Merci de ramper avec nous je suppose ? Winston Shrout, encore un avant-goût de lundi.

Sherri Tenpenny : encore une anti-vacciniste célèbre. Elle n’en a pas beaucoup dit sur elle-même et je n’ai pas assisté à sa conférence d’aujourd’hui. Elle en donnera une autre plus tard dans la semaine cependant.

Jerry Korn : un sourcier et expert en élimination des énergies négatives. Il a fait une habile démonstration de l’effet idéomoteur en « sourçant » les énergies entre deux personnes. Je ne suis pas certain que j’irais en voir plus sur lui, les sourciers sont une irrationnalité intéressante mais il y a bien plus à voir ici.

Michael Badnarik : un des plus gros poissons à bord, et un ancien candidat libertarien à la présidence. Il n’a pas dit grand-chose lors de sa présentation cependant et je n’ai pas eu la moindre chance de voir sa conférence plus tard.

Nick Begich : HAARP et contrôle mental. Tout comme Badnarick, il a donné une courte introduction et est parti pour le reste de sa présentation, à laquelle je n’ai pas pu assister. Avec de la chance je pourrais me rattraper plus tard.

Jeffrey Smith : les OGM causent le cancer et l’autisme et la stérilité et les intestins poreux et les esprits troublés et l’arthrite et toutes les maladies du monde. J’ai pu assister à sa conférence, donc vous en saurez plus bientôt.

Danion Brinkley : je n’avais jamais entendu parler de lui, mais il avait un foutu teaser pour ses conférences : « l’idée que vous allez mourir est une conspiration ».

Donc voilà ce que donnait la présentation. Depuis, j’ai entendu Wakefield, Smith, Shrout et le duo Horowitz/Kane pour leurs premières sessions, j’en enverrais une description demain puisqu’il est presque 3h du matin et il faut que je dorme un peu avant de retrouver la 5ème dimension et la deuxième présentation de Mr Shrout.

La seule autre chose notable qui soit arrivée dimanche et aujourd’hui et qui va continuer à arriver tous les jours, ce sont les repas. Normalement, j’adore manger seul. Je voyage énormément pour le travail et je prends vraiment du plaisir à manger en compagnie d’un bon bouquin (même si ils sont tout de même moins plaisant que les rares que je prends à la maison avec ma femme). Mais le but de cette semaine, au moins pour moi, est de rencontrer et de discuter et tenter de comprendre les gens avec qui je suis. Un repas en commun est un moyen fantastique pour ça et les moments les plus pleins d’enseignements pour le moment.

Mais je ne détaillerais pas trop les repas, ni les rencontres personnelles. Les orateurs s’adressent à une audience et il veulent que leur voix porte fort et loin. Les discussions lors des repas sont personnelles et je respecterais l’intimité de ces courtes, mais importantes conversations. Il suffit de dire pour le moment que même si quelques personnes étaient sur la défensive lorsque j’ai mentionné être sceptique, la plupart des gens n’en a pas pris ombrage et que tout le monde est resté très ouvert et amical.

Et c’est important car comme nous le verrons dans le prochain post, cette réunion révèle un fossé monstrueux entre les idées présentées et le vrai monde du dehors. Les relations personnelles et un sens aiguë de la communauté sont nos meilleures chances de combler ce fossé. Et ce que j’apprends ici est que cela est possible même lorsque les gens impliqués sont en profond désaccord à propos de ce qui compte, comme la vie, la santé ou la liberté.


par Catherine Regnault-Roger - SPS n° 315, janvier 2016 Selon l'Organisation mondiale de la santé (OMS), l'alimentation représente 80 % de l'exposition aux pesticides au quotidien. Évaluer la teneur en résidus de pesticides dans les aliments et avoir des indicateurs fiables représentent deux éléments clefs pour la sécurité des consommateurs. L'harmonisation européenne a conduit à une approche homogène en matière d'indicateurs de sécurité alimentaire. Le règlement 396/2005/CE en donne une définition (...) Articles
Voici un petit problème que je soumets à mes chers lecteurs , après l'avoir testé sur un petit panel d'amis, pas forcément représentatif… Un navire possède un équipage de 200 personnes dont 20 femmes, portant tous le même uniforme, si bien que de loin,...

Jérémy Royaux et Jean-Michel Abrassart discutent du documentaire An Honest Liar.

 

concernant les poltergeists dont on parle à la fin de l’épisode : on parle de celui de Columbus ici :

http://www.sceptiques.qc.ca/dictionnaire/poltergeist.html

Le Grand Décryptage était consacré mardi soir à la construction et la diffusion des théories du complot sur internet. Olivier Galzi recevait Rudy Reichstadt, fondateur du site "Conspiracy Watch" (Observatoire du conspirationnisme), le journaliste-réalisateur Thomas Huchon qui a piégé les complotistes avec une histoire montée de toutes pièces (une expérience racontée sur le site "Spicee"), et Sophie Mazet, professeur d'anglais qui organise des ateliers pour ses élèves sur la désinformation, afin de développer leur esprit critique.


Le Grand Décryptage du 09/02/2016 par ITELE

Source : I-Télé, 9 février 2016.

Voir aussi :
* Comment nous avons piégé les complotistes

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot

Isabelle parle avec Quark du canal YouTube Mycéliums à propos du “Secret” et les faux arguments qui l’entourent. Quark sur Scepticisme Scientifique.

Dans le Cash Investigation consacré aux pesticides, Elise Lucet affirme que « 97% des aliments que nous consommons contiennent des résidus de pesticides ». Ce chiffre a largement été repris dans les médias ( Le Monde, Jean-Jacques Boudin) et massivement diffusé par les réseaux sociaux.

- Trêve de balivernes / , , , , ,
Communiqué de l'AFIS - 9 février 2016 L'émission Cash Investigation, diffusée le 2 février 2016, était intitulée « Produits chimiques : nos enfants en danger » [1]. Elle s'est attachée à montrer pendant 2h15 que les pesticides présentent un danger imminent pour la santé des agriculteurs, des consommateurs et des enfants. Tout au long de l'émission, la journaliste Elise Lucet a martelé, sur un ton inquiet et alarmiste, que 97 % des produits alimentaires contiendraient des résidus de pesticides. L'Association (...) Communiqués

Appréhender la complexité du cerveau n’est pas facile. On a beau répéter que 85 milliards de neurones sont enchevêtrés avec autant de cellules gliales, qu’au sein de chacune de ces cellules il y a un réseau métabolique de milliers d’enzymes qui maintient la cellule en vie, qu’un neurone peut recevoir des connexions de milliers d’autres neurones, qu’à chaque milliseconde l’activité nerveuse fluctue de manière dynamique dans ces réseaux, rien n’y fait, c’est comme les distances astronomiques, cela nous échappe.

Malgré notre ignorance encore grande devant cette complexité, il est paradoxalement pas facile de saisir l’ampleur des connaissances actuelles sur le cerveau humain. Car on sait énormément de choses comparé à il y a ne serait-ce que deux ou trois décennies. L’événement dont je voudrais vous parler en premier lieu cette semaine peut aider à prendre ce recul historique nécessaire permettant d’apprécier toute la richesse des modèles et des avancées des sciences cognitives contemporaines (je donne deux exemples de ces avancées plus bas).

L’événement en question comporte, en fait, trois volets. D’abord une exposition sur la carrière scientifique d’un personnage important de l’histoire de la psychiatrie, Henri Laborit (1914-1995), dont je vous ai déjà parlé à quelques reprises ici. J’ai eu le plaisir de pouvoir reproduire à Montréal une exposition itinérante sur le parcours scientifique atypique de Laborit, exposition qui a roulé dans quelques villes françaises au début des années 2000, et qui aura lieu du 9 au 24 février à Montréal (voir les liens ci-dessous pour tous les détails).

L’exposition, composée de 13 panneaux, nous apprend entre autres, comment ce chirurgien de la marine française, révolté de voir ses patients mourir en état de choc sur sa table d’opération alors qu’il avait techniquement fait exactement ce qu’on lui avait appris, va plus ou moins renverser le paradigme dominant des « réactions de défense » de l’organisme. Cela va l’amener à mettre au point de nouvelles techniques d’anesthésie, l’hibernation artificielle et même la découverte de la première molécule capable d’influencer le psychisme humain, la chlorpromazine, premier neuroleptique.

Le deuxième volet de cette « trilogie » autour de l’œuvre de Laborit est un film que j’ai réalisé et qui raconte plusieurs trajectoires de vie qui ont croisé celle de Laborit. « Sur les traces d’Henri Laborit » nous apprend ainsi d’autres détails croustillants sur l’histoire de la médecine du XXe siècle : comment se débrouiller avec seulement 4 neurotransmetteurs dans les années 1940, alors qu’on en connaît des dizaines aujourd’hui; comment la combinaison du froid et de certaines drogues a pu sauver de nombreuses vies non sans générer au début de fortes oppositions du milieu médical; ou comment tout peut devenir politique en science comme ailleurs quand les systèmes hiérarchiques sont menacés, au point de faire un voyage en Suède pour empêcher Laborit d’avoir le prix Nobel…

Et finalement, le troisième volet sera constitué de deux cours autour de Laborit organisé dans le cadre de l’Upop Montréal, une formidable initiative qui, depuis 6 ans maintenant, offre à chaque année de nombreux cours gratuits dans les bars et les cafés de Montréal. Le premier cours, qui aura lieu le 24 février, s’intitule Les intuitions de Laborit sur le cerveau, et le second, qui aura lieu le 6 avril, « Conscience, connaissance, imagination » : le leitmotiv de Laborit. Dans les deux cas, nous passeront en revue divers aspects des travaux de Laborit qui étaient nouveaux à l’époque et qui sont devenus des domaines de recherche importants des neurosciences et la médecine actuelle. On pense aux cellules gliales (qui intéressaient Laborit dans les années ’60!), aux liens entre système immunitaire et nerveux (la psycho-neuro-immunologie), aux différents « faisceaux » nerveux (MFB, PVS, SIA, etc) dont l’étude avec l’imagerie cérébrale d’aujourd’hui a mené au concept de connectome, etc.

Bref, j’ai été moi-même surpris, en explorant l’histoire de la vie scientifique de Laborit qui recoupe en grande partie celle de la médecine au XXe siècle, par l’effet de recul que cela permet en terme d’appréciation des données et des outils dont on dispose aujourd’hui par rapport à il y a un demi-siècle. C’est donc ce « feeling » que je vous invite à venir approfondir avec moi à travers les trois volets de cet événement centré autour du personnage de Laborit. Les différents niveaux d’organisation qui sont un peu la « marque de commerce » du Cerveau à tous les niveaux n’étant pas la moindre des choses que, personnellement, je lui dois…

* * *

Parlant de ces outils dont on dispose aujourd’hui, l’actualité nous en donne deux exemples fascinants que je ne ferai que vous signaler rapidement.

D’abord un logiciel qui vient de battre le champion européen du jeu de go (et qui affrontera le champion mondial en mars). Qu’est-ce que cette nouvelle peut bien avoir de si extraordinaire ? Rappelons d’abord que le jeu de go est considéré par plusieurs comme plus complexe, en terme de combinatoires, que le jeu d’échecs (où un ordinateur, Deep Blue, a déjà battu le champion du monde, Gary Kasparov, il y a vingt ans). C’est aussi un jeu où l’on dit par conséquent que « l’intuition humaine » va jouer un grand rôle.

Or l’algorithme AlphaGo mis au point par DeepMind, une entreprise appartenant à Google, a franchi quelques étapes de plus dans ce qu’on appelle l’intelligence artificielle, ce qui lui a permis de battre à cinq reprise le triple champion européen Fan Hui. Pour ce faire, plusieurs méthodes sont maintenant utilisées conjointement dans de telles machines: mémorisation de parties jouées par les maîtres; techniques basées sur les probabilités; mais aussi l’« apprentissage profond », (ou deep learning, en anglais) qui utilise un réseau de neurones artificiels nécessitant des capacités de calcul que n’avaient pas les ordinateurs il y a à peine 10 ans.

Ces techniques dites aussi « connexionnistes », où ces neurones artificiels apprennent par essais et erreur un peu comme un cerveau humain, étaient déjà discutées par les cybernéticiens du milieu du XXe siècle. Elles se sont progressivement développées à partir des années 1980 avec l’accessibilité des ordinateurs, mais ce n’est véritablement qu’avec la puissance de calcul des ordinateurs actuels qu’elles peuvent commencer à donner des résultats surprenants pour le jeu de go, mais également dans le domaine de la reconnaissance de l’image ou du langage. Une longue route donc, encore une fois, pour arriver à ce genre d’exploit que les jeunes qui naissent aujourd’hui considéreront sans doute comme « normal »…

* * *

Et pour terminer sur un autre exemple d’avancée scientifique récente ayant une longue histoire, je vous recommande le dernier épisode du Brain Science Podcast. Ginger Campbell s’entretien avec Andy Clark à propos de son dernier ouvrage : Surfing Uncertainty: Prediction, Action, and the Embodied Mind. Ici, c’est toute l’ancienne conception d’un cerveau passif qui attend ses inputs pour les traiter qui est mis à mal. Clark expose une conception beaucoup plus actuelle où le cerveau est vu comme essentiellement une machine à faire des prédictions. Pour comprendre cette vision, des concepts comme « generative model » ou « predictive coding » s’avèrent essentiels et sont exposés par Clark à l’aide de plusieurs exemples. Ce qui est fondamentale dans cette vision active du cerveau, c’est la différence entre ce qui est anticipé par les capacités « top down » de notre cerveau versus ce qui est effectivement perçu par nos sens. C’est donc cette « erreur de prédiction » qui sera transmise et qui nous permettra d’apprendre et de corriger le tir.

Comme pour l’algorithme connexionniste du jeu de go. Ou comme dans l’histoire des sciences…

i_lien Deux inclassables du XXe siècle : Walter Benjamin et Henri Laborit (Éloge de la suite)
i_lien Deux inclassables du XXe siècle : Walter Benjamin et Henri Laborit (UPop Montréal)
i_lien Jeu de go : l’ordinateur bat finalement un champion
i_lien Artificial intelligence breakthrough as Google’s software beats grandmaster of Go, the ‘most complex game ever devised
i_lien Andy Clark on Prediction, Action, and the Embodied Mind (BSP 126)
i_lien Le « Deep Learning », ou l’apprentissage profond des machines


Depuis quelques temps sont apparus d’étranges pendentifs énergétiques aux pouvoirs miraculeux. Nommés tour à tour “pendentifs énergétiques”, “pendentifs d’énergie scalaire” ou “pendentifs d’énergie quantique” - notez comme cela sonne bien!!! - on leur prête la capacité de libérer des ions négatifs bénéfiques à notre bien-être et à notre santé.

Mille bienfaits miraculeux
Apport de vitalité, amélioration de la mémoire, de la concentration et des résultats scolaires pour les enfants, des performances sportives, traitement des douleurs, de l’insomnie, du stress, effet anti-vieillissement, renforcement des défenses immunitaires ou encore mieux, prévention du cancer, il n’y a pas de limites aux pouvoirs surréalistes qu’on leur prête. Il suffit d’imaginer pour trouver à notre petit pendentif toutes les qualités miraculeuses qui nous plaisent ou qui favorisent sa commercialisation.
Lire la suite »
5- APOLLO 16 Objet Volant Non Identifié Pendant leur remontée de la surface de la Lune le 27 avril 1972, les astronautes d’Apollo 16 filmèrent un étrange objet depuis leur module de commande. Le mystérieux objet volant non identifié apparaît pendant environ...
Par Victor Garcia
Le virus Zika a sa théorie du complot : des moustiques OGM responsables
Selon la dernière théorie complotistes en vogue, le laboratoire anglais Oxitec, qui modifie génétiquement des moustiques, serait responsable de l'épidémie du virus Zika au Brésil.

Pas une semaine ne se passe sans qu'une nouvelle théorie du complot ne soit massivement partagée sur les réseaux sociaux. Après l'étonnant et préoccupant retour en grâce - principalement sur le Web américain - de la théorie selon laquelle la Terre est plate, c'est au tour de l'épidémie du virus Zika d'être au centre du viseur conspirationniste.

Selon la dernière théorie en vogue, les responsables de l'épidémie seraient des scientifiques du laboratoire anglais Oxitec qui ont relâché des moustiques génétiquement modifiés au Brésil. La théorie a pris son envol, comme souvent, dans le sous-forum "conspiration" du forum communautaire Reddit, il y a une dizaine de jours. Elle a ensuite été diffusée par des sites conspirationnistes comme AntiMedia ou Activist Post et des sites plus "officiels" -mais pas franchement plus sérieux-, comme Russia Today -qui va jusqu'à citer Jurassic Park- ou encore le tabloïd anglais DailyMail, note le site anglais IflScience. (...)

Lire la suite sur le site de L'Express.


Voir aussi :
* No, GM Mosquitoes Didn’t Start The Zika Outbreak (Discover Magazine, January 31, 2016)

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot
#OnTeManipule : quelques mots à propos d'un ratage
L’initiative était louable. L’expertise de Conspiracy Watch avait d’ailleurs été sollicitée il y a maintenant plusieurs semaines. Pour sensibiliser le public à l'écueil du conspirationnisme et mettre à jour sa mécanique intellectuelle et sa rhétorique, le Service d'information du gouvernement (SIG) avait conçu une campagne web (#OnTeManipule) prenant la forme d’un site, ontemanipule.fr, accompagné d’une courte vidéo humoristique du youtubeur Kevin Razy. Le talent de ce jeune homme de 28 ans, passé par le Jamel Comedy Club, et qui affiche pas moins de 144 000 followers sur Twitter, permettait de cibler les ados, réputés plus vulnérables aux contenus complotistes.

Las, comme l’ont révélé les sites Buzzfeed et StreetPress 24 heures après le lancement de la campagne gouvernementale, Kevin Razy a commis une grave erreur de jugement en acceptant de participer à une web-émission produite et diffusée il y a près d’un mois par Le Cercle des Volontaires, un site notoirement conspirationniste. Une émission sinistre, où l’on se désole de ne plus pouvoir « douter d’un certain nombre de chose, de la Shoah telle qu’on nous la racontée, du 11 septembre, des attentats de Charlie… » et où l’on surprend Kevin Razy à saluer la qualité du travail du « Débrancheur », un youtubeur complotiste usant des codes créés par Dieudonné (la « quenelle »).

Que nous enseigne cet indéniable loupé ?

D'abord, que toute « officielle » que soit cette campagne, le tour qu’a pris les événements montre que même les opérations de communication les plus maîtrisées sont susceptibles de se heurter à des sorties de route imprévisibles. Qu’en un mot, les autorités ne contrôlent pas tout. En cela, cette affaire est peut-être la meilleure démonstration des limites inhérentes à l’action gouvernementale et, partant, de l’inanité des fantasmes conspirationnistes qui entourent traditionnellement le « Pouvoir ». L’opération la plus millimétrée, la plus sophistiquée, ne pourra jamais complètement se prémunir contre le surgissement de l’imprévu.

Du reste, cette faille dans la communication du Gouvernement semble bien justifier encore davantage l’urgence qu’il y a à affronter le problème complotiste. L’humoriste-star d’une petite vidéo dont le but est précisément d’expliquer l’impasse du conspirationnisme et d’appeler à la vigilance à l’égard des contenus complotistes qui circulent sur le Net est non seulement capable de se laisser piéger par un site conspirationniste mais aussi de se compromettre d’une manière assez consternante avec certaines des figures les plus actives de la complosphère. Ne faut-il pas y voir la preuve que le problème est encore plus préoccupant que ce que l’on pouvait penser ?

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot
Le détecteur de théorie du complot [infographie]
Source : ontemanipule.fr, 4 février 2016.

Voir aussi :
* Comment distinguer entre complot et théorie du complot ?

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot

L’équateur penché

-

La Menace Théoriste

le 05-2-2016 à 18:49 GMT

***

« Quand les détracteurs de LRDP auront réussi à présenter un alignement de quinze sites de la taille de l’équateur terrestre présentant de telles similitudes architecturales et/ou conceptuelles, ils auront démontré qu’il n’y a là pas lieu de s’interroger.»

Jacques Grimault (sous pseudonyme).

Défi accepté

***

Imaginons que nous cherchons les preuves qu’une ancienne civilisation a œuvré à l’échelle de la terre entière sans laisser de trace dans l’histoire « officielle ». C’est une hypothèse hardie, très improbable, mais qu’on ne peut pas balayer d’un revers de la main. Peut-être, imaginons, qu’une ancienne civilisation perdue a voulu laisser un message derrière elle, compréhensible seulement à ceux qui chercheraient des réponses dans la géographie et les mathématiques enseignées au collège.

Admettons cela et laissons-nous conduire dans la démonstration suivante, que nous vous proposons gracieusement, grâce à l’aide de quelques blogueurs et sceptiques.babel

Babylone-Rome

Tout part de la Mésopotamie où l’on invente l’Ecriture, et de Babylone, lieu légendaire s’il en est où le langage des hommes a été brouillé après l’échec de la Tour de Babel, la « tour qui touche le ciel ». Babylone signifie « Porte de Dieu« . Elle est la première mégapole de l’histoire, cité la plus vaste du monde en son temps. On y construisit les fameux jardins suspendus, merveille du monde. Mais il y a plus à son sujet. La somme des lettres fait 77, chiffre mystique et mystérieux (qui renvoie aux 7 merveilles du monde). Le logiciel de traduction Babylone en libre accès sur Internet peut traduire 77 langues…

77 = 43+34. (7+7=14 ; 4-1=3). Retenez le chiffre 3.

Le psaume 77 43-72 parle d’un « arc infidèle » et d’une montagne de Sion. Or nous savons que 77/arctan(77) = 49.42, soit 43+7.  Continuellement, on retrouve ce nombre 43. Et 42 en décimales. Allons plus loin dans l’analyse du nom de Babylone. Inversons le mot : Lone Baby = indique un homme abandonné alors qu’il était enfant, un enfant qui va devenir homme… deveniRome… Oui : Rome ! Exactement 3000 kilomètres séparent Babylone et Rome : deux cités qui symbolisent deux époques. L’époque païenne où l’histoire se perd dans les mythes des peuples légendaires, et l’époque historique, point de départ de notre calendrier. Rome est la ville phare, la capitale du plus grand empire du monde et de la plus grande religion que la Terre ait connu.

Beeld_van_Romulus_en_Remus

Rome, le deuxième point de l’équateur penché.

Là où les coïncidences commencent à défier le hasard, c’est lorsqu’on s’aperçoit que la ligne Babylone-Rome fait un angle de 43° avec l’équateur. Intéressons-nous au nombre 43. C’est un nombre premier. Il a la particularité d’avoir un nombre premier jumeau (le 41) ainsi qu’un cousin (le 47) et un sexy (le 37) Il est donc entouré de 3 autres nombres premiers. Trois. C’est donc un nombre très particulier. D’un point de vue linguistique, 43, c’est le nombre de caractères différents dans l’alphabet francophone (26 + 17 spéciaux). Plus intriguant encore, c’est un nombre qui renferme des constantes universelles, puisque :

 1/43 = 0,0232, soit 100 fois (Pi-PHI)².

43 vous semblait sans doute bien banal… Mais c’est le nombre devant lequel Sheldon Cooper réfléchit durant toutes les pauses déjeuner, signe qu’il est connu pour renfermer des mystères jusque chez les scénaristes qui communiquent ainsi à la manière hermétique : signifier sans dire. Cette manière de penser autorise d’ailleurs à voir dans 43° une fausse piste, un piège, là où il faudrait voir en réalité (42+1), 42 étant la durée en mois du règne de la bête dans l’Apocalypse. La Bible de Gutenberg contenait des pages de 42 lignes. 42 est aussi le nombre de minutes qu’il faut pour traverser la terre de part en part dans un tube privé d’air par la seule accélération de la gravité. 42 est évidemment la réponse à Tout selon l’écrivain et mystique Douglas Adams, mais il est déjà présent dans l’œuvre hermétique du mathématicien Lewis Carroll. On pourrait donc dire que 43 est la solution cachée là ou 42 est mis en lumière pour aveugler les masses.

Comment ne pas se poser la question du sens de toutes ces coïncidences ? Qui a bien pu disséminer toutes ces informations à la lumière du jour ? Le Coran nous encourage dans notre démarche : la sourate 43, verset 43 dit : « Tiens fermement à ce qui t’a été révélé car tu es sur le droit chemin. » Quant à la 77  elle répète 10 fois « Malheur, ce jour-là, à ceux qui criaient au mensonge. » Mais continuons notre voyage en élargissant le champ. Ne nous limitons plus aux 3000 km de Rome-Babylone mais traçons un équateur. Vous n’allez pas en croire vos yeux !

Pages of book of Quran

Allez vous même vérifier la sourate 43 du Coran.

Un message spirituel.

Car la ligne Rome-Babylone croise un nombre incroyable de site symboliques, des hauts lieux. À l’ouest, nous commençons avec Saint Jacques de Compostelle, son nom signifie « Champ d’étoiles« . Elle est le lieu du deuxième plus grand pèlerinage du monde chrétien, et ce chemin est surnommé « Voie Lactée ». Doit-on y voir une suggestion à se tourner vers le ciel comme les anciens de Babel ?

L’équateur traverse de part en part  Pampelune, capitale des Rois de Navarre, où le nom de la Lune est une nouvelle invitation.

Est-ce en raison de sa proximité avec l’équateur Rome-Babylone que Rennes-le-Château jouit d’une aura de mystère en relation avec le trésor des Templiers ? Car si nous continuons nos observations… Antioche, forteresse des croisés, étroitement liée à la légende du Graal, est sur la ligne ainsi tracée. Or, Antioche est un lieu symbolique qui fait échos aux 3000 km entre Rome et Babylone. La Saint Grenade d’Antioche est présentée dans le film Sacré Graal des Monty Python où il est clairement établi qu’elle est placée sur le sceau du chiffre 3.

« …And Saint Attila raised the hand grenade up on high, saying, « O Lord, bless this Thy hand grenade that with it Thou mayest blow Thine enemies to tiny bits, in Thy mercy. » And the Lord did grin and the people did feast upon the lambs and sloths and carp and anchovies and orangutans and breakfast cereals, and fruit bats and large chu… [À ce moment-là le frère est pressé par Frère Maynard : « Saute donc quelques lignes, frère »]… And the Lord spake, saying, « First shalt thou take out the Holy Pin, then shalt thou count to three, no more, no less. Three shall be the number thou shalt count, and the number of the counting shall be three. Four shalt thou not count, neither count thou two, excepting that thou then proceed to three. Five is right out. Once the number three, being the third number, be reached, then lobbest thou thy Holy Hand Grenade of Antioch towards thy foe, who being naughty in my sight, shall snuff it. » Amen1,2. »

Bien sûr, cela a de quoi laisser sceptique. Les Monty Python n’ont pas l’image publique de défenseurs des secrets ésotériques. Mais quelle plus belle couverture pouvaient-ils inventer ?

Les soupçons légitimes s’envolent lorsqu’on s’avise que la ville de Troie est située à 73 km de notre équateur (73/3 = 24.3333, c’est-à-dire 42 à l’envers + 1/3). Troie, est évidemment liée au chiffre trois, mais également à Rome puisque ses fondateurs étaient d’ascendance troyenne. Cette ville légendaire, immortalisée dans l’Iliade a longtemps été considérée comme purement mythique avant d’être redécouverte au 20ème siècle de la même manière que nous redécouvrons cet alignement de lieux  qui défie l’imagination.

troy

Ceux qui croyaient que Troie n’était qu’un mythe ont dû se rendre à l’évidence…

Les sites religieux se succèdent le long de notre équateur caché dans les nombres. On retrouve alignées  Thyateira (aujourd’hui Akhisar), l’une des sept églises primitives d’Asie Mineure citée dans l’Apocalypse de saint Jean, ainsi qu’une deuxième de ces sept églises : Sardes, capitale de la Lydie au bord du Pactole, également citée dans l’Iliade. Deux des 7 églises sont là, indiquant clairement qu’il en manque une troisième. Toujours le chiffre 3 !

Notons que la synagogue de Sardes, redécouverte au vingtième siècle est la plus grande connue dans la diaspora juive de l’antiquité.

Hundreds of ShiÕa Muslims gather around the Husayn Mosque in Karbala after making the Pilgrimage on foot during Arba'een. Arba'een is a forty day period that commemorates the martyrdom of Husayn bin Ali, grandson of the Prophet Muhammad, and seventy-two of his followers at the Battle of Karbala in the year 680AD.

La mosquée Husayn de Kerbala

Notre équateur passe non loin de Lystre, elle aussi citée dans la Bible, mais surtout il croise Kerbala, l’un des plus hauts lieux saints de l’islam chiite. L’équateur nous guide vers ce lieu d’une grande importance pour les musulmans, tout comme Saint Jacques de Compostelle pour les chrétiens, et Sardes pour les juifs : les TROIS religions du livre. En passant à Al-Qurnah, considéré par les apologètes comme le probable emplacement de l’Eden, et où l’on trouve un Arbre d’Adam, l’équateur cherche-t-il à nous délivrer un message qui transcende les religions ? On peut le croire car n’oublions pas Babylone et son dieu Marduck qui en son temps a supplanté le culte de Bēl dont le sanctuaire domine la lointaine Palmyre. Oasis dans le désert et merveille d’architecture, Palmyre est située sur l’équateur que nous suivons. Mais Marduck a également remplacé Enlil dont le lieu de culte principal se trouvait à Nippur, l’une des plus anciennes villes du monde, elle aussi alignée. Le plus ancien instrument de mesure gradué a été trouvé à Nippur. La coudée de Nippur mesure exactement 30 doigts (le chiffre 3 nous accompagne toujours). Mais pensons également au bouddhisme et au Temple de la Dent sur l’île deuSri Lanka à des milliers de kilomètres, qui abrite l’une des rares reliques du saint homme. Lui aussi est aligné.

 

The Baalshamin sanctuary, located in the north of the city of Palmyra. Its construction began in the second century BC. Gradually was added a colonnaded courtyard after 67 AD and a cella in 130 AD; Citadel in the distance, Palmyra. Syria Picture by Manuel Cohen

Palmyre

Peut-être restez-vous incrédules, tant la révélation qui nous est offerte défie notre esprit d’humains du 21ème siècles. Mais que dire si l’on ajoute à tous ces lieux sacrés et religieux alignés, celui qui n’a jamais été bâti par la main de l’Homme et symbolise peut-être le mieux l’existence d’un monde supérieur, inaccessible : le Mont Olympe.Symbole naturel de la divinité par excellence, il culmine à 2917 m.

Or  29-17=4×3 (43) et 29×17 = 493. On obtient encore 43 avec, au centre, le nombre 9, nombre divin s’il en est. On note par ailleurs que 2+91+7 = 100. Il y a comme un message codé dans l’harmonie même de la montagne, car elle contient la constante phi : (2+91+7)/3*phi = sqrt(2917), et elle nous confirme que les nombres 3 et 43 sont au cœur du mystère.

Mais que veulent dire ces nombres ?  Pour le savoir, nous sommes condamnés à continuer l’enquête.

Relier les âges anciens et le monde moderne ?

Les pôles correspondant à cet équateur penché se situent dans l’océan, à des centaines de kilomètres de toute terre émergée, comme pour ne désigner aucun  endroit en particulier, aucune fausse piste. Mais le pôle nord, malgré tout est bien particulier, car il est situé (46°53’24.9″N 178°27’42.8″E) à exactement 121 km (1.09°) de la ligne de changement de date qui traverse le Pacifique et à 10.070 km des points situés sur l’équateur.

  • 10 070 +121 = 10 191 = 43 x 237
  • et 4 x 3= 12 et 2+3+7 = 12.
  • 12+12 =24… soir 42 à l’envers.

Au changement de date, 42 devient 43 et la boucle est bouclée.Le temps est peut-être la clef du message que veut nous délivrer cet alignement.

Catalhoyuk

Catalhoyuk

L’équateur Rome-Babylone traverse les régions les plus anciennement civilisées du monde. Dans son sillage on retrouve des cités dont l’occupation remonte au paléolithique, tel Catalhoyuk,  une ville si ancienne qu’elle date d’avant l’invention des rues. Autre cité de cette époque lointaine, Mytilène, dont le nom vient de mytilos qui signifie moule, est la capitale de Lesbos. L’ile possède la plus grande forêt pétrifiée du monde, rémanence d’un âge ancien. Sagalassos, où les premières traces d’occupation datent de quatorze mille ans. Apamée, cité militaire mais aussi cité des philosophes, connue pour sa gigantesque colonnade. Olynthe, cité chalcidique. Apollonie d’Illyrie, ancienne cité grecque esclavagiste, perdue puis redécouverte au 18ème siècle. La ville est fondée en -588 (5+8+8=21, moitié de 42 – Le fait que cela ne donne pas 43 est beaucoup plus intéressant que si c’était le cas). Et en regard de tous ces sites occupés depuis des milliers et des milliers d’années, on trouve une ville moderne, construite très exactement sur l’équateur Rome-Babylone, comme un signal. Melbourne,  capitale de l’état de Victoria, Ville-Monde fondée en 1835. Elle fut nommée en l’honneur du premier ministre britannique William Lamb vicomte de Melbourne, mentor de la reine Victoria. Melbourne est aux antipodes de Rome et Babylone : une ville nouvelle créée sur le dernier continent colonisé par l’humain, elle connait une croissance époustouflante et fait figure pendant un temps de ville la plus riche du monde.

À près de 13.000 km de Babylone, il aurait suffi d’une seconde d’arc de décalage pour que Melbourne se trouve bien loin de notre équateur, et pourtant celui-ci la traverse de part en part. Doit-elle son incroyable réussite à son alignement si particulier ?

Des lieux de mystère.

À ce stade, la quantité de hauts lieux alignés ne peut qu’attester d’un schéma sous-jacent. Saint Jacques de Compostelle, Rome, le Mont Olympe, Antioche, Mytilène, Melbourne… Babylone. Dans ce chemin vers la compréhension, nous n’étions pas au bout de nos surprises, car l’équateur indiquait un autre lieu, une cité connue dans l’antiquité comme la rivale d’Alexandrie, la deuxième plus grande bibliothèque du monde, le lieu où fut inventé le parchemin qui lui emprunte son nom : Pergame.

Reconstitution de Pergame

Contrairement à Alexandrie, à Pergame, on cherchait le sens profond – voire caché – des textes, considérant que ce qui était véritablement signifié ne correspondait pas nécessairement à ce qui était écrit. Nouvel indice qu’il nous faut chercher au-delà des apparences. Sur notre alignement incroyable on retrouve Corte, place forte de la Corse. Ce n’est pas seulement un lieu de pouvoir, mais également le lieu où fut rédigée la première constitution de l’histoire, en 1755, soit vingt ans avant celle des États-Unis. On la doit à Pascal Paoli qui avait des liens étroits avec la franc-maçonnerie et fut enterré dans l’abbaye de Westminster en compagnie des rois d’Angleterre.

Mais il y a encore plus mystérieux, encore plus incroyable. De l’autre côté du globe et sans que l’histoire officielle telle quelle est connue puisse l’expliquer, l’Alignement Babylone-Rome traverse le Triangle des Bermudes sur 390 km (3+9 = 12 = 4 x 3. 43 est toujours là). Le chiffre trois évidemment résonne dans ce vaste triangle. Le Triangle des Bermudes est pour nous, aujourd’hui un lieu marqué par l’étrange, l’inexpliqué et l’insondable, mais il ne fut connu officiellement que dans les années 1950.

Triangle des Bermudes

Il semble pourtant qu’il fut déjà connu par ceux qui ont orchestré l’alignement de ces hauts lieux à travers le monde. D’autres sites alignés, anciens, mystérieux devront faire l’objet d’un examen qui nécessitera des années d’effort : Blaundos, fondée par les successeurs d’Alexandre Le Grand, Qarqar, Musandam, Le Mont Athos, le Volcan Barù au Panama, ou encore les sphères mégalithiques du Costa Rica trop proches de cet alignement fabuleux pour que l’on puisse exclure un lien direct.

L’équateur Babylone-Rome coupe l’équateur conventionnel dans l’océan pacifique, à quelques miles à peine de la plus grande des îles Galapagos. Le symbole est immédiat, c’est l’endroit que Darwin a choisi de mêler intimement à sa théorie de la sélection naturelle. Que savait-il sur cet endroit ? Pourquoi le savant qui allait bouleverser les sciences du vivant de la manière la plus radicale depuis Aristote est-il allé si loin de son Angleterre, trouver une île à laquelle marier son nom à jamais ?

Personne n’a la réponse.

Mais l’équateur penché à 43° est peut-être le chemin qu’il nous faut suivre.

OLYMPUS DIGITAL CAMERA

Une coudée de Nippur valant exactement 30 doigts

Les monolithes.

En résonnance avec les sphères mégalithiques que nous avons évoquées, il nous faut parler du mont Augustus. Il s’agit du plus grand monolithe du monde, une montagne d’un bloc perdu dans l’immensité du désert australien. Naturellement nous en parlons car il est situé sur notre équateur. Datant d’environ 1,8 milliard d’années, ce monolithe était là bien avant que tous les autres sites de notre alignement ne commencent à exister. Sa hauteur est de 825 mètres (8+2+5=15). Quel autre lieu aurait pu symboliser plus magistralement la profondeur du temps ?

mt-augustus-australia

Le mont Augustus

Mais le plus étonnant est peut-être de trouver à 13 000 km de là un autre monolithe, pas dans le désert celui-ci, mais en pleine mer. L’ile de Montecristo, entourée de falaise,s est un monolithe de 645 mètre de haut (6+4+5 = 15, comme le Mont Augustus. Et 645 = 15 x 43). Elle fut un temps le lieu de retraite de Saint Mamilien, mais n’a jamais été habitée très longtemps.

Aujourd’hui, elle est un territoire interdit à tout être humain.
Montecristo

L’ile de Montecristo, territoire interdit…

Et à la lumière de ce que nous venons de dire, on peut se demander quel secret cette interdiction cherche à nous cacher. Que peut bien recéler ce monolithe dans la mer, aligné avec Rome et Melbourne, Babylone et Palmyre, Le Mont Olympe et le triangle des Bermudes, les Galapagos et Pergame ?

Nous vous le révèlerons dans nos six prochains films.

***

***

En attendant les films…

Le texte ci-dessus est celui d’une petite vidéo de présentation empruntant au style et aux habitudes des pseudo-documentaires visant à défendre une thèse irrationnelle, ou en tout cas marginale… avec de mauvaises méthodes. Mais voyons si nous pourrions aller encore plus loin…

Figurez-vous que notre équateur traverse de part un certain nombre de villes dont nous n’avons pas parlé ici. En voici quelques-unes : Lalin (Portugal) Vega de Espinareda (Espagne), Berlanga del Bierzo (Espagne), Aguilar de campoo (Espagne), Saint Estève (Nom catalan : Sant Esteve del Monestir, lieu de culte et de recueillement dans son monastère au Moyen Age), Ruscino (à l’origine du nom Roussillon), Palestrina et Foggia (en Italie), etc. On pourrait imaginer bien des scénarios faisant intervenir ces endroits immanquablement chargés d’histoires.

Les nombres spéciaux inscrits dans les distances.

La spécificité des thèses faisant intervenir des alignements de sites, tels les « Great Circles » de Jim Alison, est de souligner la présence de nombre spéciaux dans les distances entre les sites (en km), mais le plus souvent dans les rapports entre ces distances (sans unité, donc un tout petit peu moins absurdes). Regardons notre équateur et ses 25 principaux sites. Dressons un tableau avec les distances des sites deux à deux (ça fait déjà 600 nombres).

A présent cherchons pi, phi et leurs multiples.

Et sans effort, nous trouvons pi entre Kerbala et Montecristo (3142,686139 km), nous trouvons pi/2 entre Al Qurnah et Lystre (1578,508155 km), 2 pi entre Sardes et le temple de la dent à Kandy (6294,630215 km), 3 pi entre St Jacques de Compostelle et le volcan Wolf sur la plus grande des îles Galapagos (9422,602381 km), et 4 pi entre ce volcan et Sardes (12521,48297km).

Et déjà on pourrait dire que la constante universelle pi relie de manière spécifique le volcan Wolf avec Sardes et Saint Jacques de Compostelle, puisque les trois sites forment un triangle isocèle. Mais ce serait là injecter une interprétation vide de sens à un résultat mathématique qui relève de l’aléatoire et d’une taille d’échantillon suffisante pour faire apparaître, immanquablement des relations de ce type.

nebuleuse de la lyre

La Nébuleuse de la Lyre n’a strictement rien à voir avec le propos… Mais gageons qu’on y trouve le Nombre d’or en cherchant bien.

Continuons avec le nombre d’or.

On retrouve phi entre Montecristo et Melbourne (16175,21425 km) et entre Sardes et Babylone (1620,587325 km) et racine de phi entre Sagalassos et les Galapâgos (12756,23365 km) ainsi qu’entre Babylone et le volcan Baru 12762,42828 et aussi entre Kerbala et ce même volcan (12726,89473 km)

Que voit-on ? Le volcan Baru est au sommet d’un triangle isocèle ayant pour côté  10 mille fois racine de phi et le reliant à Kerbala et à Babylone. Voilà qui nous rappelle le résultat précédent, déjà avec un volcan ! Et il pourrait nous sembler qu’une tendance s’affirme (même si deux occurrences, c’est évidemment trop faible pour soutenir une telle idée) On pourrait croire que nos sites cherchent à nous parler volcanisme, après tout, et trouver ensuite plein de raisons de continuer à le penser.

Bon, en réalité, vous ne vous serez peut-être pas laissés abusés par le fait que Babylone et Kerbala étant tellement proches entre elles, et distantes de Panama, leur éloignement est inférieur à la marge d’erreur tolérée pour retrouver nos nombre spéciaux : ce résultat est donc juste mais parfaitement vide de sens (comme les autres).

Enfin, terminons ce passage en revue des distances entre les sites avec la découverte d’un petit mensonge de notre part. La distance entre Rome et Babylone n’est pas exactement également à 3000 km comme nous le disions. Non, à ce stade, il est bien plus intéressant de regarder la distance réelle : 2992,653668 km et de constater que c’est la vitesse de la lumière (presque) !

Et on peut s’émerveiller de ces résultats. À condition de ne pas vouloir en tirer une explication à quoi que ce soit ni un message, puisque ces résultats sont semblables à ce qu’on pourrait attendre d’un générateur aléatoire.

Les rapports entre les distances

Avec 25 sites alignés, nous avons 600 distances. Si on veut comparer ces distances, on se retrouve avec 359 400 rapports de distances (600x 599). Parmi ces trois cent soixante mille valeurs, on peut retrouver pi, phi, e, c et leurs multiples ou diviseurs un grand nombre de fois. En réalité c’est l’absence de ces nombres qui serait une bizarrerie mathématique.

Dans notre cas, nous dénombrons 123 occurrences de « nombres spéciaux ». Un numérologue zélote s’émerveillerait même devant ce nombre 1, 2, 3 : 123 ! Est-ce un message ?

Conclusion.

La méthode que nous avons employée ici, et qui est celle du film La Révélation des Pyramides est du bois dont on fait des scénarios de fiction, éventuellement récréatifs comme peuvent l’être des mots croisés, mais sûrement pas propices à dire quoi que ce soit sur le monde réel en dehors, peut-être, de notre envie de croire qu’on peut ainsi accéder sans effort à des secrets immémoriaux.

En conséquence : prudence et scepticisme sont de rigueur.

Cet article L’équateur penché est apparu en premier sur La Menace Théoriste.



Qui aurait pu soupçonner Charlie Hebdo de bigoterie? Et pourtant dans son édition du 27 janvier 2016, Charlie nous sert une double page d'ode aux dogmes freudo-lacaniens, sous couvert d'attaque en règle de la Haute Autorité de Santé (HAS). L'hebdomadaire n'en est pas à son coup d'essai: infiltré par la psychanalyse de longue date, il semble avoir maintenant confié la chronique freudienne au lacanien Yann Diener qui avait déjà notamment commis deux articles débitant la même rengaine dans Charlie Hebdo en mars 2015 (voir le commentaire de Jean-Louis Racca).

C'est pourtant le même Yann Diener qui avait documenté le caractère sectaire de la psychanalyse, en produisant une cartographie des scissions ayant conduit aux multiples églises, chapelles et micro-sectes psychanalytiques, illustrant le fait qu'en psychanalyse, les débats rationnels fondés sur des faits observables étant exclus, les désaccords se résolvent nécessairement par des excommunications et des schismes.

Ce nouvel article
  • fustige toute la médecine fondée sur des preuves, et en particulier son application à la psychiatrie. Les catégories diagnostiques des classifications internationales sont moquées, alors que la psychanalyse regorge de catégories bien plus discutables encore. Tout ce qui pourrait améliorer l'offre de soins en santé mentale est systématiquement dénigré. La loi de 2005 sur le handicap, qui constitue un progrès phénoménal pour les patients, est dénoncée. De fait, l'intérêt des patients, notamment à être reçus par des professionnels ayant des connaissances à jour et à bénéficier de pratiques à l'efficacité prouvée, n'est jamais considéré.
  • fait des amalgames grossiers entre les recommandations de la HAS fondées sur des données scientifiques, et la mise en œuvre des différentes lois de santé en contexte de restrictions budgétaires; récupère de manière éhontée le suicide du Pr. Jean-Louis Megnien; relate des persécutions imaginaires de psychanalystes italiens, en lieu et place de faits sourcés et vérifiables.
  • déploie une rhétorique victimaire et outrancière calquée sur celle du collectif des 39, dépeignant les psychanalystes comme des résistants face à un pouvoir totalitaire, alors qu'ils ne font que défendre leurs intérêts catégoriels et financiers, s'insurgeant qu'on puisse leur demander de mettre à jour leurs connaissances et leurs pratiques, et de rendre des comptes sur la qualité des soins qu'ils offrent à leurs patients, bien qu'ils soient financés par l'argent public.
  • perpétue les légendes sur les alternatives à la psychanalyse, comme les méthodes issue de l'ABA (applied behavior analysis), manifestant au passage une méconnaissance totale du sujet.
  • ressasse les tartes à la crème les plus populaires du freudisme: la "découverte scandaleuse" de Freud, la "blessure narcissique pour l'humanité", qui expliquerait que les méchants scientistes rêvent de lui "tordre le cou".
Un encadré interrogeant une pédopsychiatre hospitalière illustre la rétention de diagnostic d'enfants ayant des troubles neurodéveloppementaux, la préférence pour le "soin" (présumé) en institution hospitalière, au détriment de l'inclusion et de la scolarisation, pratiques malheureusement encore typiques de bien des services hospitaliers et de bien des médecins, au mépris même de leur code de déontologie.

Au final, cet article revendique l'ignorance, l'incompétence et l'impunité totale pour tous les psys de France.

Sur une page Charlie Hebdo bouffe du curé, sur la suivante il lèche du gourou. Où est la cohérence?


Pourtant la psychanalyse se prête merveilleusement à la satire, tant elle regorge d'énormités. Il est à peine besoin de les pasticher, il suffit de les citer pour en rire. On peut s'en convaincre en lisant les perles rassemblées sur le site Freud quotidien.

Mais on ne rit pas dans l'article de Yann Diener. Les énormités y sont énoncées avec solennité comme des articles de foi, sans même un sourire en coin: par exemple "le symptôme est une trouvaille du sujet, interprétable et mobilisable par la parole", l'idée que l'échec scolaire a nécessairement un "sens", qu'il faut chercher à décrypter "dans le contexte familial". Autant de conceptions jamais prouvées qui conduisent, aujourd'hui encore en France, à rendre les parents (et le plus souvent la mère) responsables du trouble de leur enfant (le symptôme étant immanquablement construit par l'enfant en réponse à une relation défaillante). Toutes ces freudaines sont discréditées depuis des décennies et n'ont plus cours dans les autres pays que la France. Mais visiblement, à Charlie Hebdo, on y croit dur comme fer.

On attendrait de Charlie Hebdo qu'il fasse preuve du même esprit critique à l'égard des pseudo-sciences et des médecines parallèles qu'à l'égard des religions. On attendrait qu'il se moque des dogmes psychanalytiques, comme de tous les autres. On attendrait qu'il ait une rubrique intitulée "la lacânerie de la semaine" puisant dans les innombrables perles publiées quotidiennement dans le reste de la presse. On attendrait même qu'il s'offre la plume du maitre pasticheur Jean-Marie de Lacan. Au lieu de cela, il choisit de servir la soupe aux gourous freudo-lacaniens. Pauvre Charlie.

L'attraction lunaire

-

Des doutes à gogo

le 05-2-2016 à 06:51 GMT
Dans le grand bazar de l’astrologie lunaire, il n’y a pas que les adeptes irréfléchis ou les sceptiques indécrottables. Il y a aussi les indécis, c’est-à-dire ceux qui seraient enclins à ne pas suivre des préceptes sans comprendre et qui se posent quelques...

Les humains sont extrêmement sujets au biais de confirmation, nous avons une forte tendance à nous raccrocher à tout ce qui supporte nos opinions et à ignorer aveuglément tout ce qui ne le fait pas. Et cela est particulièrement vrai lorsqu’on en vient à des sujets scientifiques.

Les gens aiment croire que la science est de leur côté et utilisent souvent des articles scientifiques pour conforter leurs positions. Citer la littérature scientifique peut, bien sûr, être une excellente chose. De fait, j’insiste fréquemment que nous devons nous reposer sur la littérature revue par les pairs dans les sujets scientifiques.

Ce billet est une traduction de : The hierarchy of evidence: Is the study’s design robust?

NDT : merci à Vanessa C. pour la relecture et les notes de bas de page.

Le problème est que tous ne se valent pas. De recherches de piètre qualité sont parfois publiées, et nous avons atteint un point de notre histoire où il y a tellement d’articles qui paraissent que si vous cherchez suffisamment, vous pourrez trouver au moins un papier supportant à peu près toutes les hypothèses que vous pourriez imaginer.

Ainsi, nous devrions toujours être attentifs avant d’accepter avec enthousiasme les articles qui s’accordent avec nos préconceptions, tout comme il faudrait toujours examiner attentivement les publications. Je me suis déjà attelé à ce sujet en décrivant les bons et les mauvais critères pour rejeter un papier. Cependant, ces deux billets se concentraient principalement sur comment dire si oui ou non une étude avait été réalisée correctement, et la situation est nettement plus compliquée que ça.

Vous voyez, il y a de nombreux types d’études scientifiques et certaines conceptions sont plus robustes et puissantes que d’autres. Ainsi, vous pouvez avoir deux études faites correctement mais ayant atteint des conclusions différentes – voire opposées.

Par conséquent, lorsque l’on s’intéresse à un article, il est critique de s’intéresser au type de design expérimental qui a été utilisé et de se demander si oui ou non il est robuste. Pour vous aider dans ce but, je vais tenter de vous fournir une description de certains des designs les plus communs, en commençant par le moins fiable pour finir par ceux faisant le plus autorité.

Attention, avant de commencer, il convient de faire quelques clarifications.

Tout d’abord, cette hiérarchie des preuves est une ligne de conduite générale et non pas une règle absolue. Il y a certainement des cas où une étude ayant une conception relativement faible peut en surpasser une autre ayant un design plus robuste (j’évoquerai certains de ces cas dans ce billet). Et si il n’y a pas de règle absolue sur la hiérarchie, on s’accorde généralement sur le fait que l’ordre présenté ici classe effectivement la conception des publications elles-mêmes par ordre de robustesse.

Nombre d’autres hiérarchies incluent des critères dont je ne discute pas ici car je me concentrerais uniquement sur le design.

Ensuite, l’ordre exact des designs que j’ai classé de « très faible » à « faible » est discutable, mais le point clé est qu’ils sont toujours tous considérés comme étant les plus faibles formes de preuves.

Troisièmement, par amour de la brièveté, je ne détaillerais que les grandes lignes des méthodes de recherches dont je parlerais. Il existe des sous-catégories pour chacune d’entre elles que je ne ne mentionnerais pas.

Quatrièmement, cette hiérarchie est principalement valable pour tout ce qui concerne la santé humaine (c’est à dire les causes d’une maladie en particulier, la sûreté d’un médicament ou d’un aliment, l »efficacité d’une thérapie, etc etc). De nombreuses autres disciplines utilisent, cependant, des méthodologies similaires et la majeure partie de ce billet s’applique à elles aussi (par exemple, revues systématiques et méta-analyse sont toujours ce qu’il a de plus élevé).

Enfin, supposez que pour le bien de cet article, je supposerais que toutes les études ont été faites correctement et ont utilisé les contrôles, randomisation et autres qui sont requis pour ce type précis d’étude. En réalité, ce sont des choses qu’il est très important de vérifier lorsque vous lisez un article.

1 – Billets d’humeur et lettres ouvertes (fiabilité = très faible)

Certains journaux publient ce genre de choses, c’est plutôt inhabituel pour des publications académiques car ce ne sont pas réellement des recherches. Cela consiste, pour l’auteur, à donner son avis sur une position particulière, expliquer pourquoi la recherche devrait se concentrer dans une certaine direction, exposer un problème avec un article en particulier, etc.

Cela peut être assez utile puisqu’ils sont généralement écrits par des experts du domaine concerné, mais vous ne devez pas les confondre avec une nouvelle preuve scientifique. Ainsi, il serait trompeur d’en évoquer un en disant « une nouvelle étude a montré que…. », il faudrait plutôt dire « ce chercheur a mis en avant l’argumentaire suivant et il est éloquent… » mais vous ne pouvez pas donner à cet argument le statut de preuve.

Pour être clair, les argumentaires peuvent être très utiles et ils mènent souvent à des recherches ultérieures, mais vous ne pouvez pas faire une affirmation du style de « les vaccins causent l’autisme car ce scientifique pense que c’est le cas dans sa dernière lettre ouverte ». Les opinions doivent mener à des recherches mais ne pas être considérées comme ces dernières.

2 – Les rapports de cas (fiabilité = très faible)

Ce sont essentiellement des anecdotes mises en avant, il y a par exemples des études ne concernant qu’un seul cas rapporté. En médecine, elles sont typiquement centrées sur un seul patient et peuvent inclure des choses comme une réactions nouvelle à un traitement,, une malformation physiologique étrange, le succès d’une nouvelle thérapie, la progression d’une maladie rare etc.

D’autres champs d’études ont des publications similaires. Par exemple, en zoologie, on trouve des « notes d’histoire naturelle » qui sont des observations d’un nouvel attribut ou comportement (par exemple, le premier cas rapporté d’albinisme chez une espèce, un changement de régime alimentaire jamais observé,…).

Les études de cas peuvent être très utiles en temps que point de départ pour de futures investigations, mais elles ne sont généralement qu’une simple anecdote, donc vous ne devriez pas leur accorder trop de poids. Par exemple, imaginons qu’un nouveau vaccin est mis au point et que durant sa première année d’utilisation, un médecin reçoit un patient qui a commencé à avoir des convulsions après avoir reçu le vaccin. Il rédige donc un rapport de cas à ce propos.

Cette étude devrait (et sera certainement) être prise au sérieux par la communauté médicale et scientifique qui devra ensuite mettre en place une étude pour déterminer si oui ou non le vaccin cause réellement des convulsions, mais vous ne pouvez pas utiliser cette étude comme une preuve manifeste que les vaccins sont dangereux. Il faudra attendre une étude à grande échelle avant de parvenir à une telle conclusion.

N’oubliez jamais que le fait qu’un événement A survienne avant un événement B ne signifie pas que A est la cause de B (c’est en fait un sophisme appelé post hoc, ergo propter hoc). Il est tout à fait possible que les convulsions aient été causées par quelque-chose n’ayant absolument aucun rapport avec le vaccin, et que la proximité temporelle ne soit qu’un simple hasard.

3 – L’expérimentation animale (fiabilité = faible)

Les recherches sur les animaux les utilisent pour tester de nouveaux médicaments, des OGM, etc pour avoir une idée de si ils sont sûrs et/ou efficaces ou pas avant de passer aux essais sur les humains. L’endroit exact de là où ces tests se situent dans la hiérarchie des preuves est discutable, mais ils sont toujours placés plutôt bas.

La raison en est relativement simple : la physiologie humaine est différente de celle d’autres animaux, donc un médicament peut agir différemment chez un humain de ce qu’il produit chez une souris, un cochon, …

La robustesse d’une étude sur un animal dépendra également d’à quel point la physiologie de l’espèce en question « colle » à celle des humains (par exemple, en règle générale, une étude chez le chimpanzé sera plus convaincante qu’une réalisée sur des souris).

Puisque l’expérimentation animale est intrinsèquement limitée, elle n’est généralement utilisée que comme point de départ d’études plus longues. Par exemple, lorsqu’un nouveau médicament est développé, il sera généralement testé sur des animaux avant d’être essayé chez l’humain. Si il montre des résultats prometteurs durant ces tests, alors les essais sur des sujets humains seront approuvés. Une fois que ces derniers auront eu lieu, ceux sur les animaux deviennent clairement non pertinents, donc vous devriez faire très attention si vous basez une argumentation sur ce type de tests.

Il faut bien noter cependant, qu’il y a certains types d’investigations qui s’achèvent nécessairement avec des animaux. Lorsqu’on étudie la toxicité aiguë d’un produit par exemple et que l’on essaye de déterminer quelle est sa dose létale, il serait manifestement très peu éthique de conduire des recherches sur des humains.

Et donc, il nous faut nous reposer sur des études sur des animaux, au lieu d’utiliser nos congénères pour déterminer à quel dose un produit devient mortel pour nous.

Enfin, je veux mettre en exergue que le problème avec ce type d’étude n’est pas d’ordre statistique, au lieu de cela, c’est plus lié à l’applicabilité. Vous pouvez (et devez) faire de l’expérimentation animale en utilisant un design de randomisation contrôlé, cela vous donnera une extraordinaire puissance statistique, mais le résultat que vous obtiendrez peut parfaitement ne pas du tout être transposable aux humains.

En d’autres termes, vous pouvez avoir montré de façon très convaincante la façon dont X se comporte chez les souris, mais ça ne veut pas du tout dire qu’il agira de la même façon chez nous.

4 – Les études in vitro (fiabilité = faible)

In vitro signifie « dans le verre » en latin et est utilisé pour désigner les études « en éprouvettes ». C’est à dire que ce sont des études de laboratoire qui utilisent des cellules isolées, des molécules biologiques, etc au lieu de complexes organismes multi-cellulaires. Par exemple, si nous voulons savoir si oui ou non le médicament X soigne le cancer, on pourrait commencer avec une étude in vitro où quelques cellules d’un cancer serait exposées à X pour voir ce qui se passe.

Le problème est que dans un environnement limité et contrôlé comme celui d’un tube à essai, les composés chimiques se comportent souvent très différemment de la façon dont ils réagissent dans un environnement aussi incroyablement complexe que le corps humain. Chaque seconde, des milliers de réactions chimiques ont lieu au sein de notre organisme, et ces dernières peuvent interagir avec le médicament testé et l’empêcher de fonctionner comme on le désirerait.

Pour que quelque-chose comme une molécule qui tue les cellules cancéreuses puisse fonctionner, elle doit être transportée dans le corps jusqu’aux cellules en question, ignorer les cellules saines, ne pas interagir avec les milliers d’autres molécules présentes (ou au moins ne pas interagir d’une façon qui soit nuisible ou empêche quelque-chose de fonctionner) et enfin pouvoir effectivement tuer les cellules cancéreuses.

Donc, montrer qu’une substance tue les cellules cancéreuses dans une boîte de pétri ne résout qu’une toute petite partie d’un puzzle aussi grand que complexe. Ainsi, les études in vitro devraient toujours être à la base d’une étude plutôt que sa conclusion. Les gens semblent souvent ne pas réaliser cela cependant et on voit souvent des études in vitro brandies comme la preuve que tel nouveau traitement marche, que les OGM sont dangereux, que les vaccins causent l’autisme,…

En réalité, vous devez attendre des études avec une conception substantiellement plus puissante avant de dessiner une conclusion. Pour être clair, tout comme avec l’expérimentation animale, c’est un problème d’application, pas de statistique.

5 – Les études transversales (fiabilité = modérée)

Les études transversales (ou études de prévalence) détermine la prévalence d’un trait particulier dans une population particulière à un moment particulier, et elles s’intéressent souvent aux rapport entre ce trait et une ou plusieurs variables. Ce études ne sont qu’observationnelles.

En d’autres termes, elles collectent des données sans interférer avec, ni affecter les patients. Elles sont généralement réalisées grâce à des questionnaires ou des archives d’examens médicaux. Par exemple, vous pouvez faire une étude transversale pour déterminer le pourcentage réel de maladies cardiaques dans une population donnée, à un moment donné, et, dans le même temps, collecter également des données sur d’autres variables (comme la prise de certains médicaments par exemple) dans le but de savoir si certains médicaments, régimes, métiers ou autres sont corrélés à des maladies du cœur.

Pour résumer, ces études ne sont généralement que de simples recherches de prévalences et de corrélations.

Il y a plusieurs problèmes avec cette approche, ce qui rend les études qui en sont issues généralement faibles. Tout d’abord, il n’y a pas de randomisation, ce qui rend très difficile la détermination des variables de confusion. De plus, vous dépendez souvent de la capacité des gens à se remémorer des détails avec précisions et/ou à répondre honnêtement. Et, peut-être plus important encore, ces études ne peuvent pas être utilisées pour établir causes et effets.

Disons, par exemple, que vous réalisez l’étude que j’ai mentionnée plus haut sur les maladies cardiaques, et que vous trouviez un fort lien entre les gens atteint d’un problème au cœur et le médicament X. Cela ne veut pas dire que le médicament X est la cause de ces problèmes. Puisque les études transversales ne regardent, par définition, qu’un seul point à la fois, elles sont incapables de démêler les liens entre causes et effets.

Peut-être que les maladies cardiaques provoquent d’autres problèmes qui amènent les gens à prendre le médicament X (et donc la maladie mène à l’utilisation du médicament et non l’inverse). Ou alors, il pourrait y avoir une troisième variable dont vous ne soupçonnez pas l’existence et qui est à l’origine à la fois des cardiopathies et du besoin de médicament X.

Par conséquent, les études transversales ne devraient être utilisées que pour prendre connaissance de la prévalence d’un trait (comme une maladie) dans une population précise – ce qui est en fait leur fonction première – soit comme point de départ pour de futures recherches.

Déterminer le lien entre X et des maladies cardiaques, par exemple, devrait pousser à mettre en place un essai contrôlé randomisé (voir plus bas) pour déterminer si oui ou non il existe bien un lien de cause à effet.

Ce type d’étude peut également être utile, cependant, pour montrer que deux variables ne sont pas corrélées entre elles. Pour le dire autrement, si vous trouvez que X et les maladies cardiaques sont corrélés, alors tout ce que vous pouvez dire est qu’il y a une association entre les deux, mais cela ne permet pas de déterminer la nature de cette association.

Cependant, si vous ne trouvez pas de lien entre les deux, alors vous pouvez affirmer que les preuves ne soutiennent pas la conclusion que X cause des troubles cardiaques (au moins dans les limites de la puissance et de la taille d’effet détectable de cette étude).

6 – Les études cas-témoins (fiabilité = modérée)

Ces études sont également observationnelles, et elle marchent en quelque sorte à rebours de la façon dont on imagine souvent que marchent les expériences. Elles partent du résultat, et ensuite essayent de déterminer ce qui l’a produit. Typiquement, elles sont réalisées en distinguant deux groupes : un groupe ayant la particularité à étudier, et un groupe sans (le « groupe témoin »). Ensuite, elles étudient la fréquence de certaines causes potentielles au sein des deux groupes.

Pour illustrer ça, continuons à utiliser les maladies cardiaques et le médicament X, mais cette fois, mettons une étude cas-témoin en place. Pour faire ça, nous allons prendre un groupe ayant des maladies cardiaques et un groupe de gens qui n’en ont pas (le groupe contrôle). Il importe de faire attention aux facteurs de confusions dans ces groupes. Par exemple, vous ne pouvez pas comparer un groupe de gens pauvres et cardiaques à un groupe de gens riches et en bonne santé car le statut économique serait un facteur de confusion (c’est à dire que c’est peut être ce facteur-ci qui serait la cause des maladies). Il vous faut donc comparer de riches cardiaques à de riches sains (ou des pauvres avec des pauvres, et la même chose pour l’âge le sexe, le fait de fumer, etc).

Maintenant que nous avons nos deux groupes (des gens avec et sans problèmes cardiaques et sans facteurs de confusions) nous pouvons nous intéresser à l’usage de X au sein des deux groupes. Si X est bien la cause de problèmes cardiaques, alors nous devrions mettre en évidence une plus forte utilisation de ce produit dans le premier groupe, et si ça n’est pas le cas, alors nous devrions observer des taux de consommation similaires dans les deux groupes.

Attention, tout comme les études transversales, ces études se débattent avec les relations entre cause et effet. Dans certaines circonstance cependant, elles ont le potentiel de discerner l’effet de la cause si il est possible d’établir que la variable prédictive est advenue avant le résultat et que tous les facteurs de confusion sont listés. En règle générale, cependant, au moins une de ces conditions n’est pas remplie et ce type d’étude est sujet aux biais (par exemple, les gens qui souffrent de maladie cardiaque sont plus susceptibles de se rappeler avoir pris X que ceux qui n’en souffrent pas). Le résultat est qu’il est généralement impossible de tirer des liens de causalité de ce type d’études.

Ce qui est probablement le plus gros avantage de ces études, cependant, est le fait qu’elles peuvent étudier des cas rares. Disons, par exemple, que vous essayez d’étudier un symptôme rare qui ne survient que chez une personne sur 1000. Réaliser une étude transversale ou une étude de cohorte (voir ci-dessous) serait extrêmement difficile parce qu’il vous faudrait des centaines de milliers de gens présentant le symptôme pour avoir suffisamment de patients et atteindre une puissance statistique raisonnable.

Avec une étude cas-témoin, cependant, vous pouvez contourner le problème puisque vous commencez avec un groupe de gens ayant le symptôme et que vous n’avez qu’à créer un groupe de gens similaires en tous points… à l’exception du symptôme.

Ainsi, vous pouvez facilement atteindre une puissance statistique suffisante pour étudier des événements rares qui ne pourraient pas l’être autrement.

7 – Les études de cohorte (fiabilité = de modérée à forte)

Celles-ci peuvent être réalisées de manière prospective ou rétrospective (les études cas-témoins sont toujours rétrospectives). Dans une étude prospective, on prend un groupe de gens qui ne présentent pas le trait qui sera étudié (par exemple, des maladies cardiaques) et qui diffèrent (ou différeront) par leur exposition à une cause potentielle (par exemple le médicament X). Puis, vous les suivez pendant une période donnée pour voir qui finit par développer le trait qui vous intéresse.

Soyons clairs, c’est encore une étude observationnelle, donc vous ne les exposez pas vous-même à la cause potentielle. A la place, vous choisissez une population où certains seront de toutes façons exposés quoi qu’il advienne. Donc dans notre exemple, vous regarderiez si des gens qui prennent le médicament X ont plus de chance de développer des maladies cardiaques au bout de plusieurs années que ceux qui n’en prennent pas.

Des études rétrospectives peuvent également être faites si vous avez accès à des archives médicales détaillées. Dans ce cas, vous sélectionnez votre population initiale de la même façon, mais au lieu de la suivre effectivement, vous vous contentez d’étudier leurs dossiers médicaux les années suivantes (ceci, évidemment, requiert que vous ayez accès à un grand nombre de dossiers médicaux bien faits).

Ce type d’étude est souvent très cher et chronophage, mais il a un énorme avantage sur les autres méthodes en ce qu’il peut réellement détecter des liens de cause à effet. Puisque vous suivez vraiment la progression de l’apparition du trait, vous pouvez déterminer si la cause potentielle a bien précédé cette apparition (c’est à dire « est ce que les gens qui commencent à avoir des problèmes cardiaques ont pris le médicament X avant »).

Il faut faire attention au fait qu’il faut maîtriser les facteurs de confusion, mais si vous y arrivez, alors vous pouvez fournir des preuves de causalité (même si elles seront moins fortes qu’avec un essai contrôlé randomisé).

De plus, les études de cohortes vous permettent généralement de calculer le risque associé à une variable particulière (le risque de maladie cardiaque si vous prenez X par rapport à celui si vous n’en prenez pas).

8 – Les essais randomisés contrôlés

Ces essais sont le plus haut standard de la recherche scientifique, ils sont le design le plus puissant qu’on puisse trouver et fournissent les résultats les plus définitifs. Et ils sont également ceux avec lesquels les gens sont le plus familier.

Pour en mettre un en place, vous sélectionnez une population d’étude ayant le moins de facteurs de confusion possible (c’est à dire que tout le monde dans le groupe devrait avoir un sexe, un âge, un niveau de richesse, une santé, un mode de vie etc similaires)*. Puis, vous prenez au hasard la moitié de la population et vous en faites le groupe contrôle, la seconde moitié devenant le groupe test. L’importance de choisir les gens au hasard ne doit pas être sous-estimée et c’est même l’un des point-clés qui rendent ces essais si puissants. Dans tous les designs précédents, vous ne pouvez pas décider au hasard de qui prend le traitement ou pas ce qui limite grandement votre capacité à vous débarrasser des facteurs de confusion. Cela rend plus difficile le fait de s’assurer que chaque groupe est bien comparable, la prise du traitement mise à part.

Dans un essai randomisé contrôlé, cependant vous le pouvez (et le devez) ce qui vous donne une puissance bien plus grande car vous êtes assurés d’avoir un groupe test et un groupe contrôle aux caractéristiques similaires.

En plus de la randomisation, ces études doivent être soumises à des contrôles via placebo ou en comparant à un traitement de référence. Cela signifie que les gens du groupe test reçoivent la chose que vous voulez tester (c’est à dire le traitement X) et que ceux du groupe témoin reçoivent un faux traitement qui est en fait inerte. Idéalement, cela doit être fait en double aveugle, c’est à dire que ni le patient ni le chercheur ne doivent savoir qui est dans quel groupe. Cela permet de maîtriser à la fois l’effet placebo et les biais dont les chercheurs peuvent être victimes.

Lorsque vous prenez en compte tous ces facteurs, la raison pour laquelle cette façon de conduire les études est si puissante devrait vous sembler claire : puisque vous choisissez vos sujets d’études à l’avance, vous avez une maîtrise sans égale pour ce qui est des facteurs de confusion, et la randomisation permet d’égaliser les derniers**.

De plus, vous pouvez également évaluer l’effet placebo et éliminer les biais des chercheurs (au moins durant la phase de collecte des données, car l’attitude des chercheurs peut varier en fonction de si ils savent qu’ils donnent un placebo ou un traitement éprouvé). Tous ces facteurs combinés font que ces études sont les plus puissantes.

Et maintenant, vous devez vous demander, si elles sont si géniales, pourquoi n’utilise-t-on pas toujours ce type d’étude ? Il y a une myriade de raisons pour cela mais nous n’allons en évoquer que quelques-unes.

Tout d’abord, il serait souvent contraire à l’éthique d’agir de la sorte. Par exemple, utiliser ce type de test*** pour évaluer la sécurité des vaccins est généralement considéré comme contraire à l’éthique parce que nous savons que les vaccins fonctionnent, conduire ce type de test reviendrait donc à priver des enfants d’un traitement pouvant leur sauver la vie.

De la même façon, des études qui mèneraient à exposer délibérément des gens à des produits dont on sait qu’ils sont toxiques serait malvenu. Donc, dans ce genre de cas, nous devons nous reposer sur d’autres conceptions dans lesquels il n’y a pas d’intervention sur le patient.

Une autre raison pour ne pas utiliser ces études est le cas où le résultat qui vous intéresse est extrêmement rare. Si, par exemple, vous pensez qu’un médicament provoque des réactions sévères chez un patient sur 10.000, alors il sera quasiment impossible de réunir un échantillon suffisamment large pour être significatif, et vous devrez utiliser une étude cas-témoin à la place.

Le coût est également un facteur important, ces études tendent à être très chères et chronophages, et les chercheurs n’ont souvent tous simplement pas les ressources à leur accorder. De plus, dans bien des cas, les archives médicales nécessaires aux autres designs sont déjà disponible et il est donc tout à fait pertinent de commencer par elles.

9 – Revues systématiques et méta-analyses (fiabilité = très forte)

Situées au plus haut de la pyramide des preuves, ces études ne sont pas des expérimentations en elles-mêmes mais plutôt des relectures et des analyses d’expérimentation précédentes. Les revues systématiques passent au peigne fin la littérature disponible à la recherche d’informations sur un sujet donné puis condensent les résultats de nombreux essais en un seul article discutant tout ce que nous savons sur ce sujet.

Les méta-analyses vont un peu plus loin et combinent les données issues de multiples articles pour fournir une analyse statistique globale.

Ces deux designs fournissent des résultats très robustes car elles évitent le piège de se reposer sur une seule étude. L’une des choses les plus importantes à garder à l’esprit lorsqu’on lit de la littérature scientifique est qu’il faut toujours se méfier du « syndrome de l’étude unique ».

De mauvais papiers et d’autres présentant des conclusions incorrectes sont parfois publiés (parfois au corps défendant des auteurs), il faut donc toujours garder l’ensemble de la littérature en vue plutôt que de se concentrer sur une ou deux études isolées, et les méta-analyses font ce travail pour vous.

Disons, par exemple, qu’il existe 19 articles disant que X ne provoque pas de cardiopathies et 1 disant que c’est le cas. Les gens auront tendance à donner beaucoup d’importance à ce dernier article, mais une revue systématique corrigera cette erreur en pointant le fait qu’il ne s’agit que d’une seule étude au sein d’un corpus plus large et une méta-analyse en combinant les données issues de tous les articles.

Il est important de noter que si vous avez de la daube à l’entrée, vous en aurez aussi à la sortie. Ces articles devraient toujours indiquer les critères d’inclusion et d’exclusion et vous devez y être attentifs. Une revue systématique d’analyses transversales, par exemple, ne sera pas très puissante et peut facilement être dépassée en pertinence par quelques études randomisées contrôlées. A l’inverse, une méta-analyse de ces dernières sera incroyablement robuste.

Donc ces papiers tendent à être conçus de façon à éliminer les études de faible qualités et à inclure celles de bonnes qualités (le critère de la taille de l’échantillon joue aussi). Ces critères peuvent, cependant, être manipulés de façons à n’inclure que des études collant aux idées préconçues du chercheur, donc il faut aussi faire attention à ça.

Enfin, même si les critères d’inclusion semblent raisonnables et non biaisés, vous devriez quand même jeter un œil aux articles qui n’ont pas été retenus. Disons, par exemple, que vous avez une méta-analyse/revue systématique qui ne compterait que des essais randomisés contrôlés visant à étudier X (ce qui semble un critère très raisonnable), mais cela ne ferait que 5 publications, ne comptant toutes que des échantillons de petites tailles.

Si dans le même temps, vous pouvez trouver des douzaines d’études cas-témoins et de cohortes sur X basées sur des échantillons bien plus large et contredisant la revue systématique/méta-analyse alors on peut s’interroger légitimement sur la pertinence de cette dernière.

L’importance de la taille d’échantillon

Comme vous vous en êtes probablement rendu compte maintenant, cette hiérarchie des preuves est plus une ligne de conduite de base qu’une règle intangible, et qu’il y a des exceptions. Les plus importantes d’entre elles dépendant de la taille de l’échantillon observé.

C’est vraiment l’élément déterminant de ce billet de blog puisqu’un échantillon trop petit peut rendre complètement faiblard un design pourtant robuste initialement… et qu’un échantillonnage très important peut rendre solide une conception normalement assez faible.

Prenons une méta-analyse de 10 essais randomisés contrôlés s’intéressant à l’effet de X, et où chacun de ces essais comportait 100 personnes (ce qui fait un total de 1000 sujets).

Puis, après la publication de cette méta-analyse, quelqu’un publie une étude randomisée contrôlée basée sur un échantillonnage de 10.000 personnes et que cette étude contredise la première. Dans cette situation, il vaut bien mieux faire confiance à l’étude « simple ». Honnêtement, même si cette étude était une étude de cohorte ou de cas-témoin, j’aurais bien plus confiance dedans**** étant donné la taille énorme de son échantillon.

Malheureusement, cependant, il n’y a que peu de lignes de conduite à propos de quand la taille d’échantillon permet de bousculer la hiérarchie. Les études du plus bas niveau ne peuvent généralement pas être sauvée en fonction de ce critère (on peine à imaginer un scénario ou cela permettrait à une étude sur des souris ou in vitro de réfuter un essais randomisé contrôlé et il est très rare que cela arrive avec une étude transversale), mais pour celles de conceptions plus solide, les choses deviennent plus compliquées.

Par exemple, disons qu’une étude de cohorte prenant 10.000 personnes en compte, challenge un essai randomisé contrôlé où il y en avait 7.000. Laquelle faudrait-il prendre en compte ? Honnêtement je ne sais pas du tout. Si les deux ont été bien conduites et produisent des résultats nets alors en l’absence de preuves supplémentaires il serait bien difficile de savoir où se situe la réalité.

Cela ramène à un point central : il faut veiller à bien prendre en compte l’entièreté du corpus existant, pas juste un ou deux articles. Les risques qu’une seule étude soit biaisée d’une façon ou d’une autre sont assez hauts, mais dans les cas d’un ensemble de textes, elles le sont bien moins.

Dans certains cas, cela peut vouloir dire que vous ne pouvez pas parvenir à une conclusion, et ça n’est pas grave. La raison primordiale pour laquelle nous faisons de la science est que, justement, il y a des choses que nous ne savons pas et il faut parfois accumuler des années de données pour réussir à échapper au bruit statistique et distinguer une tendance générale.

Donc, il n’y a absolument rien de mal à dire « nous ne savons pas encore pour le moment, mais nous cherchons activement des réponses ».

Conclusion

J’ai essayé de vous présenter ici un panorama de certains des types les plus communs d’études scientifique et de fournir des informations sur leurs forces et faiblesses. C’est le genre de chose à garder à l’esprit lorsqu’on lit des publications scientifiques mais je veux mettre une fois de plus l’accent sur le fait qu’il ne s’agit que de directives générales et qu’il faut toujours scruter un papier dans le détail afin d’évaluer qu’il a été rédigé correctement.

Ce faisant, intéressez-vous à la taille de l’échantillon étudié et si il a la puissance nécessaire pour détecter des différences significatives entre les différents groupes. Peut-être plus important encore, gardez toujours en tête l’ensemble de la littérature sur le sujet abordé plutôt que de vous concentrer sur quelques études en particulier, notamment si ces dernières valident vos idées pré-établies.

Pour de nombreux sujets touchant à l’anti-science ou aux pseudo-sciences comme l’homéopathie, les dangers supposés des vaccins ou des OGM, etc vous pourrez trouver des articles qui supportent ces affirmations mais ils sont généralement basés sur de petits échantillons et/ou utilisent des designs de bas niveau là où des études plus larges et/ou mieux conçues sont parvenues à des conclusions différentes. Ceci indique que ces petites études sont un simple bruit statistique et qu’il vaut bien mieux se reposer sur de plus larges et robustes épaules de géants.


Commentaires faits par une relectrice :

* Du coup on perd un peu la raison principale de l’effet de la randomisation qui est justement de rendre deux population comparables même si la population de départ ne l’est pas. On vérifie en général toujours les caractéristiques de base pour vérifier que c’est bien le cas après randomisation.

** Le problème avec la sélection des patients est justement quelque chose qui est critiqué. L’industrie pharmaceutique a tendance a hyper sélectionner des patients peu vulnérables pour éviter des effets secondaires par exemple et quand le traitement est utilisé dans la vie réelle, des effets secondaires parfois graves sont mis en évidences et n’avaient pas été remarqué dans les études de phase 3 comme celle que vous citez dans ce chapitre. (cas du Vioxx p.ex).
Je pense que la force de l’essai randomisé n’est pas de choisir ses sujets à l’avance car ceci peut se faire aussi dans une cohorte prospective. La force de l’essai randomisé et de pouvoir créer artificiellement deux groupes totalement homogènes et faire « subir » une intervention à l’un de ces groupe et comparer son effet sur l’autre groupe totalement homogène qui aura reçu une intervention différente ou pas d’intervention du tout. Après il y a la force surajouté du blinding (aveuglement) qui peut être plus ou moins possible, efficace, simple ou double. Je ne sais pas si vous souhaitez entrer dans ce détail.
Je vous suggère cependant de modifier la première partie de la phrase car ce n’est pas le fait de choisir (sélectionner )les sujet de l’étude qui fait de l’essai randomisé sa force (je dirais plutôt sa faiblesse dans certains cas).

*** Je ne comprends pas pourquoi on ferait ce type d’étude car en général c’est déjà évalué dans les études de phase 3 (randomisé contrôlé avant autorisation de mise sur le marché). Dans le cas ou on souhaitait investiguer un nouvel effet secondaire ou de toxicité, je préciserais alors que ce ne serait pas considéré comme éthique de donner à la moitié de la population testée un placebo sans efficacité aucune alors qu’on sait que le vaccin a été prouvé comme efficace et à priori non dangereux et donc qu’on enlève ce bénéfice connu à la population de référence.

**** Je resterais prudente car la qualité d’une étude dépend de bcp de choses. Une étude observationnelle peut être extrêmement robuste en effet si la taille de l’échantillon est grande mais dépend également d’autres facteur. Je pondérerais légèrement cette affirmation même si je comprends ce que l’auteur veut dire.


Nicolas Gauvrit discute de l’article de David Robert Grimes: « On the Viability of Conspiratorial Beliefs ».

 

 

Feed on Feeds