Agrégateur de flux RSS,

d'après une sélection de blogs sceptiques.

Il semble raisonnable de dire que toute théorie doit minimiser au maximum les incohérences ou faiblesses qui lui sont intrinsèques. Dans cette optique, il peut être intéressant d’avoir un aperçu des incohérences de la théorie des chemtrails et éventuellement de voir comment les partisans peuvent répondre à ces lacunes.

L’empoisonnement de l’air :

Le chemtrails sont communément justifiés par leur but supposé, l’empoisonnement de l’air afin, éventuellement, de réduire la population mondiale. Les commanditaires (riches et puissants) pourraient ainsi obtenir les avantages liés à la réduction de la démographie mondiale. Il ne faut pourtant pas réfléchir longtemps pour réaliser que les chemtrails empoisonneraient exactement le même air que celui respiré par les riches. Ces derniers utiliseraient donc une méthode de réduction de la population mondiale dont ils seraient eux-mêmes également victime. Jusqu’à preuve du contraire, les puissants de ce monde respire le même air que les pauvres, et comme nous sommes égaux devant la nature, il n’y a absolument aucune raison que les uns soient touchés alors que les autres non. La question est donc la suivante : comment justifier l’utilisation de la technique de l’empoisonnement alors que les commanditaires à l’origine des supposés chemtrails vont respirer l’air qu’ils empoisonnent ?

Les recherches scientifiques :

Les trainées de condensation ne sont pas ignorées du milieu scientifique car elles peuvent éventuellement avoir un effet sur le climat, sans doute mince bien sûr, mais il est toujours bon d’avoir un maximum d’informations dans ce domaine. Si une conspiration mondiale avait lieu et que les chemtrails étaient effectivement le résultat de produits chimiques, ne peut-on pas penser que les scientifiques l’auraient déjà découvert ? Si en outre la persistance de certaines trainées n’était pas explicable par nos connaissances scientifiques actuelles, peut-on vraiment croire que les scientifiques ne se seraient pas penchés sur la cause de cette persistance ?

La logistique titanesque requise :

Pour asperger le monde entier de produits chimiques, la logistique nécessaire devrait être gigantesque. La consommation d’un avion revient ainsi à 4 ou 5 litres par passager pour 100 kilomètres. L’Airbus A380 a un réservoir pouvant contenir plus de 300 000 litres de kérosène. De manière générale, la plus part des avions utilise des réservoirs avec une capacité de plus de 100 000 litres. Si de telles quantités sont utilisées uniquement pour le kérosène, comment peut-on expliquer en plus l’ajout de produits chimiques dans l’avion, en sachant notamment que les avions sont conçus en fonction du poids total qu’ils vont transporter. Si des tonnes de produits chimiques sont ajoutés dans l’avion, cela signifierait qu’ils devraient être dès l’origine conçus pour épandre des produits, augmentant significativement le nombre de personnes dans le secret de ce complot. En outre, comment et où sont fabriqués et stockés les produits ? Des milliers voire dizaine de milliers de litres devraient être requis chaque jour pour un seul aéroport. La question est donc la suivante : comment expliquer la manière dont les aéroports sont constamment approvisionnés en produits chimiques ? Cet approvisionnement serait si massif qu’il serait comparable à la production d’essence et au remplissage des stations essence. Le kérosène des avions est stocké dans des cuves enfouies dans le sol, un procédé comparable doit obligatoirement être installé, car il serait invraisemblable de stocker des centaines de bidons de produits chimiques dans les hangars de l’aéroport. Pourquoi jamais personne n’a trouvé trace de ces cuves ?

Il existe sans doute bien d’autres invraisemblances et incohérences, cette liste est donc amenée à s’allonger au fil du temps.

 

Note de lecture de Christine Brunschwig - SPS n° 310, octobre 2014 Cette réédition du roman de Fred Hoyle, écrit en 1957 et déjà connu des amateurs de science-fiction, présente un intérêt majeur : un chapitre supplémentaire écrit par un astronome afin de démêler ce qui est plausible et ce qui ne l'est pas. C'est tout l'attrait et l'originalité de cette nouvelle collection que de proposer « un éclairage scientifique sur la base d'un roman d'aventure captivant ». Le roman lui-même raconte l'arrivée d'un (...) Notes de lecture

Qui dit complot mondial dit fuites d’informations. Avec l’émergence d’internet, les révélations sur les agissements secrets de certains pays se sont largement répandues ces dernières années. C’est le cas bien sûr de Julian Assange, Edward Snowden ou Bradley Manning. Chez les théoriciens des chemtrails, on retrouve également une lanceuse d’alerte : Kristen Meghan.

Pour faire court, cette dernière a rejoint l’armée américaine en 2002 à l’âge de 19 ans et travaillait sur les bases aériennes en tant que contrôleuse de l’hygiène. En d’autres termes, elle devait s’assurer que les produits utilisés sur la base n’étaient pas nocifs pour les employés qui travaillaient là. Après plusieurs années à remplir sa fonction, vers 2006, des personnes extérieures à la base ont commencé à lui parler des chemtrails. Ignorante du sujet, elle s’y est intéressée. Petit à petit, elle a essayé de voir si cette théorie était applicable à ce qu’elle pouvait trouver sur sa base militaire. Elle a alors cherché sur le système informatique de l’US Air Force et a trouvé le AF Form 3952 qui est le document permettant d’autoriser les matières dangereuses sur la base militaire.

Comme l’indique ce document, dans la section définitions page 3, pour l’AF Form 3952 nous obtenons ceci : « Le rapport de la procédure d’autorisation est un formulaire qui établit les données standardisées requises pour l’obtention de produits HazMat [HazMat est la contraction de Hazardous Material, c'est-à-dire des produis dangereux, chimiques]. Ce formulaire est à remplir électroniquement avec le logiciel EESOH-MIS pour obtenir le droit d’utiliser ces matériaux. »

En d’autres termes, il s’agit d’une procédure d’obtention et d’utilisation de produits sensibles. En quoi est-ce extraordinaire que l’armée américaine utilise des produits chimiques et que ceux-ci transitent par une base militaire aérienne ? Dans la vidéo ci-dessous, elle évoque notamment la présence de plusieurs tonnes d’aluminium, baryum, strontium, entre autres sous forme d’oxyde. Or, prenons le cas de l’oxyde de strontium. Il est par exemple utilisé dans la fabrication de télévisions cathodiques. De multiples usages peuvent en être faits, pourquoi penser directement qu’il s’agit d’un usage malveillant ? D’ailleurs, que signifie « des tonnes » ? Si l’obtention de ces produits est ensuite redistribué sur l’ensemble des bases américaines, des tonnes de ces produits ne représente en réalité pas tant que ça. Et pourquoi ne pas avoir fait de copie de ces documents ?

Cliquer ici pour voir la vidéo.

Dans la vidéo ci-dessus, largement utilisée par les partisans de la théorie des chemtrails, le mot chemtrail n’est utilisé que trois ou quatre fois au total. En réalité, l’ensemble de ce discours est fondé sur la géo ingénierie. Kristen Meghan la présente comme une pratique secrète et occulte (alors qu’elle diffuse des extraits télévisés où il en est fait mention, on n’est pas à une contradiction près). On a pourtant vu ici que la géo ingénierie n’est absolument pas secrète. Au final, dans cette vidéo, aucun élément ne vient directement soutenir la théorie des chemtrails. Tout est focalisé sur son histoire personnelle, la géo ingénierie mais pas sur l’épandage massif de produits. Alors pourquoi cette vidéo est utilisée ? Simplement car elle participe au large éventail de preuves avancées par les partisans de cette théorie et contribue à la stratégie de l’amoncellement de preuves supposées qui sont en réalité trop minces pour être acceptables. Devant tant d’arguments et de sources diverses se dresse l’idée que cette théorie doit finalement être vraie, qu’importe la solidité de ces preuves

En outre, reprenons le parallèle avec Edward Snowden. Pourquoi les médias ont écouté ce dernier, pourquoi lui a-t-on donné du crédit et pourquoi ce qu’il dit a été accepté comme vrai alors que c’était potentiellement invraisemblable ? Car Snowden a transmis aux journalistes des documents appuyant ce qu’il disait, ni plus ni moins. Qu’a fait Kristen Meghan ? De simples témoignages racontant qu’elle a vu un document sur le système informatique de l’armée américaine. Edward Snowden a fournis plus d’un million de documents ; Kristen Meghan un seul, même pas visible puisqu’il faut la croire sur parole et qu’en plus ce fichier ne peut pas être directement lié aux chemtrails. Kristen Meghan a indiqué ailleurs, notamment ici, qu’elle avait en sa possession des documents prouvant ce qu’elle dit mais refuse de les diffuser pour ne pas finir comme Manning. Quand on se dit lanceur d’alerte, soit on prouve ce qu’on dit, soit on se tait, mais en aucun cas on s’amuse à jouer au jeu du « je sais des choses, j’ai de quoi les prouver mais je vous demande plutôt de me croire sur parole ».

La discussion sur Metabunk à laquelle je viens de faire référence est également très intéressante. Alors qu’on lui demande plusieurs fois de donner ou de confirmer qu’elle a trouvé sur la base militaire des éléments prouvant l’existence de chemtrails, elle persiste à dire qu’elle a déjà répondu à ces demandes mais n’y répond jamais directement. Dans la vidéo postée plus haut, Kristen Meghan fait référence à Metabunk et Contrailscience et en parle comme des sites sous protection gouvernementale américaine, sans avancer aucune preuve, évidemment. La vidéo a été enregistrée après la discussion sur Metabunk où elle n’a pas réussi à convaincre les forumeurs. Il était donc pour elle bien plus commode de dire que ces sites font partie de la conspiration qu’elle dénonce plutôt que d’indiquer qu’elle n’est pas parvenue à montrer un début de preuve satisfaisante.

Pour conclure sur cette lanceuse d’alerte qui n’en a que les apparences, regardons de plus près ce qui s’est dit sur le forum Métabunk. Un message posté par Kristen Meghan en date du 25 janvier 2013 indique : « I wasn’t a whistleblower in regards to chemtrails. It was a completely different situation about overexposures to carcinogens on base they wanted to keep quiet. »
Traduction : Je n’étais pas une lanceuse d’alerte à propos des chemtrails. C’était une situation totalement différente à propos de la surexposition aux produits cancérigènes sur la base [militaire] qu’ils voulaient garder secret »

Ainsi donc elle indique elle-même ne pas avoir fait de révélations sur les chemtrails mais sur l’utilisation de produits cancérigènes, ce qui est largement différent.

Son dernier message sur ce fil de discussion est le suivant : « Many of you have gone off into dead end paths, there are so many assumptions I don’t even know where to begin. My bring a whistleblower has nothing to do with anything at Tinker AFB, that was just one place I was stationed. I feel like I do a video reply to this thread because I’m worn out reading how far of things have gotten. »
Traduction : Beaucoup d’entre vous ont été dans dans des voies sans issues [durant la discussion], il y a beaucoup trop de suppositions, je ne sais même pas par quoi commencer [pour répondre aux messages des autres forumeurs]. Mon arrivée en tant que lanceuse d’alerte n’a rien à voir avec quoi que ce soit à Tinker AFB [la base militaire de l'Oklahoma où elle a travaillé pendant plusieurs années], c’était seulement un seul lieu où j’étais en service. Je sens que je dois faire une vidéo de réponse à ce fil de discussion, je suis lassée de lire à quel point les choses sont allées loin.

Voilà comment s’achève son intervention dans la discussion. Il n’y a eu, à ma connaissance, aucune vidéo réalisée par Kristen Meghan. Qu’aurait-elle bien pu dire de toute façon ? Présenter les preuves qu’elle n’a pas su fournir durant ces dizaines de messages échangés ?

Que donc retenir de toute cette affaire ? Il s’agit là de beaucoup de bruits pour rien et il est même difficile de contre-argumenter ce qu’elle dit tant elle n’avance aucune preuve. Oui la géo ingénierie existe, personne ne le nie, mais concernant les chemtrails à propos desquelles elle avoue elle-même n’avoir rien révélée ? Aucune preuve n’est présentée. Alors pourquoi ferait-elle toutes ces interventions publiques ? Pour attirer l’attention, pour avoir une e-popularité, pour faire gonfler sa page facebook… On n’en a vu d’autres qui n’avaient rien à dire mais qui passaient leur temps à se pavaner devant les caméras.

La géo-ingénérie est ce qu’on pourrait appeler la maîtrise du climat au travers de plusieurs procédés. Les plus courants et déjà pratiqués sont les épandages ou ensemencements localisés avec des produits déterminés (sel, cristaux de glace) dans des conditions qui n’ont rien de secrètes. Concrètement, de petits avions dispersent dans les nuages des produits qui créent une réaction chimique qui permet de déclencher des précipitations. Cette pratique s’est évidemment rapidement retrouvée dans les mains des partisans des chemtrails qui l’ont utilisé comme une preuve d’un épandage massif. Or, plusieurs différences font qu’il est tout à fait abusif de considérer que la géo ingénierie est une pratique associable aux chemtrails ou pire, de dire que la géo ingénierie est tout à fait la même chose que les chemtrails.

Un point central sur ce sujet est la confusion faite entre une action localisée et un épandage mondial. La géo ingénierie n’a actuellement aucune mise en pratique au niveau mondial. De nombreuses références ci-dessous parlent d’hypothèses pour lutter contre le changement climatique mais toutes sont très controversées au sein du domaine scientifique car leur dimension globale rend leurs effets difficilement prévisibles. Actuellement, aucune preuve ne permet d’avancer qu’il y a en ce moment des actions de géo ingénierie sur l’ensemble de la Terre (bien que des actions localisées et géographiquement limitées aient lieu un peu partout dans le monde). Les seules actions menées sont toujours localisées et connues. La page wikipédia sur les ensemencements de nuages (pour déclencher des précipitations par exemple) donne de très nombreux exemples de cette pratique (la page wikipédia anglaise est encore plus complète). Là aussi, le but est parfaitement connu, il s’agit souvent de limiter la sécheresse d’une zone ou de prévenir de trop fortes pluies pouvant causer des inondations.

Un autre argument largement utilisé pour justifier certaines lacunes de la théorie des chemtrails ou la rapprocher de manipulations véritables est son caractère secret ou dissimulé. Or, la géo-ingénierie est parfaitement connue et même revendiquée par ceux qui la pratique. Rien d’obscure ou de caché ici. La géo ingénierie serait tellement secrète qu’elle est passé au 20h de TF1 :

Cliquer ici pour voir la vidéo.

Pendant 5 minutes sur la chaîne météo :

Cliquer ici pour voir la vidéo.

Dans le magasine Xenius diffusé sur Arte et visible ici (à partir de 12:15), dans le New York Times ici ou , le Wall Street Journal ici, sur Slate , ou encore sur France Inter ici. Bref, les références à la géo ingénierie ne manquent pas et je n’ai même pas rajouté les extraits télévisuels recensés par certaines chaines Youtube à forte dose conspirationniste. Ainsi, dire que la géo ingénierie est secrète est totalement faux, cette pratique a même plusieurs pages wikipédia avec notamment une en version anglaise particulièrement fournie. Rajoutons là encore la pratique de l’ensemencement de nuages citée plus haut qui n’est absolument pas secrète et est très bien connue en Asie.

Malgré cela, les partisans de la théorie des chemtrails pourraient dénoncer le silence des médias concernant les chemtrails eux-mêmes. Comment expliquer que cela soit effectivement largement passé sous silence par les médias alors que la géo ingénierie est évoquée ? Il faut certainement trouver la réponse du côté des faits. La géo ingénierie est une pratique reconnue, fondée sur des réactions chimiques prévisibles et avec des commanditaires et des objectifs tout à fait clairs. Alors qu’à l’inverse, les chemtrails restent non prouvés et la théorie qui la présente est elle-même incohérente sur plusieurs points, voire parfois contradictoire.

Attention toutefois, il ne s’agit pas ici de légitimer la géo ingénierie ou de la présenter comme une bonne idée, chacun se fera son propre avis. Le but de cet article est de clarifier le lien supposé qui existerait entre chemtrails et géo ingénierie. En l’occurrence, ce lien n’existe simplement pas et confondre ces deux notions est soit de l’ignorance, soit de la malhonnêteté.

De passage à la pharmacie de mon village, je remarque un présentoire de boites de granules homéopathiques Influenzinum 9 CH d’un célèbre laboratoire dont tous les lecteurs auront deviné le nom. Chose tellement banale que je n’aurais pas réagi si une étiquette, visiblement collée par le pharmacien lui-même, indiquait « vaccin antigrippal ».

C’est un fait que l’homéopathie confond abusivement son principe dit de similitude (« le semblable soigne son semblable ») avec celui de la vaccination. Dans le cas de la grippe et des états grippaux, le laboratoire fabrique l’exotique Oscillococcinum à base d’ « autolysats de foie et de coeur de canard de Barbarie », et Influenzinum, c’est-à-dire à base de souches bien réelles de virus de la grippe utilisées dans des dilutions délirantes : dans le cas d’une formulation à 9CH , soit 1/ 1 000 000 000 000 000 000 (1 milliard de milliard), on vous laisse imaginer la quantité de produit actif que contient une granule de quelques dixièmes de mg ! Et encore, Influenzinum existe en 30CH …

Seulement voilà : le plus souvent, ces pseudo-médicaments sont vendus comme « alternative au vaccin grippal », ce qui est bien sûr faux , mais on reste dans les allégations classiques des médecines parallèles. Dans le cas évoqué, le pharmacien présente Influenzinum comme un vaccin antigrippal, au même titre que les vrais vaccins à l’efficacité prouvée.

Je fais donc remarquer au pharmacien que cette étiquette est pour le moins abusive, et pourrait tromper des clients, y compris ceux qui ne croient pas aux vertus de l’homéopathie .

- mais c’est un vrai vaccin, et ça marche , me répond-il.

  • ça marche, vous voulez dire que des expériences dûment menées ont prouvé que les patients ingérant les granules développent des anticorps spécifiques, et qu’ils sont immunisés contre la grippe, comme avec un vaccin « classique » ?

Mais notre apothicaire ne raisonne pas en termes de médecine fondée sur les preuves, son critère d’efficacité, c’est le chiffre d’affaires du rayon poudres de Pelimpinpin :

  • Ca marche, la preuve c’est qu’on en vend plus de 500 boites chaque année.

Si c’est pas une preuve, ça ! Entendant cela, je me suis demandé si notre apothicaire avait lui-même signé la pétition contre un hypothétique projet de loi pouvant remettre en cause le monopole des « pharmaciens d’officine »(2).Dans la présentation de cette pétition, on apprend donc que » [notre] santé n’est pas un commerce ! ».

Des clients attendaient derrière moi, et il était visiblement inutile de prolonger la discussion. J’ai pris mon sachet de médicaments méchamment « allopathiques » (3) , et j’ai pris poliment congé.

Dix plus tard, je suis repassé à la pharmacie pour renouveler une ordonnance. J’ai constaté que le présentoir d’Influenzinum était toujours là , mais que l’étiquette mentionnant « vaccin antigrippal » avait disparu. Il est peu probable que le pharmacien se soit rendu à mon avis sur l’homéopathie, mais il aura au moins compris qu’on ne pouvait pas jouer sur les deux registres à la fois, celui de la prétendue alternative à la vaccination, et celui qui consiste à présenter la prétendue alternative comme la vaccination elle-même, ce dernier étant encore plus trompeur que le premier..

C’est certes une toute petite victoire, mais ne boudons pas notre plaisir.

Anton Suwalki

  1. http://www.homéopathie.com/traitements/influenzinum.html
  2. http://www.pharmasite.fr/actualites/monopole-menace-l-uspo-lance-une-petition.html

(3) c’est-à-dire des vrais médicaments, l’allopathie étant une notion inventée par les homéopathes pour l’opposer à leur principe fantaisiste de similitude

L’un des arguments majeurs de la théorie des chemtrails repose sur la présence de filaments tombant du ciel. De très fins fils de la grosseur d’un fil d’araignée peuvent être en effet observés en suspension dans l’air ou directement sur les plantes à certains moments de l’année. Il n’en fallait pas plus pour blâmer les chemtrails.

Mais plutôt que de créer une nouvelle fois un lien de causalité entre épandage non prouvé et filaments bien visibles (permettant ainsi de prouver le premier grâce à l’existence du second), penchons-nous plutôt sur des explications bien plus pertinentes permettant de justifier l’existence de ces fils. Avant toute chose, il faut préciser que ces filaments peuvent avoir des origines multiples et qu’il n’existe pas un filament mais des filaments :

- La première explication nous vient d’un phénomène tout à fait naturel puisqu’il s’agit d’araignées qui sécrètent de légers fils qui vont être balayés par le vent. En s’accrochant à ces fils, elles vont pouvoir parcourir plus ou moins de longues distances. Selon les régions, le phénomène peut être assez spectaculaire et recouvrir entièrement de larges zones comme le montre ces images :

Cliquer ici pour voir la vidéo.

L’action de ces araignées est décrit par futura-science ici. Les filaments peuvent en outre se tasser et former des paquets plus épais et donc plus visibles. Le phénomène en France semble avoir lieu principalement en automne. Cela n’a pourtant rien de nouveau, il y a bien des années déjà, on appelait ces filaments des cheveux d’ange, on pensait que c’était la vierge Marie qui faisait tomber des cheveux du ciel.

- Dans un second temps, ces filaments peuvent être le résultat des rejets d’usines. En évacuant par exemple dans les airs de la fumée suite à la combustion de multiples produits, de fines particules peuvent s’envoler, parfois sur de longues distances. Cela contribue notamment à former de la poussière sédimentable. Cette poussière est également formée par l’érosion du sol, de la flore (pollen…), de feux de forêt etc.

- Bien que les chemtrails soient une justification inutile au vu des autres raisons expliquant l’existence de ces filaments, les avions ne sont pas forcément étrangers pour comprendre la création de ces fils. En effet, les réacteurs peuvent participer à un phénomène de polymérisation connu et utilisé par exemple pour créer du polystyrène ou du polyéthylène. Les hydrocarbures utilisés pour faire fonctionner les réacteurs des avions sont largement présents dans les processus de polymérisations. On comprend alors que de fins filaments peuvent au final être le résultat de l’utilisation normale du transport aérien alimenté grâce au carburant. On en parlait en outre déjà ici avec le rapport Analytika qui évoque ce phénomène de polymérisation.

Alors même qu’aucune analyse n’a pu lier ces filaments avec un éventuel épandage massif (et que les rapports Analytika vont au contraire dans le sens inverse de la théorie des chemtrails bien qu’ils soient utilisés par les partisans de cette thèse), il existe suffisamment d’explications pour justifier l’existence de ces filaments sans avoir besoin de recourir à une théorie de complot mondial.

Pharmachien Denis Levesque_thumb

J’ai eu la chance d’avoir une entrevue très cool avec Denis Lévesque pour le lancement de mon livre! Tant qu’à être là, j’en ai profité pour faire des blagues d’homéopathie et de Reiki…

Mon passage à l’émission sera diffusé le vendredi 31 octobre à 22h30 à TVA.

Merci beaucoup à toute l’équipe de l’émission qui a pensé à m’inviter; c’est super apprécié !

Au cours des deux dernière semaines, j’ai accordé tellement d’entrevues au sujet du livre du Pharmachien que je ne pourrais pas en nommer spontanément la moitié ! Mon cerveau est en compote… beau feeling.

En voici trois que tu peux écouter en ligne :

Ça commence bien (V Télé)

Pharmachien_VTele_livre

RDI Matin Week-End

Pharmachien_RDI_livre_thumb

Salut Bonjour (TVA)

Pharmachien_Salut_Bonjour_livre

… et ça continue ! La prochaine est mon passage à l’émission de Denis Lévesque à TVA.

Je veux vraiment remercier toutes les émission de télé et de radio, de même qu’à tous les magazines et journaux, qui me supportent en m’invitant pour discuter du Pharmachien. C’est INCROYABLMENT apprécié !

Mon premier livre fait jaser !!!

Il occupe présentement la place # 3 sur le palmarès Archambault et la place # 4 sur le palmarès Renaud-Bray :

2014.10.28 Pharmachien palmares Renaud-Bray et Archambault (600)

 

Il a également reçu le Coup de coeur Renaud-Bray :

coup de coeur RB - PHARMACHIEN (600)

Et les critiques dans les médias sont hyper positives à ce jour ! Plusieurs de ces dernières apparaissent dans la section Médias et j’en ai ajouté quelques extraits sur le mini-site du livre.

Inutile de dire que je capote pas mal… Je tiens à dire un ÉNORME MERCI à tous ceux et celles qui se sont procuré une copie et qui en parlent dans leur entourage !

À suivre !

C’est toujours drôle de voir un bon FAIL, surtout quand ça implique un debunking de la pensée magique. Dans le domaine des arts martiaux, cependant, la pensée magique peut se révéler dangereuse car elle peut vous mettre en situation de totale invulnérabilité alors que vous vous sentiez en confiance. Voici un article écrit par Jeff … … Lire la suite

show enclosure

()

Les chemtrails ont au moins un intérêt, ils permettent de justifier de nombreuses choses. Il y a quelques mois a émergé sur internet une analyse indiquant que le taux d’aluminium dans l’eau de pluie avait augmenté de 800%. Evidemment, annoncé de cette manière, cela a de quoi faire peur, toutefois, en y regardant de plus près, on se rend compte comme toujours qu’il y a exagération et manipulation de l’information.

Le rapport est visible ici. Trois analyses ont été faites, les échantillons sont datés respectivement de décembre 2012, juillet 2013 et avril 2014. On note avant toute chose que les trois rapports ont été numérisés n’importe comment et ne permettent pas de voir l’intégralité du document, notamment sur le bord droit de chaque feuille. En outre, nous ignorons totalement comment ont été faits les prélèvements d’eau et à quel endroit. Depuis combien de temps l’eau était présente avant d’être envoyée pour analyse , comment a-t-elle été prélevée et dans quoi reposait-elle ? Impossible de savoir. C’est pourtant des prérequis primordiaux pour donner de l’importance aux résultats.

Au-delà de la rigueur scientifique dont on ignore si elle a été respectée, il aurait fallu avoir davantage d’analyses avec des périodes plus courtes entre chaque prélèvement pour savoir si l’augmentation est véritable ou s’il s’agit de variations en dents de scie. Le lieu de prélèvement est également crucial. Qu’appelle-t-on de l’eau de pluie ? Est-ce de l’eau trouvé dans la nature ? De l’eau d’un ruisseau ? Selon les cas, il est possible qu’il y ait eu contamination, par exemple avec une usine récemment installée à proximité.

Au final, ces analyses sont-elles préoccupantes ? En sachant que l’évolution de l’aluminium est passée de 10 microgrammes par litre à 88 microgrammes par litre et que la limite pour l’eau du robinet est de 200 microgrammes par litre, il y a encore une belle marge à combler avant d’avoir un problème sanitaire.

Et le rapport avec les chemtrails dans tout ça ? Eh bien, il n’y en a tout simplement pas. Au sein du cercle de la théorie des chemtrails règne parfois une grande confusion dans les arguments et sources proposées. Ce rapport fait parti des nombreuses sources avancées pour donner le sentiment que nous vivons dans un monde pollué à outrance et entretenir une certaine confusion entre épandage massif et pollution généralisée. Les chemtrails seraient soi-disant composés en grande partie d’aluminium, précisément ce que l’on retrouve ici. Il n’en faut pas plus pour attribuer cette augmentation hypothétique d’aluminium dans l’eau de pluie aux chemtrails et donc faussement prouver leur existence. Mais si l’on reste précis dans les énoncés en se demandant quel lien de causalité il y a entre l’aluminium de l’eau et les chemtrails, force est de constater qu’il n’y en a aucun. La pollution éventuelle de l’eau peut être justifiée par de nombreuses autres causes, pourquoi venir utiliser les chemtrails alors que leur existence n’est pas prouvée et que la composition des produits chimiques supposément répandus dans le ciel ne sont mêmes pas connus.

En discutant avec des personnes soutenant la théorie des chemtrails, il est possible qu’on vous propose de voir l’un des deux rapports d’analyse effectués par le laboratoire Analytika portant sur des filaments aéroportés, présentés comme étant le résultat des chemtrails. Ces rapports ont l’apparence de la science et de la rigueur, ils sont donc très utiles pour donner une légitimité et un sérieux à l’idée d’un épandage aérien. Pourtant, la science a ses règles et il ne suffit pas de proposer un simple rapport pour que ce dernier soit pertinent. Vous pouvez consulter le second rapport ici. Je ne mets que le second rapport car il est globalement identique au premier.

Outre l’absence d’indications précises sur l’obtention des échantillons de filaments (on sait qu’ils ont été réalisés sous contrôle huissier mais cela n’indique pas précisément où ils ont été récupérés, comment, ni combien de temps après être tombés du ciel), les analyses nécessiteraient d’être reproduites par d’autres laboratoires pour être pleinement significatives.

Toutefois, la conclusion du laboratoire va ironiquement à l’encontre de la théorie défendue par ceux qui utilisent ces rapports. On peut en effet lire dès la première page : « Pour extrêmement complexe que soient les résultats observés, la composition des produits de décomposition thermique directe des « filaments aéroportés » étudiés permet de présumer du fait qu’ils résultent d’un processus de polymérisation -dans l’air raréfié en altitude- des effluents de combustion de réacteurs d’aviation. En effet, parmi les nombreux produits dont le détail est révélé par notre étude, se retrouvent systématiquement un grand nombre de composants chimiques organiques, naturels et synthétiques (en particulier acides gras à longue chaîne et phthalates) susceptibles d’entrer dans la composition des carburants et lubrifiants de ce type de moteurs thermiques à réaction. »

En d’autres termes, les filaments qui sont présentés comme des preuves d’un épandage aérien de produits chimiques ne sont que le résultat de la polymérisation du carburant sortant des réacteurs des avions. Le laboratoire lui-même met en avant la nécessité de surveiller les rejets des réacteurs en fonction du carburant utilisé mais il n’est en aucun cas question d’épandage d’un quelconque produit chimique spécifique, sans quoi le laboratoire l’aurait évidemment vu et indiqué dans son rapport.

Pas le temps de résumer une étude récente cette semaine parce que trop de conférences à préparer ou à donner. Donc je vais plutôt vous parler de… ces conférences à préparer ou à donner !

À commencer par celle de cet après-midi au Collège Ahuntsic dans le cadre de la semaine de la philosophie organisée par cet établissement (voir la belle programmation du premier lien ci-bas). J’y causerai entre autres modèles, hypothèses et théories scientifiques en rappelant le caractère en mouvement de l’aventure scientifique. Sur ce point justement, on a récemment attiré mon attention sur deux ouvrages qui traitent de ces remises en question des paradigmes dominants en science : « Critical Neuroscience: A Handbook of the Social and Cultural Contexts of Neuroscience », édité par Suparna Choudhury et Jan Slaby; et « Neuro: The New Brain Sciences and the Management of the Mind », de Nikolas Rose et Joelle M. Abi-Rached (2e et 3e lien ci-bas).

Mardi je serai à Sherbrooke pour donner une « École des profs » d’une journée organisée par les professeurs du département de biologie de ce cégep. Amorcée en juin dernier au cégep Garneau à Québec lors d’une série de 5 cours de 3 heures, ces cours intensifs de perfectionnement en neurosciences cognitives sont offerts en différents formats pour les professeurs de cégep qui veulent se mettre à jour et discuter des recherches contemporaines en neuroscience, chose que leur emploi du temps chargé ne leur permet pas toujours de faire aisément. Actualité scientifique que l’écriture du billet hebdomadaire de ce blogue depuis maintenant 3 ans m’aide à suivre peut-être d’un peu plus près. Mais suite à l’expérience du cégep Garneau, c’est vraiment le partage des connaissances qui rend cette expérience des plus enrichissantes, autant pour moi que pour les participant.es.

Je poursuis également à chaque jeudi matin mes cours à l’Université du troisième âge à St-Jean-sur-Richelieu, autre expérience très stimulante dont vous pouvez consulter le contenu des chaque présentation au bas de la page de l’École des profs.

Enfin, je crois que si vous êtes prof de cégep, vous êtes ces jours-ci en train de choisir quels cours vous donnerez à la session d’hiver. Vous pouvez donc dès maintenant aller consulter la page des nombreuses présentations que je peux aller faire dans votre institution et voir si l’une d’entre elles ne complèterait pas par hasard le contenu de l’un de vos cours. N’hésitez pas alors à me contacter !

i_lien Semaine de la philosophie – Collège Ahuntsic
a_lien Critical Neuroscience: A Handbook of the Social and Cultural Contexts of Neuroscience
a_lien Neuro: The New Brain Sciences and the Management of the Mind

Tabac : les diverses mesures Dans le SPS n° 307, de janvier 2014, nous publiions p. 91 des extraits d'une lettre du Professeur Martinet, Président du comité national contre le tabagisme, qui soulignait la ratification de la Convention Cadre de l'Organisation Mondiale de la Santé pour la Lutte Anti-Tabac (CCLAT), premier traité international de santé publique et d'ailleurs seul traité de santé publique à ce jour. Gilbert Lagrue, apporte des compléments. Yves Martinet est un acteur très actif dans la (...) Dialogue avec nos lecteurs

Selon la théorie des chemtrails, ces derniers n’existent que depuis quelques années, vingt ans tout au plus. Or, de nombreuses sources permettent d’invalider cette vision des choses qui relève plus du biais de confirmation que d’une vision objective de la situation. Certaines photos permettent de trouver trace des trainées persistantes dès la Seconde Guerre mondiale et durant les 70 ans qui nous en séparent.

Des exemples peuvent être trouvés ici avec des photos multiples, là au travers des photos du magazine Life, de nombreuses photos de trainées persistantes durant la Seconde Guerre mondiale sont visibles ici, d’autres exemples peuvent être trouvés ici.

La vidéo ci-dessous montre également plusieurs ouvrages remontant parfois 70 ans en arrière illustrant leurs propos par des images montrant des trainées persistantes :

Cliquer ici pour voir la vidéo.

Que signifie donc le fait qu’il y ait des trainées persistantes depuis plusieurs décennies ? Cela indique que du point de vue de la théorie des chemtrails, leur mise en place n’est en rien récente et que le but supposé (l’empoisonnement de la population mondiale ?) est un parfait échec. Si 70 ans d’épandages n’a donné absolument aucun résultat (quelqu’un a-t-il recensé une épidémie quelconque ?), combien de temps et de tonnes de produits chimiques seront encore nécessaires pour parvenir à leurs fins. Commencer à assassiner la population mondiale individu par individu à coups de petite cuillère serait plus efficace.

L’une des incompréhensions majeures qui fonde la théorie des chemtrails est la différence visible entre les différentes trainées blanches visibles dans le ciel. Parfois, les avions ne font aucune trainée, d’autres fois, ils en font de très courtes qui se dissipent en quelques secondes, d’autres restent plusieurs minutes et certaines plusieurs heures ou jours. Comment expliquer ces différences ?

On explique la formation de contrails par le dégagement par les réacteurs de fines particules d’eau et d’aérosols forment les gaz d’échappement. Ils sont à ce moment très chauds mais rentrent en contact avec un air froid voire très froid. Ces particules restent à l’état liquide ou gèlent tout en restant en suspension dans le ciel, exactement comme les nuages. Ces trainées peuvent d’ailleurs se transformer en cirrus, des nuages composés de cristaux de glace.

Mais cela n’explique toujours pas pourquoi il y a une différence de durée entre différentes trainées. En réalité, la persistance des traits blancs est tout à fait variable. La théorie des chemtrails les divise en deux groupes : ceux qui disparaissent quasiment immédiatement et ceux qui restent au moins plusieurs dizaines de minutes. Pourtant, toutes les durées de persistance existent et une division si simple et arbitraire n’est pas le reflet de la vérité. Dans quelle catégorie doit être placé une trainée durant cinq à dix minutes ?

La persistance des trainées peut varier simplement à cause des conditions de l’environnement dans lequel elles sont produites. Les avions qui produisent de longues trainées sont à une altitude assez haute pour traverser de l’air avoisinant les -40°C, avec une forte humidité et généralement avec un vent assez faible permettant une faible dissipation des trainées. Ce phénomène peut être mieux appréhendé en voyant cette vidéo où l’on voit la congélation instantanée d’une eau bouillante au contact de l’air se trouvant être à environ -40 °C. Les trainées les plus courtes peuvent à l’inverse disparaitre notamment car la chaleur de l’air ambiant fait fondre ou évaporer les cristaux de glace et gouttes sortant des réacteurs de l’avion. L’air étant plus ou moins chaude en fonction de l’altitude de l’avion. La composition du carburant ou l’épandage d’un produit chimique particulier ne sont pas utiles pour expliquer la formation ou non de trainées de condensation comme on peut le comprendre si l’on connait le principe du rasoir d’Ockham.

En outre, certains avions volant en même temps dans le ciel peuvent avoir des trainées différentes, l’une ayant une persistance que l’autre n’a pas. Cela s’explique là encore par la différence d’altitude entre les deux avions voire par d’autres facteurs comme une différence des courants d’air mais certainement pas parce que l’un diffuse des produits chimiques alors que l’autre non.

L’ancienne commerçante de Frontenay-Rohan-Rohan a été également condamnée à de la prison avec sursis.
Une ancienne commerçante de Frontenay-Rohan-Rohan, également magnétiseuse, a été condamnée par la cour d'appel de Poitiers à 6 mois de prison avec sursis et à rembourser 30.000 € à une de ses clientes. Elle avait été relaxée en première instance au printemps dernier.
C'est une banque qui avait saisi le parquet, estimant que les retraits par carte bancaire ou encore les chèques signés par une de ses clientes, une femme âgée de 77 ans, avec l'aide de son « amie », pouvaient laisser planer le doute sur leur destination finale.
 Pour Me Barillot, avocate de la victime également propriétaire des murs dans lesquels la commerçante magnétiseuse exerçait, il ne pouvait y avoir de doute : sa cliente avait été sous son emprise. Il s'agissait bel et bien d'escroquerie et d'abus de faiblesse. Pour elle, le préjudice s'élevait à 40.000 €. Le fait de facturer 300 € une consultation était répréhensible. Sa cliente avait été également isolée de son milieu familial, en particulier de ses filles.
Après le jugement initial, le parquet et la partie civile avaient fait appel de la décision. L'affaire était à nouveau plaidée le 11 septembre à Poitiers. Dans son arrêt du 16 octobre, la chambre des appels correctionnels a requalifié les faits en abus frauduleux de l'état d'ignorance ou de faiblesse et condamné la magnétiseuse à 6 mois de prison avec sursis. Elle doit également verser 30.000"€ à sa victime au titre de réparation de son préjudice.
P.E.

Source : La Nouvelle République, 24 octobre 2014,
http://www.lanouvellerepublique.fr/Deux-Sevres/Actualite/Faits-divers-justice/n/Contenus/Articles/2014/10/24/La-magnetiseuse-doit-rembourse
r-30.000-2092535
D'ici la fin de l'année, onze médecins et quinze infirmières seront formés à l'hypnose au centre hospitalier de Vannes.
À l'hôpital de Vannes, les médecins anesthésistes ne jouent pas les illusionnistes ! Et pourtant, ils se servent bien de l'hypnose comme d'une alternative à l'anesthésie conventionnelle.
« On ne peut pas l'utiliser pour toutes les interventions, prévient Christophe Soltner, chef du service d'anesthésie. Mais on observe que les patients y sont de plus en plus sensibles. »
26 personnels soignants formés
Elle ne concerne pour l'heure qu'une intervention par semaine en ambulatoire. Mais dans les prochains mois, le nombre de patients qui pourront en bénéficier devrait progresser. L'hôpital a en effet décidé d'investir lourdement dans la formation du personnel soignant. « D'ici la fin de l'année, on passera de quatre médecins anesthésistes formés à onze et d'une infirmière à quinze », annonce Fabienne Ory Balluais, directrice adjointe.
Le principe ? « Focaliser la conscience sur autre chose que ce que l'on va soigner », résume le médecin. La technique ne s'adresse toutefois pas à tous les patients. « Il faut y adhérer ! C'est un principe de base pour que ça marche. Mais ça n'est pas parce qu'on a recours à l'hypnose qu'on n'injecte pas d'antidouleur au patient. »
L'avantage ? Un réveil facile dès que l'intervention est terminée. Mais aussi une alternative qui convient parfaitement aux patients dont l'état de santé rend difficile une anesthésie générale.
Source : Ouest-France, 23 octobre2014,
http://www.vannes.maville.com/actu/actudet_-sante-a-vannes-l-hopital-mise-sur-l-anesthesie-par-l-hypnose_loc-2644304_actu.Htm

Source : extrait du site de l’Institut Emergences, Rennes, 26 octobre 2014, http://www.hypnoses.com/2e-article-lhypnose-au-ch-vannes/

Note du CIPPAD : L’intérêt de la pratique de l’hypnose en chirurgie reste sujet à controverse. Une méta-analyse récente incluant 2597 patients, menée par une équipe internationale et intituléeEfficacy of hypnosis in adults undergoing surgery or medical procedures: a meta-analysis of randomized controlled trials.“, conclut que la validité des résultats obtenus est peu fiable, et à la nécessité de réaliser des travaux d’une meilleure qualité afin de déterminer si l’hypnose présente un intérêt en chirurgie. Ce type de conclusions est courant pour des domaines ayant connu des développements importants sans être vraiment étayés scientifiquement ; ceci est d’autant plus gênant que la « méthode » est ancienne. 

Notons d’ailleurs qu’une des personnes interviewées dans l'article précise « Il faut y adhérer ! C'est un principe de base pour que ça marche », ce qui nous rapproche des effets placebo.

Il est donc surprenant de voir, dans un contexte financier difficile, des hôpitaux publics consacrer d’importants budgets à une technique non-validée scientifiquement.

Qui plus est, les CHUs d’Angers et Brest, de même que  les hôpitaux d’Alençon, Cholet, Fontainebleau, Lannion, La Rochelle, Saint-Brieuc, Valenciennes ou Vannes font pour cela appel à la société de formation rennaise Emergences. Société dont le dirigeant affiche dans le cadre de son activité professionnelle des croyances New Age, certaines sont farfelues, voire dangereuse s’agissant de la Psychobiologie de la guérison. 

La remise en cause de Descartes par ce même dirigeant, au profit de l’auto-guérison, est-elle réellement compatible avec la médecine développée dans les hôpitaux publics ?

Sur le même sujet :

 

Le terme « chemtrails » renvoie directement aux trainées blanches visibles dans le ciel suite au passage d’un avion. Ces trainées seraient constituées de produits chimiques volontairement ajoutés dans l’avion ou son carburant afin de créer un épandage aérien. Les chemtrails sont différents des contrails, ces derniers sont également des trainées blanches visibles derrière les avions mais non persistantes, ils disparaitraient en effet en quelques secondes alors que les chemtrails persisteraient durant plusieurs heures à cause des produits chimiques dont ils sont composés. Chemtrails est la contraction de l’anglais chemical trails alors que Contrails est la contraction de condensation trails.

De manière plus large, les chemtrails renvoient à la théorie d’un épandage massif réalisé par des avions civiles et/ou militaires dans un but indéterminé réalisé par des individus non précisément identifiés. Les moyens et la finalité de ces épandages de produits chimiques ne sont pas clairement explicités par les personnes supportant cette théorie et peut grandement varier d’une personne à l’autre.

Quelles sont les conséquences de la théorie des chemtrails ?

Si un épandage aérien mondial a lieu, cela devrait entrainer un ensemble de prérequis qui n’est que rarement pris en compte par les partisans de la théorie des chemtrails. Epandre par avions des produits chimiques nécessite d’avoir à disposition :
- Des avions aménagés ou conçus pour recevoir des produits chimiques en plus ou moins grande quantités (quantités jamais indiquées par la théorie des chemtrails)
- Du personnel, au mieux formé pour manier les produits chimiques et, au minimum, informé de ce qu’ils font. Ce personnel étant présent dans plus ou moins tous les aéroports du monde, cela représentant potentiellement des dizaines de milliers de personnes sur plusieurs années. Cela ne devrait pas être difficile d’en trouver. Et il n’est même pas question de parler du personnel indirectement concerné comme les pilotes qui sont censés gérer un véhicule sans savoir ce qu’il contient.
- Des lieux de création et de sockage des produits chimiques. Où sont les usines ? Où sont stockés les produits chimiques au sein des aéroports en gardant à l’esprit qu’ils sont utilisés pour quasiment tous les avions donc ne peuvent pas être cachés ?
- Des gouvernements complices. Il est évident qu’avec un épandage massif et mondial supposé, les gouvernements doivent être complices. Dans le cas inverse, seul un gouvernement stupide pourrait laisser des individus au sein de son propre pays empoisonner d’autres êtres humains.

Au travers de ce site, nous allons voir en quoi les arguments et preuves des personnes soutenant la théorie des chemtrails sont faux, erronés ou résultent d’une mauvaise interprétation ou compréhension de ce qu’ils avancent. La liste peut parfois être longue mais il m’a semblé important de centraliser et de décortiquer ce qui est régulièrement présenté comme des preuves irréfutables.

Marsh c. Baxter, Cour suprême de l'Australie occidentale... « Help this farmer stop Monsanto's GM canola » (aidez cet agriculteur à stopper le canola GM de Monsanto)... Cela a fait les choux gras de la galaxie anti-ogm et « bio » pendant des mois, surtout dans la médiasphère anglophone. En France, nous avons eu droit à un article de Mme Sophie Chapelle dans Bastamag, repris par Combat Monsanto, fin janvier 2014. M. Suwalki nous en a brièvement entretenu sur ce site avec « OGM : La guerre des campagnes relancée par un agriculteur bio australien » [1]. La guerre ? Dans le prétoire, dans une affaire introduite dans le cadre de la common law (le droit coutumier).

Le bruit médiatique s'était amplifié à partir du 10 février 2014, pendant les séances de la Cour suprême de l'Australie occidentale (à juge unique, toutefois) et à l'approche du prononcé du jugement. Technique connue : lorsque le résultat est incertain, il faut exploiter l'actualité en devenir, comme occasion d'instiller le doute et la peur avant qu'elle ne s'évapore sous la chaleur de l'analyse rationnelle ; le doute et la peur se déposeront en sédiment. Le verdict est tombé le 28 mai 2014 [2]... et l'agitation médiatique aussi...

Rappel des faits

Le 25 janvier 2010, le gouvernement de l'Australie occidentale a autorisé la culture du canola (colza) transgénique tolérant le glyphosate. M. Michael Baxter, en a semé 85 hectares, sur sa ferme de 1175 hectares, à Kojonup (l'endroit est devenu mondialement connu...) à petite distance de la ferme de M. Stephen Marsh, qui exploite 480 hectares en agriculture biologique et produit essentiellement du blé et de l'avoine, ainsi que des moutons. Les deux fermes ne sont pas contiguës, mais séparées par une route bordée de deux haies d'arbres, avec une emprise totale de 20,9 mètres. M. Baxter a respecté les règles et a notamment informé ses voisins, y compris M. Marsh.

Pour la récolte, M. Ba xter a andainé son canola RR ; il l'a fait couper assez haut pour le laisser mûrir, en andains, sur les éteules. À la suite d'un coup de vent (est-il allégué, sans que ce soit contesté), fin novembre 2010, des brins – des paquets (« swathes* ») – de canola se sont retrouvés sur les terres de M. Marsh, jusqu'à 1,2 kilomètre à l'intérieur de celles-ci. M. Marsh a bien pris soin de les laisser en place, de les photographier, de les piqueter, de les repérer par GPS, et même de les enclore. Il a informé son organisme de certification, la National Association for Sustainable Agriculture Australia (NASAA) de cette présence inopinée, et celui-ci a décertifié, quasiment dans la foulée, le 29 décembre 2010, une grande partie de l'exploitation de M. Marsh.

Et c'est avec une gourmandise certaine et une remarquable précipitation que la NASAA a annoncé, le 3 janvier 2011, la décertification [3].

M. Marsh n'a pas protesté ni fait usage des moyens à sa disposition pour contester les décisions, ni, par la suite, fait preuve de diligence pour récupérer sa certification.

Tolérance zéro, fruit de l'intolérance

La NASAA applique une tolérance zéro s'agissant des OGM [4]. C'est le fruit d'un positionnement idéologique et politique, privé de toute base rationnelle scientifique, et même économique (même si elle prétend répondre à la demande de la clientèle, demande qu'elle et d'autres contribuent grandement à forger). Qu'on en juge !

Les « opérateurs » doivent notamment s'informer sur les risques de contamination (nous ne mettrons pas de guillemets ici) ; maintenir des distances d'isolement et mettre en place des zones tampons ; garder des échantillons ; tester les récoltes perçues comme étant à risque. Le délai de conversion, s'agissant des OGM, est de... cinq ans. La certification est retirée lorsque la NASAA considère qu'il y a un risque inacceptable de contamination par des OGM ou leurs dérivés [5]. Une surface certifiée « bio » est perçue comme étant à risque dès lors que des OGM sont cultivés dans un rayon de... dix kilomètres ; les « opérateurs » doivent informer la NASAA des cultures GM dont ils ont connaissance. La contamination de produits biologiques par des OGM par suite de circonstances indépendantes de la volonté de l'opérateur peut entraîner une perte de certification. En vertu des Normes nationales, la NASAA décertifie tout produit testé positif pour la présence d'OGM.

Vous avez bien lu : dix kilomètres ! Une exploitation « bio » prétend créer une zone de risque (et d'embrouilles) de plus de 300 km2 pour peu qu'elle puisse reporter les contraintes de sa « pureté génétique » sur les exploitations voisines !

La justice saisie

Reporter les contraintes, c'est ce que M. Marsh a, en partie, tenté.

Il a saisi la justice le... 3 avril 2012 (plus d'un an après les faits), ce qui a été immédiatement annoncé par la NASAA [6]. Notons qu'Inf'OGM a annoncé cette plainte, avec une remarquable prescience, en mai 2011... la gourmandise médiatique et manipulatrice est un péché capital... [7].

Il a essentiellement réclamé 85.000 dollars australiens (environ 61.000 euros) en compensation de sa perte et en dommages-intérêts. En cours de procédure, il avait aussi demandé une injonction permanente interdisant à son voisin du semer du canola GM au voisinage de sa ferme, et d'andainer. Voisinage ? C'était une distance de... 2,5 kilomètres ; elle a été diminuée au fil des débats jusqu'à un kilomètre, puis abandonnée en faveur d'une formule non linéaire... puis... on ne sait plus très bien sans faire de recherches approfondies.

Petite chronique d'un litige annoncé

M. Marsh a-t-il décidé ou a-t-on décidé pour lui ?

M. Marsh s'était érigé en activiste anti-ogm et, avant même que le canola HT ne fût autorisé, il était déjà prêt à en découdre.

En septembre 2010, il avait fait installer des panneaux selon lesquels, notamment, sa ferme faisait l'objet d'une « déclaration de biosécurité », qu'elle était déclarée indemne d'OGM, et que « toute contamination ou déchéance de l'accréditation "indemne d'OGM" par suite d'un accès non autorisé fera l'objet d'une action judiciaire en compensation » [8]. Le texte – en partie loufoque – lui avait été suggéré, a-t-il dit, par son avocat.

Aux alentours du 1er octobre 2010, donc avant le fâcheux coup de vent, M. Marsh a servi une lettre d'avertissement à M. Baxter – un « avis d'intention d'engager des poursuites » –l'informant des pertes financières que M. Marsh pourrait subir si sa ferme était contaminée. Le canola avait été semé depuis un moment...

Le juge a estimé que cette lettre – selon lui très mal rédigée – n'était pas de la main de M. Marsh. « J'attribuerais la remise de ce document rédigé de manière plutôt curieuse le 1er octobre 2010 à l'influence de tiers plutôt qu'à la seule décision de M. Marsh » (paragraphe 416 du jugement).

Le juge a exprimé le même avis au sujet des annonces que M. Marsh avait fait paraître dans la presse locale, en octobre et novembre 2010, annonces comportant aussi des menaces de poursuites judiciaires... Un autre habitant de Kojonup avait fait publier une annonce similaire. Et le juge, pas dupe, de poser : « À l'évidence, le contenu de ces annonces avait été établi par quelqu'un ayant de modestes connaissances juridiques [...]. À nouveau, il semble qu'il y a eu l'action d'une main invisible » (paragraphe 419).

On peut dès lors poursuivre : les faits ont-ils déterminé la cause ou la cause a-t-elle déterminé une partie des faits, lesquels ont toutes les apparences d'avoir été inventés, fabriqués ou arrangés ? L'exposé ci-dessus est le minimum vital pour comprendre l'affaire ; les méandres des faits réservent d'impressionnantes surprises. En fait, il suffit d'un peu de bon sens : quelle énergie déployée pour repérer des brins de canola sur quelque 300 hectares, comme l'a fait M. Marsh !

Mais rassurons le lecteur sceptique : le coup de vent n'est pas contesté...

Désordre local pour une solution globale ?

Toujours est-il que M. Marsh a été soutenu financièrement par la Safe Food Foundation [9], qui a lancé une souscription en sa faveur. Elle a affirmé avoir investi au moins... 750.000 dollars australiens dans l'affaire, voire 100.000 de plus non couverts par les dons à la date du jugement. Dix fois plus, donc, que le prix du préjudice allégué ! Et pourtant, les avocats avaient agi pro bono (gratuitement) [10].

M. Baxter a, quant à lui, été soutenu par une des grandes associations de la profession agricole, la Pastoralists and Graziers Association of Western Australia (PGAofWA) [10].

L'altermonde a vite prétendu que les frais de M. Baxter allaient être payés par Monsanto. C'est ce que prétend en particulier, en février 2011 (selon Google, le billet lui-même n'est pas daté), le site Eatdrinkbetter [11]. C'est la source citée par Inf'OGM [7]... on prend ses désinformations où on peut... Petit rappel : la procédure a été mise en route le 3 avril 2012.

Eatdrinkbetter réussit aussi l'exploit d'inverser les rôles dans le titre de son billet et de présenter la multinationale comme le méchant ogre : « Monsanto Vs Australian Organic Farmer Steve Marsh » (Monsanto c. agriculteur biologique australien Steve Marsh). C'est là, aussi, une caractéristique courante de la rhétorique de l'altermonde dans cette affaire.

Et c'est plutôt extraordinaire. Car, dans le même temps, l'altermonde prétendait aussi que Monsanto était hors d'atteinte. Mme Sophie Chapelle, qui a aussi cherché ses désinformations, écrit ainsi sur Bastamag [12] : « Steve perd son label bio sur 70 % de son exploitation et ne peut pas se retourner contre Monsanto. "La firme se protège en faisant signer un contrat à tous les agriculteurs qui achètent ses semences génétiquement modifiées, explique Rachel Dujardin de Safe Food Foundation. En cas de contamination génétique, la multinationale semencière n’est pas responsable". »

Le raisonnement est à l'évidence débile : c'est comme si les constructeurs automobiles devaient être tenus responsables des accidents de la route...

L'affaire est donc très rapidement devenue le combat du petit David australien – un nouveau Percy Schmeiser en quelque sorte – contre le méchant Goliath. « Help this farmer stop Monsanto's GM canola » (aidez cet agriculteur à stopper le canola GM de Monsanto) est un slogan ubiquitaire, propagé notamment par le Steve Marsh Benefit Fund, un site (prétendument) géré par des agriculteurs biologiques, la NASAA (tiens donc...), le Parti vert australien, le GM Network et un grand nombre de consommateurs australiens [13]. En réalité, le site a été lancé par la Safe Food Foundation, manifestement en cheville avec la NASAA... autre technique de l'altermonde : multiplier les sites web.

L'altermonde a aussi fait campagne en présentant l'affaire Marsh c. Baxter comme un précédent pour les agriculteurs non seulement en Australie, mais dans le monde entier [14]. Mme Chapelle écrit [12] : « Encore un procès qui inquiète les fabricants d’OGM. [...] "Si Steve gagne, cela créera un précédent qui aidera les agriculteurs à travers le monde dans leur bataille pour rester exempts d’OGM", précise Rachel Dujardin. Le procès devrait inévitablement poser la question de la coexistence entre des cultures OGM et non-OGM. »

Et c'est tout aussi débile. Un juge unique d'une juridiction de degré inférieur (même si elle s'appelle Cour suprême) d'un État du Commonwealth d'Australie établirait un précédent pour le monde entier... Quelle audace !

Solution locale pour un désordre national ?

L'enjeu réel de ce procès n'était pas vraiment les dommages-intérêts, somme toute dérisoires, ni même la mesure de contrainte demandée à l'encontre de M. Baxter.

Un verdict en faveur de M. Marsh aurait ouvert la voie à d'innombrables querelles entre agriculteurs voisins, et surtout rendu la culture de plantes GM quasiment impossible dès lors que se trouvait, dans le voisinage, ou à moins de dix kilomètres, un agriculteur se prévalant des règles de la NASAA ou d'organismes similaires. La responsabilité pour la production de denrées strictement sans OGM, bio voire conventionnelles – la garantie d'une « intégrité génétique » auto-imposée – aurait d'une certaine manière incombé, non pas à leur producteur, mais aux voisins. Et ceux-ci se seraient vu imposer une servitude permanente limitant drastiquement leur liberté d'exploiter.

Les amis de M. Marsh, et notamment le Steve Marsh Benefit Fund, ont du reste été particulièrement clairs : « Help this farmer stop Monsanto's GM canola »...

Drôle de « contamination »

L'enjeu du procès se situait aussi au niveau de la « contamination », dont l'acception par M. Marsh et la NASAA aurait pu acquérir un statut juridique opposable aux tiers en cas de victoire de M. Marsh et éventuellement de validation du jugement par les plus hautes instances judiciaires.

Les récoltes de M. Marsh ont-elles été « contaminées » par le canola GM de son voisin ? Non ! Il cultivait du blé et de l'avoine. Tout au plus peut-on considérer que ses moutons ont pu brouter des plantes de canola HT.

Le juge s'est longuement penché sur cette question, notamment sur la base du témoignage d'un expert appelé par la partie plaignante. Il a conclu qu'il ne pouvait y avoir de contamination génétique, puisque M. Marsh ne cultivait pas de canola. Il se trouve par ailleurs que Mme Stéphanie Goldfinch, ancienne responsable de la certification auprès de la NASAA (et auteur principal des décisions de suspension et de décertification) avait informé M. Marsh en août 2010 que « contamination » signifiait « contamination génétique » (paragraphe 434).

Mais, pour M. Marsh, le « problème » était simple : il avait trouvé du matériel GM sur ses terres. Point.

Le juge n'était pas disposé à le suivre, et pour cause, au vu de la déclaration précitée de Mme Goldfinch. Et de « contamination » par les repousses de canola, il n'y en eut point, les quelques repousses ayant été arrachées.

Mais ce qui était vrai en août 2010 ne l'était plus en décembre ! Subitement, une simple présence de canola GM suffisait pour crier au sacrilège ! L'interrogatoire de Mme Goldfinch a été plutôt ubuesque [15]. Elle a dû concéder l'intransigeance à la fin :

Mme Cahill (avocate de M. Baxter) : « Lorsqu'il y a un paquet [« swath »], une tige de plante GM sur une parcelle biologique, vous décertifiez. Est-ce cela la position ? »

Mme Goldfinch : « Une tige de matériel OGM sur une parcelle est une contamination par des OGM et c'est interdit. » [16, page 574]

Et, plus loin :

Mme Cahill : « Pour ce qui est de la contamination des moutons, nous avons établi vendredi que vous considérez que toute graine de canola ou toute plante de canola sur leur corps est une contamination des moutons ? »

Mme Goldfinch : « Oui. » [16, page 585]

Un jugement dévastateur

Un plaignant pas blanc comme neige

Les jugements de la common law sont bien plus détaillés que ceux fondés sur le droit romain (le nôtre). Tous les points abordés par les parties sont examinés et évalués. Dans la présente espèce, la sentence fait donc 150 pages.

M. Marsh en ressort plutôt étrillé. Ce n'est pas l'innocente victime d'agissements sans scrupules d'un voisin négligent – et encore moins, mais cela n'a pas été plaidé, d'une multinationale qui serait le diable personnifié.

Le juge : « Le contre-interrogatoire de M. Marsh a révélé qu'il trouvait parfois opportun d'oublier, ou de ne pas se souvenir, lorsqu'il avait à répondre à une question embarrassante. [...] » (paragraphe 436).

Et encore, un bel euphémisme : « M. Marsh a été confronté à l'affirmation qu'il était opposé aux OGM. Au début, il a nié. J'ai conclu que son démenti initial était timide. Il n'était pas convaincant [...] » (paragraphe 437).

On plus précis : « M. Marsh a aussi fourni des preuves sur sa réaction à la découverte des 245 poignées [« swathes »] de canola qu'il a trouvées sur Eagle Rest. De manière surprenante, il apparaît qu'il a fallu attendre avril 2011 pour que M. Marsh rassemble et enlève les poignéess et leurs siliques. [...] Durant cette période, il apparaît que les 245 poignées se sont vues conférer le statut de vedettes tristement célèbres – encloses puis objets de communiqués de presse et de publicité » (paragraphe 438).

Tout le contraire de M. Baxter : « Il a été, je pense, un témoin franc et fondamentalement digne de confiance » (paragraphe 441).

Les prétentions rejetées

La demande d'indemnisation au titre d'une négligence et d'une violation, par M. Baxter, d'une obligation de ne pas porter préjudice à M. Marsh (« duty of care ») a été rejetée. Selon le jugement, M. Baxter n'a commis aucune faute, et M. Marsh s'est tout simplement trompé de cible.

Ce n'est pas la partie la plus intéressante du jugement dans le cadre de ce billet car elle repose sur les prétentions de M. Marsh et le droit australien. Le juge a noté qu'il a été confronté à une duty of care totalement nouvelle puisqu'il s'agissait « "de garantir" des résultats négatifs absolus » (paragraphe 330). Et : « Selon mon jugement, un niveau absolu de duty of care est bien trop élevé, particulièrement lorsqu'il s'agit d'un scénario impliquant une agriculture à grande échelle, avec des plantes de grande culture, qui est nécessairement exposée à des événements météoroligiques incontrôlés » (paragraphe 333).

M. Baxter ne devait pas seulement s'assurer qu'aucune graine de canola soit porté par le vent, mais aussi transportée d'une autre manière (« blown or carried »). Et le juge de relever que M. Marsh était allé voir M. Baxter en novembre 2008 pour lui dire que douze plantes de colza avaient poussé sur Eagle Rest en 2008, et que M. Marsh avait alors émis l'hypothèse que les graines avaient été transportée par... des lapins (paragraphe 335). M. Marsh avait du reste tenu à informer le Ministre de l'agriculture de la « contamination » (paragraphes 447 et seq.).

Ceci illustre l'absence de scrupules de l'activisme anti-ogm, ainsi que l'absence d'esprit critique – et aussi, de scrupules – de certains médias qui n'avaient pas fait dans la dentelle s'agissant du préjudice prétendument subi par M. Marsh et du comportement attribué à M. Baxter.

Du reste, les activistes ont aussi passé sous silence le fait que les moutons de M. Marsh avaient été décertifiés parce qu'ils avaient été déparasités avec un produit « chimique » interdit en 2009, tout comme deux parcelles et les produits de ces parcelles parce que M. Marsh y avait... fait paître -- « mis en quarantaine » dans le jargon bio à la mode NASAA – ses moutons (paragraphes 94, 530, 554, 698).

Une « réaction totalement disproportionnée » de l'organisme de certification

Le juge pouvait-il analyser les relations contractuelles entre le plaignant, M. Marsh, et son organisme de certification. Pour le plaignant, c'était non (ce qui montre bien qu'il était une marionnette au service d'un litige de plus grande ampleur que son propre préjudice allégué). Pour le défendeur c'était d'autant plus oui qu'il alléguait que le dommage subi par son adversaire était entièrement dû aux décisions de cet organisme. Le juge a penché pour cette théorie et posé avec vigueur :

« Des arrangements contractuels idiosyncrasiques, conclus de manière consensuelle par des parties consentantes, peuvent néanmoins prévoir des dispositions que l'on peut juger d'une manière plus générale comme une situation totalement déraisonnable du point de vue de la communauté » (paragraphe 379).

C'est à l'aune de ce principe que le juge Kenneth Martin a examiné les règles de la NASAA. Mais essentiellement du point de vue – suffisant pour sa décision – de leur application.

S'agissant des faits, M. Marsh a allégué avoir trouvé quelque 245 poignées de canola sur ses terres (soit moins de une par hectare...). Le juge a notamment relevé qu'il n'y avait aucun risque de contamination par fécondation croisée puisque M. Marsh ne cultivait pas de canola. Qu'en 2011, on n'avait trouvé que huit repousses de colza, qui furent arrachées, et qu'on n'en trouva plus ultérieurement. Le juge n'a fait qu'acter les déclarations et les faits ; mais il nous est loisible de conclure de ses constatations qu'il s'agissait vraiment d'une mauvaise querelle.

S'agissant de la décision de la NASAA de décertifier la plus grande partie de la ferme de M. Marsh, le résumé du jugement est lapidaire : « Ce résultat a été le fruit d'une application erronée des Normes pertinentes de la NASAA applicables à l'époque aux opérateurs bio de la NASAA en ce qui concerne les OGM (organismes génétiquement modifiés). »

Et, selon le jugement : « Tout bien considéré, il apparaît qu'il y a eu une réaction totalement disproportionnée du NCO [NASAA Certified Organic Pty Ltd] à cet incident en ce qu'il a procédé à ce qui se présente comme une décertification insoutenable de 70 % de la surface d'Eagle Rest (parcelles 7 à 17) imposée de décembre 2010 à octobre 2013. » (paragraphe 538)

Mais il y a plus.

Une responsable de la certification (et de la décision de décertification) étrillée

Le juge a été impressionné – pas vraiment en bien – par Mme Goldfinch. Il a cru bon de relever que les transcriptions ne rendent pas justice à son expression glaciale envers l'avocat de M. Baxter et le ton hautain de ses réponses à de nombreuses questions. Plus grave : « Ce que le contre-interrogatoire serré a montre de plus significatif, c'est sa position fréquemment proclamée, avec fierté, de "tolérance zéro" des OGM, même des plantes (GM) qui ne contenaient pas de graines » (paragraphe 578).

Et donc : « Ce que je conclus en définitive des réponses de Mme Goldfinch, c'est son incompréhension fondamentale et sa mauvaise application des Normes nationales et de la NASAA contre les Marsh [...] » (paragraphe 580).

Ce sont là de très fortes paroles que le juge a illustrées par référence à un cas hypothétique évoqué lors du contre-interrogatoire : selon Mme Goldfinch, une poignée de canola GM atterissant sur le dos d'un mouton suffisait à contaminer non seulement la laine, mais aussi le mouton lui-même s'il en consommait (paragraphe 581) !

Cela peut paraître anecdotique, mais ce n'est pas le cas : le juge a illustré avec force détails le fondamentalisme de l'opposition aux OGM auquel il a été confronté. Et auquel nous sommes confrontés par médias interposés...

Un voisin hors de cause

S'agissant de la culture : « M. Baxter avait utilisé une méthode de récolte orthodoxe et bien acceptée en andainant son canola RR en 2010. [...] M. Baxter ne peut être tenu pour responsable, en tant qu'agriculteur cultivant des plantes de grande culture, simplement pour avoir cultivé une plante GM légale et choisi une méthode de récolte (andainage) qui était entièrement orthodoxe dans son application » (résumé).

C'est lapidaire et cela ne peut remplacer l'analyse détaillée que le juge a faite de la situation. Le juge a par exemple noté qu'il n'y a eu que trois poignées de canola dans la parcelle 10, et encore n'étaient-elles pas dans le blé. Et, à la fin de 2011, il n'y avait eu que huit repousses, dûment arrachées (paragraphe 736).

Le juge a écarté la responsabilité en fait, même pour l'andainage, dans le contexte du moyen de la négligence : « l'andainage [...] en 2010 [n'est]la cause factuelle de cette perte économique en application d'aucun test de la common law [...] » (paragraphe 743).

Et la responsabilité en droit : « De même, M. Baxter ne pouvait être tenu pour responsable, en droit, des réactions à l'incursion [de poignées de canola sur les terres de M. Marsh] de l'organisme de certification biologique des Marsh, NCO [sous-traitant de la NASAA], qui, en l'occurrence, se sont révélé être une réaction injustifiable à ce qui était arrivé » (résumé).

Et pas d'injonction

M. Marsh ayant succombé au principal (son action en réparation), Son Honneur (eh oui ! On est dans le monde anglo-saxon...) a déduit que la demande d'injonction tendant à imposer à M. Baxter des restrictions sur ses cultures et ses pratiques culturales ne pouvait prospérer. Il a toutefois ajouté qu'elle devait aussi échouer de plein droit.

Le juge a en effet noté que cette demande a beaucoup varié dans le temps, pour devenir in fine une demande d'interdiction d'andainer à proximité de la ferme de M. Marsh, sans précision quant à la distance.

« En l'absence d'éléments de preuve plus convaincants et plus fiables pour justifier une distance linéaire identifiable pour la zone tampon à l'appui d'une contrainte permanente portant sur l'andainage, la demande d'injonction perpétuelle n'était pas admissible, même sous sa forme réduite telle qu'on l'a vue à la fin des débats » (résumé).

Escalade d'engagement...

Les soutiens de M. Marsh se sont fait remarquablement discrets sur l'échec de leur champion, ou plutôt prête-nom. Ainsi le Steve Marsh Benefit Fund annonce très sobrement le 29 mai 2012, lendemain du prononcé, que M. Steve Marsh a perdu [17] ; sans aucun détail, mais avec un renvoi au communiqué de presse de la Safe Food Foundation [18].

Celle-ci maintient sa position, avec un argumentum ad populum extravagant : « La cour a déclaré dans son jugement que la décision de la NASAA [...] de décertifier Steve était erronée. Compte tenu de l'importance de la contamination, nous ne voyons pas comment la NASAA aurait pu prendre une autre décision. Certainement 100 % des consommateurs bio soutiendraient la décision de la NASAA. »

En annonçant qu'elle soutiendrait M. Marsh s'il faisait appel.

Car pour elle, « ceci est un énorme échec pour les agriculteurs bio et non GM et leur choix de rester sans OGM ».

Notre analyse conduit à conclure que l'énorme échec, c'est celui d'une manipulation, de la tentative de reporter les contraintes auto-imposées de la « pureté génétique » du bio fondamentaliste sur les voisins et, au-delà, d'empêcher en pratique la culture de plantes GM.

Quant à la NASAA, elle relève, dans le titre de son communiqué de presse du 29 mai 2014, que la décision de la cour souligne la nécessité d'une réforme. Mais dans quel sens ? À l'évidence dans le sens de son intégrisme : « La NASAA maintient qu'elle a agi de manière responsable en retirant la certification biologique à la ferme de M. Marsh, quand bien même le juge Martin ait trouvé que la décertification était "erronée". » [19]

...et un appel au bon sens...

Le jour du jugement, Australian Organic, groupe leader de l'agriculture biologique, donnait un son de cloche un peu différent. Il notait certes aussi la nécessité d'une réforme de la législation sur les OGM, mais c'est : « pour protéger les intérêts de tous les agriculteurs » [20].

Le point de vue a été développé dans un billet du 6 juin 2014 [21]. Il s'agit d'une navigation entre plusieurs écueils redoutables : notamment ne pas effrayer les consommateurs, et ne pas désespérer les producteurs. Mais la NASAA a été implicitement torpillée. En voici un extrait :

« Les cultures de Michael Baxter étaient différentes de celles de Steve Marsh. Ce n'était pas une situation de même espèce, GM c. bio – ce qui signifie qu'il n'y a pas pu y avoir, ni eu, de contamination de la culture bio, et encore moins du produit de la récolte. Steve Marsh cultive des céréales, alors que son voisin a cultivé du canola GM. Nous pensons que c'est un facteur essentiel dont le juge a tenu compte dans son verdict.

Le battage médiatique et la campagne de peur suggérant que le secteur des grains bio subira les conséquences de ce jugement sont infondés.

Il y a aussi une différence fondamentale entre la gestion des réalités environnementales et du voisinage, et la livraison de produits non GM aux consommateurs.

Australian Organic espère que les leçons de cette affaire permettront aux agriculteurs, qu'ils soient bio, conventionnels ou GM, d'éviter ce qui s'est produit dans ce cas. Il n'y a pas de véritable gagnant dans des affaires comme celle-ci et il est important que notre métier travaille en coopération pour éviter que cette situation se reproduise. »

Quel sort pour la « tolérance zéro » ? « La possibilité d'une présence génétique étrangère dans nos environnements culturaux, similaire aux pesticides non bienvenus, est indésirable, mais c'est une réalité que nous devrons continuer à gérer. »

...et M. Marsh fait appel

Le juge avait averti : « Les Marsh seraient mieux servis s'ils dirigeaient leurs préoccupations vers ce quartier [la NASAA et le NCO] en ce qui concerne la perte économique subie » (paragraphe 739).

M. Marsh a néanmoins fait appel le 18 juin 2014 [22] [23].

Pour la plus grande joie de la Safe Food Foundation : « La SFF espère que la cour d'appel reconnaîtra que Steve avait droit au respect de ses intérêts ("duty of care") et que la NASAA a pris une décision correcte en décertifiant Steve dans le contexte d'un système international bien établi. »

M. Marsh bénéficie aussi du soutien de la NASAA [24]. Évidemment, puisque le jugement l'avait gravement mise en cause... Mais, appels à la coopération de toutes les parties nonobstant, « nous continuerons à maintenir l'approche de la tolérance zéro au GM dans les produits bio tant que les sentiments des producteurs et des consommateurs ne changeront pas. »

Trois juges décideront. Ce sera apparemment sur la base d'une compétence limitée, par exemple les erreurs de fait ou de droit du jugement entrepris, sans que de nouveaux faits puissent être allégués.

En attendant, la guerre des campagnes continue...

Post scriptum : jusqu'à AUS$800.000 de dépens

Par un jugement rendu le 19 septembre 2014 [25] [26], le juge Kenneth Martin a accepté le principe du décompte des frais encourus par M. Michael Baxter pour sa défense. Il a fait droit à la demande des conseils de M. Baxter de dérogation au plafond des dépens. Pour la petite histoire il a trouvé qu'il y avait une erreur dans le total de... 3 cents.

Un greffier devra établir le montant des frais remboursables. La note présentée pour le compte de M. Baxter se monte à AUS$803.989,10. C'est la somme que M. Steve Marsh devra payer si le greffier accepte toutes les factures.

Pour mémoire, le litige portait sur AUS$85.000...

Les conseils de M. Marsh avaient aussi tenté d'obtenir des renseignements des conseils de M. Baxter sur les frais réellement encourus par celui, plus précisément sur les financements par des tiers tels que la Pastoralists and Graziers Association of WA, une compagnie d'assurances et... Monsanto. C'est de bonne guerre. Les conseils de M. Baxter ont répondu poliment : pas d'obligation de répondre. La question a donc été soumise au juge.

Verdict cinglant. Après avoir évoqué une correspondance intéressée entre les conseils, un « méli-mélo de déclarations fondées sur des ouï-dire de sources inconnues assemblées par un chalutage de diverses sources médiatiques », le juge Martin a posé que faire droit à la demande reviendrait à approuver une prospection – une « expédition de pêche » – illicite.

M. Marsh peut demander un sursis en attendant les résultats de son appel. Selon certains journaux celui-ci devrait être entendu l'année prochaine.

Wackes Seppi

__________________

* Swath est intraduisible avec précision. Il s'agit d'un ensemble d'un morceau de l'andain, d'une taille qui ne peut pas être déterminée par le texte, arraché par le vent. Selon certains rapports, lorsqu'il est question de « 245 swathes », il s'agirait de 245 tiges.

[1] http://imposteurs.over-blog.com/article-ogm-la-guerre-des-campagnes-relancee-par-un-agriculteur-bio-australien-122539267.html

[2] Résumé :

http://www.supremecourt.wa.gov.au/_files/Judgment%20Summary%20-%20Marsh%20v%20Baxter%20(CIV%201561%20of%202012)%2028%20May%202014.pdf

Texte complet (150 pages) :

http://decisions.justice.wa.gov.au/Supreme/supdcsn.nsf/PDFJudgments-WebVw/2014WASC0187/$FILE/2014WASC0187.pdf

Transcriptions et vidéos :

http://www.supremecourt.wa.gov.au/T/transcripts.aspx

[3] http://www.nasaa.com.au/data/media/NASAA%20Press%20Release_140F06.pdf

[4] http://www.nasaa.com.au/data/pdfs/AAAA%20NASAA%20Organic%20Standard%2006-02-2012.pdf

[5] Considérant le caractère manifestement hystérique de ces règles, on doit se demander si la présence d'un taureau nourri aux OGM et divagateur est un risque de contamination pour toute génisse bio qui pourrait se faire honorer par lui...

[6] http://www.nasaa.com.au/data/media/MR%20Steve%20Marsh%20sues%20030412.pdf

[7] http://www.infogm.org/AUSTRALIE-Premier-proces-pour-du

[8] M. Marsh a été longuement interrogé sur ces panneaux et leur signification (pages 232 et seq.) :

http://www.supremecourt.wa.gov.au/_files/Marsh%20v%20Baxter%2012%20Feb%202014%20CIV%201561%20of%202012.pdf

[9] http://safefoodfoundation.org/

[10] http://www.abc.net.au/news/2014-02-28/gm-canola-trial-wraps-up-today/5292034

[11] http://eatdrinkbetter.com/2011/02/03/monsanto-vs-australian-organic-farmer-steve-marsh/

[12] http://www.bastamag.net/Mobilisation-la-bataille-d-un

[13] http://stevemarshbenefitfund.com.au/

[14] Par exemple :

http://www.fooddemocracynow.org/blog/2014/feb/8/i_am_steve_marsh

[15] Compte rendu journalistique ici :

http://www.farmonline.com.au/news/agriculture/cropping/general-news/gm-trial-tensions-intensify/2688449.aspx

[16] http://www.supremecourt.wa.gov.au/_files/Marsh%20v%20Baxter%2017%20Feb%202014%20CIV%201561%20of%202012.pdf

[17] http://stevemarshbenefitfund.com.au/?p=838

[18] http://safefoodfoundation.org/2014/05/28/press-release-gm-farmers-win-is-a-loss-for-all-organic-farmers/

[19] http://www.nasaa.com.au/data/media/NASAA_Marsh%20vs%20Baxter_Media%20Release_May2014.pdf

[20] http://austorganic.com/wp-content/uploads/2013/09/28-May-2014-Media-Release-GM-legislation-needs-reviewing.pdf

[21] http://austorganic.com/gm-farming-and-organic-the-facts-post-marsh-v-baxter/

[22] http://stevemarshbenefitfund.com.au/?p=848

[23] http://www.farmonline.com.au/news/agriculture/general/news/marsh-v-baxter-appeal-still-up-in-air/2707482.aspx?storypage=0

[24] http://www.nasaa.com.au/data/media/NASAA_Marsh%20Appeal_Media%20Release_June2014_D1.pdf

[25] http://decisions.justice.wa.gov.au/supreme/supdcsn.nsf/judgment.xsp?documentId=91E3AE81B365BAC448257D58001B4C64&action=openDocument

[26] http://www.queenslandcountrylife.com.au/news/agriculture/cropping/general-news/marsh-to-face-800000-costs-for-gm-test-case/2712854.aspx?storypage=0

in: Actes du 26ème Congrès scientifique international de la Fédération Nationale des Orthophonistes (2014).


En avril 2014 a été publié le livre intitulé « The dyslexia debate », par Julian Elliott et Elena Grigorenko (2014). Cette publication a été précédée et suivie par un certain nombre d’interventions des auteurs dans des conférences sur la dyslexie, ainsi que dans les médias généralistes américains et britanniques, dans le but délibéré de provoquer un débat sur la dyslexie en Grande-Bretagne et aux Etats-Unis. Leur message principal est que le concept de dyslexie développementale n’a aucune validité scientifique, qu’il fait plus de tort que de bien, et que par conséquent il serait préférable de l’éliminer, et de s’intéresser à l’ensemble des enfants présentant des difficultés d’apprentissage de la lecture, quelles que soient les causes et la nature présumées du problème.



Ayant lu le livre et étant déjà intervenu dans ce débat (Ramus, 2014b, 2014c; voir aussi Snowling, in press), je propose dans le présent article d’en faire un compte-rendu, une critique, et d’en tirer quelques enseignements pour la situation française. En effet, bien que je ne partage pas les conclusions du livre, il possède de nombreuses qualités, et passe notamment en revue toute une littérature sur les troubles d’apprentissage de la lecture qui est largement méconnue en France et qui pourtant intéresse au premier chef les professionnels de l’éducation et de la santé.


Commençons par présenter les auteurs. Julian Elliott est psychologue de l’éducation, directeur d’un établissement scolaire, et professeur à la School of Education (l’équivalent d’une ESPE) à l’université de Durham en Grande-Bretagne. Il est l’auteur d’un certain nombre de recherches en psychologie (notamment sur la mémoire de travail chez l’enfant) ainsi qu’en sciences de l’éducation. Elena Grigorenko est une chercheuse à la fois en psychologie et en génétique, professeur à l’université de Yale aux USA et à l’université de Moscou. Elle est l’auteur de travaux très importants sur le développement de l’intelligence, l’apprentissage de la lecture et la dyslexie. La crédibilité académique des deux auteurs, tout comme le contenu de leur discours, les distingue nettement d’autres critiques de la dyslexie qui se caractérisent plus par l’idéologie et l’ignorance des données scientifiques. Ainsi, le député britannique Graham Stringer s’est distingué en déclarant en substance que la dyslexie était une invention de toutes pièces destinée à dédouaner les mauvais enseignants et leurs méthodes de toute responsabilité[i]. Tel n’est absolument pas le message d’Elliott et Grigorenko. De même, ils ne nient nullement l’influence de facteurs cérébraux et génétiques sur les troubles d’apprentissage de la lecture, contrairement à certains auteurs français (Carle, 2002; Fijalkow, 2000, 2001; Inizan, 1998; Jarraud, 2007) avec lesquels j’ai pu débattre dans le passé (Ramus, 2005, 2007). De fait, la majeure partie de leur livre (chapitres 2 à 4) est une revue de la littérature scientifique sur la dyslexie, complète et de bonne qualité, que je ne peux que recommander.


Que reprochent donc Elliott et Grigorenko à la dyslexie ? Leur argumentation se décline ainsi : 1) les définitions de la dyslexie sont multiples, imprécises, et ne permettent pas de délimiter une population bien distincte des autres faibles lecteurs. Approfondissant les différentes dimensions sur lesquelles les personnes dyslexiques devraient théoriquement se distinguer, ils avancent que 2) il n’y a pas de preuve que les individus dyslexiques diffèrent des autres faibles lecteurs sur le plan cognitif ; 3) il n’y a pas de preuve qu’ils diffèrent sur le plan biologique ; 4) il n’y a pas de preuve que des traitements différents soient appropriés pour les individus dyslexiques et pour les autres faibles lecteurs. 5) Considérant que la notion de dyslexie véhicule par ailleurs des idées qui posent plus de problèmes qu’elles n’en résolvent, ils en concluent que l’on ferait mieux de se passer totalement de ce concept, ainsi que de la notion de trouble spécifique de la lecture, et de ne parler que de difficultés de lecture. Examinons chacun de ces points.


I.                  Comment définir la dyslexie ?

Selon la Classification Internationale des Maladies (CIM-10), la dyslexie (sous le nom de « trouble spécifique de la lecture ») est « une altération spécifique et significative de l’acquisition de la lecture, non imputable exclusivement à un âge mental bas, à des troubles de l’acuité visuelle ou à une scolarisation inadéquate ». Le DSM5 de l’Association américaine de psychiatrie, bien qu’il ait récemment regroupé les troubles de la lecture, de l’orthographe et de l’arithmétique dans la catégorie des troubles spécifiques des apprentissages, permet toujours de les distinguer par des labels spécifiques, et insiste tout comme la CIM sur le fait que « les troubles d’apprentissage ne sont pas mieux expliqués par des déficiences intellectuelles, des déficits d’acuité visuelle ou auditive non corrigés, d’autres troubles mentaux ou neurologiques, des désavantages psychosociaux, une maîtrise insuffisante de la langue de scolarisation, ou un enseignement inadéquat ». Pour la plupart des spécialistes du domaine, ces deux définitions capturent correctement ce qui fait l’essence même de la dyslexie, à savoir qu’il s’agit d’un trouble spécifique, c’est-à-dire affectant une ou plusieurs fonctions cognitives particulières (mais pas toutes), et ne pouvant être expliqué en totalité par des facteurs plus généraux. C’est ainsi que la « dyslexie développementale » est synonyme de « trouble spécifique de (l’acquisition de) la lecture ».


Les différents critères d’exclusion des deux classifications paraissent logiques : quel sens pourrait-il y avoir à amalgamer ensemble tous les faibles lecteurs, qu’ils aient un trouble spécifique, une déficience intellectuelle, une hypermétropie non corrigée, ou qu’ils n’aient pas reçu un enseignement de la lecture approprié ? Aussi étonnant que cela puisse paraître, c’est précisément un tel amalgame que défendent Elliott et Grigorenko. Leurs arguments valent la peine d’être examinés avec soin.


II.               Les individus dyslexiques ont-ils des déficits cognitifs caractéristiques ?

Elliott et Grigorenko passent en revue les multiples théories de la dyslexie et concluent qu’il n’y a pas de consensus. Est-ce bien surprenant ? Existe-t-il un seul trouble développemental ou psychiatrique sur lequel il y a un consensus ? Néanmoins l’absence de consensus n’exclut pas des convergences importantes. En effet, E&G reconnaissent l’importance du déficit phonologique dans l’explication de la dyslexie, sans pour autant aller jusqu’à admettre qu’on trouve difficilement des recherches qui ne rapportent pas de déficit phonologique chez au moins une majorité des participants dyslexiques. Plus subtilement, ils argumentent que le déficit phonologique n’est pas caractéristique d’un trouble spécifique de la lecture, puisqu’on le retrouve chez les autres faibles lecteurs, ce qui est exact (Hoskyn & Swanson, 2000). La raison pour laquelle des difficultés dans les tâches phonologiques s’observent dans une certaine mesure chez tous les faibles lecteurs réside dans la relation réciproque entre phonologie et lecture : l’apprentissage de la lecture améliore les compétences phonologiques, ce dont bénéficient moins les lecteurs moins avancés. Néanmoins, en rester à cette constatation reviendrait à considérer que le déficit phonologique n’est qu’une conséquence du retard en lecture, alors qu’il existe maintenant de nombreuses études longitudinales montrant qu’il prédit aussi les difficultés en lecture plusieurs années avant le CP (par exemple: Puolakanaho et al., 2007). Or si un tel lien de causalité s’observe chez les enfants dyslexiques tout comme peut-être chez les enfants avec faible QI, ce n’est sûrement pas le cas chez les enfants qui ont une hypermétropie non corrigée ou chez ceux à qui on n’a pas bien enseigné la lecture. Il est donc évident qu’un déficit phonologique joue un rôle causal dans l’étiologie de certains troubles de lecture, mais pas de tous. Le même raisonnement pourrait s’appliquer à d’éventuels sous-types de dyslexie, par exemple des dyslexies visuelles, qui par hypothèse ne sont pas causées par un déficit phonologique. La seule difficulté est que, même s’il est clair qu’il existe des dyslexies non phonologiques, à l’heure actuelle aucune théorie visuelle ou autre n’a été prouvée de manière suffisamment convaincante pour être largement acceptée (nous y reviendrons). Mais lorsqu’une ou plusieurs d’entre elles le seront (pour la fraction des cas de dyslexie concernés), ce sera un argument de plus à l’appui de l’idée que tous les enfants en difficulté de lecture n’ont pas les mêmes caractéristiques cognitives.


III.           Les individus dyslexiques ont-ils des caractéristiques biologiques spécifiques ?

Les bases cérébrales de la dyslexie sont un sujet encore plus débattu que les bases cognitives, dans la mesure où un certain nombre d’études (dont celles de mon équipe) remettent actuellement en cause certaines données que l’on considérait comme acquises, notamment celles portant sur les différences locales de volume ou d’épaisseur de matière grise (Altarelli et al., 2013; Jednoróg et al., submitted; Zhao, Thiebaut de Schotten, Altarelli, Dubois, & Ramus, submitted). Sans m’y étendre ici, disons simplement qu’il n’y a pas pour autant lieu de mettre toutes les études de neuroanatomie à la poubelle. Certaines différences cérébrales, par exemple l’asymétrie du planum temporale, semblent bel et bien caractériser une certaine proportion d’individus dyslexiques (Altarelli et al., in press; Galaburda, Sherman, Rosen, Aboitiz, & Geschwind, 1985). D’autres marqueurs morphologiques similaires sont en cours d’investigation dans notre équipe. Par rapport à d’autres mesures cérébrales, ils ont l’avantage de refléter des propriétés du cerveau qui sont figées assez tôt dans le développement, en tous cas bien avant l’apprentissage de la lecture. Le direction de la causalité avec la dyslexie est donc plus assurée que dans le cas des volumes de matière grise, et jusqu’à preuve du contraire, de telles caractéristiques cérébrales ne se retrouvent pas chez tous les faibles lecteurs.


Pour ajouter un mot sur les origines génétiques de la dyslexie, disons simplement que si le rôle de facteurs génétiques ne fait pas de doute, la connaissance actuelle que nous en avons reste trop préliminaire pour qu’on puisse l’utiliser dans un sens ou dans l’autre.


IV.            Un même traitement est-il approprié pour tous les faibles lecteurs ?

C’est sans aucun doute à la fois l’argument le plus fort d’Elliott et Grigorenko et celui le plus susceptible de bousculer les convictions des orthophonistes français. Je ne pense pas trop me tromper en disant que, dans l’esprit de la profession, il va de soi que les dyslexiques, les vrais, relèvent de l’orthophonie, alors que les autres faibles lecteurs, soit ont des problèmes différents qui relèvent d’autres professionnels de santé (orthoptiste, neuropsychologue, psychiatre…), soit sont des faux dyslexiques qui ont juste besoin d’un enseignant compétent. C’est pourtant cette idée qu’E&G battent apparemment en brèche, avec des arguments qui, s’ils ne sont pas entièrement concluants, méritent malgré tout largement d’être entendus. Selon E&G, tous les faibles lecteurs ont simplement besoin d’enseignants compétents capables d’enseigner la lecture avec des méthodes efficaces, et d’offrir à ceux qui en ont besoin des interventions pédagogiques fondées sur des preuves.


E&G passent en effet en revue toute la littérature scientifique internationale existante sur les interventions destinées aux enfants en difficultés de lecture. Il existe de nombreux travaux sur le sujet, qui ont été effectués en quasi-totalité aux USA et en Grande-Bretagne, qui sont inspirés des méthodes de la médecine fondée sur des preuves, et dont les résultats intéressants gagneraient à être plus connus en France. Il s’agit typiquement d’études au cours desquelles on administre une intervention pendant une durée donnée (pouvant aller d’un mois à un ou deux ans), avec des mesures des capacités de lecture avant et après l’intervention, et comparaison des progrès de différents groupes d’enfants recevant différents types d’intervention. La principale caractéristique de ces interventions est qu’elles sont de nature pédagogique, et qu’elles sont mises en œuvre par des enseignants formés à cet effet. Un certain nombre de ces interventions ont montré une efficacité très intéressante, même si elles ne sont pas miraculeuses et ne parviennent évidemment pas à rendre tous les enfants bons lecteurs. Les plus connues sont celles de Torgesen (2001; Torgesen et al., 2006), mais il en existe bien d’autres et le chapitre 4 du Dyslexia Debate en offre une bonne synthèse.


La démarche générale qui préside à ces études se décline typiquement en plusieurs stades. Le premier stade (Tier 1) est simplement l’enseignement de la lecture dispensé à tous les enfants, qui doit être fondé sur des preuves, c’est-à-dire sur des méthodes qui ont prouvé leur efficacité. Ainsi qu’on le sait avec certitude depuis les méta-analyses du National Reading Panel (National Institute of Child Health and Human Development, 2000), il s’agit des méthodes phoniques, qui reposent sur l’enseignement systématique de toutes les correspondances graphèmes-phonèmes. Ce n’est évidemment qu’à cette première condition que l’on peut espérer prévenir au maximum les difficultés de lecture. Le deuxième stade (Tier 2) prescrit que les enseignants doivent repérer le plus tôt possible (dès le CP) les enfants en difficulté de lecture, sans diagnostic et sans préjuger d’aucune cause. Autrement dit, on traite de manière indiscriminée les enfants qui deviendront dyslexiques, ceux qui ont un trouble du langage, ceux qui ont un retard passager, ceux qui ont une déficience intellectuelle, ceux qui sont défavorisés d’un point de vue socio-culturel, etc. Quelle qu’en soit la raison, s’ils n’ont pas bien profité de l’enseignement de la lecture en classe entière, on doit leur proposer un autre enseignement de la lecture, plus adapté à leurs besoins. Les interventions qui ont fait la preuve d’une certaine efficacité sont celles qui contiennent les mêmes ingrédients que les méthodes phoniques de lecture (entraînement de la conscience phonologique, enseignement des relations graphèmes-phonèmes, exercices de discrimination, d’analyse et de synthèse), mais qui les mettent en œuvre d’une manière plus intensive, plus explicite, et plus systématique que les méthodes générales de lecture, et ce en petits groupes d’enfants à besoins similaires. Ces interventions permettent à un nombre significatif de ces enfants de rattraper leur retard en lecture et le niveau moyen de la classe[ii]. Reste un petit nombre d’enfants, qui malgré un enseignement général de qualité et une intervention pédagogique ciblée, n’atteignent toujours pas des compétences en lecture suffisantes. Ils entrent alors dans le 3ème stade, sur lequel les avis sont beaucoup plus partagés que sur les deux premiers. Car les enfants entrant dans cette catégorie sont ceux qui résistent au traitement de première intention, et qui sont à grand risque de résister à tous les autres traitements. En cette matière, la plupart des auteurs recommandent simplement de continuer dans le même type d’intervention qu’au stade 2 (« more of the same »), faute de la moindre preuve expérimentale qu’une approche alternative aurait plus d’efficacité. Néanmoins, bien que les preuves manquent, il est logique de penser que c’est au stade 3 qu’il serait légitime d’orienter les enfants vers des professionnels de santé, de faire des bilans (neuropsychologique, orthophonique, et plus généralement médical), permettant d’aboutir dans au moins une partie des cas à un diagnostic. De même, on est en droit de penser que les interventions de stade 3 doivent tirer parti de ces bilans, et doivent par conséquent être plus individualisées que celles de stade 2. Néanmoins, aucune donnée à ce jour ne permet de faire des recommandations claires d’un traitement particulier pour un diagnostic particulier.


C’est en tous cas la conclusion d’Elliott & Grigorenko, et il faut bien avouer qu’il y a dans la littérature peu de raisons de vouloir les contredire. Sur la question des interventions appliquées de manière indiscriminée à tous les types de mauvais lecteurs, certains auteurs ont bien sûr tenté de tester l’hypothèse selon laquelle certaines interventions étaient bénéfiques à certains faibles lecteurs plus qu’à d’autres. En particulier, ils ont examiné si les enfants avec un décalage entre leurs capacités de lecture et leur quotient intellectuel (présumés dyslexiques) bénéficiaient plus des interventions de stade 2 que les enfants avec quotient intellectuel uniformément bas. Les résultats en ont surpris plus d’un, mais sont des plus robustes : le quotient intellectuel ne prédit en aucun cas le bénéfice tiré des interventions pédagogiques courantes (résultat d’une méta-analyse de 22 études: Stuebing, Barth, Molfese, Weiss, & Fletcher, 2011). Ce résultat justifie de ne pas chercher à trier parmi les différents types de faibles lecteurs, tout du moins dans les interventions de stade 2.


Arrivé au stade 3, dans la mesure où les approches pédagogiques ont (relativement) échoué, et où l’on peut disposer de bilans individuels, il paraît plus logique que le traitement doive s’adapter au profil de chaque enfant. Mais il faut admettre que les données allant dans ce sens manquent cruellement. Cela tient sans doute notamment au fait que, dans le monde anglo-saxon qui produit la plupart de ces recherches, la dyslexie n’est pas un problème qui relève de l’orthophonie (speech and language therapy). Les orthophonistes s’occupent des enfants avec troubles de la parole et du langage, mais (dans cette logique) la dyslexie est un problème éducatif qui relève de l’éducation, pas de la santé. Par conséquent, il n’existe pas de remédiation orthophonique destinée aux troubles de la lecture et de l’écriture, qui ait été évaluée dans la littérature scientifique internationale. Et force est de constater que de telles évaluations n’ont pas été conduites en France non plus. A vrai dire, il n’est même pas très clair ce que serait une remédiation orthophonique de la dyslexie (pure, sans comorbidité avec trouble de la parole ou du langage) qui serait très différente des interventions pédagogiques précédemment décrites, qui peuvent être conduites par des enseignants bien formés. Je reste convaincu qu’il y a une place pour des remédiations orthophoniques ciblées pour des enfants dyslexiques sévères chez qui les interventions pédagogiques ont échoué, mais cette conviction demanderait à être étayée par une description formelle des pratiques en question et des études rigoureuses d’évaluation de leur efficacité.


Un autre cas de figure qui légitimerait une approche de type « troubles différents, traitements différents » est celui de différents sous-types de la dyslexie, chacun caractérisé par un déficit spécifique appelant une remédiation spécifique. Le problème est à nouveau que les données à l’appui de tels sous-types manquent cruellement. La typologie dyslexie phonologique vs. dyslexie de surface, issue de l’étude des alexies (dyslexies acquises) et toujours populaire chez nombre d’orthophonistes français, a été invalidée depuis longtemps dans le cas de la dyslexie développementale (Sprenger-Charolles, Colé, Lacert, & Serniclaes, 2000; Zabell & Everatt, 2002; Zoubrinetzky, Bielle, & Valdois, 2014). Une typologie plus plausible est celle opposant les déficits phonologiques aux déficits visuels. Malheureusement, comme nous l’avons rappelé plus haut, les données en faveur des dyslexies visuelles sont faibles, et les évaluations de l’efficacité de traitements visuels pour les dyslexies visuelles le sont encore plus. Pour une des théories visuelles de la dyslexie les plus plausibles, celle de l’empan visuo-attentionnel (Bosse, Tainturier, & Valdois, 2007), seule une étude de cas publiée suggère une efficacité d’une remédiation spécifique (Valdois et al., 2014). A titre personnel, je suis convaincu qu’il existe des dyslexies visuelles qui appellent des traitements spécifiques, mais encore une fois, faute de données factuelles convaincantes, il ne peut s’agir pour l’instant que d’une conviction.


Pour conclure cette partie, Elliott & Grigorenko auront sans doute tort in fine d’affirmer que le même traitement convient à tous les faibles lecteurs. Mais on peut difficilement leur reprocher d’affirmer qu’il n’existe aucune donnée montrant que différentes approches conviennent à différents types de faibles lecteurs, car de telles données n’existent pour ainsi dire pas. Ils nous rappellent donc l’importance de conduire plus de recherches visant à décrire et expliquer les sous-types minoritaires (non phonologiques) de la dyslexie, ainsi que l’importance de conduire des études d’évaluation de tous les types d’intervention proposées pour un (ou plusieurs) sous-type de dyslexie. A commencer par les remédiations orthophoniques, dont la carence en termes d’évaluation est tout à fait anormale et doit être comblée d’urgence.


V.                Le concept de dyslexie est-il nuisible ?

Un dernier argument martelé par Elliott et Grigorenko est le suivant : puisque la dyslexie est un concept sans validité et sans utilité thérapeutique, il vaut mieux s’en passer, car elle cause aussi du tort. Mais de quel tort veulent-ils parler ?


Certaines critiques sont bien connues, et ont été largement ressassées par des commentateurs français : soi-disant le diagnostic culpabiliserait, stigmatiserait (l’enfant), ou bien au contraire déresponsabiliserait (les parents, les enseignants), et tout cela reviendrait à une détestable médicalisation de problèmes sociaux et pédagogiques (Carle, 2002; Fijalkow, 2000, 2001; Inizan, 1998; Jarraud, 2007). Je ne reviendrai pas sur ces vieux débats dont je considère qu’ils sont clos (Ramus, 2005, 2007). Evidemment, il peut y avoir des coûts associés au diagnostic de dyslexie (dans certains cas). Mais toute action, toute politique de santé a un coût. Ce qui compte pour déterminer la meilleure politique, c’est de comparer des rapports bénéfices/coûts. Or de nombreux témoignages montrent à quel point un diagnostic de dyslexie peut être bénéfique en fournissant une explication claire et rationnelle (et autant que possible, correcte) à des difficultés autrement incompréhensibles. Par ailleurs, s’il existe des coûts bien réels, il peut valoir la peine de réfléchir à les réduire d’une manière moins radicale (et elle-même coûteuse pour nombre d’enfants) qu’en éliminant le concept de dyslexie. Par exemple, une inquiétude qui peut sembler bien fondée est celle selon laquelle la dyslexie véhiculerait une conception plus biologique de la nature du trouble que la notion de difficultés de lecture, ce qui induirait les enseignants à penser qu’ils ne peuvent rien y faire. Mais plutôt que d’éliminer totalement le concept de dyslexie, on pourrait tout aussi bien renforcer la formation des enseignants, en leur expliquant la nature des facteurs biologiques dans les troubles du développement, la plasticité cérébrale, et en ciblant explicitement les fausses croyances sur le déterminisme des causes biologiques. Une telle mesure bénéficierait d’ailleurs à bien plus d’enfants que les seuls dyslexiques.


Un dernier point non négligeable qui tracasse Elliott et Grigorenko est celui de la justice. En effet, dans de nombreux pays, le diagnostic de dyslexie donne accès à certains services : interventions pédagogiques et/ou médicales, prestations sociales de remboursement des soins ou de compensation… Est-il juste d’offrir de tels avantages aux seuls enfants diagnostiqués comme dyslexiques, alors que d’autres enfants en difficulté de lecture peuvent en avoir tout autant besoin, et qu’il n’existe aucune donnée prouvant qu’ils diffèrent qualitativement et qu’ils ont besoin de traitements différents ? Si par exemple les enfants avec faible QI (non considérés comme dyslexiques selon la plupart des définitions) bénéficient tout autant d’une remédiation ciblée des capacités phonologiques et de la lecture, de quel droit les en priver ? C’est vraiment là une question épineuse. Et sur ce point, jusqu’à preuve du contraire, je pense qu’E&G ont raison : il faut délimiter les bénéficiaires de ces prestations sur la base de leurs besoins et des bénéfices qu’ils peuvent espérer en tirer, et non sur la base de catégorisations a priori qui peuvent être sans rapport avec les uns comme avec les autres. En tous cas pour les interventions de stade 2, et pour les interventions de stade 3 tant que des données rigoureuses ne permettront pas de circonscrire leur utilité de manière plus convaincante.


Pour conclure, Elliott et Grigorenko argumentent que les preuves manquent pour justifier les définitions de la dyslexie, pour justifier l’idée que les enfants dyslexiques ont une spécificité cognitive et biologique, et pour justifier des traitements différenciés entre dyslexiques et faibles lecteurs. Ils ont souvent raison, mais de manière temporaire, et les données disponibles aujourd’hui sont en fait déjà suffisantes pour pouvoir affirmer l’utilité (ne serait-ce que théorique) de distinguer différents types de difficultés de lecture. Le livre d’E&G a le mérite de souligner la faiblesse des preuves disponibles, et par conséquent de nous encourager à poursuivre les recherches. Ce dont les enfants faibles lecteurs ont besoin, ce n’est pas d’être tous mis dans le même sac, c’est de plus de recherches sur les différentes causes de difficultés de lecture, sur les différents types de dyslexie, sur leurs bases cognitives, cérébrales, génétiques et environnementales, sur les types de traitements les plus efficaces pour chaque type de dyslexie, et sur ce que l’on peut faire pour les enfants qui semblent résister à tout traitement connu. On ne voit pas comment un tel objectif pourrait être atteint en imposant le dogme que toutes les difficultés de lecture se valent.


VI.            Quelles leçons tirer en France du « débat sur la dyslexie » ?

Premièrement, Elliott et Grigorenko ont le mérite de placer ce débat sur un plan scientifique : la validité et l’utilité d’une catégorie diagnostique doit se juger à l’aune de données factuelles, et non de croyances a priori ou de « l’expérience clinique » non contrôlée. De même, l’efficacité d’interventions, de remédiations, et même de politiques publiques doit absolument être évaluée de manière extrêmement rigoureuse, par des méthodes expérimentales, plutôt qu’au doigt mouillé ou à l’argument d’autorité comme c’est généralement le cas en France. C’est vraiment une leçon fondamentale que nous donne le monde anglo-saxon et que la France peine à assimiler (voir les débats similaires sur les psychothérapies ou sur l’éducation : Ramus, 2012a, 2012b, 2013a, 2013b; Ramus, 2014a, 2014d).


Deuxièmement, le système d’intervention en plusieurs stades qui a été mis au point progressivement au cours des dernières décennies par les collègues américains a des qualités importantes qui méritent d’être reconnues et dont on pourrait s’inspirer. En premier lieu, il rejette la sélection par l’échec (système nommé « wait to fail »). S’il faut attendre un diagnostic formel de dyslexie (donc pas avant la fin du CE1) pour aider un enfant en difficulté, on intervient immanquablement trop tard : l’enfant est en difficulté depuis au moins deux ans, il a accumulé un retard difficile à rattraper, à la fois en lecture et dans d’autres apprentissages, et consécutivement les relations peuvent s’être dégradées avec l’enseignant, ses parents, ses camarades, et parfois bien pire. Si l’on veut vraiment aider les enfants dyslexiques, il faut commencer à le faire avant qu’ils ne soient en situation d’échec généralisé, et par conséquent avant un véritable diagnostic. C’est cette constatation d’une logique imparable qui a conduit les chercheurs américains à proposer pragmatiquement des interventions pédagogiques précoces à tous les faibles lecteurs, quelles que soient les causes supposées de leurs difficultés. Cette démarche permet non seulement de mieux venir en aide aux enfants dyslexiques, mais aussi d’aider tous les autres qui sont en difficulté ! D’une approche « wait to fail », on passe à une approche dite « response to intervention » : au lieu d’allouer les aides en fonctions de catégories d’individus plus ou moins arbitraires et discutables, on les alloue en fonction des besoins, puis on évalue les résultats (la réponse aux interventions), et en fonction des résultats on décide de la suite à donner à la prise en charge. Une telle approche est de toute évidence la plus pragmatique et la plus rationnelle, et permet surtout d’intervenir immédiatement, dès que les premières difficultés se manifestent, d’arrêter d’intervenir lorsque ce n’est plus nécessaire, et de renforcer l’intervention lorsque c’est nécessaire. On voit tout l’intérêt d’une telle approche par rapport à celle fondée strictement sur des diagnostics, en tous cas jusqu’au stade 2. Pour les enfants qui sont orientés en stade 3, on reste fondé à penser, même si les preuves manquent et si la recherche devrait se pencher là-dessus, qu’une démarche diagnostique devrait tout de même apporter de l’information utile pour orienter la prise en charge.


Troisième point important, ce système place l’essentiel des responsabilités sur le système éducatif. Pour commencer, tout ceci n’a de sens que dans la mesure où le stade 1 fait correctement son travail, c’est-à-dire si les enseignants enseignent la lecture selon des méthodes ayant fait la preuve de leur efficacité. Deuxièmement, au stade 2 aussi ce sont les enseignants qui sont à l’œuvre, autant pour le repérage des enfants en difficulté que pour la mise en œuvre des interventions pédagogiques (tout aussi fondées sur des preuves). Ce qui suppose que les enseignants ont été soigneusement formés à cet effet, principal hiatus pour une transposition en France, mais étape rigoureusement indispensable. Dans cette approche, des personnels plus spécialisés (de l’éducation et de la santé) ne devraient pas avoir à intervenir avant le stade 3, ce qui n’est sans doute pas un mal. De fait, beaucoup d’orthophonistes français se plaignent (à juste titre) qu’on leur demande des diagnostics beaucoup trop tôt, et de devoir ré-enseigner la lecture à des enfants dont ils considèrent qu’ils ne sont pas vraiment dyslexiques. Une telle situation participe au déséquilibre chronique entre les besoins et l’offre de soins en orthophonie. Il y a donc toutes les raisons de vouloir faire évoluer le système en faisant jouer un rôle plus grand aux enseignants et au système éducatif dans la prise en charge des difficultés de lecture (jusqu’au stade 2 inclus), et en réservant les diagnostics et les interventions plus spécialisées (y compris orthophonie) au stade 3 uniquement, c’est-à-dire après s’être assuré que les enfants en question ont reçu un enseignement de qualité (y compris différencié si nécessaire) et qu’ils ne présentent pas juste de simples retards ou difficultés passagères. Tout le monde y gagnerait. Notons d’ailleurs qu’une telle approche était déjà suggérée par l’Expertise collective de l’Inserm (2007) sur les troubles des apprentissages, et que des travaux dans ce sens ont déjà été entrepris, notamment ceux de Michel Zorman à Grenoble (programme PARLER) et de Catherine Billard à Paris (programme Paris Santé Réussite).


Un dernier mot sur la question de l’équité dans l’accès aux prestations. L’un des intérêts de l’approche « response to intervention », en faisant porter la responsabilité de la prise en charge des difficultés de lecture au système éducatif, est précisément de rendre cette prise en charge accessible à tous les enfants en difficulté, sans aucune autre condition que l’existence de difficultés. L’accès au stade 3, quand bien même il implique éventuellement des bilans médicaux et des professionnels de santé, ne doit pas non plus être conditionné à un diagnostic ou à une condition arbitraire (décalage avec le QI par exemple) : le seul fait de continuer à être en difficulté après un enseignement de stade 1 et une intervention de stade 2 doit rendre l’enfant éligible à une aide adaptée à sa situation. Enfin, dans les cas les plus sévères, des prestations de compensation issues de la politique du handicap peuvent être appropriées. Mais là encore, rien n’impose un diagnostic. La loi de 2005 impose d’évaluer et de compenser des situations de handicap. Selon la définition incluse dans la loi (et inspirée de l’OMS), les situations de handicap résultent de la conjonction entre des altérations de fonction (ici, cognitive) de la personne et d’un environnement particulier. Autrement dit, le handicap ne se réduit pas à un diagnostic. Il existe des situations de handicap sans diagnostic (soit parce que la personne tombe entre les diagnostics officiels, soit parce qu’une faible sévérité de trouble combinée à un environnement particulièrement défavorable produit néanmoins un handicap significatif), de même qu’il existe des diagnostics n’engendrant pas de situations de handicap dans l’environnement habituel de la personne. Ce qu’il faut, c’est évaluer les situations de handicap (en s’appuyant sur les diagnostics éventuels bien sûr, mais pas exclusivement), et déclencher les prestations de compensation à partir d’une certaine gravité de celui-ci. Les MDPH qui conditionnent leurs prestations à des diagnostics détournent en fait la loi de manière injustifiée. Moyennant un rappel à l’ordre (aux MDPH mais aussi bien sûr à l’Education Nationale) sur la mise en œuvre de la politique du handicap, nous disposons en France (et contrairement à d’autres pays) d’un cadre légal parfaitement compatible avec  une approche permettant de traiter l’ensemble des difficultés de lecture et d’écriture sans exclure aucun enfant, tout en concentrant les ressources du système de santé et de la politique du handicap sur les enfants qui en ont le plus besoin.


VII.         Note

Cet article est issu des actes du 26ème Congrès scientifique international de la Fédération Nationale des Orthophonistes, et partiellement traduit et adapté de (Ramus, 2014b). La version française a bénéficié des commentaires critiques de Catherine Billard, Magali Lavielle-Guida, Michel Habib, Michèle Mazeau, Monique Touzin, Yamina Yessad-Blot que je remercie.


VIII.     Bibliographie

Altarelli, I., Leroy, F., Monzalvo, K., Fluss, J., Billard, C., Dehaene-Lambertz, G., . . . Ramus, F. (in press). Planum temporale asymmetry in developmental dyslexia: revisiting an old question. Human Brain Mapping.
Altarelli, I., Monzalvo, K., Iannuzzi, S., Fluss, J., Billard, C., Ramus, F., & Dehaene-Lambertz, G. (2013). A functionally guided approach to the morphometry of occipito-temporal regions in developmental dyslexia: evidence for differential effects in boys and girls. The Journal of Neuroscience, 33(27), 11296-11301.
Bosse, M. L., Tainturier, M. J., & Valdois, S. (2007). Developmental dyslexia: The visual attention span deficit hypothesis. Cognition, 104, 198-230.
Carle, L. (2002). L'avenir d'une confusion. Les Actes de Lecture, 78, 34-39.
Elliott, J. G., & Grigorenko, E. L. (2014). The Dyslexia Debate. New York: Cambridge University Press.
Expertise collective de l'Inserm. (2007). Dyslexie, dysorthographie, dyscalculie: Bilan des données scientifiques. Paris: Editions INSERM. Téléchargeable sur http://www.ladocumentationfrancaise.fr/rapports-publics/074000190/index.shtml.
Fijalkow, J. (2000). Vers une France dyslexique. Les Actes de Lecture, 69, 35-38.
Fijalkow, J. (2001). Dyslexie: le retour. Psychologie et Education, 47, 111-128.
Galaburda, A. M., Sherman, G. F., Rosen, G. D., Aboitiz, F., & Geschwind, N. (1985). Developmental dyslexia: four consecutive patients with cortical anomalies. Ann Neurol, 18(2), 222-233.
Hoskyn, M., & Swanson, H. L. (2000). Cognitive processing of low achievers and children with reading disabilities: A selective meta-analytic review of the published literature. School Psychology Review.
Inizan, A. (1998). Et si la dyslexie n'existait pas? Psychologie et Education, 35, 33-49.
Jarraud, F. (2007). Le fait du jour : L'Inserm encore sur les troubles de l'apprentissage. Le Café Pédagogique, 21 février 2007, http://www.cafepedagogique.net/lexpresso/Pages/070221LefaitdujourL%070227Insermencoresurlestroublesdel%070227apprentissage.aspx.
Jednoróg, K., Marchewka, A., Altarelli, I., Monzalvo, K., van Ermingen-Marbach, M., Grande, M., . . . Ramus, F. (submitted). How reliable are grey matter disruptions in developmental dyslexia? Insights from a large-scale voxel-based morphometry study.
National Institute of Child Health and Human Development. (2000). Report of the National Reading Panel. Teaching children to read: an evidence-based assessment of the scientific research literature on reading and its implications for reading instruction: Reports of the subgroups (NIH Publication No. 00-4754). Washington, DC: U.S. Government Printing Office.
Puolakanaho, A., Ahonen, T., Aro, M., Eklund, K., Leppanen, P. H. T., Poikkeus, A. M., . . . Lyytinen, H. (2007). Very early phonological and language skills: estimating individual risk of reading disability. Journal of Child Psychology and Psychiatry, 48(9), 923-931.
Ramus, F. (2005). De l'origine biologique de la dyslexie. Psychologie & Education, 60, 81-96.
Ramus, F. (2007). Dyslexie, dysorthographie et dyscalculie : droit de réponse et débat autour du rapport de l'Inserm. Le Café Pédagogique, 2 mars 2007, http://www.cafepedagogique.net/lexpresso/Pages/070302Dyslexie,dysorthographieetdyscalculiedroitder%C070303%A070309ponseetd%C070303%A070309batautourdurapportdel%070327Inserm.aspx.
Ramus, F. (2012a). "La psychanalyse n'est pas évaluable". Ah bon? FRblog, 23/04/2012, http://franck-ramus.blogspot.fr/2012/2004/la-psychanalyse-nest-pas-evaluable-ah.html.
Ramus, F. (2012b). Pour une agence nationale d'évaluation des psychothérapies. Cerveau & Psycho, 51, 10-11.
Ramus, F. (2013a). La souffrance psychique est bel et bien évaluable et mesurable. Science et Pseudo-Sciences, 303(janvier 2013), 19-25. Disponible sur http://franck-ramus.blogspot.fr/2012/2005/la-souffrance-psychique-nest-ni.html.
Ramus, F. (2013b, 6/04/2013). Les limites de la psychologie et de la psychiatrie fondées sur des croyances. Paper presented at the Conférence La psychiatrie et la psychologie fondées sur des preuves, Paris, http://savoirs.ens.fr/expose.php?id=1209.
Ramus, F. (2014a). Méthodes d’enseignement de la lecture : Huit années de perdues. Le Café Pédagogique, 27/03/2014. Retrieved from http://www.cafepedagogique.net/lexpresso/Pages/2014/03/27032014Article635315024444467058.aspx
Ramus, F. (2014b). Should there really be a “Dyslexia debate”? Brain. doi: 10.1093/brain/awu295
Ramus, F. (2014c). Virtues and limits of the dyslexia construct. Paper presented at the 28th International Congress of Applied Psychology, Paris.
Ramus, F. (2014d). Y a-t-il vraiment une autre façon d’aller vers une éducation fondée sur des preuves ? Le Café Pédagogique. Retrieved from http://www.cafepedagogique.net/lexpresso/Pages/2014/04/18042014Article635333873266048231.aspx
Snowling, M. J. (in press). The Dyslexia Debate. Journal of Child Psychology and Psychiatry.
Sprenger-Charolles, L., Colé, P., Lacert, P., & Serniclaes, W. (2000). On subtypes of developmental dyslexia: Evidence from processing time and accuracy scores. Canadian Journal of Experimental Psychology, 54, 88-104.
Stuebing, K., Barth, A., Molfese, P., Weiss, B., & Fletcher, J. (2011). IQ is not strongly related to response to reading instruction: A meta-analytic interpretation. Exceptional Children, 76(1), 31-51.
Torgesen, J. K., Alexander, A. W., Wagner, R. K., Rashotte, C. A., Voeller, K. K. S., & Conway, T. (2001). Intensive remedial instruction for children with severe learning disabilities: Immediate and long-term outcomes from two instructional approaches. Journal of Learning Disabilities, 34(1), 33-58.
Torgesen, J. K., Stancavage, F., Myers, D., Schirm, A., Stuart, E., Vartivarian, S., . . . Haan, C. (2006). Closing the Reading Gap: First Year Findings from a Randomized Trial of Four Reading Interventions for Striving Readers. Washington DC: Corporation for the Advancement of Policy Evaluation.
Valdois, S., Peyrin, C., Lassus-Sangosse, D., Lallier, M., Démonet, J.-F., & Kandel, S. (2014). Dyslexia in a French–Spanish bilingual girl: Behavioural and neural modulations following a visual attention span intervention. Cortex, 53, 120-145.
Zabell, C., & Everatt, J. (2002). Surface and phonological subtypes of adult developmental dyslexia. Dyslexia, 8(3), 160-177.
Zhao, J. J., Thiebaut de Schotten, M., Altarelli, I., Dubois, J., & Ramus, F. (submitted). Altered hemispheric lateralization of white matter tracts in developmental dyslexia: Evidence from spherical deconvolution tractography.
Zoubrinetzky, R., Bielle, F., & Valdois, S. (2014). New Insights on Developmental Dyslexia Subtypes: Heterogeneity of Mixed Reading Profiles. PLoS ONE, 9(6), e99337. doi: 10.1371/journal.pone.0099337





[i] “The education establishment, rather than admit that their eclectic and incomplete methods for instruction are at fault, have invented a brain disorder called dyslexia”, in Manchester Confidential, 12/01/2009, http://www.manchesterconfidential.co.uk/News/Dyslexia-is-a-myth.
[ii] Il existe une littérature très importante à ce sujet et une description détaillée des pratiques pédagogiques et des outils impliqués nécessiterait un article entier. On pourra se reporter au site du programme PARLER http://std.editions-cigale.com/programme-parler et à celui du laboratoire Cognisciences http://www.cognisciences.com/rubrique.php3?id_rubrique=3.
Vendredi 24 octobre 2014, 22h25 (Arte)
Documentaire de Sonya Pemberton, 59 minutes.


La vaccination des nourrissons contre la rougeole, la coqueluche ou la poliomyélite a fait ses preuves. Mais la mise en cause de certains des vaccins, combinée à un manque de vigilance de la part des praticiens, voire des autorités sanitaires, a conduit à une baisse du taux de vaccination. La multiplication des échanges et des déplacements internationaux multiplie pourtant les risques d'épidémies à grande échelle. Des affections que l’on croyait éradiquées ont ainsi resurgi, comme la rougeole, dont 23 300 cas ont été recensés en France de 2008 à 2013, faute d'avoir pu atteindre le taux de 95 % au moins de vaccination pour l’ensemble de la population. Les rumeurs – maintenant activement relayées par Internet – entraînent des réactions parfois plus graves. Comme en Inde et au Bhoutan, où la vaccination des jeunes filles contre le papillomavirus provoquant le cancer du col de l’utérus a été suspendue suite au décès de quatre Indiennes après inoculation du vaccin… alors que leur mort n'était pas liée à la vaccination. Dans des cas extrêmement rares, des complications neurologiques et des paralysies surviennent. Mais ces réactions restent statistiquement très faibles au regard des millions de vies préservées ou sauvées par les vaccins. D’autant que les drames recensés peuvent être dus par exemple à des mutations génétiques et pas forcément au vaccin qui est trop rapidement mis en cause. (...)


Voir aussi :
* La critique de Télérama.
* Il faut ramener les anti-vaccins à la raison
* 49 % des Américains adhèrent à une théorie du complot en matière de santé

Conspiracy Watch - Observatoire du conspirationnisme et des théories du complot
La nouvelle commissaire slovène, Madame Violeta Bulc, a passé son audition en un temps record. Nommée à la Commission européenne en remplacement d’Alenka Bratusek, recalée après une audition jugée calamiteuse, Violeta Bulc suscite une certaine curiosité : entrée en politique mi-septembre pour devenir vice-Première ministre sans portefeuille de son pays, Madame Bulc est une femme d’affaires qui affiche des convictions ésotériques et fonde ses décisions en s’appuyant sur l’intuition..., ce que l’on peut percevoir déjà au travers de  son C.V.

Elle vient d’être nommée Commissaire européen en charge des transports, après une audition complaisante, comme le rapporte le quotidien belge Le Soir  dans son édition du 21 octobre: « Les choses étaient bien claires pour tout le monde. Organisée de justesse lundi en début de la session plénière du Parlement européen (PE) qui doit mercredi voter l’investiture à la Commission Juncker, l’audition de la commissaire désignée slovène Violeta Bulc devait se passer sans encombres. »

Violeta Bulc croit auSyntropisme, une “force qui pousse les choses vivantes vers des niveaux de plus en plus élevés d’organisation, d’ordre et d’harmonie dynamique, vers la synthèse, la croissance, la totalité, l’auto-perfection“.  

Dans son blog personnel elle écrit à ce sujet: « À différents niveaux et dans différentes dimensions, et chaque fois enun instant, quelque chose déclenchel'excitation dans chacune de nos cellules. Amour. Surprise. Réalisation d'un objectif. Une réalisation le long du chemin. Une pensée. Espoir. Naissance. Je sentais ce type d'excitation lorsque j'ai rencontré le Syntropisme. Je peux difficilement exprimer les émotions qui m’ont inondé lorsque je voyageais à travers des formules complexes, la plupart du temps incompréhensibles pour moi, mais pourtant si familières que je j’avais l’impression qu’elles m’avaient accompagné tout au long de ma vie. »

Son référant en Syntropisme, le slovène Andrej Detela. Adepte d’un yoga dédié à Shiva, il est aussi un homme écouté en Europe par la Société théosophique.

Férue d’innovation Violeta Bulc a créé il y a 14 ans la société Vibacom qui propose d’accompagner les projets d’entreprises par une « méthodologie, basée sur la croyance que le Business estun organisme vivant ».

 
Le site de sa société révèle des informations qui peuvent surprendre. Ainsi, Vibacom soutient financièrement le centre New Age d’Éducation transpersonnelle, Sundoor.

Vibacom s’inspire aussi des stages Sundoor de “marche sur le feu“ pour renforcer l’esprit d’équipe et “l’énergie positive“ dans les formations  proposées à ses clients...
Pour cela, Violeta Bulc est certifiée instructrice en “marche sur le feu“, et en “travail sur la respiration“ par le Centre Sundoor de Californie (cette dernière technique étant à rapprocher du Rebirthing de Leonard Orr).


Elle a également obtenu, après deux ans de formation, un diplôme en “chamanisme“ du Centre holistique écossais Lendrick Lodge, partenaire de Sundoor. Dans le billet de son blog, intitulé « En quoi le chamanisme peut-il contribuer à l’écosystème de l’innovation » on peut-y-lire : « J'ai commencé à l'Académie chamanique, et étape par étape, j'apprends sur le monde fascinant de la nature, l'individu et la complexité de l'approche holistique à laquelle je crois fermement. C'est l'avenir de notre société et la base pour les modèles sociaux créatifs. Chacun de nous doit vraiment travailler d'abord sur soi-même pour être capable d'interagir avec le monde extérieur ... c’est vrai également pour l’environnement des entreprises ».
Et aussi : "L'intuition est une capacité, ou plutôt une force de nature spirituelle. Elle est connue et apprise par des efforts auto-induits depuis la nuit des temps. L'intuition est la perception immédiate et instinctive de la vérité: la compréhension immédiate, sans réflexion.“

La société Vibacom recommande également la lecture du livre de Violeta Bulc "La magie de la contribution" (The magic of contribution), présenté dans de la vidéo ci-dessous, et dont certaines propositions peuvent surprendre:
« Plus qu’une vie d’expériences, inspirations, apprentissage, croyances, amitiés et révélations profondes » (1’09)
« six dimensions humaines : énergie, spirituelle, physique, intellectuelle, sociale, émotionnelle » (1’46)
« Divin/conscience collective, inconscient, croyance, connaissance, émotion, apprentissage, intuition, vibrations actuelles, impulsions autour de nous, mémoire génétique » (3’31)
« Le pouvoir de l’intuition » (5’24)
« L’importance de l’intuition dans la prise de décision systémique et son impact dans le processus d’innovation » (6’12)
« Apprentissage, manifestation, instinct, intuition : prise de décision » (8’02)
« Vers un société de croyances » (14’25)


En 2013, le lancement de ce livre marquait également la création par Violeta Bulc, et quelques autres personnes, du Mouvement InCo. 

La « mission du Mouvement InCo : Co-création des conditions d’assainissement et de l'espace permettant le développement d'une planète prospère. », mouvement également coordonné et financé par Vibacom, sa proprre société.

Parmi ses activités nombreuses, dont une partie cible le monde journalistique, InCo assure aussi la promotion de « l’Energie du Féminin sacré », expression souvent utilisée par des groupes controversés.

A l’heure où beaucoup de citoyens s’interrogent sur la représentation politique, est-il bien raisonnable de nommer à un tel niveau de responsabilité une personne sans réelle expérience dans le domaine concerné, et dont le référentiel s’appuie sur l’irrationnel ? L’avenir nous dira si le secteur du transport européen est sur de bons rails.

Source : CIPPAD, 24 octobre 2014,
http://www.cippad.com/2014/10/une-chamane-nommee-commissaire-europeen.html
Il se dit « praticien en médecine chinoise de père en fils depuis onze générations » et a été condamné en mars 2008 à six ans de prison pour « agressions sexuelles et exercice illégal de la médecine ». Francy Casacci refait parler de lui.
Il vient d'être, à nouveau, mis en examen pour « agression sexuelle » et écroué. Alors qu'il est sorti de prison en avril, et que la justice lui avait interdit d'exercer ses pratiques illégales et perverses, l'homme âgé de 39 ans a replongé.
Des thérapies alternatives étranges
Il a proposé ses services à plusieurs instituts de beauté à Cannes et Saint-Raphaël. Et, comme dans la période 2005 et 2006 où il possédait son propre cabinet à Antibes, il aurait demandé à des jeunes femmes de se mettre en petite tenue, afin de pratiquer l'imposition des mains et autres massages relaxant sur les parties érogènes.
On ne sait pas si le pseudo-praticien a remis au goût du jour les pratiques qui lui ont valu les foudres de la justice. Pour 45 euros la séance, il soignait les « blocages de chakras sexuels » en stimulant les zones intimes.
Si, dans ses nouvelles patientes, certaines n'ont encore rien dit face à cette soi-disant « thérapie alternative », une femme a décidé de porter plainte. L'enquête de la police cannoise a abouti à l'arrestation de Francy Casacci, la semaine dernière. Étant sous suivi judiciaire, il est retourné directement en prison, après sa garde à vue et sa mise en examen.
Il se pourrait que la victime ne soit pas la seule désormais à dénoncer ces faits tendancieux. Des dizaines de femmes, contactées par la police, pourraient s'ajouter à la liste, ayant été elles aussi la cible des ouvertures, un peu trop intempestive, de chakras sexuels par cet autoproclamé « magnétiseur ».
Source : Var Matin, 22 octobre 2014,
http://www.varmatin.com/saint-raphael/de-cannes-a-saint-raphael-le-charlatan-debloquait-les-chakras-sexuels.1898461.html

Nice : Le procès des «chakras sexuels»

On connaissait déjà le « zizi sexuel », cher à Titeuf. Depuis hier, on sait tout sur les « chakras sexuels » : leur nom sanskrit, dans quels sens ils doivent tourner (celui des aiguilles d'une montre, merci), comment on détecte qu'ils tournent à l'envers (au moyen d'un pendule égyptien), quels sont les risques d'une mauvaise rotation (à peu près toutes les maladies possibles et imaginables) et, surtout, heureusement, comment ça se soigne : un toucher vaginal (ou rectal) est la chose à faire de toute urgence. Si les symptômes persistent, un cunnilingus assorti de quelques mantras prononcés dans un nuage d'encens, sur fond de musique relaxante, est fortement recommandé. Dans les cas les plus graves, un coït en bonne et due forme peut s'imposer.
Expert autodéclaré
Si l'on sait tout cela, c'est grâce au « père fondateur de l'école des chakras sexuels », Francy Casacci, « praticien en médecine chinoise de père en fils depuis onze générations », si l'on en croit sa carte de visite, et expert auto-déclaré en « yi-king »,« mantras », « tarots », « boules de Geisha », « oeufs de Jade » et autres thérapies ésotériques. Ce spécialiste replet du cunnilingus, à la langue bien pendue et au look barbichu de bonze de série Z, a eu, hier, tout loisir d'expliquer son art devant le tribunal correctionnel de Grasse, où il était prévenu d'exercice illégal de la médecine et d'agressions sexuelles sur une quinzaine de jeunes femmes.
Les faits remontent à 2005-2006, période au cours de laquelle notre Cagliostro new age se trouvait déjà sous contrôle judiciaire avec interdiction d'exercer pour des faits similaires commis les années précédentes à Nice (1). Nonobstant, ne sachant « rien faire d'autre » selon son propre aveu, le bonhomme ouvrit à Antibes, dans le fond d'un local dédié aux Arts Divinatoires, un « cabinet » dans lequel il entreprit promptement de se perfectionner dans sa spécialité : le traitement des chakras sexuels.
Assez curieusement, seules les jeunes femmes de 18 à 45 ans au physique particulièrement avenant semblaient souffrir d'une inversion systématique de leurs chakras intimes. Les hommes et les femmes de plus de 60 ans se voyaient plutôt traiter leurs chakras de gorge, de pied ou de coeur, au moyen de mantras ou d'imposition de pierres et de cristaux. Pour les autres, c'était petite tenue (slip soutien-gorge et moins si affinités), grands discours médico-oiseux et toucher vagino-rectal. « Ne vous gênez pas pour moi si vous avez un orgasme, leur disait-il toujours prévenant, mais surtout ne faites pas trop de bruit ».
Nombre de patientes s'étonnèrent de cette nouvelle avancée de la science médicale, certaines en furent choquées, quelques-unes revinrent vérifier son bien fondé, une seule finalement, l'ayant surpris en train de se masturber, porta plainte. Cela suffit à renvoyer Casacci devant le tribunal correctionnel de Grasse, où le président Joando (2) réussit l'exploit d'assurer aux débats une excellente tenue morale et verbale : « Dites donc, se masturber devant une cliente, ce n'était pas très professionnel quand même... »
Thérapeute incompris
n sut ainsi que ce jeune homme de 33 ans, au regard noir et à l'attitude méprisante, avait eu une enfance difficile, né de père inconnu et d'une mère qui le confia à une famille adoptive jusqu'à son adolescence. Que sa formation scientifique se limitait à la lecture de quelques ouvrages de référence (saisis par la justice, à toutes fins utiles) et à la fréquentation d'une professeur de yoga experte en ouverture de chakras. Qu'il se considérait lui-même comme un « thérapeute alternatif », incompris de la science officielle et victime d'un complot féminin, dès lors que douze autres plaignantes s'étaient jointes à la première pour dénoncer des faits similaires. Deux de celles-ci vinrent déposer, très courageusement, à la barre pour expliquer qu'elles s'étaient senties aussi bernées que salies par ce faux thérapeute à 45 euros la séance, auquel elles avaient eu l'imprudence d'accorder a priori leur confiance et qui avait « mis les mains là où il ne fallait pas » (sic). Une avoua même s'être demandé à l'époque « si c'était du lard ou du cochon », ce qui, en l'occurrence, ne manque pas de sel. Les avocats des parties civiles stigmatisèrent un « serial agresseur » opportuniste et prévinrent solennellement le tribunal du risque de récidive.
Récidiviste et manipulateur
Le procureur, M. Gaimbard, évoqua la notion de « consentement surpris » pour expliquer l'attitude des victimes, traita le prévenu de « charlatan », récidiviste et manipulateur et réclama 8 ans d'emprisonnement. L'avocate de la défense dénonça l'amalgame fait avec l'affaire Fourniret et demanda si, dans un spa, on pouvait se considérer sous l'emprise des masseuses dès lors qu'il y avait aussi des massages, de la musique et des senteurs exotiques ? On ne vit aucun comité de soutien manifester devant le tribunal pour le « droit à l'ouverture des chakras sexuels », ni aucune patiente venir à la barre dire comment le « cunnilingus thérapeutique » avait changé sa vie.
Après une petite demi-heure de délibération, le tribunal condamna finalement Francy Casacci à 6 ans fermes, assortis de deux ans de suivi socio-judiciaire, de l'interdiction d'exercer et d'une inscription au FIJAIS, le fichier des délinquants sexuels. Le prévenu ne broncha pas, ne fit aucune excuse, garda la barbiche haute et l'air suffisant qu'il avait affiché durant toute la journée. Il repartit en cellule où il confiait le matin même, non sans fierté, avoir déjà commencé à exercer avec succès ses talents de magnétiseurs. Il est vrai qu'il y a là, probablement, autant de chakras à ouvrir que de serrures.
1. Pour ces faits Francy Casacci a déjà été condamné à 3 ans d'emprisonnement dont 18 mois avec sursis par le tribunal de Nice.
2. Assesseurs, Mmes Haumant-Daumas et Frenoy.

Source : Nice Matin, 28 mars 2008

Hier soir, au lancement du livre, une lectrice qui s’appelle Marie-Ève est venue me voir pour me dire que j’avais oublié les technologistes médicaux dans le chapitre de mon livre, qui s’intitule “Le côté lumineux et le côté obscur des soins“.

Elle a parfaitement raison et, d’ailleurs, plusieurs autres professions n’y sont pas représentées. Par exemple, où est l’optométriste ou la biochimiste clinique ? Bref, si vous avez envie d’en inventer et de me les faire parvenir, je vais les exposer ici avec grande fierté !

10736124_10152752169720428_695826695_n

- Les technologistes médicaux, créé par Marie-Ève

 

 

Feed on Feeds