L’infox qui a fabriqué la peur des vaccins, et la rougeole qui recommence à faire des morts

Le taux de vaccination baisse, la rougeole réapparait !

La RTS fait un élément ici sur le lien entre taux de vaccination et cas de rougeole.

Fig 1:  RTS news : les cas nouveaux de rougeole et la baisse du taux de vaccination [img]. Source :RTS
« Deux personnes sont décédées de la rougeole depuis début 2019 en Suisse, annonce jeudi l’Office fédéral de la santé publique (OFSP). De janvier à la mi-avril, 138 cas de rougeole ont déjà été enregistrés en Suisse. C’est 7,3 fois plus que pour la même période de l’année précédente (19 cas). L’incidence, elle, est passée de 2,2 (2018) à 16,2 (2019) cas par million d’habitants.
Le premier décès concerne un homme de 30 ans, contaminé par des proches, qui n’était pas vacciné. Le second est celui d’un homme de 70 ans malade du cancer et qui souffrait de défenses immunitaires déficientes. Le patient est mort d’une pneumonie liée à la maladie. »

La vaccination : un geste solidaire, un dépassement de ses peurs profondes ?

Bio-Tremplins dans une publication de novembre 2009 ici, rapportait les propos de la professeure Claire-Anne Siegrist au CMU à Genève :  « Nous avons tendance à oublier à quel point nous sommes interdépendants. Nous oublions que sont les autres qui nous contaminent, et les autres que nous infectons à notre tour – sans le savoir, sans le vouloir… Et ces autres, ce n’est pas n’importe qui dont le sort nous importe peu, mais notre famille, nos amis, nos collègues, nos élèves !» Siegrist, C.-A. (2009).
Cette publication montre aussi une sienmulation disponible  classe qui permet d’explorer avec les élèves les mécanismes des épidémies et vérifier comment un taux de vaccination élevé protège toute la population.
Se vacciner c’est donc surtout pour protéger les petits enfants, les personnes affaiblies, ou âgées. C’est inconfortable et un peu inquiétant pour certains. Ces dilemmes moraux sont  présentés dans la publication Bio-tremplins 28 novembre 2009 H1N1 pourquoi une telle inquiétude du vaccin ?
Cette approche qui tente d’être rationnelle suffit-elle à convaincre ?

Les vaccins et l’autisme : comment un chercheur malhonnête est cité abondamment par les antivax… alors qu’ils sont souvent  les premiers à se méfier des « scientifiques pourris« 

Qui n’a pas entendu parler de cette étude qui aurait montré un lien entre vaccin et autisme ? pourtant nous savons bien que ça à été montré comme faux, une infox (une info-intox traduction de fake news )

Mais pour argumenter avec les élèves perplexes et de bonne foi, il est probablement utile de remonter à la source et de pouvoir baser la discussion sur des faits précis.

Un article du Temps (Gozlan, M., 10 avril 2019) analyse l’origine de cette rumeur persistante et montre que le médecin chercheur Wakefield, A.  s’est fait payer pour semer le doute, qu’il vendait un vaccin concurrent du triple vaccin mis en doute par l’article, et qu’il a même publié des données frauduleuses qui ont conduit à la rétraction de l’article. On pourrait donc imaginer que cet article est oublié et que l’affaire est close.
C’est oublier que l’humain n’est pas que rationnel !

L’infox persiste malgré tout…

De nombreuses personnes – notamment dans les milieux antivax’ – continuent à se référer à cette source : la rumeur persiste malgré la rétraction et les révélations de la fraude. Cela peut s’expliquer, selon Le Bras, H. (1996): les rumeurs, se répandent si :

  • elles sont d’intérêt
  • elles sont plausibles
  • elles sont difficiles à vérifier ( avec l’effort qu’on est prêt à y mettre …)

Par conséquent les nouvelles qui se transmettent se multiplient peuvent être considérées comme des rumeurs: qui plaisent à un certain public, ce sont les nouvelles qu’il a envie d’entendre. Finalement leur diffusion n’a que très peu à voir avec leur vérité éventuelle ou non.

On trouve une explication de ce phénomène joliment illustrée et en français p. 33 dans Delouvee, (2011) Pourquoi faisons-nous des choses stupides ou irrationnelles ?
La vulgarisation fait subir aux données des transformations qu’on peut comparer à la transposition didactique bien connue. Selon ce modèle, les savoirs qu’on trouve en circulation auprès d’un public donné dépendent surtout de caractéristiques de ce milieu et finalement assez peu des savoirs scientifiques d’origine :-(

Le problème n’est pas le médecin malhonnête qui veut vendre son vaccin …

Dans cette perspective, le problème ici n’est pas un médecin-chercheur malhonnête, mais un public qui a envie de trouver des validations de ses opinions, de ses valeurs, de ses angoisses etc. et qui va se référer à l’article, ignorer sa rétraction ou l’expliquer comme un complot…

L’article d’origine dans la revue médicale The Lancet (Wakefield, A., et al. (1998). RETRACTED) a été très clairement rétracté (cf ici) une analyse publiée ici montre les étapes qui ont conduit à sa rétraction (Rao, T. S. S., & Andrade, C., 2011)
Cependant ces informations continuent à circuler dans certains milieux.

On peut s’en étonner, cependant (Chevallard, 1985) qui a étudié ces phénomènes (dans le monde scolaire d’abord) parle de milieu dans lequel certains savoirs sont sélectionnés. Pour des biologistes on pourrait parler d’écosystème cognitif où les idées se développement ou s’éteignent comme au cours de l’évolution (Lombard, F., & Weiss, L., 2018) cf ici.


Fig 2: Les caractéristiques des savoirs disparaissent ou s’amplifient depuis la recherche vers les classes et les médias : ils sont profondément transformés à l’arrivée  [img]. Source : Vincent Widmer in Lombard, F., & Weiss, L. (2018).

Comme dans l’évolution, c’est l’écosystème cognitif  qui détermine ce qu’on y trouve comme informations : celles qui peuvent se reproduire dans ce milieu-là; en somme ce qu’on veut y croire ou y entendre.  Vosoughi, S., Roy, D., & Aral, S. (2018) ont montré dans Science que certaines informations – souvent les fausses- sont retweetées et se diffusent  énormément. Nous rajouterons :…alors que d’autres -  parmi lesquelles les plus rigoureuses et nuancées – s’éteignent et ne sont pas souvent vues par le public.

Pourquoi un  solide argument raisonnable n’a pas de prise quand il remet en question un ensemble de croyances, de valeurs et d’appartenances ?

Pour garder la cohérence de notre système de pensées, ainsi que nos valeurs et appartenances sociales, d’abondantes recherches ont montré que face à une information qui les contredit, on a tendance à rejeter ce qui gène voire à modifier les informations. Par exemple mettre en doute certaines sources sans les vérifier, et à en accepter d’autres sans les vérifier non plus
Les spécialistes ont appelé ce phénomène : réduction de la dissonance cognitive) Voir par exemple The Need to Justify Our Actions The Costs and Benefits of Dissonance Reduction | Chapter.pdf.
En français, le petit ouvrage mentionné plus haut (Delouvee, 2011) analyse plusieurs cas qui peuvent aider à comprendre pourquoi un débat rationnel ne suffit pas à convaincre, notamment le ch 6 Croyances et dissonance cognitive p. 83 i

Pourquoi les théories du complot ont tant de succès ?

D’autres mécanismes de l’esprit humain expliquent aussi la recrudescence de diverses théories du complot : « …notre propension à croire à des histoires pas du tout rationnelles a une explication parfaitement rationelle. Notre cerveau est programmé pour croire au complot »  Nouyrigat, (2016)  Vous avez dit complot ? Dossier Science et Vie juillet 2016 | extraits intranet.pdf

Fig 3: Attribution de substrat neurologiques aux biais impliqués  dans les théories du complot  [img]. Source : M.Saleman in Nouyrigat, (2016)

Remonter à l’article original pour former nos élèves à l’esprit critique ?

Il ne faut pas oublier qu’un article qui dénonce une manipulation mérite aussi notre scepticisme.
Par exemple à propos de la figure 3 qui semble étayer le propose de Nouyrigat, on sait qu’il faut se méfier de la puissance d’évocation de la neuro-imagerie comme celle de la figure 3 (Cf. par exemple McCabe, D. P., & Castel, A. D. (2008). Seeing is believing: The effect of brain images on judgments of scientific reasoning. ici). Ainsi même si on est convaincu que la vulgarisation proposée est pertinente, on devrait se méfier…
Les articles scientifiques peuvent être une source sérieuse de validation : En remontant à l’article publié dans The Lancet et à son analyse par Rao et al. on peut se faire une opinion personnelle.
Vérifier les sources c’est adopter une posture scientifique  » je veux bien vous croire, mais je veux vérifier ». Cela supprime un des critères de propagation des rumeurs indiqués plus haut (Le Bras, H., 1996).
Or vérifier est devenu beaucoup plus accessible grâce à la numérisation de notre société : on peut accéder à presque toute la littérature scientifique avec un simple accès internet.  C’est l’effet Jump-to-science (actuellement expériment@l-tremplins) de ce projet qui offre aux membres (réservé aux enseignants de sciences genevois) l’accès à la plupart de ces articles.
Chacun choisira ensuite en fonction de ses pédagogies et de son public: donner à lire un extrait de l’article d’origine, une vulgarisation, ou  de transposer à sa façon en expliquant à sa manière selon son public. Cf. Par exemple Yarden, A., Falk, H., Federico-Agraso, M., Jiménez-Aleixandre, M., Norris, S., & Phillips, L. (2009)

Références

  • Chevallard, Y. (1991). La transposition didactique. Du savoir savant au savoir enseigné (2e éd. revue et augmentée, 1985 lre). Grenoble: La Pensée sauvage.
  • Delouvee, (2011) Pourquoi faisons-nous des choses stupides ou irrationnelles ?   intranet.pdf
  • Festinger, L. (1957). A Theory Of Cognitive Dissonance. Stanford University Press.
  • Gozlan, M. (2019). L’infox qui a fabrique la peur des vaccins. Le Temps, 10 avril 19) | intranet.pdf
  • Le Bras, H. (1996). La rumeur, troublante vérité du faux. Recherche, 27(290), 94.
  • Lombard, F., & Weiss, L. (2018). Can didactic transposition and popularization explain transformations of genetic knowledge from research to classroom? Science & Education, October 2018. http://dx.doi.org/10.1007/s11191-018-9977-8 | free full-text view-only version
  • Mazet, S. (2017). Manuel d’autodéfense intellectuelle. Robert Laffont.
  • McCabe, D. P., & Castel, A. D. (2008). Seeing is believing: The effect of brain images on judgments of scientific reasoning. Cognition, 107(1), 343‑352. https://doi.org/10.1016/j.cognition.2007.07.017
  • Nouyrigat, (2016)  Vous avez dit complot ? Dossier Science et Vie juillet 2016 |  intranet.pdf
  • Rao, T. S. S., & Andrade, C. (2011). The MMR vaccine and autism: Sensation, refutation, retraction, and fraud. Indian Journal of Psychiatry, 53(2), 95‑96. https://doi.org/10.4103/0019-5545.82529
    Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146‑1151. https://doi.org/10.1126/science.aap9559
  • Wakefield, A., Murch, S., Anthony, A., Linnell, J., Casson, D., Malik, M., … Walker-Smith, J. (1998). RETRACTED: Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children. The Lancet, 351(9103), 637‑641. https://doi.org/10.1016/S0140-6736(97)11096-0
  • The Need to Justify Our Actions The Costs and Benefits of Dissonance Reduction | Chapter 6
  • Yarden, A., Falk, H., Federico-Agraso, M., Jiménez-Aleixandre, M., Norris, S., & Phillips, L. (2009). Supporting Teaching and Learning Using Authentic Scientific Texts: A Rejoinder to Danielle J. Ford. pp. 125-142. Research in Science Education, 39(3), 391‑395. ISBN 94-017-9758-7
Cette entrée a été publiée dans Perspective sur les savoirs, Savoirs en sciences, avec comme mot(s)-clef(s) , , , , , . Vous pouvez la mettre en favoris avec ce permalien.

Les commentaires sont fermés.