Archives pour la catégorie Non classé

Gif de Science #11 Fluorite violette

C’est un Gif un peu particulier, puisqu’il met en scène mon p’tit caillou que-je-suis-allé-cherché-avec-mes-petites-menottes dans le Gard, sur le site de l’ancienne mine de la Grande Vernissière… (dans le Gard, commune de Durfort-Saint-Martin-De-Sossenac)

Il s’agit de fluorite (fluorure de calcium CaF2 ), qui peut prendre des couleurs très variées, depuis les bleus les plus profonds, aux jaunes, rouges, verts les plus surprenants. Sa structure cristalline est cubique (réseau cubique face centrée de Ca²⁺, avec occupation des sites tétraédriques par les ions F⁻), et se retrouve à l’échelle macroscopique, comme on peut le voir sur le spécimen que j’ai dans les mains sur le Gif

Structure cristalline de la fluorite             (par MaterialScientist (CC-BY-SA 3.0) )

Pour d’autres informations et spécimens :

 

Gif de Science #9 Les graines du Pétunia « fleurs poilues » sauvage

Comment disperser ses graines le plus efficacement possible ? Ce pétunia sauvage à fleurs poilues a adopté la stratégie d’éjecter violemment ses graines le plus loin possible !

Ces graines, de forme de disques, sont projetées à 15 m/s, et tournent sur elle-mêmes jusqu’à des fréquences de 1600 Hz selon cette dernière étude. Ce mouvement de rotation permet d’offrir un vol plus long… Jusqu’à 7 mètres !

Observez bien les petits points noirs qui partent de la fleur en bas à droite… Ce sont les graines !

Cooper ES, Mosher MA, Cross CM, Whitaker DL. 2018 Gyroscopic stabilization minimizes drag on Ruellia ciliatiflora seeds. J. R. Soc. Interface 15: 20170901.

Gif de Science #6 Aquaporine

Regardez au centre de cette structure, le petit composé jaune : c’est en réalité une molécule d’eau, comme toutes les autres (rouges et blanches) qui se déplace au coeur d’un canal membranaire appelé aquaporine. Ce canal a la propriété de ne laisser passer uniquement de l’eau, et molécule après molécule…

Les scientifiques espèrent pouvoir l’utiliser (ou en réaliser des artificielles) pour purifier / dépolluer / désaliniser l’eau impropre à la consommation. Un exemple : des nanotubes de carbone ! (http://science.sciencemag.org/content/357/6353/792)

Peter Agre a reçu en 2003 le Prix Nobel de Chimie pour les avoir découvertes.

(Source du GIF : cette vidéo, à retrouver sur Youtube)

[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

[Flash Info Chimie] #51 : métalloprotéine : un autre métal, pour d’autres applications

Les métalloprotéines sont des protéines qui contiennent un, ou plusieurs ions métalliques. Même si le nom est moins connus que « protéine » toute seule, elles sont très répandues : l’hémoglobine, par exemple, est une métalloprotéine dont la fonction est de transporter l’oxygène dans le sang. Dans ce cas, c’est un ion de Fer qui se trouve au centre de la protéine, et qui se lie à la molécule de dioxygène pour la fixer. La vitamine B12 s’organise autour d’un ion Cobalt, et est indispensable au bon fonctionnement du système nerveux. Les nitrogénases permettent à certaines bactéries de fixer l’azote atmosphérique : le diazote N2 est réduit en ammoniac NH3 grâce à ces métalloprotéines qui contiennent du molybdène et du fer. Dans la nature, le nombre de métaux impliqués est restreint : il n’y a pas grand chose à part le fer, le cuivre, le zinc, le calcium, le magnésium, le cobalt, le molybdène, le tungstène, le vanadium. Pourtant, la plupart de ces métaux ont des propriétés chimiques assez pauvres, comparées aux métaux nobles utilisés en catalyse en laboratoire (iridium, platine, palladium) : c’est l’environnement de l’ion métallique dans les métalloprotéines qui les rend actif.

Des chimistes ont eu l’idée « simple » de synthétiser des métalloprotéines artificielles, contenant, à la place des métaux « pauvres » par des métaux « nobles ». Et cela marche ! En utilisant de l’iridium à la place du fer dans des myoglobines, ils ont pu catalyser des réactions complexes en chimie organique, avec de très bon résultats.

Le DFFZ désigne la métalloprotéine

Le [M]-Myo désigne la métalloprotéine

A noter tout de même qu’un important travail de mise au point de la myoglobine a été nécessaire : la métalloprotéine la plus efficace contient non seulement de l’iridium et non du fer, mais présente également plusieurs mutations pour en augmenter son efficacité.

Pour les amateurs, la meilleure métalloprotéine a permis d’obtenir le composé 2 avec un rendement quasi quantitatif, un excès énantiomérique de 80 %, et un TON supérieur à 100. 

« Abiological catalysis by artificial haem proteins containing noble metals in place of iron » Hanna M. Key, Paweł Dydio, Douglas S. Clark & John F. Hartwig Nature 534,534–537(23 June 2016)

[Flash Info Recherche] #1 : Recherche pluridisciplinaire : valorisée, mais moins financée

J’écris des articles issus de l’actualité de la recherche, pour un mensuel bien connu, version française de « Scientific American ». Mais tous les sujets que je vois passer dans les grandes revues scientifiques ne sont pas abordés… Cette nouvelle catégorie, parallèle aux « Flash Info Chimie » sera donc là pour donner un instantané -court- de ces articles de recherche, souvent passionnant, qui se retrouvent néanmoins sous-médiatisés…

Comme partout dans le monde, la pluridisciplinarité est encouragée, valorisée en recherche. Et pourtant, les projets qui mêlent plusieurs disciplines scientifiques restent sous-financées. C’est la conclusion d’une étude parue dans Nature il y a quelques mois : En analysant les demandes et les attributions des financements de l’Australian Research Council, Lindell Bromham, Russell Dinnage et Xia Hua de l’Université Nationale d’Australie (Canberra), ont montré qu’un projet avait d’autant moins de chance d’être financé qu’il convoquait une équipe pluridisciplinaire (indépendamment de la discipline, du nombre de contributeur, de l’institution de rattachement)

 

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale). En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement.

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale).
En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement. (source)

La situation est-elle proprement australienne ? Lorsqu’on voit, en France, la difficulté pour les docteurs qui ont fait appel, lors de leurs travaux de thèses, à plusieurs disciplines, d’être qualifié pour le recrutement des Maîtres de Conférences dans une des sections CNU, on peut hélas imaginer que les instances de financement françaises, et probablement européennes, ne font pas mieux que leur homologue australienne.

« Interdisciplinary research has consistently lower funding success » Lindell Bromham, Russell Dinnage & Xia Hua Nature 534,684–687(30 June 2016) doi:10.1038/nature18315

Vaccin contre la dengue (Sanofi-Pasteur)… Oui, mais avec modération !

Compte tenu du titre, il me semble qu’il faille tout de suite mettre les choses au point : Je me positionne tout à fait pour l’utilisation de la plupart des vaccins (en particulier tous ceux obligatoires ou recommandés en France), et ce, à la lumière des publications scientifiques qui en montrent l’effet positif pour la santé à l’échelle individuelle, ainsi qu’à l’échelle sociétale. (Pour plus de détails, voir à la fin du texte).

Voilà,on va pouvoir, en toute sérénité, mettre en question la vaccination contre la dengue à l’aide du Dengvaxia, développé par Sanofi-Pasteur, actuellement fabriqué à Neuville-Sur-Saône.

dengvaxia

La dengue : un fléau aux quatre visages*

La dengue est une maladie virale humaine transmise via les moustiques du genre Aedes (dont fait partie le fameux moustique tigre). 40 % de la population mondiale est exposée à ce virus : on estime qu’il y a chaque année plusieurs centaines de millions de contamination, dont 36 millions de personnes qui développent les symptômes classiques de la dengue, mais aussi 2,5 millions de formes graves, et 21 000 décès. Il n’existe aucun antiviral efficace contre cette maladie, la prise en charge consiste donc en le traitement de la douleur et de la fièvre… Dans les cas grave, l’hospitalisation est indispensable.

world_denguetransmission_extension_2008

Allons un tout petit peu plus loin dans la description de cette maladie, afin de comprendre son originalité (sa perversité, j’allais dire) : il existe quatre sérotypes, appelés DENV-1 à DENV-4, qui donnent des symptômes similaires. Lorsqu’une personne est infectée par un des sérotypes, elle se trouve immunisée (définitivement) contre lui. Mais pas contre les quatre autres: Pire, le risque qu’elle développe une forme grave de Dengue est multiplié par 10 lors d’une nouvelle infection par un autre sérotype. 

La lutte contre cette maladie consiste actuellement essentiellement en la destruction de l’habitat des moustiques (eaux stagnantes), et l’utilisation de répulsifs. D’autres pistes sérieuses sont explorées, comme l’introduction massive d’insectes mâles génétiquement modifiés pour que leur descendance ne parvienne pas à l’âge adulte (une diminution de 90 % de la population de moustique est attendue en 6 mois), ou encore l‘introduction de la bactérie Wolbachia qui affecte les moustiques, se transmet de génération en génération, et empêche le virus de la dengue de se répliquer dans cet hôte. Et puis, bien sûr, la vaccination. L’humain étant à la fois un vecteur, et le seul réservoir de ces virus, une vaccination efficace pourrait, idéalement, éradiquer définitivement la maladie.

Le Dengvaxia, un vaccin « faute de mieux » ?

Il y a plusieurs vaccins en cours d’homologation, mais seul le Dengvaxia, développé par Sanofi-Pasteur est actuellement sur le marché. 11 pays l’ont actuellement homologué (Depuis le Mexique à Singapour, en passant par la Thaïlande, le Brésil, etc.). Ce vaccin a une efficacité toute relative, comprise entre 43 % pour DENV-2 et 77% pour DENV-4 (1).** Les autres candidats vaccins ne semblent pas faire mieux que le Dengvaxia…

Venons-en, enfin, au cœur du problème. Le principe du vaccin (de tous les vaccins, en réalité) consiste en la sensibilisation du système immunitaire en l’exposant à des fragments / particules / virus attténués, afin qu’il développe des anticorps « comme si » le corps avait déjà été en contact avec la maladie. Le Dengvaxia est ainsi un vaccin tétravalent, c’est-à-dire qu’il sensibilise le système immunitaire aux quatre sérotypes connus lors de sa mise au point. Mais souvenez-vous : le risque de formes graves augmente considérablement après une première exposition : le vaccin risque donc d’accroître ce risque ! Cela n’aurait aucune incidence si le vaccin était efficace à 100 % sur tous les sérotypes : il n’y aurait, dans ce cas, pas de nouvelle contamination. Mais avec son efficacité qui n’est pas totale, un problème inédit (à ma connaissance) dans l’histoire de la vaccination apparaît : un individu vacciné pourrait présenter un risque accru de dengue sévère comparé à un autre jamais en contact avec cette maladie.

Les résultats de la phase III de l’essai clinique du vaccin, celle qui est effectuée sur de grandes populations, n’a pas permis de lever cette interrogation :

  • Des différences nettes entre l’efficacité du Dengvaxia chez les patients séropositifs (qui avaient déjà eu une dengue avant vaccination) et chez les patients séronégatifs ont été observés: En réalité, Aucune efficacité statistiquement significative n’a été mesurée chez les personnes séronégatives (2).
  • L’efficacité chez les enfants (plus souvent séronégatifs du fait de leur âge), est nettement plus faible que chez les groupes de sujets plus âgés (2).
  • Il a été observé également une augmentation du risque d’hospitalisation pour dengue sévère au cours de la troisième année après administration du vaccin, principalement chez les jeunes enfants, qui ont été de fait exclu de la cible du vaccin (proposé à partir de 9 ans) (1). Ce risque a été mesuré à + 7,5 %, mais du fait de l’échantillon très restreint sur lequel a été fait l’étude, il est en réalité compris entre 1,2 et … 314 %. De travaux de plus larges ampleurs doivent être entrepris pour affiner tout cela !

De quoi renvoyer le Dengvaxia dans les oubliettes de l’histoire des ratés de l’industrie pharmaceutique ? Tout de même pas !

Vaccin contre la dengue : à utiliser avec modération !

À la lumière de ces résultats ni catastrophiques, ni rassurants, des scientifiques ont cherché à établir avec plus de précision quelles étaient les situations sanitaires et épidémiologiques pour lesquelles le vaccin serait bénéfique. Une équipe d’épidémiologistes de l’Université de Stanford a ainsi modélisé mathématiquement l’impact de la vaccination chez des populations dans des zones différemment exposées à la dengue, en prenant en compte les résultats -mitigés- dont nous venons de parler. Ils ont étudié l’impact du vaccin sur des périodes allant de deux ans à trente ans. D’après leurs travaux, il est important d‘adapter la vaccination aux zones géographiques en fonction de l’endémicité de la maladie, et, si possible, en fonction du statut immunitaire de chaque individu.(2)

La logique qui transparaît de cette modélisation est assez simple :

À l’échelle collective :

  • En cas de forte endémicité, le risque d’être contaminé plusieurs fois par les différents sérotypes de la dengue est très grand. La vaccination n’induit globalement pas de risques supplémentaires en rajoutant une exposition. De toute façon, cette exposition avait de très grande chance de se produire… Le bénéfice est donc réel. Les auteurs montrent d’ailleurs que dans ces zones, on pourrait abaisser l’âge minimal de vaccination en dessous de 9 ans (les enfants plus jeunes étant déjà confronté au risque d’être contaminé plusieurs fois…)
  • En cas de faible ou de moyenne endémicité, le risque d’être contaminé une fois existe, mais celui d’être contaminé plusieurs fois est relativement faible. La vaccination, qui rajoute une exposition, peut devenir contre-productive, et causer des symptômes graves lors du contact avec un des sérotypes de la dengue. Une vaccination globale dans ces zones est donc à proscrire.
  • Pour les voyageurs provenant de zone où la dengue est absente, le risque d’attraper la dengue plusieurs fois est quasi nul, aucune vaccination ne doit être entreprise pour la même raison.

À l’échelle individuelle :

  • Une personne séronégative n’a aucun intérêt à se faire vacciner : cela crée une situation de première exposition, et augmente les risques de développer des symptômes graves.
  • Une personne séropositive à un des dengues a tout intérêt à se faire vacciner, puisque le risque de développer des formes graves a déjà été accru par une première infection. Les épidémiologistes ont estimé que ce n’était cependant pas particulièrement intéressant dans les zones de faible endémicité, mais efficace en zone de forte endémicité.

La conclusion globale de cette étude sonne comme une mise en garde : la vaccination par le dengvaxia est intéressante, mais pas n’importe où, pas chez n’importe qui. L’idéal est de pouvoir effectuer un test rapide (et pas cher !) pour connaître le statut sérologique de chaque individu qui se fait vacciner. Si cela n’est pas le cas, il ne faut agir qu’en zone de forte endémicité, où, en vaccinant tout le monde, y compris les séronégatifs, on aura tout de même un bénéfice global en matière de santé publique.

J’aimerais ajouter une remarque plus générale : ce type d’étude montre une chose importante : LA Vaccination n’existe pas (pas plus que L’Antibiotique, ou LE Anticancéreux !) : il existe DES vaccins dont l’évaluation doit être réalisée au cas par cas, de façon minutieuse et précise. Espérons qu’à la lumière de cette étude, ce vaccin soit utilisé de façon réellement utile et efficace, de façon modérée et éclairée dans les pays qui l’ont validé.

 

* Il a été annoncé un cinquième sérotype pour la dengue lors d’une conférence internationale en 2013. Mais cela n’a jamais été confirmé par un article dans une revue. Une discussion à lire sur researchgate montrer qu’il ne s’agirait en fait que d’un variant de DENV-4 (ouf…)

**Il faut bien comprendre qu’en dépit d’une efficacité relativement faible à l’échelle humaine, un vaccin peut permettre l’éradication d’une maladie à l’échelle collective : une diminution de 50 % des malades signifie également un risque de contamination nettement plus faible qu’en l’absence de vaccin. Avec le risque de contamination plus faible ET la probabilité plus grande d’être efficacement immunisé, on arrive à des diminutions réelles et rapides de la prévalence des maladies.

Suite de la mise au point initiale sur les vaccins :

  • Les vaccins sont des produits pharmaceutiques soumis aux mêmes contrôles que les médicaments. Ceux qui sont aujourd’hui obligatoires ou qui sont recommandés en France ont fait leurs preuves, tant pour leur innocuité que pour leur efficacité. De plus, tout comme les médicaments, dire « les vaccins c’est le mal » est aussi idiot que dire « les antibiotiques c’est le mal », ou « les anti-douleurs, c’est le mal », alors qu’il en existe dix mille différents…
  • Des maladies ont disparues (La variole), d’autres pourront disparaître (la polio actuellement en voie d’éradication) grâce à la vaccination.
  • Il existe des effets secondaires aux vaccins, et ils sont pris en compte lors de leur évaluation.
  • L’aluminium présent dans les vaccins n’est responsable ni de cancers, ni de maladies neurodégénératives, ni de maladies auto-immune. Il a été montré qu’il était totalement sûr d’un point de vue de la santé (On pourra lire, entre autre les conclusions de cette revue de la littérature par des membres de la Collaboration Cochrane, qui font référence en terme de sérieux ET d’indépendance en recommandation médicale).
  • Néanmoins, on peut effectivement, d’un point de vue éthique, questionner la question de l’obligation vaccinale en vigueur en France, d’autant qu’elle n’est pas efficace, et qu’elle génère un scepticisme face aux vaccins. (J’ai déjà parlé de ce point dans cet article : « Vaccins : marche-t-on sur la tête ?« )

(1) Site de l’OMS : « Questions-Réponses sur les vaccins contre la Dengue »
(2) « Benefits and risks of the Sanofi-Pasteur dengue vaccine: Modeling optimal deployment » N.M. Ferguson et al.Science 02 Sep 2016: Vol. 353, Issue 6303, pp. 1033-1036
(3) « Surprising new dengue virus throws a spanner in disease control efforts » Science  25 Oct 2013, 342 (6157), pp. 415

Trop de faux positifs en IRM fonctionnelle : un travail scientifique remarquable

Le papier d’Anders Eklund a fait grand bruit dans la presse généraliste (anglophone) et spécialisée (surtout anglophone aussi) : le traitement des données par les logiciels d’IRM fonctionnelle minimise les faux-positifs, et transforme des résultats douteux en des corrélations apparemment statistiquement irréprochables.(1)

 

En IRM fonctionnelle, un double traitement statistique

Un résultat scientifique est considéré comme fiable si le risque que l’effet mesuré ne soit dû qu’au hasard est inférieur à 5 % (le fameux p < 0,05, sésame pour la publication des résultats dans la plupart des revues). Afin de minimiser ce risque, les études doivent multiplier les expériences, et ainsi accumuler suffisamment de données, pour conclure sur l’existence, ou non, d’une corrélation/ d’un effet/ d’un lien entre les facteurs étudiés.

Le problème, c’est qu’en IRM, le traitement statistique n’est vraiment pas simple. Afin d’y voir plus clair, revenons rapidement sur le principe de cette technique : La machine à Imagerie par Résonance Magnétique se base sur les propriétés magnétiques des molécules présentes dans l’organe examiné. Dans le cerveau, les zones activées lors d’un exercice intellectuel consomment davantage de dioxygène que les autres zones : cet appauvrissement en oxygène change localement les propriétés magnétiques, et c’est ça qui est détecté par la machine. (pour davantage d’explication, vous pouvez aller voir cet article : « L’IRM, la machine à observer le cerveau« )

Le cerveau est donc (virtuellement) découpé en petit cube de quelques mm³, appelés voxels, et lors d’une expérience d’IRM fonctionnelle, l’activité de chaque voxel est mesuré des dizaines de fois*. Si les mesures réalisées s’écartent suffisamment de celles attendues chez l’individu au repos, le voxel est considéré comme actif durant l’examen. Suffisamment, cela signifie « avec un risque de faux positif suffisamment faible« , et on retrouve ainsi le facteur p, qui doit être, pour chaque voxel, inférieur à 5 %, ou mieux, 1% voire 0,1 %…

Bon, jusque là, tout va -à peu près- bien. Le soucis, c’est que même avec un risque de faux positif de 1 sur 1000 pour chaque voxel (ce qui est déjà très fiable), on risque d’arriver à une cartographie 3D du cerveau qui risque d’être complètement fausse ! En effet, il faut considérer plusieurs centaines de milliers de voxels pour un cerveau : la probabilité que l’activité d’au moins un d’entre eux soit effectivement faussement positive est approximativement égale à 100 %.

Une seconde étape de traitement statistique vient alors à la rescousse : les voxels dont l’activité est cohérente sont regroupés entre eux, et forment de petites structures appelés clusters. Les caractéristiques de ces structures sont à leur tour comparées avec celle qui se forment également au repos. Encore une fois, il s’agit de vérifier que, d’un point de vue statistique, le risque de faux positifs reste inférieur à la limite que l’on s’est fixé.

A l’issu de ces deux traitements, la cartographie 3D des zones au repos et des zones actives du cerveau du patient est censée être fiable.

Les méthodes dites paramétriques : Pas assez fiables en IRM fonctionnelle !

Afin de vérifier la fiabilité de ce traitement statistique, et surtout des méthodes qu’il utilise, Eklund et ses collègues se sont servis des données du Human Connectome Project, qui sont totalement et gratuitement accessibles, et les ont testé à l’aide des trois logiciels actuellement utilisés en laboratoire. Leur idée est simple : les IRM fonctionnelles d’individus sains et au repos ne doivent pas faire apparaître de différences statistiquement significatives.

Regroupant les données par groupe de 20 sujets, choisis aléatoirement parmi 499, ils ont montré que les logiciels, quelque soient leur paramétrage, établissaient des différences inter-groupes soi-disant statistiquement significative, et ce, bien au-delà des 5 % d’erreurs tolérées. Bref, les résultats des 30 000 publications se basant sur les IRM fonctionnelles ont été obtenus avec des traitements statistiques… faux.

Pour faire vite, sur un sujet que je ne maîtrise pas en profondeur, les méthodes statistiques dites paramétriques utilisées par les logiciels reposent sur des hypothèses sur les modèles de répartition des valeurs et mesures. Mais encore faut-il que ces modèles soient adaptés aux expériences, ce qui ne semble pas être le cas ici. En fait, personne n’avait réellement, en 30 ans d’utilisation d’IRM fonctionnelle, vérifié que ces modèles étaient adaptés.

Il existe également des méthodes dites non paramétriques, qui nécessitent des calculs bien plus long et complexes, mais qui permettent de ne pas faire d’hypothèses sur les modèles de répartition. Elles sont connues depuis longtemps, mais cela ne fait qu’une poignée d’année que les chercheurs peuvent les utiliser réellement, grâce aux progrès informatiques… Eklund a d’ailleurs pu vérifier dans sa publication, sur le même corpus, qu’elles donnaient des résultats tout à fait acceptables.(2)

Une démarche globale et une conclusion impeccables… De la bonne science !

A delà du côté sexy de la publication, c’est la démarche de ce travail (3) qui m’a particulièrement séduit, et la mise en lumière du fonctionnement des neurosciences.

Pendant son doctorat, Enders Eklund a pu constaté, à l’aide de données limitées, que les méthodes paramétriques ne donnaient pas toujours des résultats bien fiables en IRM fonctionnelle. Après son post-doc, se rendant compte que ses premiers travaux n’ont pas été repris et complétés, il a retroussé les manches, et entrepris le travail beaucoup plus poussé présenté dans cet article .

Mais au lieu de publier directement, il a d’abord proposé ses méthodes et ses résultats à l’ensemble de la communauté scientifique grâce à la plateforme de pré-publication arXiv. C’est donc une version améliorée, et dont la démarche a été validée par d’autres scientifiques qui a été publiée dans PNAS. Ce mode de construction des connaissances permet pour moi d’éloigner la recherche du sensationnalisme, tout en proposant des résultats davantage robustes, puisqu’ils auront pu être éventuellement retravaillés, et reproduits.**

Ce qui est intéressant également, c’est de constater que les neuroscientifiques qui utilisent l’IRM fonctionnelle ne semblent pas maîtriser les outils informatiques et mathématiques qu’ils utilisent au quotidien. Inutile de leur lancer la pierre, c’est également le cas de nombres de biologistes, des chimistes,… (Sans parler des médecins, incapables de revenir sur leurs pratiques quand bien même les études scientifiques les contredisent…). En neuroscience, l’IRM fonctionnelle joue un rôle central de « preuve », pour un grand nombre d’assertion qui arrivent, telles quelles, chez le grand public. On apprend pourquoi « L’eau coupe l’appétit« , que « on a localisé le fameux esprit de noël dans le cerveau« , qu' »il faut jouer aux jeux vidéos contre la sclérose en plaque« … Bref, si l’IRM fonctionnelle le dit, c’est que c’est vrai !! Les neuroscientifiques ont donc une responsabilité lourde à porter : on leur fait (démesurément) confiance. Raison de plus pour qu’ils maîtrisent leurs méthodes et les réactualisent…

Enfin, reste la fameuse question : faut-il jeter les 30000 études de neurosciences réalisées à l’aide d’IRM fonctionnelle ? Pour les auteurs, il n’en est pas question. Certaines présentent sans aucun doute des résultats erronés. Mais en général, elles se trouvent rapidement marginalisées, puisqu’elles ne sont pas reproductibles. Seules les conclusions entérinées par plusieurs publications, par des méta-analyses persistent après quelques années. Et c’est valable pour toutes les disciplines scientifiques ! Ce travail nous (ré-)apprend ainsi que le temps de la recherche scientifique s’accorde mal avec le temps des actualités et du sensationnel… Ne l’oublions pas !

 

 

* Comme il faut plusieurs secondes par mesure à chaque fois, cela prend de nombreuses minutes, pendant lesquelles le sujet est placé dans la machine, qui est tout sauf rassurante, et risque également de perturber les mesures… Mais c’est encore un autre problème...

** L’American Chemical Society, plus gros éditeur des journaux de chimie a annoncé la mise en ligne de son propre service de pré-publication, appelée ChemrXiv. Espérons que cette initiative, d’un groupe tout à fait privé, et très peu enclin à l’accès libre des publications, puisse présenter les mêmes intérêts qu’arXiv…

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » A Eklund et al. PNAS 2016

(2) on pourra regarder le début -et la suite- de ce cours pour comprendre les différences et les enjeux des méthodes paramétriques et non paramétriques (pdf)

(3) On pourra lire le récit de cette démarche sur le site de l’Université de Linköping (Suède)