Archives pour la catégorie actualité

Manifeste pour une science reproductible (I) : le constat

Cet article fait suite à la publication, il y a quelques mois, dans Nature Human Behaviour d’un article intitulé « A Manifesto for Reproducible Science » écrit par M.R. Munafò et ses collègues issus de prestigieuses universités américaines, anglaises et néerlandaise.

La recherche scientifique, telle qu’elle est menée actuellement, est en pleine « crise de la reproductibilité », questionnant totalement les méthodologies des laboratoires, mais également les modes de publications, d’interactions, et d’évaluations de la recherche. Le phénomène a été particulièrement mis en avant depuis les années 2000. Non pas qu’il ne soit pas plus ancien, (je dirais même qu’il est inhérent au prestige que représente la recherche et les découvertes scientifiques), mais il devient beaucoup plus visible aujourd’hui, sans doute grâce à une meilleure circulation des informations et des publications.

Une « crise de la reproductibilité », des réalités différentes

Derrière ce nom, se cache en réalité des pratiques scientifiques différentes, de la fraude pure et simple, à la non publication de résultats négatifs, en passant par les erreurs « de bonne foi », ou liées à des méthodologies contestables. Il serait difficile de tout lister, bien entendu, mais je peux revenir, à titre d’exemple, sur quelques exemples choisis.

Biais de méthodologie : le cas de l’IRM fonctionnelle

L’Imagerie par Résonance Magnétique a offert aux neurosciences l’opportunité de « visualiser », en temps réel, la réponse de nos cerveaux lorsqu’ils sont stimulés par une réflexion, un sentiment, une sensation. Cette technique, appelée IRM Fonctionnelle permet de mesurer en réalité l’évolution de la quantité de dioxygène dans les différentes zones du cerveau, et ainsi, de voir les zones actives (pauvres en O2, qui a été consommé) et les zones au repos. Le problème, dont j’ai parlé ici sur ce blog (et là pour Pour La Science), concerne la méthodologie de traitement des données pour produire l’image du cerveau. Pour simplifier, un chercheur, Enders Eklund a montré que les méthodes utilisées depuis 20 ans en IRM fonctionnelle donnaient des résultats… Faux la plupart du temps.(1) Quelques 30 000 publications ayant été basées sur l’utilisation de ces méthodes, la question de la reproductibilité de ces travaux scientifiques est critique en neuroscience. Si de nouvelles méthodes de traitement de données beaucoup plus fiables existent aujourd’hui, elles ne pourront pas être utilisées pour évaluer les publications plus anciennes, les données brutes n’ayant jamais été publiées…

Cachez ces résultats négatifs que je ne saurais voir…

Combien de travaux ont été entrepris, sans savoir que d’autres équipes de recherche avaient déjà essayé les mêmes choses, n’avaient rien obtenu et surtout… Rien publié ? Cette non publication occasionne des coûts importants, et une perte de temps considérable. En terme de reproductibilité des résultats, les dégâts sont également importants:
Imaginons que 10 équipes fassent la même expérience, pour établir que « A implique B« . 9 obtiennent un résultat négatif (absence de corrélation) –ne le publient pas– et une, par hasard, trouve une corrélation statistiquement significative (risque d’erreur inférieure à 5 %). Et la publie. C’est cette conclusion qui sera retenue. Alors que les données conjointes des 10 équipes auraient très probablement conduites à une infirmation du lien de causalité entre A et B.
Ce problème a conduit à la multiplication, dans les années 2000, de journaux qui publient les résultats négatifs. D’autres plaident pour des plateformes d’accès libre pour ces résultats, servant de bases de données de ce qui a déjà été tenté, mais qui n’a pas marché…(2)

61 % de rendement… On arrondit à 70 % ?

Enjoliver les résultats… QUE C’EST FACILE !! Prenons un exemple dans un domaine où les conséquences ne sont pas dramatiques (contrairement à la médecine et la pharmaceutique), et que je connais bien, à savoir la chimie organique. Lorsque j’étais en thèse de chimie organique, je travaillais sur la mise au point de réactions conduisant à des molécules de type pyridoacridines.

Certaines de ces réactions donnaient des résultats au rendement très variable. J’obtenais effectivement la bonne molécule à chaque coup (ce qui était en soi un résultat très satisfaisant), mais parfois avec 15 %, parfois avec 50 % de rendement. Il va sans dire que dans mon manuscrit, seul ce « 50 % » figure. Mon premier réflexe est… de ne pas trop m’en vouloir ! Après tout,

  • Quelqu’un au labo est passé derrière, a confirmé ces 50 %, et a amélioré ce résultat de façon assez spectaculaire.
  • Ces réactions ne serviront probablement jamais à rien… Et puis, je l’ai bien obtenu, isolé, mon produit, zut !

Ce type de comportement est extrêmement répandu en chimie fine, d’autant qu’il est très rare que d’autres refassent exactement les même manipulations avec les mêmes substrats. Bref : pas vu, pas pris… Pas (trop) de conséquence. Ce qui est dommageable, c’est être formé -lors d’une thèse par exemple- avec ce type de comportement. Qui fait petit à petit accepter un peu n’importe quoi. Sans fraude manifeste, sans volonté de nuire, on arrive à des résultats non productibles.

« Avez vous échoué à reproduire une expérience ? » tiré de cet article paru dans Nature.(3) Et le domaine gagnant est… La chimie !!

Les essais cliniques : quel gâchis !!

Dans un article paru dans Nature en 2012, C. G. Begley et L.M. Ellis tirent la sonnette d’alarme : en oncologie particulièrement, le taux d’échecs des essais cliniques ne peut pas s’expliquer uniquement par la difficulté de transposer à l’humain les recherches pré-cliniques. Il y a un gros problème de fiabilité et de reproductibilité des travaux scientifiques pré-cliniques(4). Ainsi, reportent-ils, une équipe de Bayer a analysé les données publiées concernant 67 projets de l’entreprise (dont 47 en oncologie) : le taux de reproductibilité est d’environ 20 – 25 %. D’autres chercheurs, de l’entreprise AmGen (Californie) n’ont pu confirmer les résultats que de 6 articles sur 53 (11%). A l’heure de l’envolée du coût de développement des médicaments anti-cancéreux, la perte d’argent, et de temps liés à ces travaux non reproductibles représente un gâchis considérable.

 

Ces quelques exemples ne sauraient être représentatifs. Les recherches en psychologie ont particulièrement été montrées du doigt, mais on voit bien que l’ensemble des disciplines universitaires sont concernées. Que ce soit en raison de mauvaises pratiques (non conservation/ non publication des données brutes), de biais cognitifs, de pressions (financière, académique, …), ce sont toutes les étapes de la recherche qui se retrouvent impactées, comme le résume cette figure de l’article de Munafò et coll. (5):

 

À venir : Manifeste pour une science reproductible (II): les propositions

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » E. Eklund et al. PNAS 2016.
(2) « Negative Results Are Published » B. O’Hara Nature 471,448–449 (24 Mars  2011).
(3) « 1500 scientists lift the lid on reproductibility » Monya Beker Nature (25 mai 2016)
(4) « Drug development : Raise standards for preclinical cancer research » C.G. Begley et L.M. Ellis  Nature 483, 531–533(29 March 2012)
(5) « A Manifesto for Reproducible Science » Marcus R. Munafò et al. Nature Human Behaviour 1, 0021 (2017)

[Flash Info Recherche] #3 Du nouveau dans les thérapies anti-SIDA

Il est de bon ton de parler aujourd’hui du SIDA comme d’une maladie chronique que l’on contrôle grâce à un cocktail médicamenteux d’anti-rétroviraux (ART) efficaces. Si l’espérance de vie aujourd’hui d’une personne séropositive, en France, semble se rapprocher de celle d’une personne séronégative, avoir le SIDA reste une situation difficile et lourde à porter. Outre les conséquences sociales, cette maladie impose la prise d’ART à vie : ceux-ci rendent certes le HIV indétectable, mais ils ne l’éradiquent pas : quelques semaines après l’arrêt du traitement, le virus ré-apparaît.

N’oublions pas également que la situation française n’est pas la norme à l’échelle de la planète : nombre de patients asiatiques, africains, américains n’auront jamais accès aux ART, faute de moyens.

Une étude parue dans la revue Science il y a quelques mois laisse néanmoins entrevoir l’espoir d’une réelle rémission après la prise d’ART : en travaillant sur le SIV – équivalent simiesque du HIV -, une équipe américaine a découvert qu’en traitant des singes malades avec un anticorps artificiel (spécifique de certaines protéines du système gastro-intestinal) en même temps que les ART, les taux de SIV ne remontaient pas après l’arrêt du traitement (pendant -au moins- 9 mois).(1)

Les chercheurs sont partis du fait que les tissus du système gastro-intestinal jouent un rôle de réservoir permanent de VIH (ou de SIV). Les lymphocytes T4, globules blancs cibles du virus, adhèrent à ces tissus grâce à une protéine de surface de la famille des intégrines : l’intégrine α4β7. Si on empêche ces globules blancs d’adhérer, peut-on empêcher la prolifération du virus ? La réponse semble bien positive :
Des singes SIV-positif ont été traités aux ART accompagné d’anticorps monoclonaux spécifiques de α4β7 simiesque. Après arrêt total des ART et de ces anticorps, le taux de SIV n’est pas remonté, et reste indétectable. Le mécanisme précis est mal connu, mais la prise de ces anticorps ont pour conséquence la diminution de la circulation des lymphocytes T4 riches en α4β7 dans les tissus gastro-intestinaux. Chez le singe, cela semble suffire pour limiter la contamination de ces globules blancs, et donc pour permettre au système immunitaire de lutter efficacement contre le virus.
Chez l’homme, des anticorps monoclonaux spécifiques à l’intégrine α4β7 sont déjà commercialisés pour d’autres indications. Les études humaines devraient probablement en être accélérés… En espérant que leurs résultats soient aussi spectaculaires !

(1) « Sustained virologic control in SIV+ macaques after antiretroviral and α4β7 antibody therapy » Siddappa N. Byrareddy, James Arthos, Claudia Cicala, et al. Science 14 Oct 2016 Vol. 354, Issue 6309, pp. 197-202

[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

[Flash Info Chimie] #51 : métalloprotéine : un autre métal, pour d’autres applications

Les métalloprotéines sont des protéines qui contiennent un, ou plusieurs ions métalliques. Même si le nom est moins connus que « protéine » toute seule, elles sont très répandues : l’hémoglobine, par exemple, est une métalloprotéine dont la fonction est de transporter l’oxygène dans le sang. Dans ce cas, c’est un ion de Fer qui se trouve au centre de la protéine, et qui se lie à la molécule de dioxygène pour la fixer. La vitamine B12 s’organise autour d’un ion Cobalt, et est indispensable au bon fonctionnement du système nerveux. Les nitrogénases permettent à certaines bactéries de fixer l’azote atmosphérique : le diazote N2 est réduit en ammoniac NH3 grâce à ces métalloprotéines qui contiennent du molybdène et du fer. Dans la nature, le nombre de métaux impliqués est restreint : il n’y a pas grand chose à part le fer, le cuivre, le zinc, le calcium, le magnésium, le cobalt, le molybdène, le tungstène, le vanadium. Pourtant, la plupart de ces métaux ont des propriétés chimiques assez pauvres, comparées aux métaux nobles utilisés en catalyse en laboratoire (iridium, platine, palladium) : c’est l’environnement de l’ion métallique dans les métalloprotéines qui les rend actif.

Des chimistes ont eu l’idée « simple » de synthétiser des métalloprotéines artificielles, contenant, à la place des métaux « pauvres » par des métaux « nobles ». Et cela marche ! En utilisant de l’iridium à la place du fer dans des myoglobines, ils ont pu catalyser des réactions complexes en chimie organique, avec de très bon résultats.

Le DFFZ désigne la métalloprotéine

Le [M]-Myo désigne la métalloprotéine

A noter tout de même qu’un important travail de mise au point de la myoglobine a été nécessaire : la métalloprotéine la plus efficace contient non seulement de l’iridium et non du fer, mais présente également plusieurs mutations pour en augmenter son efficacité.

Pour les amateurs, la meilleure métalloprotéine a permis d’obtenir le composé 2 avec un rendement quasi quantitatif, un excès énantiomérique de 80 %, et un TON supérieur à 100. 

« Abiological catalysis by artificial haem proteins containing noble metals in place of iron » Hanna M. Key, Paweł Dydio, Douglas S. Clark & John F. Hartwig Nature 534,534–537(23 June 2016)

[Flash Info Recherche] #1 : Recherche pluridisciplinaire : valorisée, mais moins financée

J’écris des articles issus de l’actualité de la recherche, pour un mensuel bien connu, version française de « Scientific American ». Mais tous les sujets que je vois passer dans les grandes revues scientifiques ne sont pas abordés… Cette nouvelle catégorie, parallèle aux « Flash Info Chimie » sera donc là pour donner un instantané -court- de ces articles de recherche, souvent passionnant, qui se retrouvent néanmoins sous-médiatisés…

Comme partout dans le monde, la pluridisciplinarité est encouragée, valorisée en recherche. Et pourtant, les projets qui mêlent plusieurs disciplines scientifiques restent sous-financées. C’est la conclusion d’une étude parue dans Nature il y a quelques mois : En analysant les demandes et les attributions des financements de l’Australian Research Council, Lindell Bromham, Russell Dinnage et Xia Hua de l’Université Nationale d’Australie (Canberra), ont montré qu’un projet avait d’autant moins de chance d’être financé qu’il convoquait une équipe pluridisciplinaire (indépendamment de la discipline, du nombre de contributeur, de l’institution de rattachement)

 

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale). En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement.

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale).
En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement. (source)

La situation est-elle proprement australienne ? Lorsqu’on voit, en France, la difficulté pour les docteurs qui ont fait appel, lors de leurs travaux de thèses, à plusieurs disciplines, d’être qualifié pour le recrutement des Maîtres de Conférences dans une des sections CNU, on peut hélas imaginer que les instances de financement françaises, et probablement européennes, ne font pas mieux que leur homologue australienne.

« Interdisciplinary research has consistently lower funding success » Lindell Bromham, Russell Dinnage & Xia Hua Nature 534,684–687(30 June 2016) doi:10.1038/nature18315

Vaccin contre la dengue (Sanofi-Pasteur)… Oui, mais avec modération !

Compte tenu du titre, il me semble qu’il faille tout de suite mettre les choses au point : Je me positionne tout à fait pour l’utilisation de la plupart des vaccins (en particulier tous ceux obligatoires ou recommandés en France), et ce, à la lumière des publications scientifiques qui en montrent l’effet positif pour la santé à l’échelle individuelle, ainsi qu’à l’échelle sociétale. (Pour plus de détails, voir à la fin du texte).

Voilà,on va pouvoir, en toute sérénité, mettre en question la vaccination contre la dengue à l’aide du Dengvaxia, développé par Sanofi-Pasteur, actuellement fabriqué à Neuville-Sur-Saône.

dengvaxia

La dengue : un fléau aux quatre visages*

La dengue est une maladie virale humaine transmise via les moustiques du genre Aedes (dont fait partie le fameux moustique tigre). 40 % de la population mondiale est exposée à ce virus : on estime qu’il y a chaque année plusieurs centaines de millions de contamination, dont 36 millions de personnes qui développent les symptômes classiques de la dengue, mais aussi 2,5 millions de formes graves, et 21 000 décès. Il n’existe aucun antiviral efficace contre cette maladie, la prise en charge consiste donc en le traitement de la douleur et de la fièvre… Dans les cas grave, l’hospitalisation est indispensable.

world_denguetransmission_extension_2008

Allons un tout petit peu plus loin dans la description de cette maladie, afin de comprendre son originalité (sa perversité, j’allais dire) : il existe quatre sérotypes, appelés DENV-1 à DENV-4, qui donnent des symptômes similaires. Lorsqu’une personne est infectée par un des sérotypes, elle se trouve immunisée (définitivement) contre lui. Mais pas contre les quatre autres: Pire, le risque qu’elle développe une forme grave de Dengue est multiplié par 10 lors d’une nouvelle infection par un autre sérotype. 

La lutte contre cette maladie consiste actuellement essentiellement en la destruction de l’habitat des moustiques (eaux stagnantes), et l’utilisation de répulsifs. D’autres pistes sérieuses sont explorées, comme l’introduction massive d’insectes mâles génétiquement modifiés pour que leur descendance ne parvienne pas à l’âge adulte (une diminution de 90 % de la population de moustique est attendue en 6 mois), ou encore l‘introduction de la bactérie Wolbachia qui affecte les moustiques, se transmet de génération en génération, et empêche le virus de la dengue de se répliquer dans cet hôte. Et puis, bien sûr, la vaccination. L’humain étant à la fois un vecteur, et le seul réservoir de ces virus, une vaccination efficace pourrait, idéalement, éradiquer définitivement la maladie.

Le Dengvaxia, un vaccin « faute de mieux » ?

Il y a plusieurs vaccins en cours d’homologation, mais seul le Dengvaxia, développé par Sanofi-Pasteur est actuellement sur le marché. 11 pays l’ont actuellement homologué (Depuis le Mexique à Singapour, en passant par la Thaïlande, le Brésil, etc.). Ce vaccin a une efficacité toute relative, comprise entre 43 % pour DENV-2 et 77% pour DENV-4 (1).** Les autres candidats vaccins ne semblent pas faire mieux que le Dengvaxia…

Venons-en, enfin, au cœur du problème. Le principe du vaccin (de tous les vaccins, en réalité) consiste en la sensibilisation du système immunitaire en l’exposant à des fragments / particules / virus attténués, afin qu’il développe des anticorps « comme si » le corps avait déjà été en contact avec la maladie. Le Dengvaxia est ainsi un vaccin tétravalent, c’est-à-dire qu’il sensibilise le système immunitaire aux quatre sérotypes connus lors de sa mise au point. Mais souvenez-vous : le risque de formes graves augmente considérablement après une première exposition : le vaccin risque donc d’accroître ce risque ! Cela n’aurait aucune incidence si le vaccin était efficace à 100 % sur tous les sérotypes : il n’y aurait, dans ce cas, pas de nouvelle contamination. Mais avec son efficacité qui n’est pas totale, un problème inédit (à ma connaissance) dans l’histoire de la vaccination apparaît : un individu vacciné pourrait présenter un risque accru de dengue sévère comparé à un autre jamais en contact avec cette maladie.

Les résultats de la phase III de l’essai clinique du vaccin, celle qui est effectuée sur de grandes populations, n’a pas permis de lever cette interrogation :

  • Des différences nettes entre l’efficacité du Dengvaxia chez les patients séropositifs (qui avaient déjà eu une dengue avant vaccination) et chez les patients séronégatifs ont été observés: En réalité, Aucune efficacité statistiquement significative n’a été mesurée chez les personnes séronégatives (2).
  • L’efficacité chez les enfants (plus souvent séronégatifs du fait de leur âge), est nettement plus faible que chez les groupes de sujets plus âgés (2).
  • Il a été observé également une augmentation du risque d’hospitalisation pour dengue sévère au cours de la troisième année après administration du vaccin, principalement chez les jeunes enfants, qui ont été de fait exclu de la cible du vaccin (proposé à partir de 9 ans) (1). Ce risque a été mesuré à + 7,5 %, mais du fait de l’échantillon très restreint sur lequel a été fait l’étude, il est en réalité compris entre 1,2 et … 314 %. De travaux de plus larges ampleurs doivent être entrepris pour affiner tout cela !

De quoi renvoyer le Dengvaxia dans les oubliettes de l’histoire des ratés de l’industrie pharmaceutique ? Tout de même pas !

Vaccin contre la dengue : à utiliser avec modération !

À la lumière de ces résultats ni catastrophiques, ni rassurants, des scientifiques ont cherché à établir avec plus de précision quelles étaient les situations sanitaires et épidémiologiques pour lesquelles le vaccin serait bénéfique. Une équipe d’épidémiologistes de l’Université de Stanford a ainsi modélisé mathématiquement l’impact de la vaccination chez des populations dans des zones différemment exposées à la dengue, en prenant en compte les résultats -mitigés- dont nous venons de parler. Ils ont étudié l’impact du vaccin sur des périodes allant de deux ans à trente ans. D’après leurs travaux, il est important d‘adapter la vaccination aux zones géographiques en fonction de l’endémicité de la maladie, et, si possible, en fonction du statut immunitaire de chaque individu.(2)

La logique qui transparaît de cette modélisation est assez simple :

À l’échelle collective :

  • En cas de forte endémicité, le risque d’être contaminé plusieurs fois par les différents sérotypes de la dengue est très grand. La vaccination n’induit globalement pas de risques supplémentaires en rajoutant une exposition. De toute façon, cette exposition avait de très grande chance de se produire… Le bénéfice est donc réel. Les auteurs montrent d’ailleurs que dans ces zones, on pourrait abaisser l’âge minimal de vaccination en dessous de 9 ans (les enfants plus jeunes étant déjà confronté au risque d’être contaminé plusieurs fois…)
  • En cas de faible ou de moyenne endémicité, le risque d’être contaminé une fois existe, mais celui d’être contaminé plusieurs fois est relativement faible. La vaccination, qui rajoute une exposition, peut devenir contre-productive, et causer des symptômes graves lors du contact avec un des sérotypes de la dengue. Une vaccination globale dans ces zones est donc à proscrire.
  • Pour les voyageurs provenant de zone où la dengue est absente, le risque d’attraper la dengue plusieurs fois est quasi nul, aucune vaccination ne doit être entreprise pour la même raison.

À l’échelle individuelle :

  • Une personne séronégative n’a aucun intérêt à se faire vacciner : cela crée une situation de première exposition, et augmente les risques de développer des symptômes graves.
  • Une personne séropositive à un des dengues a tout intérêt à se faire vacciner, puisque le risque de développer des formes graves a déjà été accru par une première infection. Les épidémiologistes ont estimé que ce n’était cependant pas particulièrement intéressant dans les zones de faible endémicité, mais efficace en zone de forte endémicité.

La conclusion globale de cette étude sonne comme une mise en garde : la vaccination par le dengvaxia est intéressante, mais pas n’importe où, pas chez n’importe qui. L’idéal est de pouvoir effectuer un test rapide (et pas cher !) pour connaître le statut sérologique de chaque individu qui se fait vacciner. Si cela n’est pas le cas, il ne faut agir qu’en zone de forte endémicité, où, en vaccinant tout le monde, y compris les séronégatifs, on aura tout de même un bénéfice global en matière de santé publique.

J’aimerais ajouter une remarque plus générale : ce type d’étude montre une chose importante : LA Vaccination n’existe pas (pas plus que L’Antibiotique, ou LE Anticancéreux !) : il existe DES vaccins dont l’évaluation doit être réalisée au cas par cas, de façon minutieuse et précise. Espérons qu’à la lumière de cette étude, ce vaccin soit utilisé de façon réellement utile et efficace, de façon modérée et éclairée dans les pays qui l’ont validé.

 

* Il a été annoncé un cinquième sérotype pour la dengue lors d’une conférence internationale en 2013. Mais cela n’a jamais été confirmé par un article dans une revue. Une discussion à lire sur researchgate montrer qu’il ne s’agirait en fait que d’un variant de DENV-4 (ouf…)

**Il faut bien comprendre qu’en dépit d’une efficacité relativement faible à l’échelle humaine, un vaccin peut permettre l’éradication d’une maladie à l’échelle collective : une diminution de 50 % des malades signifie également un risque de contamination nettement plus faible qu’en l’absence de vaccin. Avec le risque de contamination plus faible ET la probabilité plus grande d’être efficacement immunisé, on arrive à des diminutions réelles et rapides de la prévalence des maladies.

Suite de la mise au point initiale sur les vaccins :

  • Les vaccins sont des produits pharmaceutiques soumis aux mêmes contrôles que les médicaments. Ceux qui sont aujourd’hui obligatoires ou qui sont recommandés en France ont fait leurs preuves, tant pour leur innocuité que pour leur efficacité. De plus, tout comme les médicaments, dire « les vaccins c’est le mal » est aussi idiot que dire « les antibiotiques c’est le mal », ou « les anti-douleurs, c’est le mal », alors qu’il en existe dix mille différents…
  • Des maladies ont disparues (La variole), d’autres pourront disparaître (la polio actuellement en voie d’éradication) grâce à la vaccination.
  • Il existe des effets secondaires aux vaccins, et ils sont pris en compte lors de leur évaluation.
  • L’aluminium présent dans les vaccins n’est responsable ni de cancers, ni de maladies neurodégénératives, ni de maladies auto-immune. Il a été montré qu’il était totalement sûr d’un point de vue de la santé (On pourra lire, entre autre les conclusions de cette revue de la littérature par des membres de la Collaboration Cochrane, qui font référence en terme de sérieux ET d’indépendance en recommandation médicale).
  • Néanmoins, on peut effectivement, d’un point de vue éthique, questionner la question de l’obligation vaccinale en vigueur en France, d’autant qu’elle n’est pas efficace, et qu’elle génère un scepticisme face aux vaccins. (J’ai déjà parlé de ce point dans cet article : « Vaccins : marche-t-on sur la tête ?« )

(1) Site de l’OMS : « Questions-Réponses sur les vaccins contre la Dengue »
(2) « Benefits and risks of the Sanofi-Pasteur dengue vaccine: Modeling optimal deployment » N.M. Ferguson et al.Science 02 Sep 2016: Vol. 353, Issue 6303, pp. 1033-1036
(3) « Surprising new dengue virus throws a spanner in disease control efforts » Science  25 Oct 2013, 342 (6157), pp. 415

Trop de faux positifs en IRM fonctionnelle : un travail scientifique remarquable

Le papier d’Anders Eklund a fait grand bruit dans la presse généraliste (anglophone) et spécialisée (surtout anglophone aussi) : le traitement des données par les logiciels d’IRM fonctionnelle minimise les faux-positifs, et transforme des résultats douteux en des corrélations apparemment statistiquement irréprochables.(1)

 

En IRM fonctionnelle, un double traitement statistique

Un résultat scientifique est considéré comme fiable si le risque que l’effet mesuré ne soit dû qu’au hasard est inférieur à 5 % (le fameux p < 0,05, sésame pour la publication des résultats dans la plupart des revues). Afin de minimiser ce risque, les études doivent multiplier les expériences, et ainsi accumuler suffisamment de données, pour conclure sur l’existence, ou non, d’une corrélation/ d’un effet/ d’un lien entre les facteurs étudiés.

Le problème, c’est qu’en IRM, le traitement statistique n’est vraiment pas simple. Afin d’y voir plus clair, revenons rapidement sur le principe de cette technique : La machine à Imagerie par Résonance Magnétique se base sur les propriétés magnétiques des molécules présentes dans l’organe examiné. Dans le cerveau, les zones activées lors d’un exercice intellectuel consomment davantage de dioxygène que les autres zones : cet appauvrissement en oxygène change localement les propriétés magnétiques, et c’est ça qui est détecté par la machine. (pour davantage d’explication, vous pouvez aller voir cet article : « L’IRM, la machine à observer le cerveau« )

Le cerveau est donc (virtuellement) découpé en petit cube de quelques mm³, appelés voxels, et lors d’une expérience d’IRM fonctionnelle, l’activité de chaque voxel est mesuré des dizaines de fois*. Si les mesures réalisées s’écartent suffisamment de celles attendues chez l’individu au repos, le voxel est considéré comme actif durant l’examen. Suffisamment, cela signifie « avec un risque de faux positif suffisamment faible« , et on retrouve ainsi le facteur p, qui doit être, pour chaque voxel, inférieur à 5 %, ou mieux, 1% voire 0,1 %…

Bon, jusque là, tout va -à peu près- bien. Le soucis, c’est que même avec un risque de faux positif de 1 sur 1000 pour chaque voxel (ce qui est déjà très fiable), on risque d’arriver à une cartographie 3D du cerveau qui risque d’être complètement fausse ! En effet, il faut considérer plusieurs centaines de milliers de voxels pour un cerveau : la probabilité que l’activité d’au moins un d’entre eux soit effectivement faussement positive est approximativement égale à 100 %.

Une seconde étape de traitement statistique vient alors à la rescousse : les voxels dont l’activité est cohérente sont regroupés entre eux, et forment de petites structures appelés clusters. Les caractéristiques de ces structures sont à leur tour comparées avec celle qui se forment également au repos. Encore une fois, il s’agit de vérifier que, d’un point de vue statistique, le risque de faux positifs reste inférieur à la limite que l’on s’est fixé.

A l’issu de ces deux traitements, la cartographie 3D des zones au repos et des zones actives du cerveau du patient est censée être fiable.

Les méthodes dites paramétriques : Pas assez fiables en IRM fonctionnelle !

Afin de vérifier la fiabilité de ce traitement statistique, et surtout des méthodes qu’il utilise, Eklund et ses collègues se sont servis des données du Human Connectome Project, qui sont totalement et gratuitement accessibles, et les ont testé à l’aide des trois logiciels actuellement utilisés en laboratoire. Leur idée est simple : les IRM fonctionnelles d’individus sains et au repos ne doivent pas faire apparaître de différences statistiquement significatives.

Regroupant les données par groupe de 20 sujets, choisis aléatoirement parmi 499, ils ont montré que les logiciels, quelque soient leur paramétrage, établissaient des différences inter-groupes soi-disant statistiquement significative, et ce, bien au-delà des 5 % d’erreurs tolérées. Bref, les résultats des 30 000 publications se basant sur les IRM fonctionnelles ont été obtenus avec des traitements statistiques… faux.

Pour faire vite, sur un sujet que je ne maîtrise pas en profondeur, les méthodes statistiques dites paramétriques utilisées par les logiciels reposent sur des hypothèses sur les modèles de répartition des valeurs et mesures. Mais encore faut-il que ces modèles soient adaptés aux expériences, ce qui ne semble pas être le cas ici. En fait, personne n’avait réellement, en 30 ans d’utilisation d’IRM fonctionnelle, vérifié que ces modèles étaient adaptés.

Il existe également des méthodes dites non paramétriques, qui nécessitent des calculs bien plus long et complexes, mais qui permettent de ne pas faire d’hypothèses sur les modèles de répartition. Elles sont connues depuis longtemps, mais cela ne fait qu’une poignée d’année que les chercheurs peuvent les utiliser réellement, grâce aux progrès informatiques… Eklund a d’ailleurs pu vérifier dans sa publication, sur le même corpus, qu’elles donnaient des résultats tout à fait acceptables.(2)

Une démarche globale et une conclusion impeccables… De la bonne science !

A delà du côté sexy de la publication, c’est la démarche de ce travail (3) qui m’a particulièrement séduit, et la mise en lumière du fonctionnement des neurosciences.

Pendant son doctorat, Enders Eklund a pu constaté, à l’aide de données limitées, que les méthodes paramétriques ne donnaient pas toujours des résultats bien fiables en IRM fonctionnelle. Après son post-doc, se rendant compte que ses premiers travaux n’ont pas été repris et complétés, il a retroussé les manches, et entrepris le travail beaucoup plus poussé présenté dans cet article .

Mais au lieu de publier directement, il a d’abord proposé ses méthodes et ses résultats à l’ensemble de la communauté scientifique grâce à la plateforme de pré-publication arXiv. C’est donc une version améliorée, et dont la démarche a été validée par d’autres scientifiques qui a été publiée dans PNAS. Ce mode de construction des connaissances permet pour moi d’éloigner la recherche du sensationnalisme, tout en proposant des résultats davantage robustes, puisqu’ils auront pu être éventuellement retravaillés, et reproduits.**

Ce qui est intéressant également, c’est de constater que les neuroscientifiques qui utilisent l’IRM fonctionnelle ne semblent pas maîtriser les outils informatiques et mathématiques qu’ils utilisent au quotidien. Inutile de leur lancer la pierre, c’est également le cas de nombres de biologistes, des chimistes,… (Sans parler des médecins, incapables de revenir sur leurs pratiques quand bien même les études scientifiques les contredisent…). En neuroscience, l’IRM fonctionnelle joue un rôle central de « preuve », pour un grand nombre d’assertion qui arrivent, telles quelles, chez le grand public. On apprend pourquoi « L’eau coupe l’appétit« , que « on a localisé le fameux esprit de noël dans le cerveau« , qu' »il faut jouer aux jeux vidéos contre la sclérose en plaque« … Bref, si l’IRM fonctionnelle le dit, c’est que c’est vrai !! Les neuroscientifiques ont donc une responsabilité lourde à porter : on leur fait (démesurément) confiance. Raison de plus pour qu’ils maîtrisent leurs méthodes et les réactualisent…

Enfin, reste la fameuse question : faut-il jeter les 30000 études de neurosciences réalisées à l’aide d’IRM fonctionnelle ? Pour les auteurs, il n’en est pas question. Certaines présentent sans aucun doute des résultats erronés. Mais en général, elles se trouvent rapidement marginalisées, puisqu’elles ne sont pas reproductibles. Seules les conclusions entérinées par plusieurs publications, par des méta-analyses persistent après quelques années. Et c’est valable pour toutes les disciplines scientifiques ! Ce travail nous (ré-)apprend ainsi que le temps de la recherche scientifique s’accorde mal avec le temps des actualités et du sensationnel… Ne l’oublions pas !

 

 

* Comme il faut plusieurs secondes par mesure à chaque fois, cela prend de nombreuses minutes, pendant lesquelles le sujet est placé dans la machine, qui est tout sauf rassurante, et risque également de perturber les mesures… Mais c’est encore un autre problème...

** L’American Chemical Society, plus gros éditeur des journaux de chimie a annoncé la mise en ligne de son propre service de pré-publication, appelée ChemrXiv. Espérons que cette initiative, d’un groupe tout à fait privé, et très peu enclin à l’accès libre des publications, puisse présenter les mêmes intérêts qu’arXiv…

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » A Eklund et al. PNAS 2016

(2) on pourra regarder le début -et la suite- de ce cours pour comprendre les différences et les enjeux des méthodes paramétriques et non paramétriques (pdf)

(3) On pourra lire le récit de cette démarche sur le site de l’Université de Linköping (Suède)

[Flash Info Chimie] #50 Production solaire bio-inspirée d’ammoniac

La synthèse de l’ammoniac à partir du diazote atmosphérique, c’est un peu la star de l’industrie chimique. Des tonnages formidable (136.5 millions de tonne en 2012), qui alimentent l’industrie des engrais, des polymères, des explosifs… Pourtant, c’est toujours le même procédé Haber-Bosch, mis au point au début du XXe siècle, qui est utilisé. Très gourmand en énergie, il utilise 1 à 2 % de l’énergie électrique, et 3 à 5 % du gaz naturel mondial : 500°C, 200 bars de pression sont nécessaires pour que la réaction ait lieu correctement, et il faut compter l’énergie dépensée pour la synthèse du dihydrogène, l’autre réactif !

N_{2}+3H_{2} \longrightarrow 2NH_{3}

D’un autre côté, il y a des organismes qui synthétisent de l’ammoniac (ou des produits dérivés) à partir du diazote, dans des conditions moins drastiques. Il s’agit de procaryotes, qui, souvent, vivent en symbiose avec des végétaux, qui leur apporte l’énergie nécessaire en échange de ce fertilisant. Dans ces organismes, c’est le complexe protéinique « nitrogénase » qui permet la fixation de l’azote, à température, et à pression ambiante.

A quelques jours près, deux équipes ont présenté des systèmes, inspirés par les nitrogénases, permettant de réaliser la synthèse de l’ammoniac, à température et pression ambiante. Dont l’énergie provient simplement de la lumière visible.

La première, parue dans PNAS, consiste en un « chalcogel » à base de clusters de sulfure de fer (avec présence éventuelle de Molybdène).

Un chalcogel, c’est un aérogel, c’est-à-dire un matériau de densité extrêmement faible, qui contient des éléments chimiques de la famille des chalcogènes (Oxygène, Soufre, Sélénium, etc…).

Exemple d’aérogel (de silice ici. Source : wikipédia)

L’avantage de ces chalcogels, c’est qu’ils présentent une immense surface active, permettant une adsorption du diazote très efficace. En irradiant avec de la lumière ainsi des chalcogels contenant des clusters de sulfure de fer-molybdène, et/ou simplement sulfure de fer, en présence de diazote, à pression et température ambiante, les chercheurs ont pu synthétiser de l’ammoniac. Vous me direz, on est loin des nitrogénases… Pas tant que ça, en réalité : ce type de cluster Fer-Molybdène-Soufre est inspiré directement de ceux qui se trouvent au cœur de ces protéines :

Cluster Fe-Mo-S de la nitrogénase By Smokefoot - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37239342

Cluster Mo-Fe de la nitrogénase (Smokefoot – Own work, CC BY-SA 4.0)

 

 

Pourquoi « s’inspirer » des nitrogénases lorsqu’on peut directement les utiliser telles quelles ? C’est la base de la seconde publication, dans Science : Cette fois, les chimistes ont simplement fixé la sous-unité qui contient le cluster Fe-Mo directement sur des nanostructures de sulfure de Cadmium. Ces nanostructures captent l’énergie lumineuse, la transfère efficacement à la sous-unité de la nitrogénase, qui réalise la transformation du diazote en ammoniac.

En haut, le fonctionnement "normal" de la nitrogénase, avec une première sous-unité 'Fe Protein' qui capte et transfère l'énergie, et la seconde 'MoFe Protein' qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS (source)

En haut, le fonctionnement « normal » de la nitrogénase, avec une première sous-unité ‘Fe Protein’ qui capte (sous forme d’ATP) et transfère l’énergie, et la seconde ‘MoFe Protein’ qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS qui capte… de la lumière (source)

 

Bon, je n’ai pas parlé de rendements ici. Parce qu’évidemment, ils sont faibles, voire à peine mentionnés dans les publications. Mais les deux démarches sont intéressantes et le fait même d’avoir obtenu de l’ammoniac à température et pression normale, contournant les obstacles énergétiques, représente une belle avancée dans les deux cas.

« Nitrogenase-mimic iron-containing chalcogels for photochemical reduction of dinitrogen to ammonia » Jian Liu et al. PNAS 2016, 113, 55305535

« Light-driven dinitrogen reduction catalyzed by a CdS:nitrogenase MoFe protein biohybrid » Katherine A. Brown et al. Science 2016352 pp. 448-450