[Flash Info Chimie] #54 Aquaporines artificielles en nanotube de carbone

Parmi les transporteurs transmembranaires, ces protéines en forme de tunnel qui permettent à des espèces chimiques de traverser les membranes des cellules, les aquaporines, découvertes en 1992, ont pour rôle de faire circuler sélectivement l’eau, mais sans les ions qui sont dissout dedans. Grâce à une structure qui ressemble à un sablier, les molécules d’eau sont contraintes de circuler les unes à la suite des autres dans le transporteur. Peter Agre et Roderick MacKinnon ont reçu le prix Nobel de Chimie en 2003 pour leur découverte, et l’élucidation de leur structure.

Vidéo disponible en téléchargement ici sur le site officiel des Prix Nobel. Dans cette modélisation, suivez la molécule d’eau colorée en jaune circuler dans l’aquaporine.

Ce type de composé intéresse beaucoup les chimistes pour la fabrication de membranes sélectives, ne laissant passer qu’une sorte de composé, qu’un seul ion, qu’un seul solvant. Les applications sont nombreuses, tant de le domaine énergétique (les batteries haute performance nécessitent de telles membranes), que dans celui de la dépollution, de la dessalinisation de l’eau de mer, etc…

Bon, venons-en au point qui nous intéresse… Qu’est-ce qui est nanométrique, long, creux, et qui fait fantasmer les chimistes ? Les nanotubes de carbone, évidemment !

Jusqu’à présent, l’utilisation de nanotubes de carbone comme transporteurs transmembranaires sélectifs d’eau a été décevante, les ions circulants assez librement à travers. L’idée de l’équipe de scientifiques californiens, menés par Ramya H. Tunuguntla, a été de réduire le diamètre intérieur de nanotubes, en passant de 1,5 nm de diamètre pour les études précédentes à 0,8 nm.
Avec une telle finesse les molécules d’eau sont contraintes, comme pour les aquaporines naturelles, de se mettre en file indienne, plutôt qu’avancer en groupe plus large. Mais grâce aux propriétés hydrophobiques des nanotubes, il existe très peu d’interaction entre les murs du tube, et les molécules d’eau.

à gauche : dans un nanotube large (~ 1,5 nm de diamètre intérieur) les molécules d’eau circulent, reliées entre elles par des liaisons intermoléculaires, en groupe qui occupe tout l’espace. à droite, dans les nanotubes plus fins (~ 0,8 nm) les molécules sont en file indienne, également liées par des interaction intermoléculaires (tiré de l’article de Tunuguntla et al.)

Contrairement à ce qu’on aurait pu imaginer initialement, l’eau circule dix plus vite dans ces nanotubes plus fins que dans ceux plus larges, en raison de cette disposition en file indienne. La vitesse (de 10¹⁰ à 10¹¹ molécules par seconde selon le pH) est également plus grande que dans les aquaporines naturelles, dont les parois internes forment ponctuellement des liaisons intermoléculaires avec les molécules d’eau, ralentissant ainsi leur progression.

La sélectivité ionique est également grandement augmentée : globalement, les anions (ions chargés négativement) ne passent pas, au contraire des cations (chargés positivement), jusqu’à des concentrations plus élevées que celle de l’eau de mer. Pour la désalinisation, cela pourrait éventuellement suffire : les anions et cations se baladant toujours ensemble (or exception causée par exemple par une tension électrique), si l’un des deux ne peut passer, l’autre ne passera pas non plus.

Reste encore beaucoup de travaux avant d’utiliser ces dispositifs pour du véritable dessalement ou de la purification d’eau ou d’ions à grande échelle… Il est cependant tout à fait intéressant de voir que des nanotechnologies pourraient dans le futur faire partie de solutions de dépollution / dessalement dans des installations de taille industrielles.

« Enhanced water permeability and tunable ion selectivity in subnanometer carbon nanotube porins » Tunuguntla et al., Science 357, 792–796 (2017)

A signaler, sur l’intérêt des nanotubes de carbone : nanogénérateurs hydroélectriques sur Pour La Science

Posted in actualité, chimie, Flash Info Chimie | Tagged , , | Leave a comment

[Flash Info Chimie] #53 Un vieux médicament contre l’asthme, prometteur contre la maladie de Parkinson

La maladie de Parkinson, comme d’autres maladies neurodégénératives, se manifeste par la formation d’agrégats anormaux de protéines dans les cellules du système nerveux, appelés dans ce cas « Corps de Lowy« .

Allure caractéristique d’une personne atteinte de la maladie de Parkinson (Sir William Richard Gowers, 1886)

Les axes actuels de développement de traitements consistent en l’élimination de α-synucléine, la protéine qui constitue majoritairement ces corps de Lowy, ou en le blocage de sa transformation en composés neuro-toxique.

Dans une publication dans la revue Science, Shuchi Mittal et ses collègues proposent une démarche différente pour l’identification de substances actives contre ces corps de Lowy, et donc, contre la maladie de Parkinson : ils ont cherché à identifier, parmi plus de mille composés déjà connus, ceux qui inhibent l’expression du gène codant pour l’α-synucléine (appelé SNCA).

Leurs résultats a été surprenant : les meilleurs inhibiteurs de l’expression du gène SNCA font partie de la classe bien connue des agonistes de β2-adrenorecepteur (β2-AR). Non seulement ils ont identifié clairement un nouveau rôle des β2-AR, (qui régulent donc l’expression du SNCA)  mais ils ouvrent également la voie à un traitement médicamenteux.

Bon, la « classe bien connue des agonistes de β2-AR », c’est un peu abusif de ma part. Je ne la connaissais pas, cette classe, pas plus que je ne connaissais ces β2-AR… Pourtant, des composés classiques en font partie, dont le salbutamol  (Vous savez, la fameuse « Ventoline® ») ou le clenbuterol, ce stéroïde anabolisant tant utilisé en dopage sportif ! On connaît également des antagonistes de β2-AR, comme le propanolol le premier bêta-bloquant découvert.

Les scientifiques ont donc vérifié, avec succès, sur modèle cellulaire (sur des lignées cellulaires humaines parkinsonienne) puis sur modèle animal (chez des lignées de souris parkinsonienne) que les deux agonistes de β2-AR diminuaient les quantités d’α-synucléine, dans les cellules, mais aussi prolongeaient leur durée de vie.

Et chez l’humain alors ?

S’il est, d’habitude, délicat de mesurer l’effet d’une substance chez l’humain, sans passer par la case « essai clinique », les chercheurs ont pu se baser dans cette étude sur des données de la « Norwegian Prescription Database », qui met à la disposition des scientifiques les données sur les prescriptions médicales de tous les norvégiens depuis 2004. Grâce à cet énorme corpus, ils ont pu comparer la survenue de la maladie de Parkinson chez les patients prenant régulièrement du salbutamol, du propanolol, ou ni l’un ni l’autre.

Les résultats sont parlants: le salbutamol a bel et bien un effet protecteur vis-à-vis de la survenue de la maladie de Parkinson, et le propanolol favorise l’apparition de la maladie.
Le groupe, qui a pris au moins une fois du propanolol a environ deux fois plus de cas de maladie de Parkinson qu’attendu.
Celui qui a pris au moins une fois du salbutamol a 40 % de cas en moins qu’attendu. Dans ce cas, les chercheurs ont séparé ce groupe en trois, en fonction de la quantité prescrite : Pour les plus gros utilisateurs (plus de 180 doses journalières prescrites en 4 ans), la survenue de la maladie de Parkinson a été divisée par deux. Pour les utilisateurs les plus occasionnels (moins de 60 doses en 4 ans), la diminution est anecdotique.

Compte tenu des effets secondaires du salbutamol, ou encore du clenbuterol, leur avantage thérapeutique en action préventive n’est clairement pas démontré. Néanmoins, les premiers essais in vitro indiquent qu’ils pourraient ouvrir la voie vers la mise au point de traitements curatifs chez des patients ayant déjà développé la maladie.

 

Posted in actualité, chimie, Flash Info Chimie, santé | Leave a comment

[Flash Info Chimie] #52 Faire des origamis en chimie : Marquez le trait, chauffez… C’est plié !

Le Nafion est un polymère per-fluoré (où tous les atomes d’hydrogène ont été remplacés par des atomes de fluor) de la même famille que l’universellement connu Teflon. Mais ce polymère possède des chaînes latérales qui lui confèrent des propriétés acido-basiques intéressantes, exploitées notamment pour réaliser des membranes échangeuses de protons dans des piles à combustibles.

Nafion : en haut la chaîne principale, identique au Téflon. en dessous, une chaîne latérale, terminant par une fonction ‘acide sulfonique’, qui confère au polymère ses propriétés acido-basiques

Le Nafion possède également des propriétés physiques (résistance à la chaleur) et chimique (en dehors des réactions acide-base, il fait preuve d’une excellente inertie) qui en font un matériau particulièrement recherché en électrochimie.

Pourtant, à l’Université du Wisconsin, A. Oyefusi et J. Chen ont préféré se servir du Nafion pour faire des… pliages.

Le Nafion a en réalité une propriété supplémentaire : c’est un matériau à mémoire de forme : lorsqu’il est étiré, tordu, il peut retrouver sa forme initiale en étant simplement chauffé. Et c’est là que cela devient vraiment intéressant : la température nécessaire pour revenir à sa forme initiale n’est pas la même que le polymère ait été acidifié (noté en général Nafion-H, car il a gagné des ions H⁺) ou non. Le Nafion-H retrouve sa forme à partir d’environ 100 °C; le Nafion non acide à partir de 260 °C.

Les chercheurs ont donc utilisé une feuille de Nafion étirée, qu’ils ont tout d’abord trempé dans un bain de potasse diluée. Leur feuille a donc une forme stable jusqu’à 260 °C. Puis, ils ont « marqué les traits« , à l’aide d’une solution acide, pour obtenir des lignes de Nafion-H superficielles sur leur feuille. En chauffant entre 100 et 260°C, le Nafion-H s’est contracté, pliant ainsi la feuille entière suivant les traits, comme on peut le voir sur l’image précédente.

Magnifique, n’est-ce-pas ?  L’intérêt ne réside pas uniquement dans la structure 3D du Nafion obtenu : celui ci peut ensuite servir de moule pour d’autres matériaux… Pas mal, l’oiseau en nickel, non ?

Du pliage à l’oiseau en Nickel, obtenue par électrodéposition du métal sur un moule secondaire en PDMS réalisé à l’aide de l’oiseau en Nafion

 » Reprogrammable Chemical 3D Shaping for Origami, Kirigami, and Reconfigurable Molding » A. Oyefusi J.Chen Angewandte Chemie Int. Ed. 2017, Early View

Posted in actualité, article de recherche, chimie, Flash Info Chimie | Tagged , , | Leave a comment

Manifeste pour une science reproductible (II) : les propositions

Cet article fait suite à celui-ci, où je donnais quelques exemples illustrant cette « crise de reproductibilité » qui secoue la recherche scientifique. En janvier, Marcus R. Munafò et ses collègues publiaient « Manifesto for reproducible science » dans la revue Nature Human Behaviour.

Dans ce manifeste, ils dénoncent les pratiques qui nuisent à la reproductibilité scientifique, qui provoquent ce gâchis scientifique, humain, financier.

Toutes les étapes de la construction et de la publication de découvertes scientifiques. En rouge, les obstacles à la reproductibilité des résultats. Le terme HARKing signifie « Hypothesizing After the Results are Known » : Faire des hypothèses post hoc, une pratique très souvent dénoncée en sciences du comportement. (source de l’image)

Mais il ne s’agit pas uniquement d’un pamphlet. Les auteurs proposent plusieurs grandes idées pour limiter cette crise de la reproductibilité. J’ai pris la liberté de les reprendre, en les réorganisant sous quatre pôles distincts.

Pré-enregistrer les études, pré-publier : promouvoir la transparence avant même la publication définitive des résultats

Lorsqu’on parle de pré-publication, on pense très vite à la platerforme arXiv.org, qui consiste à rendre public (et gratuitement) des résultats préliminaires, souvent non publiables en l’état, afin de profiter du regard de la communauté scientifique pour valider mesures expérimentales et méthodologie. Pour apparaître sur arXiv, nul besoin de validation par les pairs. Il y a donc un processus complémentaire, ouvert et collaboratif, avant soumission de la publication sur un autre support… ou abandon. Pas besoin du long et douloureux processus de rétractation, ou de corrigendum des publications pour ne conserver que les plus rigoureuses…

Quelques exemples sont suffisamment célèbres pour être signalés (voir la notice arXiv sur wikipédia):

  • Une démonstration de la conjecture de Thurston a été déposée en 2002 sur arXiv par Grigori Perelman, examinée pendant 4 ans, et finalement validée.
  • Une démonstration de l’existence de solutions générales à l’équation de Navier-Stokes a été déposée par Penny Smith, avant d’être finalement abandonné.
  • Les travaux d’Enders Eklund, remettant en question les méthodologies en IRM fonctionnelle ont d’abord été publiés sur arXiv, avant de finir sur la prestigieuse revue PNAS. (Par ailleurs, il me semble – à titre personnel-  que l’accès à une revue aussi sélective a sans doute été rendue possible grâce à la prépublication)

Cependant, tous les domaines scientifiques ne sont pas ouverts à cette plateforme… Principalement en raison des habitudes des communautés de chercheurs. arXiv s’est principalement développée autour de la physique, information, mathématique… La chimie, -au hasard !- n’est pas concernée…(2)

ArXiv est un outil intéressant et productrice d’une rigueur que le peer-reviewing classique n’atteint pas. Les « Registered Reports » me semblent tout à fait complémentaires, et particulièrement efficaces. Le principe est simple : Le processus de Peer-Review est décomposé en deux :

  • Une première étape d’évaluation par les pairs concerne les hypothèses de départ et les méthodes qui seront mis en oeuvre. Si elles sont retenues, l’équipe de recherche obtient un accord de principe pour publication.
  • La deuxième étape d’évaluation concerne le manuscrit de l’article à publier. Sous réserve de la bonne observance des méthodes déjà validées lors de la première étape, et de rigueur de présentation des résultats, et quelque soit leur importance dans le champ disciplinaire concerné, l’article est publié.

Principe des « Registered Reports » : avoir un accord de publication avant obtention des résultats

Cette première validation donne l’assurance aux chercheurs d’être publiés. La nécessité absolue de résultats positifs, voire particulièrement remarquables s’envole, laissant la possibilité de publier des résultats négatifs ou peu significatifs. D’une part la fraude, les petits arrangements perdent beaucoup d’intérêts avec ce processus, mais de plus l’évaluation des chercheurs par les publications redevient un peu plus saine : les « bons » sont ceux qui ont produits des hypothèses pertinentes, et qui ont su se montrer rigoureux dans la construction de nouveaux savoirs scientifiques. Certaines revues ont mis en place, de façon facultative, ces « Registered Reports ». On trouvera une liste ici (notez l’absence de la chimie…).

Finalement, ces « Registered Reports » (oui, je n’ai pas trouvé de traduction, et j’ai du mal à en proposer une à la fois claire et légère…) rejoignent l’arsenal déjà existant qui permet les pré-enregistrement des recherches. Mais encore une fois, les domaines de recherche sont très inégalement concernés par les pré-enregistrements. Ils sont quasi systématique dans le domaine de la recherche médicale, et hébergés par différents sites institutionnels (comme le site américain ClinicalTrials.gov dont l’origine date de 1988, ou l’européen EudraCT Public website propulsé par la Commission Européenne), mais quasi absents de tous les autres domaines. Il est vrai que la question des essais cliniques est particulièrement sensible, tant les enjeux financiers et surtout humains sont importants…

L’indispensable libre accès aux articles et aux données

Quand Eklund conclut son article sur les défauts de traitements statistiques des données issues des expériences d’IRM fonctionnelle, concernant près de 30 000 articles scientifiques, il n’oublie pas de préciser que pour la plupart d’entre eux, il ne sera pas possible d’utiliser les nouvelles méthodologies plus fiables : les données brutes de ces expériences n’existent plus.

Dans un autre registre, je suis tombé il y a quelques minutes, sur ce tweet :

Sans revenir sur cette controverse scientifique concernant le glyphosate où se mêlent lobbies agro-industriels, zêle journalistique pas toujours bien placé, et santé publique, ce rebondissement (Il semblerait que des données non publiées remettent en question les conclusions de l’IARC classant le glyphosate comme « cancérigène probable ») est symptomatique de l’importance de la publication, ouverte à tous, des données des études. Que cela soit pour vérifier les traitements statistiques, en effectuer de nouveaux, plus pertinents, plus fins, ou procéder des méta-analyses nécessitant de re-traiter les données brutes issues de publications distinctes.

Sans entrer dans trop de détail, il me semble que la publication des données brutes fait aujourd’hui consensus, même si elle n’est pas encore suffisamment entreprise. La publication en accès libre des études scientifiques est également un vecteur fondamental de la diffusion des connaissances et des travaux scientifiques. À ce titre, elle permet d’accroître la communauté qui peut vérifier, comparer, évaluer les résultats et les méthodologies mises en oeuvres.

La littérature promouvant le libre accès aux données et aux études est abondante… Nul besoin que j’en remette une couche. Je ne m’étendrais pas plus ici sur la question, d’autant qu’il me faudrait encore critiquer le domaine de la chimie, mauvais élève de la recherche scientifique concernant l’accès libre aux publications…

Peer-review, collaborations… De la diversité, que diable !

Rien de tel que la diversité au sein des équipes, des collaborations, et des re-lecteurs pour améliorer la qualité des publications, et ainsi leur reproductibilité. Ainsi Munafo et coll. expliquent très justement que les chercheurs ne peuvent pas être à la fois des biologistes / psychologues / physiciens / etc. hors pairs, et des mathématiciens / épidémiologistes / statisticiens / informaticiens / etc. au courant des dernières évolutions sur le traitement des données. Ils proposent ainsi que soient associés aux équipes de recherche des professionnels spécialistes des méthodologies, et non du domaine de recherche concerné, dans le but d’offrir un regard aussi neutre que possible sur le design, le suivi, le traitements des résultats des travaux menés.

Cette même proposition est valable pour l’étape d’évaluation par les pairs avant publication.  Les auteurs insistent encore une fois sur l »intérêt de pré-publier les résultats, pour augmenter le nombres d’acteurs susceptibles d’évaluer les études menées, mais également sur la possibilité de post-évaluation des articles, rendue aujourd’hui possible, et même aisée par les outils informatiques et la mise à disposition des études sur le net.

Permettre de larges collaborations est également mis en avant. Là où une équipe isolée ne peut que produire des résultats statistiquement peu robustes, pour des raisons évidentes de moyens financiers et humains mais également pour des raisons de contextualisation qui ammoindrissent nécessairement la portée des travaux, plusieurs équipes mettant en commun hypothèses et protocoles d’études peuvent produire des résultats beaucoup plus fiables et robustes. Il s’agit encore une fois d’éléments de bon sens, mais mis en oeuvre de façon trop ponctuelles. Les auteurs du manifeste citent néanmoins plusieurs initiatives en SHS, comme le projet « The Many Lab« , hébergé sur la plateforme Open Science Framework, qui centralise les projets nécessitant le recrutement d’équipes collaboratrices…
Je vais me permettre de proposer un exemple purement spéculatif pour illustrer l’intérêt de dé-contextualiser des recherches. N’hésitez pas à me dire que je suis hors de propos (en argumentant bien sûr). Il y a environ 4 ans, j’écrivais un billet sur les statines, alors montrées du doigt pour leur prescription au périmètre assez flou et parfois peu étayé. (Je ne me suis pas replongé dans la littérature sur la question, ce n’est pas le sujet ici). En me penchant sur les études considérées comme très fiables (sélectionnées par les collaboration Cochrane pour établir leurs recommandations), on pouvait trouver de larges essais cliniques au Japon, USA, Ecosse. Mais j’avais été surpris, interpellé, par cette carte, partagée par Dominique Dupagne :

Mortalité coronarienne (justement censée diminuer grâce à l’utilisation des statines)

On peut voir une très grande disparité de la mortalité coronarienne, qui est justement une des cibles des traitements par les statines. On passe ainsi d’environ 65 morts / 100 000 habitants en France, à plus de 367 pour toutes les zones en rouge sur la carte, comme l’Ecosse. Les USA ont pour leur part un taux d’environ 120 pour 100000 (voir ici). Le Japon a des chiffres similaires aux USA (voir ici). Ma question est simplement la suivante : compte tenu de ces disparités très importantes, comment peut-on savoir si les statines ont le même intérêt en France (ou Espagne, ou Italie…) qu’en Ecosse, Estonie, ou au Japon ? Avec de telles disparités, comment l’agence Européenne du Médicament prend ses décisions sur l’autorisation et la commercialisation de médicaments ? Il me manque sans doute des éléments de réponse sur ce point précis. Toujours est-il que de larges collaborations sur un même sujet (ici par exemple les statines), permettant une méthodologie commune (sur l’analyse de l’influence des statines sur la mortalité coronarienne) dans des contextes (sanitaires) distincts doit permettre des résultats plus fiables, plus généraux, et adaptés aux diverses situations (ici, aux divers pays, de pyramides d’âge et d’hygiène de vie différentes).

Apprenons à être exigeant envers nous-même, et valorisons ceux qui le sont

Le dernier pôle de proposition concerne l’exigence nécessaire dont les chercheurs doivent faire preuve lorsqu’ils médiatisent, publient leurs travaux. Les auteurs du manifeste parle en particulier de la formation : connaître les outils devrait être un préalable à leur utilisation. cela peut sembler d’une grande trivialité, mais je ne pense pas que beaucoup de biologistes maitrisent les statistiques qu’ils utilisent pourtant pour « valider » leurs expériences. Tout comme les chimistes ne maîtrisent que rarement les algorithmes de simulations des structures 3D des molécules. La formation, initiale et continue des chercheurs ne doit pas s’arrêter à quelques recettes de cuisines magiques de bidouille de quelques chiffres ou quelques boutons de machine, si on souhaite une littérature scientifique solide.

Il est également question de la valorisation, et même de l’obligation de suivi de protocoles contraignants à une approche rigoureuse. Ils s’appellent ARRIVE, TOP, CONSORT, PRISMA,… et tous sont prévus pour servir de standard de reproductibilité et de rigueur. Référencés sur le réseau EQUATOR , ces lignes de conduites doivent, pour Munafo et ses collègues être valorisées, imposées, que ce soit par les éditeurs scientifiques, mais également par les institutions scientifiques publiques, et les financeurs de la recherche.

 

Il est difficile de conclure sur ce manifeste. L’article est en libre accès (lien un peu pllus bas), et est beaucoup plus riche que ce que j’en ai tiré ici. À titre personnel, je ne suis pas pessimiste sur la question de la reproductibilité des études scientifiques, ou, de façon plus large, sur leur qualité. Je crois en la force du partage des connaissances, et en la capacité de la communauté scientifique de faire preuve d’une grande rigueur, ne serait-ce que pour être plus convaincante. Néanmoins, l’existence de conflits d’intérêts permanents, qu’ils trouvent leurs origines dans le registre financier ou ailleurs, est un problème récurrent dans cette quête d’une science rigoureuse : il me semble que le tout premier levier d’action contre cette « crise de la reproductibilité », c’est de donner, totalement, envie aux scientifiques de produire des savoirs fiables. Cela aussi est tellement trivial, qu’on l’oublie trop souvent.

« a Manifesto for Reproducible Science » M.R. Munafo et al. Nature Human Behaviour 1, 0021, 2017

(1) on pourra lire à ce sujet les articles suivant :
– Homo Fabulus : « Le Biais de Confirmation, élémentaire, mon cher Watson »
– Agence Science Presse : « Les biais cognitifs sont humains, les scientifiques aussi, donc… »
(2) à noter la création très récente de ChemRxiv, initiative de l’American Chemical Society, principale éditrice de revues (payantes) en chimie. Néanmoins, sa raison d’être n’est pas forcément si louable que cela

Posted in politique | Tagged , , , | 1 Comment

Manifeste pour une science reproductible (I) : le constat

Cet article fait suite à la publication, il y a quelques mois, dans Nature Human Behaviour d’un article intitulé « A Manifesto for Reproducible Science » écrit par M.R. Munafò et ses collègues issus de prestigieuses universités américaines, anglaises et néerlandaise.

La recherche scientifique, telle qu’elle est menée actuellement, est en pleine « crise de la reproductibilité », questionnant totalement les méthodologies des laboratoires, mais également les modes de publications, d’interactions, et d’évaluations de la recherche. Le phénomène a été particulièrement mis en avant depuis les années 2000. Non pas qu’il ne soit pas plus ancien, (je dirais même qu’il est inhérent au prestige que représente la recherche et les découvertes scientifiques), mais il devient beaucoup plus visible aujourd’hui, sans doute grâce à une meilleure circulation des informations et des publications.

Une « crise de la reproductibilité », des réalités différentes

Derrière ce nom, se cache en réalité des pratiques scientifiques différentes, de la fraude pure et simple, à la non publication de résultats négatifs, en passant par les erreurs « de bonne foi », ou liées à des méthodologies contestables. Il serait difficile de tout lister, bien entendu, mais je peux revenir, à titre d’exemple, sur quelques exemples choisis.

Biais de méthodologie : le cas de l’IRM fonctionnelle

L’Imagerie par Résonance Magnétique a offert aux neurosciences l’opportunité de « visualiser », en temps réel, la réponse de nos cerveaux lorsqu’ils sont stimulés par une réflexion, un sentiment, une sensation. Cette technique, appelée IRM Fonctionnelle permet de mesurer en réalité l’évolution de la quantité de dioxygène dans les différentes zones du cerveau, et ainsi, de voir les zones actives (pauvres en O2, qui a été consommé) et les zones au repos. Le problème, dont j’ai parlé ici sur ce blog (et là pour Pour La Science), concerne la méthodologie de traitement des données pour produire l’image du cerveau. Pour simplifier, un chercheur, Enders Eklund a montré que les méthodes utilisées depuis 20 ans en IRM fonctionnelle donnaient des résultats… Faux la plupart du temps.(1) Quelques 30 000 publications ayant été basées sur l’utilisation de ces méthodes, la question de la reproductibilité de ces travaux scientifiques est critique en neuroscience. Si de nouvelles méthodes de traitement de données beaucoup plus fiables existent aujourd’hui, elles ne pourront pas être utilisées pour évaluer les publications plus anciennes, les données brutes n’ayant jamais été publiées…

Cachez ces résultats négatifs que je ne saurais voir…

Combien de travaux ont été entrepris, sans savoir que d’autres équipes de recherche avaient déjà essayé les mêmes choses, n’avaient rien obtenu et surtout… Rien publié ? Cette non publication occasionne des coûts importants, et une perte de temps considérable. En terme de reproductibilité des résultats, les dégâts sont également importants:
Imaginons que 10 équipes fassent la même expérience, pour établir que « A implique B« . 9 obtiennent un résultat négatif (absence de corrélation) –ne le publient pas– et une, par hasard, trouve une corrélation statistiquement significative (risque d’erreur inférieure à 5 %). Et la publie. C’est cette conclusion qui sera retenue. Alors que les données conjointes des 10 équipes auraient très probablement conduites à une infirmation du lien de causalité entre A et B.
Ce problème a conduit à la multiplication, dans les années 2000, de journaux qui publient les résultats négatifs. D’autres plaident pour des plateformes d’accès libre pour ces résultats, servant de bases de données de ce qui a déjà été tenté, mais qui n’a pas marché…(2)

61 % de rendement… On arrondit à 70 % ?

Enjoliver les résultats… QUE C’EST FACILE !! Prenons un exemple dans un domaine où les conséquences ne sont pas dramatiques (contrairement à la médecine et la pharmaceutique), et que je connais bien, à savoir la chimie organique. Lorsque j’étais en thèse de chimie organique, je travaillais sur la mise au point de réactions conduisant à des molécules de type pyridoacridines.

Certaines de ces réactions donnaient des résultats au rendement très variable. J’obtenais effectivement la bonne molécule à chaque coup (ce qui était en soi un résultat très satisfaisant), mais parfois avec 15 %, parfois avec 50 % de rendement. Il va sans dire que dans mon manuscrit, seul ce « 50 % » figure. Mon premier réflexe est… de ne pas trop m’en vouloir ! Après tout,

  • Quelqu’un au labo est passé derrière, a confirmé ces 50 %, et a amélioré ce résultat de façon assez spectaculaire.
  • Ces réactions ne serviront probablement jamais à rien… Et puis, je l’ai bien obtenu, isolé, mon produit, zut !

Ce type de comportement est extrêmement répandu en chimie fine, d’autant qu’il est très rare que d’autres refassent exactement les même manipulations avec les mêmes substrats. Bref : pas vu, pas pris… Pas (trop) de conséquence. Ce qui est dommageable, c’est être formé -lors d’une thèse par exemple- avec ce type de comportement. Qui fait petit à petit accepter un peu n’importe quoi. Sans fraude manifeste, sans volonté de nuire, on arrive à des résultats non productibles.

« Avez vous échoué à reproduire une expérience ? » tiré de cet article paru dans Nature.(3) Et le domaine gagnant est… La chimie !!

Les essais cliniques : quel gâchis !!

Dans un article paru dans Nature en 2012, C. G. Begley et L.M. Ellis tirent la sonnette d’alarme : en oncologie particulièrement, le taux d’échecs des essais cliniques ne peut pas s’expliquer uniquement par la difficulté de transposer à l’humain les recherches pré-cliniques. Il y a un gros problème de fiabilité et de reproductibilité des travaux scientifiques pré-cliniques(4). Ainsi, reportent-ils, une équipe de Bayer a analysé les données publiées concernant 67 projets de l’entreprise (dont 47 en oncologie) : le taux de reproductibilité est d’environ 20 – 25 %. D’autres chercheurs, de l’entreprise AmGen (Californie) n’ont pu confirmer les résultats que de 6 articles sur 53 (11%). A l’heure de l’envolée du coût de développement des médicaments anti-cancéreux, la perte d’argent, et de temps liés à ces travaux non reproductibles représente un gâchis considérable.

 

Ces quelques exemples ne sauraient être représentatifs. Les recherches en psychologie ont particulièrement été montrées du doigt, mais on voit bien que l’ensemble des disciplines universitaires sont concernées. Que ce soit en raison de mauvaises pratiques (non conservation/ non publication des données brutes), de biais cognitifs, de pressions (financière, académique, …), ce sont toutes les étapes de la recherche qui se retrouvent impactées, comme le résume cette figure de l’article de Munafò et coll. (5):

 

À venir : Manifeste pour une science reproductible (II): les propositions

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » E. Eklund et al. PNAS 2016.
(2) « Negative Results Are Published » B. O’Hara Nature 471,448–449 (24 Mars  2011).
(3) « 1500 scientists lift the lid on reproductibility » Monya Beker Nature (25 mai 2016)
(4) « Drug development : Raise standards for preclinical cancer research » C.G. Begley et L.M. Ellis  Nature 483, 531–533(29 March 2012)
(5) « A Manifesto for Reproducible Science » Marcus R. Munafò et al. Nature Human Behaviour 1, 0021 (2017)

Posted in actualité, politique, recherche | Tagged , | 2 Comments

On vulgarise bien les trous noirs… Et les sciences de la parentalité ?

Il est difficile, pour moi, de commenter et présenter un ouvrage réalisé par un-e (très) proche, comme le livre de Béatrice Kammerer et Amandine Johais « Comment éviter de se fâcher avec la Terre entière en devenant parent ? » paru en mars dernier. J’ai envie de dire : « OUAAAH ! CLASSE !!  TOP !! » mais on va me dire que je suis pas très crédible aveuglé par l’admiration que j’ai pour le travail de Béatrice.

Pourtant, derrière ce titre, badin à première lecture, se cache en réalité des idées sur les sciences qui me sont très chères, et que je souhaite partager ici. Il y a quelques temps, je publiais « La science est politique. La médiatiser un acte militant » sur ce blog. En particulier, j’insistais sur le grand pouvoir que donne les connaissances scientifiques : celui de pouvoir prendre des décisions éclairées à chaque instant. Dois-je vacciner mes enfants ? Prendre de l’homéopathie ? Consommer des OGM ? Promouvoir l’énergie nucléaire ? Pour ce genre de questions, particulièrement polémiques, on ne peut se passer de savoirs scientifiques, à moins de déléguer à une « autorité » (morale ou politique) le soin de décider à notre place. Et si on arrive à vulgariser des notions de chimie théorique ou les trous noirs, on devrait bien arriver à vulgariser des connaissances qui peuvent -en plus !- servir !

C’est le cas des questions qui ont trait à la parentalité et l’éducation. Face aux innombrables injonctions sociétales, familiales, comment savoir, en tant que parent, ce qui est bon pour son enfant, sa famille ? De là l’esprit de ce livre : partir des « idées qui fâchent » en éducation et parentalité, et les expliquer, les déconstruire, à l’aide de la sociologie, la psychologie, les sciences cognitives, la médecine, l’histoire, etc.

Petite sélection d’extraits…

 

Devenir mère après 40 ans, encore une lubie dangereuse du XXIème siècle ?

« On évoque souvent l’inquiétude des médecins face aux complications supposément plus nombreuses des grossesses tardives. Leur multiplication serait un problème de santé publique contre lequel il faudrait mettre les femmes en garde. Les études sur l’accroissement des risques maternels et fœtaux liés à l’âge sont relativement nombreuses, mais elles sont loin de toutes aboutir aux mêmes résultats ! Et si les quelques augmentations constatées peuvent encourager une surveillance plus importante des grossesses, il semble totalement exagéré d’y voir une raison suffisante pour décourager les femmes de mener des grossesses après 40 ans (à titre d’exemple, le risque de mort fœtale in utero est de l’ordre de 0.4 % vers 25 ans et s’élève à 0.8 % vers 45 ans ce qui fait conclure à une multiplication du risque par 2 après 40 ans en dépit d’un risque absolu faible). De plus, si la majorité de ces études constatent une augmentation de la probabilité de déclarer une complication, elles sont incapables de déterminer si cette augmentation est seulement liée à l’âge des patientes ou au fait qu’après 40 ans, les femmes souffrant de pathologies de la reproduction sont surreprésentées (puisque n’ayant pu concevoir avant). » p. 33-34

Les femmes ont commencé à travailler dans les années 1970 ?

« Les autrices américaines Tilly et Scott, qui se sont penchées sur les rôles sexuels et familiaux en France et en Angleterre depuis le XVIIIe siècle, rappellent qu’à cette époque : « Les femmes mariées partageaient leur temps entre trois activités principales : le travail salarié, la production pour la consommation domestique et la reproduction », ces trois activités influant les unes sur les autres. Même si les femmes enchaînaient les grossesses, les soins requis pour l’éducation des enfants étaient moindres par rapport à aujourd’hui : pas question de l’emmener aux compétitions de gym, ni de lui faire réciter une poésie. Par ailleurs, les enfants eux-mêmes contribuaient très jeunes, par leur travail salarié ou domestique, à la survie économique de la famille. Ainsi, les sphères familiales et professionnelles étaient intimement liées, sans qu’aucune ne définisse le rôle de la femme, ni n’occupe tout son temps. » p. 158-159

La crise d’adolescence, un passage obligé ?

« Au XIXe siècle, l’adolescence était d’abord l’affaire des pédagogues. La raison en est simple : tous les enfants devenaient certes pubères, mais tous ne devenaient pas adolescents. Seuls ceux qui ne passaient pas brutalement des bancs de l’école – quand ils avaient eu l’occasion de les fréquenter – aux entrepôts de l’usine ou à la réclusion du mariage pouvaient goûter aux affres de ce temps de transition. C’est ainsi qu’il est revenu aux éducateurs des garçons de la bourgeoisie, de poser les jalons d’une théorie de l’adolescence. [Par ailleurs] si ce concept de « crise » fait florès, c’est d’abord à cause du contexte historique du XIXe siècle. La France connaît alors son « siècle des Révolutions » : l’ordre ancien a été terrassé par le régicide et il s’agit de jeter les bases de l’ordre nouveau. Tout au long du XIXe siècle, une importante série de régimes politiques se succèdent : deux empereurs, trois monarques, et deux républiques, le tout entrecoupé de deux révolutions et de nombreuses tensions. Ainsi, l’adolescence sera théorisée au moment même où la société connaît violences, espoirs et incertitudes du renouveau : « les définitions de la crise adolescente [focaliseront] ainsi quelques-unes des grandes hantises du siècle. » » p. 295-302

Pères autoritaires, mères tendres ?

La doxa psychologique qui s’étale dans les magazines destinés aux parents et contribue à normaliser les rôles des père et mère, est largement imprégnée des principes de la psychanalyse, tellement communs qu’on ne prend même plus la peine de le signaler. Pourtant, ceux-ci n’ont jamais fait l’objet d’une quelconque validation scientifique, plus encore, ils apparaissent obsolètes au regard de notre société contemporaine, portant la marque d’un temps révolu où les familles monoparentales et les divorces étaient rares, les familles homoparentales et les techniques de procréation médicalement assistées inexistantes.

« De Freud […], nous vient le caractère incontournable du complexe d’Œdipe, dans lequel le père est celui auquel on se confronte, qu’on envie et admire au point d’en fantasmer la place (qu’on voudrait lui dérober) tout en le craignant par-dessus tout […] de Winnicott, la prééminence de la mère dans les soins au petit enfant, formulée comme « préoccupation maternelle primaire » découlant de l’enfantement et dont le père est globalement absent. […] De Lacan, nous est parvenue l’idée de « fonction paternelle » et de « tiers séparateur » […] : l’enfant est supposé initialement se vivre en fusion avec sa mère comme étant le phallus symbolique qui « manquerait » à cette dernière, une illusion qui s’effondrerait lorsqu’il constaterait que le désir de sa mère se porte vers une autre personne (le tiers séparateur) et qui lui permettrait du même coup d’accéder à son individualité. […] Pour le sociologue François de Singly, tout ceci constitue les bases d’un contrôle social : « Les travaux psychologiques peuvent avoir l’efficace des lois, les normes sociales n’ont pas besoin d’avoir un soubassement juridique pour exister et circuler ». » p. 147-148

En conclusion du livre : parents… Face aux injonctions… Prenez le pouvoir par les connaissances !

« Force est de constater que les connaissances relatives à l’éducation et la parentalité circulent de manière très inégale, a fortiori si elles traitent de récentes découvertes : non seulement le passage de l’information depuis les sphères universitaires jusqu’au grand public se fait rarement sans son lot d’infidélités et de simplification inhérent au bouche à oreille, mais plus encore, au sein même du public non-expert, les inégalités d’accès à l’information sont majeures. Rares sont les articles des magazines parentaux qui incluent la référence exacte à l’étude scientifique ou au rapport qu’ils relaient […]. S’ajoutent alors les barrières culturelles qui handicapent la lecture de celles et ceux qui ne sont pas familiers avec le style académique et les concepts convoqués, peu coutumiers de la langue anglaise généralement utilisée, et finalement condamnés à devoir croire sur parole ceux qui les relaient avec plus ou moins de bonheur. » 330-331

« Notre jugement est sans appel : peu importe la force de persuasion des points de vue simplistes et manichéens, ils sont une escroquerie intellectuelle qui infantilise les individus et grignote la confiance accordée aux institutions de production de la connaissance et aux soignants. A ce titre, ils sont donc indéfendables. Nous plaidons au contraire pour une diffusion d’information qui ferait une large place à la complexité, non pas celle qui exclut d’emblée les parents qu’elle considère comme trop peu instruits (et contribue ainsi à les maintenir dans cette position), mais celle qui ouvre à la diversité et replace la science au cœur de sa véritable mission : proposer un nouveau regard sur le monde pour nous permettre d’en inventer les futurs possibles. » p. 335-336

« Comment éviter de se fâcher avec la terre entière en devenant parent » Béatrice Kammerer et Amandine Johais, 2017, Ed. Belin. Disponible dans votre petite librairie de quartier (et sinon sur Amazon)

Posted in sciences sociales | Tagged , , | Leave a comment

[Flash Info Recherche] #3 Du nouveau dans les thérapies anti-SIDA

Il est de bon ton de parler aujourd’hui du SIDA comme d’une maladie chronique que l’on contrôle grâce à un cocktail médicamenteux d’anti-rétroviraux (ART) efficaces. Si l’espérance de vie aujourd’hui d’une personne séropositive, en France, semble se rapprocher de celle d’une personne séronégative, avoir le SIDA reste une situation difficile et lourde à porter. Outre les conséquences sociales, cette maladie impose la prise d’ART à vie : ceux-ci rendent certes le HIV indétectable, mais ils ne l’éradiquent pas : quelques semaines après l’arrêt du traitement, le virus ré-apparaît.

N’oublions pas également que la situation française n’est pas la norme à l’échelle de la planète : nombre de patients asiatiques, africains, américains n’auront jamais accès aux ART, faute de moyens.

Une étude parue dans la revue Science il y a quelques mois laisse néanmoins entrevoir l’espoir d’une réelle rémission après la prise d’ART : en travaillant sur le SIV – équivalent simiesque du HIV -, une équipe américaine a découvert qu’en traitant des singes malades avec un anticorps artificiel (spécifique de certaines protéines du système gastro-intestinal) en même temps que les ART, les taux de SIV ne remontaient pas après l’arrêt du traitement (pendant -au moins- 9 mois).(1)

Les chercheurs sont partis du fait que les tissus du système gastro-intestinal jouent un rôle de réservoir permanent de VIH (ou de SIV). Les lymphocytes T4, globules blancs cibles du virus, adhèrent à ces tissus grâce à une protéine de surface de la famille des intégrines : l’intégrine α4β7. Si on empêche ces globules blancs d’adhérer, peut-on empêcher la prolifération du virus ? La réponse semble bien positive :
Des singes SIV-positif ont été traités aux ART accompagné d’anticorps monoclonaux spécifiques de α4β7 simiesque. Après arrêt total des ART et de ces anticorps, le taux de SIV n’est pas remonté, et reste indétectable. Le mécanisme précis est mal connu, mais la prise de ces anticorps ont pour conséquence la diminution de la circulation des lymphocytes T4 riches en α4β7 dans les tissus gastro-intestinaux. Chez le singe, cela semble suffire pour limiter la contamination de ces globules blancs, et donc pour permettre au système immunitaire de lutter efficacement contre le virus.
Chez l’homme, des anticorps monoclonaux spécifiques à l’intégrine α4β7 sont déjà commercialisés pour d’autres indications. Les études humaines devraient probablement en être accélérés… En espérant que leurs résultats soient aussi spectaculaires !

(1) « Sustained virologic control in SIV+ macaques after antiretroviral and α4β7 antibody therapy » Siddappa N. Byrareddy, James Arthos, Claudia Cicala, et al. Science 14 Oct 2016 Vol. 354, Issue 6309, pp. 197-202

Posted in actualité, recherche, santé | Tagged , , | Leave a comment

[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

Posted in actualité, article de recherche, Non classé, santé | Tagged , | Leave a comment