[Flash Info Chimie] #52 Faire des origamis en chimie : Marquez le trait, chauffez… C’est plié !

Le Nafion est un polymère per-fluoré (où tous les atomes d’hydrogène ont été remplacés par des atomes de fluor) de la même famille que l’universellement connu Teflon. Mais ce polymère possède des chaînes latérales qui lui confèrent des propriétés acido-basiques intéressantes, exploitées notamment pour réaliser des membranes échangeuses de protons dans des piles à combustibles.

Nafion : en haut la chaîne principale, identique au Téflon. en dessous, une chaîne latérale, terminant par une fonction ‘acide sulfonique’, qui confère au polymère ses propriétés acido-basiques

Le Nafion possède également des propriétés physiques (résistance à la chaleur) et chimique (en dehors des réactions acide-base, il fait preuve d’une excellente inertie) qui en font un matériau particulièrement recherché en électrochimie.

Pourtant, à l’Université du Wisconsin, A. Oyefusi et J. Chen ont préféré se servir du Nafion pour faire des… pliages.

Le Nafion a en réalité une propriété supplémentaire : c’est un matériau à mémoire de forme : lorsqu’il est étiré, tordu, il peut retrouver sa forme initiale en étant simplement chauffé. Et c’est là que cela devient vraiment intéressant : la température nécessaire pour revenir à sa forme initiale n’est pas la même que le polymère ait été acidifié (noté en général Nafion-H, car il a gagné des ions H⁺) ou non. Le Nafion-H retrouve sa forme à partir d’environ 100 °C; le Nafion non acide à partir de 260 °C.

Les chercheurs ont donc utilisé une feuille de Nafion étirée, qu’ils ont tout d’abord trempé dans un bain de potasse diluée. Leur feuille a donc une forme stable jusqu’à 260 °C. Puis, ils ont « marqué les traits« , à l’aide d’une solution acide, pour obtenir des lignes de Nafion-H superficielles sur leur feuille. En chauffant entre 100 et 260°C, le Nafion-H s’est contracté, pliant ainsi la feuille entière suivant les traits, comme on peut le voir sur l’image précédente.

Magnifique, n’est-ce-pas ?  L’intérêt ne réside pas uniquement dans la structure 3D du Nafion obtenu : celui ci peut ensuite servir de moule pour d’autres matériaux… Pas mal, l’oiseau en nickel, non ?

Du pliage à l’oiseau en Nickel, obtenue par électrodéposition du métal sur un moule secondaire en PDMS réalisé à l’aide de l’oiseau en Nafion

 » Reprogrammable Chemical 3D Shaping for Origami, Kirigami, and Reconfigurable Molding » A. Oyefusi J.Chen Angewandte Chemie Int. Ed. 2017, Early View

Manifeste pour une science reproductible (II) : les propositions

Cet article fait suite à celui-ci, où je donnais quelques exemples illustrant cette « crise de reproductibilité » qui secoue la recherche scientifique. En janvier, Marcus R. Munafò et ses collègues publiaient « Manifesto for reproducible science » dans la revue Nature Human Behaviour.

Dans ce manifeste, ils dénoncent les pratiques qui nuisent à la reproductibilité scientifique, qui provoquent ce gâchis scientifique, humain, financier.

Toutes les étapes de la construction et de la publication de découvertes scientifiques. En rouge, les obstacles à la reproductibilité des résultats. Le terme HARKing signifie « Hypothesizing After the Results are Known » : Faire des hypothèses post hoc, une pratique très souvent dénoncée en sciences du comportement. (source de l’image)

Mais il ne s’agit pas uniquement d’un pamphlet. Les auteurs proposent plusieurs grandes idées pour limiter cette crise de la reproductibilité. J’ai pris la liberté de les reprendre, en les réorganisant sous quatre pôles distincts.

Pré-enregistrer les études, pré-publier : promouvoir la transparence avant même la publication définitive des résultats

Lorsqu’on parle de pré-publication, on pense très vite à la platerforme arXiv.org, qui consiste à rendre public (et gratuitement) des résultats préliminaires, souvent non publiables en l’état, afin de profiter du regard de la communauté scientifique pour valider mesures expérimentales et méthodologie. Pour apparaître sur arXiv, nul besoin de validation par les pairs. Il y a donc un processus complémentaire, ouvert et collaboratif, avant soumission de la publication sur un autre support… ou abandon. Pas besoin du long et douloureux processus de rétractation, ou de corrigendum des publications pour ne conserver que les plus rigoureuses…

Quelques exemples sont suffisamment célèbres pour être signalés (voir la notice arXiv sur wikipédia):

  • Une démonstration de la conjecture de Thurston a été déposée en 2002 sur arXiv par Grigori Perelman, examinée pendant 4 ans, et finalement validée.
  • Une démonstration de l’existence de solutions générales à l’équation de Navier-Stokes a été déposée par Penny Smith, avant d’être finalement abandonné.
  • Les travaux d’Enders Eklund, remettant en question les méthodologies en IRM fonctionnelle ont d’abord été publiés sur arXiv, avant de finir sur la prestigieuse revue PNAS. (Par ailleurs, il me semble – à titre personnel-  que l’accès à une revue aussi sélective a sans doute été rendue possible grâce à la prépublication)

Cependant, tous les domaines scientifiques ne sont pas ouverts à cette plateforme… Principalement en raison des habitudes des communautés de chercheurs. arXiv s’est principalement développée autour de la physique, information, mathématique… La chimie, -au hasard !- n’est pas concernée…(2)

ArXiv est un outil intéressant et productrice d’une rigueur que le peer-reviewing classique n’atteint pas. Les « Registered Reports » me semblent tout à fait complémentaires, et particulièrement efficaces. Le principe est simple : Le processus de Peer-Review est décomposé en deux :

  • Une première étape d’évaluation par les pairs concerne les hypothèses de départ et les méthodes qui seront mis en oeuvre. Si elles sont retenues, l’équipe de recherche obtient un accord de principe pour publication.
  • La deuxième étape d’évaluation concerne le manuscrit de l’article à publier. Sous réserve de la bonne observance des méthodes déjà validées lors de la première étape, et de rigueur de présentation des résultats, et quelque soit leur importance dans le champ disciplinaire concerné, l’article est publié.

Principe des « Registered Reports » : avoir un accord de publication avant obtention des résultats

Cette première validation donne l’assurance aux chercheurs d’être publiés. La nécessité absolue de résultats positifs, voire particulièrement remarquables s’envole, laissant la possibilité de publier des résultats négatifs ou peu significatifs. D’une part la fraude, les petits arrangements perdent beaucoup d’intérêts avec ce processus, mais de plus l’évaluation des chercheurs par les publications redevient un peu plus saine : les « bons » sont ceux qui ont produits des hypothèses pertinentes, et qui ont su se montrer rigoureux dans la construction de nouveaux savoirs scientifiques. Certaines revues ont mis en place, de façon facultative, ces « Registered Reports ». On trouvera une liste ici (notez l’absence de la chimie…).

Finalement, ces « Registered Reports » (oui, je n’ai pas trouvé de traduction, et j’ai du mal à en proposer une à la fois claire et légère…) rejoignent l’arsenal déjà existant qui permet les pré-enregistrement des recherches. Mais encore une fois, les domaines de recherche sont très inégalement concernés par les pré-enregistrements. Ils sont quasi systématique dans le domaine de la recherche médicale, et hébergés par différents sites institutionnels (comme le site américain ClinicalTrials.gov dont l’origine date de 1988, ou l’européen EudraCT Public website propulsé par la Commission Européenne), mais quasi absents de tous les autres domaines. Il est vrai que la question des essais cliniques est particulièrement sensible, tant les enjeux financiers et surtout humains sont importants…

L’indispensable libre accès aux articles et aux données

Quand Eklund conclut son article sur les défauts de traitements statistiques des données issues des expériences d’IRM fonctionnelle, concernant près de 30 000 articles scientifiques, il n’oublie pas de préciser que pour la plupart d’entre eux, il ne sera pas possible d’utiliser les nouvelles méthodologies plus fiables : les données brutes de ces expériences n’existent plus.

Dans un autre registre, je suis tombé il y a quelques minutes, sur ce tweet :

Sans revenir sur cette controverse scientifique concernant le glyphosate où se mêlent lobbies agro-industriels, zêle journalistique pas toujours bien placé, et santé publique, ce rebondissement (Il semblerait que des données non publiées remettent en question les conclusions de l’IARC classant le glyphosate comme « cancérigène probable ») est symptomatique de l’importance de la publication, ouverte à tous, des données des études. Que cela soit pour vérifier les traitements statistiques, en effectuer de nouveaux, plus pertinents, plus fins, ou procéder des méta-analyses nécessitant de re-traiter les données brutes issues de publications distinctes.

Sans entrer dans trop de détail, il me semble que la publication des données brutes fait aujourd’hui consensus, même si elle n’est pas encore suffisamment entreprise. La publication en accès libre des études scientifiques est également un vecteur fondamental de la diffusion des connaissances et des travaux scientifiques. À ce titre, elle permet d’accroître la communauté qui peut vérifier, comparer, évaluer les résultats et les méthodologies mises en oeuvres.

La littérature promouvant le libre accès aux données et aux études est abondante… Nul besoin que j’en remette une couche. Je ne m’étendrais pas plus ici sur la question, d’autant qu’il me faudrait encore critiquer le domaine de la chimie, mauvais élève de la recherche scientifique concernant l’accès libre aux publications…

Peer-review, collaborations… De la diversité, que diable !

Rien de tel que la diversité au sein des équipes, des collaborations, et des re-lecteurs pour améliorer la qualité des publications, et ainsi leur reproductibilité. Ainsi Munafo et coll. expliquent très justement que les chercheurs ne peuvent pas être à la fois des biologistes / psychologues / physiciens / etc. hors pairs, et des mathématiciens / épidémiologistes / statisticiens / informaticiens / etc. au courant des dernières évolutions sur le traitement des données. Ils proposent ainsi que soient associés aux équipes de recherche des professionnels spécialistes des méthodologies, et non du domaine de recherche concerné, dans le but d’offrir un regard aussi neutre que possible sur le design, le suivi, le traitements des résultats des travaux menés.

Cette même proposition est valable pour l’étape d’évaluation par les pairs avant publication.  Les auteurs insistent encore une fois sur l »intérêt de pré-publier les résultats, pour augmenter le nombres d’acteurs susceptibles d’évaluer les études menées, mais également sur la possibilité de post-évaluation des articles, rendue aujourd’hui possible, et même aisée par les outils informatiques et la mise à disposition des études sur le net.

Permettre de larges collaborations est également mis en avant. Là où une équipe isolée ne peut que produire des résultats statistiquement peu robustes, pour des raisons évidentes de moyens financiers et humains mais également pour des raisons de contextualisation qui ammoindrissent nécessairement la portée des travaux, plusieurs équipes mettant en commun hypothèses et protocoles d’études peuvent produire des résultats beaucoup plus fiables et robustes. Il s’agit encore une fois d’éléments de bon sens, mais mis en oeuvre de façon trop ponctuelles. Les auteurs du manifeste citent néanmoins plusieurs initiatives en SHS, comme le projet « The Many Lab« , hébergé sur la plateforme Open Science Framework, qui centralise les projets nécessitant le recrutement d’équipes collaboratrices…
Je vais me permettre de proposer un exemple purement spéculatif pour illustrer l’intérêt de dé-contextualiser des recherches. N’hésitez pas à me dire que je suis hors de propos (en argumentant bien sûr). Il y a environ 4 ans, j’écrivais un billet sur les statines, alors montrées du doigt pour leur prescription au périmètre assez flou et parfois peu étayé. (Je ne me suis pas replongé dans la littérature sur la question, ce n’est pas le sujet ici). En me penchant sur les études considérées comme très fiables (sélectionnées par les collaboration Cochrane pour établir leurs recommandations), on pouvait trouver de larges essais cliniques au Japon, USA, Ecosse. Mais j’avais été surpris, interpellé, par cette carte, partagée par Dominique Dupagne :

Mortalité coronarienne (justement censée diminuer grâce à l’utilisation des statines)

On peut voir une très grande disparité de la mortalité coronarienne, qui est justement une des cibles des traitements par les statines. On passe ainsi d’environ 65 morts / 100 000 habitants en France, à plus de 367 pour toutes les zones en rouge sur la carte, comme l’Ecosse. Les USA ont pour leur part un taux d’environ 120 pour 100000 (voir ici). Le Japon a des chiffres similaires aux USA (voir ici). Ma question est simplement la suivante : compte tenu de ces disparités très importantes, comment peut-on savoir si les statines ont le même intérêt en France (ou Espagne, ou Italie…) qu’en Ecosse, Estonie, ou au Japon ? Avec de telles disparités, comment l’agence Européenne du Médicament prend ses décisions sur l’autorisation et la commercialisation de médicaments ? Il me manque sans doute des éléments de réponse sur ce point précis. Toujours est-il que de larges collaborations sur un même sujet (ici par exemple les statines), permettant une méthodologie commune (sur l’analyse de l’influence des statines sur la mortalité coronarienne) dans des contextes (sanitaires) distincts doit permettre des résultats plus fiables, plus généraux, et adaptés aux diverses situations (ici, aux divers pays, de pyramides d’âge et d’hygiène de vie différentes).

Apprenons à être exigeant envers nous-même, et valorisons ceux qui le sont

Le dernier pôle de proposition concerne l’exigence nécessaire dont les chercheurs doivent faire preuve lorsqu’ils médiatisent, publient leurs travaux. Les auteurs du manifeste parle en particulier de la formation : connaître les outils devrait être un préalable à leur utilisation. cela peut sembler d’une grande trivialité, mais je ne pense pas que beaucoup de biologistes maitrisent les statistiques qu’ils utilisent pourtant pour « valider » leurs expériences. Tout comme les chimistes ne maîtrisent que rarement les algorithmes de simulations des structures 3D des molécules. La formation, initiale et continue des chercheurs ne doit pas s’arrêter à quelques recettes de cuisines magiques de bidouille de quelques chiffres ou quelques boutons de machine, si on souhaite une littérature scientifique solide.

Il est également question de la valorisation, et même de l’obligation de suivi de protocoles contraignants à une approche rigoureuse. Ils s’appellent ARRIVE, TOP, CONSORT, PRISMA,… et tous sont prévus pour servir de standard de reproductibilité et de rigueur. Référencés sur le réseau EQUATOR , ces lignes de conduites doivent, pour Munafo et ses collègues être valorisées, imposées, que ce soit par les éditeurs scientifiques, mais également par les institutions scientifiques publiques, et les financeurs de la recherche.

 

Il est difficile de conclure sur ce manifeste. L’article est en libre accès (lien un peu pllus bas), et est beaucoup plus riche que ce que j’en ai tiré ici. À titre personnel, je ne suis pas pessimiste sur la question de la reproductibilité des études scientifiques, ou, de façon plus large, sur leur qualité. Je crois en la force du partage des connaissances, et en la capacité de la communauté scientifique de faire preuve d’une grande rigueur, ne serait-ce que pour être plus convaincante. Néanmoins, l’existence de conflits d’intérêts permanents, qu’ils trouvent leurs origines dans le registre financier ou ailleurs, est un problème récurrent dans cette quête d’une science rigoureuse : il me semble que le tout premier levier d’action contre cette « crise de la reproductibilité », c’est de donner, totalement, envie aux scientifiques de produire des savoirs fiables. Cela aussi est tellement trivial, qu’on l’oublie trop souvent.

« a Manifesto for Reproducible Science » M.R. Munafo et al. Nature Human Behaviour 1, 0021, 2017

(1) on pourra lire à ce sujet les articles suivant :
– Homo Fabulus : « Le Biais de Confirmation, élémentaire, mon cher Watson »
– Agence Science Presse : « Les biais cognitifs sont humains, les scientifiques aussi, donc… »
(2) à noter la création très récente de ChemRxiv, initiative de l’American Chemical Society, principale éditrice de revues (payantes) en chimie. Néanmoins, sa raison d’être n’est pas forcément si louable que cela

Manifeste pour une science reproductible (I) : le constat

Cet article fait suite à la publication, il y a quelques mois, dans Nature Human Behaviour d’un article intitulé « A Manifesto for Reproducible Science » écrit par M.R. Munafò et ses collègues issus de prestigieuses universités américaines, anglaises et néerlandaise.

La recherche scientifique, telle qu’elle est menée actuellement, est en pleine « crise de la reproductibilité », questionnant totalement les méthodologies des laboratoires, mais également les modes de publications, d’interactions, et d’évaluations de la recherche. Le phénomène a été particulièrement mis en avant depuis les années 2000. Non pas qu’il ne soit pas plus ancien, (je dirais même qu’il est inhérent au prestige que représente la recherche et les découvertes scientifiques), mais il devient beaucoup plus visible aujourd’hui, sans doute grâce à une meilleure circulation des informations et des publications.

Une « crise de la reproductibilité », des réalités différentes

Derrière ce nom, se cache en réalité des pratiques scientifiques différentes, de la fraude pure et simple, à la non publication de résultats négatifs, en passant par les erreurs « de bonne foi », ou liées à des méthodologies contestables. Il serait difficile de tout lister, bien entendu, mais je peux revenir, à titre d’exemple, sur quelques exemples choisis.

Biais de méthodologie : le cas de l’IRM fonctionnelle

L’Imagerie par Résonance Magnétique a offert aux neurosciences l’opportunité de « visualiser », en temps réel, la réponse de nos cerveaux lorsqu’ils sont stimulés par une réflexion, un sentiment, une sensation. Cette technique, appelée IRM Fonctionnelle permet de mesurer en réalité l’évolution de la quantité de dioxygène dans les différentes zones du cerveau, et ainsi, de voir les zones actives (pauvres en O2, qui a été consommé) et les zones au repos. Le problème, dont j’ai parlé ici sur ce blog (et là pour Pour La Science), concerne la méthodologie de traitement des données pour produire l’image du cerveau. Pour simplifier, un chercheur, Enders Eklund a montré que les méthodes utilisées depuis 20 ans en IRM fonctionnelle donnaient des résultats… Faux la plupart du temps.(1) Quelques 30 000 publications ayant été basées sur l’utilisation de ces méthodes, la question de la reproductibilité de ces travaux scientifiques est critique en neuroscience. Si de nouvelles méthodes de traitement de données beaucoup plus fiables existent aujourd’hui, elles ne pourront pas être utilisées pour évaluer les publications plus anciennes, les données brutes n’ayant jamais été publiées…

Cachez ces résultats négatifs que je ne saurais voir…

Combien de travaux ont été entrepris, sans savoir que d’autres équipes de recherche avaient déjà essayé les mêmes choses, n’avaient rien obtenu et surtout… Rien publié ? Cette non publication occasionne des coûts importants, et une perte de temps considérable. En terme de reproductibilité des résultats, les dégâts sont également importants:
Imaginons que 10 équipes fassent la même expérience, pour établir que « A implique B« . 9 obtiennent un résultat négatif (absence de corrélation) –ne le publient pas– et une, par hasard, trouve une corrélation statistiquement significative (risque d’erreur inférieure à 5 %). Et la publie. C’est cette conclusion qui sera retenue. Alors que les données conjointes des 10 équipes auraient très probablement conduites à une infirmation du lien de causalité entre A et B.
Ce problème a conduit à la multiplication, dans les années 2000, de journaux qui publient les résultats négatifs. D’autres plaident pour des plateformes d’accès libre pour ces résultats, servant de bases de données de ce qui a déjà été tenté, mais qui n’a pas marché…(2)

61 % de rendement… On arrondit à 70 % ?

Enjoliver les résultats… QUE C’EST FACILE !! Prenons un exemple dans un domaine où les conséquences ne sont pas dramatiques (contrairement à la médecine et la pharmaceutique), et que je connais bien, à savoir la chimie organique. Lorsque j’étais en thèse de chimie organique, je travaillais sur la mise au point de réactions conduisant à des molécules de type pyridoacridines.

Certaines de ces réactions donnaient des résultats au rendement très variable. J’obtenais effectivement la bonne molécule à chaque coup (ce qui était en soi un résultat très satisfaisant), mais parfois avec 15 %, parfois avec 50 % de rendement. Il va sans dire que dans mon manuscrit, seul ce « 50 % » figure. Mon premier réflexe est… de ne pas trop m’en vouloir ! Après tout,

  • Quelqu’un au labo est passé derrière, a confirmé ces 50 %, et a amélioré ce résultat de façon assez spectaculaire.
  • Ces réactions ne serviront probablement jamais à rien… Et puis, je l’ai bien obtenu, isolé, mon produit, zut !

Ce type de comportement est extrêmement répandu en chimie fine, d’autant qu’il est très rare que d’autres refassent exactement les même manipulations avec les mêmes substrats. Bref : pas vu, pas pris… Pas (trop) de conséquence. Ce qui est dommageable, c’est être formé -lors d’une thèse par exemple- avec ce type de comportement. Qui fait petit à petit accepter un peu n’importe quoi. Sans fraude manifeste, sans volonté de nuire, on arrive à des résultats non productibles.

« Avez vous échoué à reproduire une expérience ? » tiré de cet article paru dans Nature.(3) Et le domaine gagnant est… La chimie !!

Les essais cliniques : quel gâchis !!

Dans un article paru dans Nature en 2012, C. G. Begley et L.M. Ellis tirent la sonnette d’alarme : en oncologie particulièrement, le taux d’échecs des essais cliniques ne peut pas s’expliquer uniquement par la difficulté de transposer à l’humain les recherches pré-cliniques. Il y a un gros problème de fiabilité et de reproductibilité des travaux scientifiques pré-cliniques(4). Ainsi, reportent-ils, une équipe de Bayer a analysé les données publiées concernant 67 projets de l’entreprise (dont 47 en oncologie) : le taux de reproductibilité est d’environ 20 – 25 %. D’autres chercheurs, de l’entreprise AmGen (Californie) n’ont pu confirmer les résultats que de 6 articles sur 53 (11%). A l’heure de l’envolée du coût de développement des médicaments anti-cancéreux, la perte d’argent, et de temps liés à ces travaux non reproductibles représente un gâchis considérable.

 

Ces quelques exemples ne sauraient être représentatifs. Les recherches en psychologie ont particulièrement été montrées du doigt, mais on voit bien que l’ensemble des disciplines universitaires sont concernées. Que ce soit en raison de mauvaises pratiques (non conservation/ non publication des données brutes), de biais cognitifs, de pressions (financière, académique, …), ce sont toutes les étapes de la recherche qui se retrouvent impactées, comme le résume cette figure de l’article de Munafò et coll. (5):

 

À venir : Manifeste pour une science reproductible (II): les propositions

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » E. Eklund et al. PNAS 2016.
(2) « Negative Results Are Published » B. O’Hara Nature 471,448–449 (24 Mars  2011).
(3) « 1500 scientists lift the lid on reproductibility » Monya Beker Nature (25 mai 2016)
(4) « Drug development : Raise standards for preclinical cancer research » C.G. Begley et L.M. Ellis  Nature 483, 531–533(29 March 2012)
(5) « A Manifesto for Reproducible Science » Marcus R. Munafò et al. Nature Human Behaviour 1, 0021 (2017)

On vulgarise bien les trous noirs… Et les sciences de la parentalité ?

Il est difficile, pour moi, de commenter et présenter un ouvrage réalisé par un-e (très) proche, comme le livre de Béatrice Kammerer et Amandine Johais « Comment éviter de se fâcher avec la Terre entière en devenant parent ? » paru en mars dernier. J’ai envie de dire : « OUAAAH ! CLASSE !!  TOP !! » mais on va me dire que je suis pas très crédible aveuglé par l’admiration que j’ai pour le travail de Béatrice.

Pourtant, derrière ce titre, badin à première lecture, se cache en réalité des idées sur les sciences qui me sont très chères, et que je souhaite partager ici. Il y a quelques temps, je publiais « La science est politique. La médiatiser un acte militant » sur ce blog. En particulier, j’insistais sur le grand pouvoir que donne les connaissances scientifiques : celui de pouvoir prendre des décisions éclairées à chaque instant. Dois-je vacciner mes enfants ? Prendre de l’homéopathie ? Consommer des OGM ? Promouvoir l’énergie nucléaire ? Pour ce genre de questions, particulièrement polémiques, on ne peut se passer de savoirs scientifiques, à moins de déléguer à une « autorité » (morale ou politique) le soin de décider à notre place. Et si on arrive à vulgariser des notions de chimie théorique ou les trous noirs, on devrait bien arriver à vulgariser des connaissances qui peuvent -en plus !- servir !

C’est le cas des questions qui ont trait à la parentalité et l’éducation. Face aux innombrables injonctions sociétales, familiales, comment savoir, en tant que parent, ce qui est bon pour son enfant, sa famille ? De là l’esprit de ce livre : partir des « idées qui fâchent » en éducation et parentalité, et les expliquer, les déconstruire, à l’aide de la sociologie, la psychologie, les sciences cognitives, la médecine, l’histoire, etc.

Petite sélection d’extraits…

 

Devenir mère après 40 ans, encore une lubie dangereuse du XXIème siècle ?

« On évoque souvent l’inquiétude des médecins face aux complications supposément plus nombreuses des grossesses tardives. Leur multiplication serait un problème de santé publique contre lequel il faudrait mettre les femmes en garde. Les études sur l’accroissement des risques maternels et fœtaux liés à l’âge sont relativement nombreuses, mais elles sont loin de toutes aboutir aux mêmes résultats ! Et si les quelques augmentations constatées peuvent encourager une surveillance plus importante des grossesses, il semble totalement exagéré d’y voir une raison suffisante pour décourager les femmes de mener des grossesses après 40 ans (à titre d’exemple, le risque de mort fœtale in utero est de l’ordre de 0.4 % vers 25 ans et s’élève à 0.8 % vers 45 ans ce qui fait conclure à une multiplication du risque par 2 après 40 ans en dépit d’un risque absolu faible). De plus, si la majorité de ces études constatent une augmentation de la probabilité de déclarer une complication, elles sont incapables de déterminer si cette augmentation est seulement liée à l’âge des patientes ou au fait qu’après 40 ans, les femmes souffrant de pathologies de la reproduction sont surreprésentées (puisque n’ayant pu concevoir avant). » p. 33-34

Les femmes ont commencé à travailler dans les années 1970 ?

« Les autrices américaines Tilly et Scott, qui se sont penchées sur les rôles sexuels et familiaux en France et en Angleterre depuis le XVIIIe siècle, rappellent qu’à cette époque : « Les femmes mariées partageaient leur temps entre trois activités principales : le travail salarié, la production pour la consommation domestique et la reproduction », ces trois activités influant les unes sur les autres. Même si les femmes enchaînaient les grossesses, les soins requis pour l’éducation des enfants étaient moindres par rapport à aujourd’hui : pas question de l’emmener aux compétitions de gym, ni de lui faire réciter une poésie. Par ailleurs, les enfants eux-mêmes contribuaient très jeunes, par leur travail salarié ou domestique, à la survie économique de la famille. Ainsi, les sphères familiales et professionnelles étaient intimement liées, sans qu’aucune ne définisse le rôle de la femme, ni n’occupe tout son temps. » p. 158-159

La crise d’adolescence, un passage obligé ?

« Au XIXe siècle, l’adolescence était d’abord l’affaire des pédagogues. La raison en est simple : tous les enfants devenaient certes pubères, mais tous ne devenaient pas adolescents. Seuls ceux qui ne passaient pas brutalement des bancs de l’école – quand ils avaient eu l’occasion de les fréquenter – aux entrepôts de l’usine ou à la réclusion du mariage pouvaient goûter aux affres de ce temps de transition. C’est ainsi qu’il est revenu aux éducateurs des garçons de la bourgeoisie, de poser les jalons d’une théorie de l’adolescence. [Par ailleurs] si ce concept de « crise » fait florès, c’est d’abord à cause du contexte historique du XIXe siècle. La France connaît alors son « siècle des Révolutions » : l’ordre ancien a été terrassé par le régicide et il s’agit de jeter les bases de l’ordre nouveau. Tout au long du XIXe siècle, une importante série de régimes politiques se succèdent : deux empereurs, trois monarques, et deux républiques, le tout entrecoupé de deux révolutions et de nombreuses tensions. Ainsi, l’adolescence sera théorisée au moment même où la société connaît violences, espoirs et incertitudes du renouveau : « les définitions de la crise adolescente [focaliseront] ainsi quelques-unes des grandes hantises du siècle. » » p. 295-302

Pères autoritaires, mères tendres ?

La doxa psychologique qui s’étale dans les magazines destinés aux parents et contribue à normaliser les rôles des père et mère, est largement imprégnée des principes de la psychanalyse, tellement communs qu’on ne prend même plus la peine de le signaler. Pourtant, ceux-ci n’ont jamais fait l’objet d’une quelconque validation scientifique, plus encore, ils apparaissent obsolètes au regard de notre société contemporaine, portant la marque d’un temps révolu où les familles monoparentales et les divorces étaient rares, les familles homoparentales et les techniques de procréation médicalement assistées inexistantes.

« De Freud […], nous vient le caractère incontournable du complexe d’Œdipe, dans lequel le père est celui auquel on se confronte, qu’on envie et admire au point d’en fantasmer la place (qu’on voudrait lui dérober) tout en le craignant par-dessus tout […] de Winnicott, la prééminence de la mère dans les soins au petit enfant, formulée comme « préoccupation maternelle primaire » découlant de l’enfantement et dont le père est globalement absent. […] De Lacan, nous est parvenue l’idée de « fonction paternelle » et de « tiers séparateur » […] : l’enfant est supposé initialement se vivre en fusion avec sa mère comme étant le phallus symbolique qui « manquerait » à cette dernière, une illusion qui s’effondrerait lorsqu’il constaterait que le désir de sa mère se porte vers une autre personne (le tiers séparateur) et qui lui permettrait du même coup d’accéder à son individualité. […] Pour le sociologue François de Singly, tout ceci constitue les bases d’un contrôle social : « Les travaux psychologiques peuvent avoir l’efficace des lois, les normes sociales n’ont pas besoin d’avoir un soubassement juridique pour exister et circuler ». » p. 147-148

En conclusion du livre : parents… Face aux injonctions… Prenez le pouvoir par les connaissances !

« Force est de constater que les connaissances relatives à l’éducation et la parentalité circulent de manière très inégale, a fortiori si elles traitent de récentes découvertes : non seulement le passage de l’information depuis les sphères universitaires jusqu’au grand public se fait rarement sans son lot d’infidélités et de simplification inhérent au bouche à oreille, mais plus encore, au sein même du public non-expert, les inégalités d’accès à l’information sont majeures. Rares sont les articles des magazines parentaux qui incluent la référence exacte à l’étude scientifique ou au rapport qu’ils relaient […]. S’ajoutent alors les barrières culturelles qui handicapent la lecture de celles et ceux qui ne sont pas familiers avec le style académique et les concepts convoqués, peu coutumiers de la langue anglaise généralement utilisée, et finalement condamnés à devoir croire sur parole ceux qui les relaient avec plus ou moins de bonheur. » 330-331

« Notre jugement est sans appel : peu importe la force de persuasion des points de vue simplistes et manichéens, ils sont une escroquerie intellectuelle qui infantilise les individus et grignote la confiance accordée aux institutions de production de la connaissance et aux soignants. A ce titre, ils sont donc indéfendables. Nous plaidons au contraire pour une diffusion d’information qui ferait une large place à la complexité, non pas celle qui exclut d’emblée les parents qu’elle considère comme trop peu instruits (et contribue ainsi à les maintenir dans cette position), mais celle qui ouvre à la diversité et replace la science au cœur de sa véritable mission : proposer un nouveau regard sur le monde pour nous permettre d’en inventer les futurs possibles. » p. 335-336

« Comment éviter de se fâcher avec la terre entière en devenant parent » Béatrice Kammerer et Amandine Johais, 2017, Ed. Belin. Disponible dans votre petite librairie de quartier (et sinon sur Amazon)

[Flash Info Recherche] #3 Du nouveau dans les thérapies anti-SIDA

Il est de bon ton de parler aujourd’hui du SIDA comme d’une maladie chronique que l’on contrôle grâce à un cocktail médicamenteux d’anti-rétroviraux (ART) efficaces. Si l’espérance de vie aujourd’hui d’une personne séropositive, en France, semble se rapprocher de celle d’une personne séronégative, avoir le SIDA reste une situation difficile et lourde à porter. Outre les conséquences sociales, cette maladie impose la prise d’ART à vie : ceux-ci rendent certes le HIV indétectable, mais ils ne l’éradiquent pas : quelques semaines après l’arrêt du traitement, le virus ré-apparaît.

N’oublions pas également que la situation française n’est pas la norme à l’échelle de la planète : nombre de patients asiatiques, africains, américains n’auront jamais accès aux ART, faute de moyens.

Une étude parue dans la revue Science il y a quelques mois laisse néanmoins entrevoir l’espoir d’une réelle rémission après la prise d’ART : en travaillant sur le SIV – équivalent simiesque du HIV -, une équipe américaine a découvert qu’en traitant des singes malades avec un anticorps artificiel (spécifique de certaines protéines du système gastro-intestinal) en même temps que les ART, les taux de SIV ne remontaient pas après l’arrêt du traitement (pendant -au moins- 9 mois).(1)

Les chercheurs sont partis du fait que les tissus du système gastro-intestinal jouent un rôle de réservoir permanent de VIH (ou de SIV). Les lymphocytes T4, globules blancs cibles du virus, adhèrent à ces tissus grâce à une protéine de surface de la famille des intégrines : l’intégrine α4β7. Si on empêche ces globules blancs d’adhérer, peut-on empêcher la prolifération du virus ? La réponse semble bien positive :
Des singes SIV-positif ont été traités aux ART accompagné d’anticorps monoclonaux spécifiques de α4β7 simiesque. Après arrêt total des ART et de ces anticorps, le taux de SIV n’est pas remonté, et reste indétectable. Le mécanisme précis est mal connu, mais la prise de ces anticorps ont pour conséquence la diminution de la circulation des lymphocytes T4 riches en α4β7 dans les tissus gastro-intestinaux. Chez le singe, cela semble suffire pour limiter la contamination de ces globules blancs, et donc pour permettre au système immunitaire de lutter efficacement contre le virus.
Chez l’homme, des anticorps monoclonaux spécifiques à l’intégrine α4β7 sont déjà commercialisés pour d’autres indications. Les études humaines devraient probablement en être accélérés… En espérant que leurs résultats soient aussi spectaculaires !

(1) « Sustained virologic control in SIV+ macaques after antiretroviral and α4β7 antibody therapy » Siddappa N. Byrareddy, James Arthos, Claudia Cicala, et al. Science 14 Oct 2016 Vol. 354, Issue 6309, pp. 197-202

[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

[Flash Info Chimie] #51 : métalloprotéine : un autre métal, pour d’autres applications

Les métalloprotéines sont des protéines qui contiennent un, ou plusieurs ions métalliques. Même si le nom est moins connus que « protéine » toute seule, elles sont très répandues : l’hémoglobine, par exemple, est une métalloprotéine dont la fonction est de transporter l’oxygène dans le sang. Dans ce cas, c’est un ion de Fer qui se trouve au centre de la protéine, et qui se lie à la molécule de dioxygène pour la fixer. La vitamine B12 s’organise autour d’un ion Cobalt, et est indispensable au bon fonctionnement du système nerveux. Les nitrogénases permettent à certaines bactéries de fixer l’azote atmosphérique : le diazote N2 est réduit en ammoniac NH3 grâce à ces métalloprotéines qui contiennent du molybdène et du fer. Dans la nature, le nombre de métaux impliqués est restreint : il n’y a pas grand chose à part le fer, le cuivre, le zinc, le calcium, le magnésium, le cobalt, le molybdène, le tungstène, le vanadium. Pourtant, la plupart de ces métaux ont des propriétés chimiques assez pauvres, comparées aux métaux nobles utilisés en catalyse en laboratoire (iridium, platine, palladium) : c’est l’environnement de l’ion métallique dans les métalloprotéines qui les rend actif.

Des chimistes ont eu l’idée « simple » de synthétiser des métalloprotéines artificielles, contenant, à la place des métaux « pauvres » par des métaux « nobles ». Et cela marche ! En utilisant de l’iridium à la place du fer dans des myoglobines, ils ont pu catalyser des réactions complexes en chimie organique, avec de très bon résultats.

Le DFFZ désigne la métalloprotéine

Le [M]-Myo désigne la métalloprotéine

A noter tout de même qu’un important travail de mise au point de la myoglobine a été nécessaire : la métalloprotéine la plus efficace contient non seulement de l’iridium et non du fer, mais présente également plusieurs mutations pour en augmenter son efficacité.

Pour les amateurs, la meilleure métalloprotéine a permis d’obtenir le composé 2 avec un rendement quasi quantitatif, un excès énantiomérique de 80 %, et un TON supérieur à 100. 

« Abiological catalysis by artificial haem proteins containing noble metals in place of iron » Hanna M. Key, Paweł Dydio, Douglas S. Clark & John F. Hartwig Nature 534,534–537(23 June 2016)

[Flash Info Recherche] #1 : Recherche pluridisciplinaire : valorisée, mais moins financée

J’écris des articles issus de l’actualité de la recherche, pour un mensuel bien connu, version française de « Scientific American ». Mais tous les sujets que je vois passer dans les grandes revues scientifiques ne sont pas abordés… Cette nouvelle catégorie, parallèle aux « Flash Info Chimie » sera donc là pour donner un instantané -court- de ces articles de recherche, souvent passionnant, qui se retrouvent néanmoins sous-médiatisés…

Comme partout dans le monde, la pluridisciplinarité est encouragée, valorisée en recherche. Et pourtant, les projets qui mêlent plusieurs disciplines scientifiques restent sous-financées. C’est la conclusion d’une étude parue dans Nature il y a quelques mois : En analysant les demandes et les attributions des financements de l’Australian Research Council, Lindell Bromham, Russell Dinnage et Xia Hua de l’Université Nationale d’Australie (Canberra), ont montré qu’un projet avait d’autant moins de chance d’être financé qu’il convoquait une équipe pluridisciplinaire (indépendamment de la discipline, du nombre de contributeur, de l’institution de rattachement)

 

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale). En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement.

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale).
En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement. (source)

La situation est-elle proprement australienne ? Lorsqu’on voit, en France, la difficulté pour les docteurs qui ont fait appel, lors de leurs travaux de thèses, à plusieurs disciplines, d’être qualifié pour le recrutement des Maîtres de Conférences dans une des sections CNU, on peut hélas imaginer que les instances de financement françaises, et probablement européennes, ne font pas mieux que leur homologue australienne.

« Interdisciplinary research has consistently lower funding success » Lindell Bromham, Russell Dinnage & Xia Hua Nature 534,684–687(30 June 2016) doi:10.1038/nature18315