[Science et Genre] #5 Contre les Papillomavirus : vacciner les hommes aussi !

En France, comme dans la plupart des pays occidentaux, sont disponibles depuis quelques années plusieurs vaccins contre les fameux HPV, ces maladies sexuellement transmissibles de la famille des papillomavirus, dont les lésions sur le col de l’utérus sont à l’origine de l’apparition de cancers. Ces vaccins protègent contre la plupart des papillomavirus cancérigènes, et leur profil bénéfice/risque est excellent. Restent quelques questions actuellement en suspens, comme la durée de la protection (pour l’instant, les études montrent une protection au moins valable pendant 10 ans), mais globalement, on estime qu’ils peuvent éviter 70 % des cancers du col de l’utérus (d’où l’intérêt de pratiquer des frottis cervicaux tout au long de sa vie pour se prémunir des 30 % restant !). Si ces virus sont également montrés du doigt pour d’autres cancers, (gorge, bouche, anus en particulier) ce sont bien les femmes les principales victimes, si bien que ces vaccins ne sont actuellement prescriptible que chez les jeunes femmes, et non les jeunes hommes en France (ils peuvent néanmoins être proposés aux hommes homosexuels de moins de 26 ans, ce qui pose évidemment des questions du « tri » à effectuer en fonction des orientations sexuelles… Hum…). C’était le cas également de la plupart des pays du monde jusqu’en 2013 : l’Australie, suivi par les USA, l’Autriche, la Suisse, l’Italie et le Canada, ont alors mis en place une recommandation vaccinale concernant les deux sexes. Compte tenu de la rareté des autres cancers que de celui du col de l’utérus, il s’agit très clairement pour ces pays de diminuer l’incidence de cette dernière pathologie, chez les femmes donc. Malgré la logique (les hommes pouvant être considérés comme les principaux « vecteurs » du papillomavirus, les vacciner permettrait, logiquement, de diminuer l’incidence de la maladie), l’efficacité de cette vaccination « tous genres confondus » est difficile à évaluer.

Couverture vaccinale et effet grégaire

En imaginant une très large couverture vaccinale (quasiment tout le monde vacciné, il est probable que la vaccination « tous genres confondus » soit réellement efficace :

Quasi tous les hommes sont vaccinés

Le principal vecteur est supprimé

Les femmes, même non vaccinées, sont protégées

Seulement, elle est loin d’être large. Au contraire, en France, elle est actuellement très faible : 17 % seulement des jeunes femmes en 2015 (source). En imaginant une couverture vaccinale masculine identique, il semble peu probable d’obtenir un quelconque effet, puisque le « principal vecteur » reste, à peu de chose près, conservé… Il est vrai qu’en Suède, avec 80 % des jeunes femmes vaccinées, le problème est différent. Il n’empêche : il est nécessaire de quantifier, en fonction de cette couverture, l’intérêt de la vaccination masculine.
Pour résumer : l’objectif recherché, c’est une augmentation générale de la protection, c’est-à-dire une diminution du nombre de personnes infectées, grâce à la vaccination. Et ce malgré l’absence d’une vaccination de TOUTES les jeunes femmes. On est ici dans la problématique d’une recherche d »immunité grégaire« , qui peut être résumée comme sur ce schéma :

Schéma du haut : épidémie sans vaccination
Schéma central : épidémie avec quelques vaccinations : effet grégaire faible : quasiment pas de protection de personnes non vaccinées.
Schéma du bas : large couverture vaccinale : la maladie ne se propage globalement plus, y compris chez les personnes non vaccinées.
Source : NIH (via wikipédia)

 

Même à couverture modérée : les hommes doivent aussi être vaccinés

Une vaste étude a été menée en Finlande AVANT la mise en place d’une quelconque recommandation vaccinale contre les HPV, pour déterminer l’intérêt d’une vaccination exclusivement féminine, ou tous genres confondus. Publiée en ligne en octobre 2017, dans l’International Journal Cancer, il fait clairement apparaître le bénéfice d’une vaccination tous genre confondu dans la protection des femmes contre les cancers du col de l’utérus.

Pour cela, l’équipe de chercheurs menée par Matti Lehtinen, de l’Institut Karolinska (Suède), ont comparé trois groupes de communautés en Finlande, représentant au total 80000 personnes :

  • Dans le Premier (Groupe A), pour chaque communauté, 50 % des jeunes filles ont été vaccinées, ainsi que 30 % des jeunes hommes
  • Dans le Second (Groupe B), seules 50 % des jeunes filles ont été vaccinées, pas les jeunes hommes
  • Dans le troisième (Groupe C), aucune personne n’a été vaccinée (situation aujourd’hui éthiquement impossible dans le contexte de recommandation du vaccin par les autorités médicales)

L’intérêt d’une telle étude réside dans le choix de l’évaluation de couvertures vaccinales relativement faibles, et reflètent davantage les situations réelles que si 90 % des personnes étaient vaccinées. À titre d’exemple, la couverture vaccinale aux USA est de 42 %, 87 % au Portugal, et la France très loin derrière…

Tiré d’une infographie du Centre National de Référence HPV et de l’INCa (pdf)

Pour être concis, l’étude montre une augmentation significative de l’efficacité globale du vaccin entre le groupe A (tous genre confondu) et le groupe B. L’efficacité globale, c’est ce qui correspond au pourcentage des sujets effectivement protégés par le vaccin dans la population, soit directement par le vaccin, soit par l’effet grégaire de la vaccination. Si on regarde les résultats pour l’ensemble des HPV oncogènes (y compris ceux non directement visés par le vaccin), on atteint 47,6 % de protection des femmes dans le groupe B, contre 53,3 % dans le groupe A. Compte tenu de la faible couverture vaccinale proposée dans cette publication, les 5,6 % d’écarts sont significatifs, et correspondent à un véritable bénéfice (Voir la partie : « pour aller plus loin… »).

On peut comprendre que les pouvoirs publics, en France, se focalise sur la vaccination des femmes, puisqu’elles sont les principales victimes des cancers liés aux HPV, compte tenu de la très grande faiblesse de la couverture vaccinale. Cependant, est-il pertinent de se priver de vacciner les principaux vecteurs de la maladie que sont les hommes ? Ces travaux semblent nous annoncer que non. Puisque la vaccination, pour nombre de maladies contagieuses, est un acte citoyen, de protection globale de la population – de soi, mais aussi de son entourage – les hommes doivent participer à cet effort.

 

Disclaimer : Je n’évoque pas ici la question du ratio coût / bénéfice de la vaccination, qui a été évalué dans plusieurs pays et qui semble être tout à fait positif, malgré la nécessité de poursuivre le dépistage par frottis. Chaque pays, chaque couverture vaccinale est différente, ce qui rend parfois difficile de transposer les résultats des études coût / bénéfice d’une région à une autre. Compte tenu des spécificités françaises (sécurité sociale, dépistage par frottis peu suivi, vaccination encore moins), je ne me permettrai pas d’en parler ici, n’étant ni épidémiologiste spécialiste en vaccination, ni économiste de la santé. 

 

Pour aller plus loin

La lecture de cet article a été un peu ardue, je l’avoue. Si je connais les outils statistiques de base, des notions autour de la vaccination m’ont manqué. Afin d’y voir plus clair, j’ai pu contacter deux des principaux auteurs de la publication (Matti Lehtinen et Vänskä Simopekka) qui m’ont permis de lever les incertitudes (Merci à eux). Voici quelques détails de la méthodologie employée. N’hésitez pas à me demander d’autres précisions en commentaires.

Vous l’aurez compris, l’enjeu de cette étude n’est pas d’établir l’efficacité du vaccin chez les vaccciné-es, mais surtout de mesurer l’effet grégaire de cette vaccination, c’est-à-dire d’évaluer la protection chez les personnes non vaccinées. Les défis que cela impose sont multiples :

  • il faut que les groupes (groupes A, groupe B, groupe témoin C) reste cohérents, qu’il n’y ait pas trop d’échanges avec d’autres groupes non concernés par l’étude. Les chercheurs ont donc travaillé avec des « communautés », et ont vérifié qu’elles restaient stables, ou du moins qu’elles évoluaient de façon similaire dans les trois groupes (11 communautés par groupes).
  • Lorsque l’étude a débuté, la proportion de personnes déjà vaccinées était totalement négligeable parmi les communautés des trois groupes (moins de 1 %). Les jeunes concernés par l’étude ont donc été en contact avec des personnes un peu plus âgées non vaccinés. Leurs éventuels partenaires sexuels n’était ainsi pas constitué de 50 % de femmes protégées (et 20 % d’hommes pour le groupe A), mais d’une proportion plus faible. Les chercheurs ont donc choisi de séparer les groupes A, B, C, en deux sous – groupes : les plus jeunes (nés en 1994-95) et les plus vieux (né en 1992-1993), ces derniers étant plus exposés à des relations sexuelles contaminantes que les autres.

Les résultats que j’ai exposé plus haut sont ceux obtenu pour les plus jeunes (nés en 94-95).

  • Pour ceux nés en 1992-1993, il n’y a pas de différence significative entre les groupes A, B. Il n’y a pas d’effet grégaire significatif, que ce soit dans le groupe A, comme dans le groupe B. Cela signifie que la couverture vaccinale, avec ou sans les 20 % d’hommes n’est pas suffisante pour permettre une apparition d’un effet grégaire, c’est-à-dire une protection pour les non vacciné-es. Cela peut paraître assez normal, puisqu’aucun de leurs partenaires sexuels plus âgés n’était protégé contre le HPV : la couverture vaccinale réelle des personnes pouvant contaminer ou pouvant être contaminées est bien inférieure aux 50 % de femmes (et 20 % d’hommes pour le groupe A)
  • Pour ceux nés en 1994-1995, l’effet grégaire est significatif, non seulement lorsqu’on compare les groupes A et B avec le groupe témoin C, mais également entre les groupes A et B, qui ne diffèrent que par les 20 % d’hommes vaccinés. Ceci s’explique aisément par la couverture vaccinale plus grande des partenaires sexuels de ces individus plus jeunes : ceux qui ont jusqu’à 2 ans de plus qu’eux sont également vaccinés.

Il est donc clair qu’un effet grégaire n’est pas à attendre lors des toutes premières années de vaccination, puisque les personnes non vaccinées ont encore, parmi leurs partenaires sexuels, potentiellement contaminants, de nombreux individus plus âgés, et non vaccinés. Dans ces travaux, on peut néanmoins voir que cet effet protecteur apparaît de façon significative dès que les individus d’un ou deux ans plus âgés, sont également vaccinés. Un rapide retour sur investissement !

Les auteurs de cette publication ont également étudié la protection du vaccin en fonction du génotype du papillomavirus. Les différences entre les HPV 16, 18, 31, 33, 45 sont importantes.

Il faut noter que le vaccin distribué dans cette étude a été réalisé uniquement pour la protection des génotypes HPV 16 et 18. Pourtant, il s’avère qu’il protège également contre les HPV 31, 33, 45, mais avec une efficacité très variable : d’environ 40 % pour les génotypes 31 et 33, et plus de 80 % pour le génotype 45. Les chiffres de protection globale donnés plus haut s’entendent pour l’ensemble de ces cinq génotypes. En analysant plus finement les résultats, les chercheurs ont ainsi pu mettre en avant que :

  • Il n’y avait pas de différence significative entre les groupes A et B pour les génotypes 16 et 45. En fait, pour ces deux HPV, aucun effet grégaire n’a pu être démontré. Pour le HPV 16, ces résultats confirment d’autres études : compte tenu de ses spécificités, seule une très grande couverture vaccinale permet réellement de faire émerger un effet grégaire. Le HPV 45, quant à lui, est trop rare dans les populations pour que son évolution aie pu être significative.
  • Pour les trois autres génotypes, l’effet grégaire est significatif pour les groupes A et B, et, dans les trois cas, supérieur pour le groupe où les hommes ont également été vaccinés.

Si cette étude montre que les hommes doivent également participer aux campagnes de vaccination contre les HPV, elle fait également état, par la variabilité des effets grégaires, et donc des efficacités globales du vaccin selon les génotypes des papillomavirus, de la nécessité d’étendre la couverture vaccinale contre ces maladies. Nous sommes bien ici dans un contexte de maladie contagieuse, aux conséquences pouvant être désastreuses. La vaccination, pour protéger les femmes principalement (mais également les hommes), semble être une solution particulièrement efficace, à l’unique condition qu’elle soit partagé par un bien plus grand nombre de personnes, femmes ET hommes.

Remarque : D’après l’échange avec les auteurs de l’étude, dans son contexte, en Finlande, avec cette couverture vaccinale, la vaccination des hommes, même à hauteur de 20 % seulement, a un rapport coût/bénéfice en faveur de la vaccination, à condition de considérer également les cancers masculins liés aux HPV. (Résultats non publiés)

Disclaimer 2 : Au cas où cela m’est demandé : oui, les auteurs ont déclaré avoir des liens (financements de l’étude, emploi) avec GSK, le fournisseur du vaccin.

Lehtinen, M. et al. (2017), « Impact of gender-neutral or girls-only vaccination against human papillomavirus—Results of a community-randomized clinical trial (I) » Int. J. Cancer. doi:10.1002/ijc.31119

Posted in actualité, recherche, santé | Tagged , , | Leave a comment

[Flash Info Chimie] #55 Comment les plantes émettent leurs parfums

Ah ! Le doux parfums des champs de lavande, des mimosas, … des pétunias ! Ces parfums sont simplement liés à l’émission de composés organiques volatiles (COV) par ces plantes.

Les COV, on connaît souvent leur mauvais côté. Nocif, irritant, cancérigènes, ils sont omniprésents, simplement parce que les objets qui nous entourent, par exemple réalisés à l’aide de solvants divers encore souvent présents, relarguent, petit à petit ces composés (on pourra par exemple consulter cette page, de l’ADEME). Mais les COV, sont également issus de la nature, et les végétaux en émettent par exemple pour attirer ou repousser les insectes, qu’ils soient pollinisateurs ou nuisibles.

Les humains ont sélectionné au fil des siècles, les fleurs les plus parfumées… En augmentant ainsi les COV qu’elles émettent ! Par contre, le mécanisme d’émission, lui, reste très mal connu. Et -ouf- on en arrive au sujet de ce Flash… Une équipe internationale a établi les bases de ce mécanisme dans un article paru en juin dans la revue Science.

Petunia hybrida (photo : Anneli Salo)

L’idée préconçue autour de cette émission de COV résidait jusqu’alors en un transport passif de ces composés jusqu’à la surface des feuilles / pétales / etc… des plantes. De là, ils pouvaient s’évaporer jusqu’à nos fosses nasales. Les auteurs montrent dans cette étude que les COV dans la plante Petunia Hybrida ont besoin d’un transporteur trans-membranaire, nommé PhABCG1, pour circuler depuis les cellules jusqu’aux extrémités de la plante. Lorsque ce transporteur est absent, les COV s’accumulent à des niveaux toxiques dans la plante. Même si cette étude n’a été réalisée que sur un seul végétal, il est très probable que ce mécanisme soit très général.

« Emission of volatile organic compounds from petunia flowers is facilitated by an ABC transporter » Adebesin et al., Science 356, 1386–1388 (2017)

Posted in actualité, article de recherche, chimie, Flash Info Chimie | Tagged , | Leave a comment

[Flash Info Chimie] #54 Aquaporines artificielles en nanotube de carbone

Parmi les transporteurs transmembranaires, ces protéines en forme de tunnel qui permettent à des espèces chimiques de traverser les membranes des cellules, les aquaporines, découvertes en 1992, ont pour rôle de faire circuler sélectivement l’eau, mais sans les ions qui sont dissout dedans. Grâce à une structure qui ressemble à un sablier, les molécules d’eau sont contraintes de circuler les unes à la suite des autres dans le transporteur. Peter Agre et Roderick MacKinnon ont reçu le prix Nobel de Chimie en 2003 pour leur découverte, et l’élucidation de leur structure.

Vidéo disponible en téléchargement ici sur le site officiel des Prix Nobel. Dans cette modélisation, suivez la molécule d’eau colorée en jaune circuler dans l’aquaporine.

Ce type de composé intéresse beaucoup les chimistes pour la fabrication de membranes sélectives, ne laissant passer qu’une sorte de composé, qu’un seul ion, qu’un seul solvant. Les applications sont nombreuses, tant de le domaine énergétique (les batteries haute performance nécessitent de telles membranes), que dans celui de la dépollution, de la dessalinisation de l’eau de mer, etc…

Bon, venons-en au point qui nous intéresse… Qu’est-ce qui est nanométrique, long, creux, et qui fait fantasmer les chimistes ? Les nanotubes de carbone, évidemment !

Jusqu’à présent, l’utilisation de nanotubes de carbone comme transporteurs transmembranaires sélectifs d’eau a été décevante, les ions circulants assez librement à travers. L’idée de l’équipe de scientifiques californiens, menés par Ramya H. Tunuguntla, a été de réduire le diamètre intérieur de nanotubes, en passant de 1,5 nm de diamètre pour les études précédentes à 0,8 nm.
Avec une telle finesse les molécules d’eau sont contraintes, comme pour les aquaporines naturelles, de se mettre en file indienne, plutôt qu’avancer en groupe plus large. Mais grâce aux propriétés hydrophobiques des nanotubes, il existe très peu d’interaction entre les murs du tube, et les molécules d’eau.

à gauche : dans un nanotube large (~ 1,5 nm de diamètre intérieur) les molécules d’eau circulent, reliées entre elles par des liaisons intermoléculaires, en groupe qui occupe tout l’espace. à droite, dans les nanotubes plus fins (~ 0,8 nm) les molécules sont en file indienne, également liées par des interaction intermoléculaires (tiré de l’article de Tunuguntla et al.)

Contrairement à ce qu’on aurait pu imaginer initialement, l’eau circule dix plus vite dans ces nanotubes plus fins que dans ceux plus larges, en raison de cette disposition en file indienne. La vitesse (de 10¹⁰ à 10¹¹ molécules par seconde selon le pH) est également plus grande que dans les aquaporines naturelles, dont les parois internes forment ponctuellement des liaisons intermoléculaires avec les molécules d’eau, ralentissant ainsi leur progression.

La sélectivité ionique est également grandement augmentée : globalement, les anions (ions chargés négativement) ne passent pas, au contraire des cations (chargés positivement), jusqu’à des concentrations plus élevées que celle de l’eau de mer. Pour la désalinisation, cela pourrait éventuellement suffire : les anions et cations se baladant toujours ensemble (or exception causée par exemple par une tension électrique), si l’un des deux ne peut passer, l’autre ne passera pas non plus.

Reste encore beaucoup de travaux avant d’utiliser ces dispositifs pour du véritable dessalement ou de la purification d’eau ou d’ions à grande échelle… Il est cependant tout à fait intéressant de voir que des nanotechnologies pourraient dans le futur faire partie de solutions de dépollution / dessalement dans des installations de taille industrielles.

« Enhanced water permeability and tunable ion selectivity in subnanometer carbon nanotube porins » Tunuguntla et al., Science 357, 792–796 (2017)

A signaler, sur l’intérêt des nanotubes de carbone : nanogénérateurs hydroélectriques sur Pour La Science

Posted in actualité, chimie, Flash Info Chimie | Tagged , , | Leave a comment

[Flash Info Chimie] #53 Un vieux médicament contre l’asthme, prometteur contre la maladie de Parkinson

La maladie de Parkinson, comme d’autres maladies neurodégénératives, se manifeste par la formation d’agrégats anormaux de protéines dans les cellules du système nerveux, appelés dans ce cas « Corps de Lowy« .

Allure caractéristique d’une personne atteinte de la maladie de Parkinson (Sir William Richard Gowers, 1886)

Les axes actuels de développement de traitements consistent en l’élimination de α-synucléine, la protéine qui constitue majoritairement ces corps de Lowy, ou en le blocage de sa transformation en composés neuro-toxique.

Dans une publication dans la revue Science, Shuchi Mittal et ses collègues proposent une démarche différente pour l’identification de substances actives contre ces corps de Lowy, et donc, contre la maladie de Parkinson : ils ont cherché à identifier, parmi plus de mille composés déjà connus, ceux qui inhibent l’expression du gène codant pour l’α-synucléine (appelé SNCA).

Leurs résultats a été surprenant : les meilleurs inhibiteurs de l’expression du gène SNCA font partie de la classe bien connue des agonistes de β2-adrenorecepteur (β2-AR). Non seulement ils ont identifié clairement un nouveau rôle des β2-AR, (qui régulent donc l’expression du SNCA)  mais ils ouvrent également la voie à un traitement médicamenteux.

Bon, la « classe bien connue des agonistes de β2-AR », c’est un peu abusif de ma part. Je ne la connaissais pas, cette classe, pas plus que je ne connaissais ces β2-AR… Pourtant, des composés classiques en font partie, dont le salbutamol  (Vous savez, la fameuse « Ventoline® ») ou le clenbuterol, ce stéroïde anabolisant tant utilisé en dopage sportif ! On connaît également des antagonistes de β2-AR, comme le propanolol le premier bêta-bloquant découvert.

Les scientifiques ont donc vérifié, avec succès, sur modèle cellulaire (sur des lignées cellulaires humaines parkinsonienne) puis sur modèle animal (chez des lignées de souris parkinsonienne) que les deux agonistes de β2-AR diminuaient les quantités d’α-synucléine, dans les cellules, mais aussi prolongeaient leur durée de vie.

Et chez l’humain alors ?

S’il est, d’habitude, délicat de mesurer l’effet d’une substance chez l’humain, sans passer par la case « essai clinique », les chercheurs ont pu se baser dans cette étude sur des données de la « Norwegian Prescription Database », qui met à la disposition des scientifiques les données sur les prescriptions médicales de tous les norvégiens depuis 2004. Grâce à cet énorme corpus, ils ont pu comparer la survenue de la maladie de Parkinson chez les patients prenant régulièrement du salbutamol, du propanolol, ou ni l’un ni l’autre.

Les résultats sont parlants: le salbutamol a bel et bien un effet protecteur vis-à-vis de la survenue de la maladie de Parkinson, et le propanolol favorise l’apparition de la maladie.
Le groupe, qui a pris au moins une fois du propanolol a environ deux fois plus de cas de maladie de Parkinson qu’attendu.
Celui qui a pris au moins une fois du salbutamol a 40 % de cas en moins qu’attendu. Dans ce cas, les chercheurs ont séparé ce groupe en trois, en fonction de la quantité prescrite : Pour les plus gros utilisateurs (plus de 180 doses journalières prescrites en 4 ans), la survenue de la maladie de Parkinson a été divisée par deux. Pour les utilisateurs les plus occasionnels (moins de 60 doses en 4 ans), la diminution est anecdotique.

Compte tenu des effets secondaires du salbutamol, ou encore du clenbuterol, leur avantage thérapeutique en action préventive n’est clairement pas démontré. Néanmoins, les premiers essais in vitro indiquent qu’ils pourraient ouvrir la voie vers la mise au point de traitements curatifs chez des patients ayant déjà développé la maladie.

 

Posted in actualité, chimie, Flash Info Chimie, santé | Leave a comment

[Flash Info Chimie] #52 Faire des origamis en chimie : Marquez le trait, chauffez… C’est plié !

Le Nafion est un polymère per-fluoré (où tous les atomes d’hydrogène ont été remplacés par des atomes de fluor) de la même famille que l’universellement connu Teflon. Mais ce polymère possède des chaînes latérales qui lui confèrent des propriétés acido-basiques intéressantes, exploitées notamment pour réaliser des membranes échangeuses de protons dans des piles à combustibles.

Nafion : en haut la chaîne principale, identique au Téflon. en dessous, une chaîne latérale, terminant par une fonction ‘acide sulfonique’, qui confère au polymère ses propriétés acido-basiques

Le Nafion possède également des propriétés physiques (résistance à la chaleur) et chimique (en dehors des réactions acide-base, il fait preuve d’une excellente inertie) qui en font un matériau particulièrement recherché en électrochimie.

Pourtant, à l’Université du Wisconsin, A. Oyefusi et J. Chen ont préféré se servir du Nafion pour faire des… pliages.

Le Nafion a en réalité une propriété supplémentaire : c’est un matériau à mémoire de forme : lorsqu’il est étiré, tordu, il peut retrouver sa forme initiale en étant simplement chauffé. Et c’est là que cela devient vraiment intéressant : la température nécessaire pour revenir à sa forme initiale n’est pas la même que le polymère ait été acidifié (noté en général Nafion-H, car il a gagné des ions H⁺) ou non. Le Nafion-H retrouve sa forme à partir d’environ 100 °C; le Nafion non acide à partir de 260 °C.

Les chercheurs ont donc utilisé une feuille de Nafion étirée, qu’ils ont tout d’abord trempé dans un bain de potasse diluée. Leur feuille a donc une forme stable jusqu’à 260 °C. Puis, ils ont « marqué les traits« , à l’aide d’une solution acide, pour obtenir des lignes de Nafion-H superficielles sur leur feuille. En chauffant entre 100 et 260°C, le Nafion-H s’est contracté, pliant ainsi la feuille entière suivant les traits, comme on peut le voir sur l’image précédente.

Magnifique, n’est-ce-pas ?  L’intérêt ne réside pas uniquement dans la structure 3D du Nafion obtenu : celui ci peut ensuite servir de moule pour d’autres matériaux… Pas mal, l’oiseau en nickel, non ?

Du pliage à l’oiseau en Nickel, obtenue par électrodéposition du métal sur un moule secondaire en PDMS réalisé à l’aide de l’oiseau en Nafion

 » Reprogrammable Chemical 3D Shaping for Origami, Kirigami, and Reconfigurable Molding » A. Oyefusi J.Chen Angewandte Chemie Int. Ed. 2017, Early View

Posted in actualité, article de recherche, chimie, Flash Info Chimie | Tagged , , | Leave a comment

Manifeste pour une science reproductible (II) : les propositions

Cet article fait suite à celui-ci, où je donnais quelques exemples illustrant cette « crise de reproductibilité » qui secoue la recherche scientifique. En janvier, Marcus R. Munafò et ses collègues publiaient « Manifesto for reproducible science » dans la revue Nature Human Behaviour.

Dans ce manifeste, ils dénoncent les pratiques qui nuisent à la reproductibilité scientifique, qui provoquent ce gâchis scientifique, humain, financier.

Toutes les étapes de la construction et de la publication de découvertes scientifiques. En rouge, les obstacles à la reproductibilité des résultats. Le terme HARKing signifie « Hypothesizing After the Results are Known » : Faire des hypothèses post hoc, une pratique très souvent dénoncée en sciences du comportement. (source de l’image)

Mais il ne s’agit pas uniquement d’un pamphlet. Les auteurs proposent plusieurs grandes idées pour limiter cette crise de la reproductibilité. J’ai pris la liberté de les reprendre, en les réorganisant sous quatre pôles distincts.

Pré-enregistrer les études, pré-publier : promouvoir la transparence avant même la publication définitive des résultats

Lorsqu’on parle de pré-publication, on pense très vite à la platerforme arXiv.org, qui consiste à rendre public (et gratuitement) des résultats préliminaires, souvent non publiables en l’état, afin de profiter du regard de la communauté scientifique pour valider mesures expérimentales et méthodologie. Pour apparaître sur arXiv, nul besoin de validation par les pairs. Il y a donc un processus complémentaire, ouvert et collaboratif, avant soumission de la publication sur un autre support… ou abandon. Pas besoin du long et douloureux processus de rétractation, ou de corrigendum des publications pour ne conserver que les plus rigoureuses…

Quelques exemples sont suffisamment célèbres pour être signalés (voir la notice arXiv sur wikipédia):

  • Une démonstration de la conjecture de Thurston a été déposée en 2002 sur arXiv par Grigori Perelman, examinée pendant 4 ans, et finalement validée.
  • Une démonstration de l’existence de solutions générales à l’équation de Navier-Stokes a été déposée par Penny Smith, avant d’être finalement abandonné.
  • Les travaux d’Enders Eklund, remettant en question les méthodologies en IRM fonctionnelle ont d’abord été publiés sur arXiv, avant de finir sur la prestigieuse revue PNAS. (Par ailleurs, il me semble – à titre personnel-  que l’accès à une revue aussi sélective a sans doute été rendue possible grâce à la prépublication)

Cependant, tous les domaines scientifiques ne sont pas ouverts à cette plateforme… Principalement en raison des habitudes des communautés de chercheurs. arXiv s’est principalement développée autour de la physique, information, mathématique… La chimie, -au hasard !- n’est pas concernée…(2)

ArXiv est un outil intéressant et productrice d’une rigueur que le peer-reviewing classique n’atteint pas. Les « Registered Reports » me semblent tout à fait complémentaires, et particulièrement efficaces. Le principe est simple : Le processus de Peer-Review est décomposé en deux :

  • Une première étape d’évaluation par les pairs concerne les hypothèses de départ et les méthodes qui seront mis en oeuvre. Si elles sont retenues, l’équipe de recherche obtient un accord de principe pour publication.
  • La deuxième étape d’évaluation concerne le manuscrit de l’article à publier. Sous réserve de la bonne observance des méthodes déjà validées lors de la première étape, et de rigueur de présentation des résultats, et quelque soit leur importance dans le champ disciplinaire concerné, l’article est publié.

Principe des « Registered Reports » : avoir un accord de publication avant obtention des résultats

Cette première validation donne l’assurance aux chercheurs d’être publiés. La nécessité absolue de résultats positifs, voire particulièrement remarquables s’envole, laissant la possibilité de publier des résultats négatifs ou peu significatifs. D’une part la fraude, les petits arrangements perdent beaucoup d’intérêts avec ce processus, mais de plus l’évaluation des chercheurs par les publications redevient un peu plus saine : les « bons » sont ceux qui ont produits des hypothèses pertinentes, et qui ont su se montrer rigoureux dans la construction de nouveaux savoirs scientifiques. Certaines revues ont mis en place, de façon facultative, ces « Registered Reports ». On trouvera une liste ici (notez l’absence de la chimie…).

Finalement, ces « Registered Reports » (oui, je n’ai pas trouvé de traduction, et j’ai du mal à en proposer une à la fois claire et légère…) rejoignent l’arsenal déjà existant qui permet les pré-enregistrement des recherches. Mais encore une fois, les domaines de recherche sont très inégalement concernés par les pré-enregistrements. Ils sont quasi systématique dans le domaine de la recherche médicale, et hébergés par différents sites institutionnels (comme le site américain ClinicalTrials.gov dont l’origine date de 1988, ou l’européen EudraCT Public website propulsé par la Commission Européenne), mais quasi absents de tous les autres domaines. Il est vrai que la question des essais cliniques est particulièrement sensible, tant les enjeux financiers et surtout humains sont importants…

L’indispensable libre accès aux articles et aux données

Quand Eklund conclut son article sur les défauts de traitements statistiques des données issues des expériences d’IRM fonctionnelle, concernant près de 30 000 articles scientifiques, il n’oublie pas de préciser que pour la plupart d’entre eux, il ne sera pas possible d’utiliser les nouvelles méthodologies plus fiables : les données brutes de ces expériences n’existent plus.

Dans un autre registre, je suis tombé il y a quelques minutes, sur ce tweet :

Sans revenir sur cette controverse scientifique concernant le glyphosate où se mêlent lobbies agro-industriels, zêle journalistique pas toujours bien placé, et santé publique, ce rebondissement (Il semblerait que des données non publiées remettent en question les conclusions de l’IARC classant le glyphosate comme « cancérigène probable ») est symptomatique de l’importance de la publication, ouverte à tous, des données des études. Que cela soit pour vérifier les traitements statistiques, en effectuer de nouveaux, plus pertinents, plus fins, ou procéder des méta-analyses nécessitant de re-traiter les données brutes issues de publications distinctes.

Sans entrer dans trop de détail, il me semble que la publication des données brutes fait aujourd’hui consensus, même si elle n’est pas encore suffisamment entreprise. La publication en accès libre des études scientifiques est également un vecteur fondamental de la diffusion des connaissances et des travaux scientifiques. À ce titre, elle permet d’accroître la communauté qui peut vérifier, comparer, évaluer les résultats et les méthodologies mises en oeuvres.

La littérature promouvant le libre accès aux données et aux études est abondante… Nul besoin que j’en remette une couche. Je ne m’étendrais pas plus ici sur la question, d’autant qu’il me faudrait encore critiquer le domaine de la chimie, mauvais élève de la recherche scientifique concernant l’accès libre aux publications…

Peer-review, collaborations… De la diversité, que diable !

Rien de tel que la diversité au sein des équipes, des collaborations, et des re-lecteurs pour améliorer la qualité des publications, et ainsi leur reproductibilité. Ainsi Munafo et coll. expliquent très justement que les chercheurs ne peuvent pas être à la fois des biologistes / psychologues / physiciens / etc. hors pairs, et des mathématiciens / épidémiologistes / statisticiens / informaticiens / etc. au courant des dernières évolutions sur le traitement des données. Ils proposent ainsi que soient associés aux équipes de recherche des professionnels spécialistes des méthodologies, et non du domaine de recherche concerné, dans le but d’offrir un regard aussi neutre que possible sur le design, le suivi, le traitements des résultats des travaux menés.

Cette même proposition est valable pour l’étape d’évaluation par les pairs avant publication.  Les auteurs insistent encore une fois sur l »intérêt de pré-publier les résultats, pour augmenter le nombres d’acteurs susceptibles d’évaluer les études menées, mais également sur la possibilité de post-évaluation des articles, rendue aujourd’hui possible, et même aisée par les outils informatiques et la mise à disposition des études sur le net.

Permettre de larges collaborations est également mis en avant. Là où une équipe isolée ne peut que produire des résultats statistiquement peu robustes, pour des raisons évidentes de moyens financiers et humains mais également pour des raisons de contextualisation qui ammoindrissent nécessairement la portée des travaux, plusieurs équipes mettant en commun hypothèses et protocoles d’études peuvent produire des résultats beaucoup plus fiables et robustes. Il s’agit encore une fois d’éléments de bon sens, mais mis en oeuvre de façon trop ponctuelles. Les auteurs du manifeste citent néanmoins plusieurs initiatives en SHS, comme le projet « The Many Lab« , hébergé sur la plateforme Open Science Framework, qui centralise les projets nécessitant le recrutement d’équipes collaboratrices…
Je vais me permettre de proposer un exemple purement spéculatif pour illustrer l’intérêt de dé-contextualiser des recherches. N’hésitez pas à me dire que je suis hors de propos (en argumentant bien sûr). Il y a environ 4 ans, j’écrivais un billet sur les statines, alors montrées du doigt pour leur prescription au périmètre assez flou et parfois peu étayé. (Je ne me suis pas replongé dans la littérature sur la question, ce n’est pas le sujet ici). En me penchant sur les études considérées comme très fiables (sélectionnées par les collaboration Cochrane pour établir leurs recommandations), on pouvait trouver de larges essais cliniques au Japon, USA, Ecosse. Mais j’avais été surpris, interpellé, par cette carte, partagée par Dominique Dupagne :

Mortalité coronarienne (justement censée diminuer grâce à l’utilisation des statines)

On peut voir une très grande disparité de la mortalité coronarienne, qui est justement une des cibles des traitements par les statines. On passe ainsi d’environ 65 morts / 100 000 habitants en France, à plus de 367 pour toutes les zones en rouge sur la carte, comme l’Ecosse. Les USA ont pour leur part un taux d’environ 120 pour 100000 (voir ici). Le Japon a des chiffres similaires aux USA (voir ici). Ma question est simplement la suivante : compte tenu de ces disparités très importantes, comment peut-on savoir si les statines ont le même intérêt en France (ou Espagne, ou Italie…) qu’en Ecosse, Estonie, ou au Japon ? Avec de telles disparités, comment l’agence Européenne du Médicament prend ses décisions sur l’autorisation et la commercialisation de médicaments ? Il me manque sans doute des éléments de réponse sur ce point précis. Toujours est-il que de larges collaborations sur un même sujet (ici par exemple les statines), permettant une méthodologie commune (sur l’analyse de l’influence des statines sur la mortalité coronarienne) dans des contextes (sanitaires) distincts doit permettre des résultats plus fiables, plus généraux, et adaptés aux diverses situations (ici, aux divers pays, de pyramides d’âge et d’hygiène de vie différentes).

Apprenons à être exigeant envers nous-même, et valorisons ceux qui le sont

Le dernier pôle de proposition concerne l’exigence nécessaire dont les chercheurs doivent faire preuve lorsqu’ils médiatisent, publient leurs travaux. Les auteurs du manifeste parle en particulier de la formation : connaître les outils devrait être un préalable à leur utilisation. cela peut sembler d’une grande trivialité, mais je ne pense pas que beaucoup de biologistes maitrisent les statistiques qu’ils utilisent pourtant pour « valider » leurs expériences. Tout comme les chimistes ne maîtrisent que rarement les algorithmes de simulations des structures 3D des molécules. La formation, initiale et continue des chercheurs ne doit pas s’arrêter à quelques recettes de cuisines magiques de bidouille de quelques chiffres ou quelques boutons de machine, si on souhaite une littérature scientifique solide.

Il est également question de la valorisation, et même de l’obligation de suivi de protocoles contraignants à une approche rigoureuse. Ils s’appellent ARRIVE, TOP, CONSORT, PRISMA,… et tous sont prévus pour servir de standard de reproductibilité et de rigueur. Référencés sur le réseau EQUATOR , ces lignes de conduites doivent, pour Munafo et ses collègues être valorisées, imposées, que ce soit par les éditeurs scientifiques, mais également par les institutions scientifiques publiques, et les financeurs de la recherche.

 

Il est difficile de conclure sur ce manifeste. L’article est en libre accès (lien un peu pllus bas), et est beaucoup plus riche que ce que j’en ai tiré ici. À titre personnel, je ne suis pas pessimiste sur la question de la reproductibilité des études scientifiques, ou, de façon plus large, sur leur qualité. Je crois en la force du partage des connaissances, et en la capacité de la communauté scientifique de faire preuve d’une grande rigueur, ne serait-ce que pour être plus convaincante. Néanmoins, l’existence de conflits d’intérêts permanents, qu’ils trouvent leurs origines dans le registre financier ou ailleurs, est un problème récurrent dans cette quête d’une science rigoureuse : il me semble que le tout premier levier d’action contre cette « crise de la reproductibilité », c’est de donner, totalement, envie aux scientifiques de produire des savoirs fiables. Cela aussi est tellement trivial, qu’on l’oublie trop souvent.

« a Manifesto for Reproducible Science » M.R. Munafo et al. Nature Human Behaviour 1, 0021, 2017

(1) on pourra lire à ce sujet les articles suivant :
– Homo Fabulus : « Le Biais de Confirmation, élémentaire, mon cher Watson »
– Agence Science Presse : « Les biais cognitifs sont humains, les scientifiques aussi, donc… »
(2) à noter la création très récente de ChemRxiv, initiative de l’American Chemical Society, principale éditrice de revues (payantes) en chimie. Néanmoins, sa raison d’être n’est pas forcément si louable que cela

Posted in politique | Tagged , , , | 1 Comment

Manifeste pour une science reproductible (I) : le constat

Cet article fait suite à la publication, il y a quelques mois, dans Nature Human Behaviour d’un article intitulé « A Manifesto for Reproducible Science » écrit par M.R. Munafò et ses collègues issus de prestigieuses universités américaines, anglaises et néerlandaise.

La recherche scientifique, telle qu’elle est menée actuellement, est en pleine « crise de la reproductibilité », questionnant totalement les méthodologies des laboratoires, mais également les modes de publications, d’interactions, et d’évaluations de la recherche. Le phénomène a été particulièrement mis en avant depuis les années 2000. Non pas qu’il ne soit pas plus ancien, (je dirais même qu’il est inhérent au prestige que représente la recherche et les découvertes scientifiques), mais il devient beaucoup plus visible aujourd’hui, sans doute grâce à une meilleure circulation des informations et des publications.

Une « crise de la reproductibilité », des réalités différentes

Derrière ce nom, se cache en réalité des pratiques scientifiques différentes, de la fraude pure et simple, à la non publication de résultats négatifs, en passant par les erreurs « de bonne foi », ou liées à des méthodologies contestables. Il serait difficile de tout lister, bien entendu, mais je peux revenir, à titre d’exemple, sur quelques exemples choisis.

Biais de méthodologie : le cas de l’IRM fonctionnelle

L’Imagerie par Résonance Magnétique a offert aux neurosciences l’opportunité de « visualiser », en temps réel, la réponse de nos cerveaux lorsqu’ils sont stimulés par une réflexion, un sentiment, une sensation. Cette technique, appelée IRM Fonctionnelle permet de mesurer en réalité l’évolution de la quantité de dioxygène dans les différentes zones du cerveau, et ainsi, de voir les zones actives (pauvres en O2, qui a été consommé) et les zones au repos. Le problème, dont j’ai parlé ici sur ce blog (et là pour Pour La Science), concerne la méthodologie de traitement des données pour produire l’image du cerveau. Pour simplifier, un chercheur, Enders Eklund a montré que les méthodes utilisées depuis 20 ans en IRM fonctionnelle donnaient des résultats… Faux la plupart du temps.(1) Quelques 30 000 publications ayant été basées sur l’utilisation de ces méthodes, la question de la reproductibilité de ces travaux scientifiques est critique en neuroscience. Si de nouvelles méthodes de traitement de données beaucoup plus fiables existent aujourd’hui, elles ne pourront pas être utilisées pour évaluer les publications plus anciennes, les données brutes n’ayant jamais été publiées…

Cachez ces résultats négatifs que je ne saurais voir…

Combien de travaux ont été entrepris, sans savoir que d’autres équipes de recherche avaient déjà essayé les mêmes choses, n’avaient rien obtenu et surtout… Rien publié ? Cette non publication occasionne des coûts importants, et une perte de temps considérable. En terme de reproductibilité des résultats, les dégâts sont également importants:
Imaginons que 10 équipes fassent la même expérience, pour établir que « A implique B« . 9 obtiennent un résultat négatif (absence de corrélation) –ne le publient pas– et une, par hasard, trouve une corrélation statistiquement significative (risque d’erreur inférieure à 5 %). Et la publie. C’est cette conclusion qui sera retenue. Alors que les données conjointes des 10 équipes auraient très probablement conduites à une infirmation du lien de causalité entre A et B.
Ce problème a conduit à la multiplication, dans les années 2000, de journaux qui publient les résultats négatifs. D’autres plaident pour des plateformes d’accès libre pour ces résultats, servant de bases de données de ce qui a déjà été tenté, mais qui n’a pas marché…(2)

61 % de rendement… On arrondit à 70 % ?

Enjoliver les résultats… QUE C’EST FACILE !! Prenons un exemple dans un domaine où les conséquences ne sont pas dramatiques (contrairement à la médecine et la pharmaceutique), et que je connais bien, à savoir la chimie organique. Lorsque j’étais en thèse de chimie organique, je travaillais sur la mise au point de réactions conduisant à des molécules de type pyridoacridines.

Certaines de ces réactions donnaient des résultats au rendement très variable. J’obtenais effectivement la bonne molécule à chaque coup (ce qui était en soi un résultat très satisfaisant), mais parfois avec 15 %, parfois avec 50 % de rendement. Il va sans dire que dans mon manuscrit, seul ce « 50 % » figure. Mon premier réflexe est… de ne pas trop m’en vouloir ! Après tout,

  • Quelqu’un au labo est passé derrière, a confirmé ces 50 %, et a amélioré ce résultat de façon assez spectaculaire.
  • Ces réactions ne serviront probablement jamais à rien… Et puis, je l’ai bien obtenu, isolé, mon produit, zut !

Ce type de comportement est extrêmement répandu en chimie fine, d’autant qu’il est très rare que d’autres refassent exactement les même manipulations avec les mêmes substrats. Bref : pas vu, pas pris… Pas (trop) de conséquence. Ce qui est dommageable, c’est être formé -lors d’une thèse par exemple- avec ce type de comportement. Qui fait petit à petit accepter un peu n’importe quoi. Sans fraude manifeste, sans volonté de nuire, on arrive à des résultats non productibles.

« Avez vous échoué à reproduire une expérience ? » tiré de cet article paru dans Nature.(3) Et le domaine gagnant est… La chimie !!

Les essais cliniques : quel gâchis !!

Dans un article paru dans Nature en 2012, C. G. Begley et L.M. Ellis tirent la sonnette d’alarme : en oncologie particulièrement, le taux d’échecs des essais cliniques ne peut pas s’expliquer uniquement par la difficulté de transposer à l’humain les recherches pré-cliniques. Il y a un gros problème de fiabilité et de reproductibilité des travaux scientifiques pré-cliniques(4). Ainsi, reportent-ils, une équipe de Bayer a analysé les données publiées concernant 67 projets de l’entreprise (dont 47 en oncologie) : le taux de reproductibilité est d’environ 20 – 25 %. D’autres chercheurs, de l’entreprise AmGen (Californie) n’ont pu confirmer les résultats que de 6 articles sur 53 (11%). A l’heure de l’envolée du coût de développement des médicaments anti-cancéreux, la perte d’argent, et de temps liés à ces travaux non reproductibles représente un gâchis considérable.

 

Ces quelques exemples ne sauraient être représentatifs. Les recherches en psychologie ont particulièrement été montrées du doigt, mais on voit bien que l’ensemble des disciplines universitaires sont concernées. Que ce soit en raison de mauvaises pratiques (non conservation/ non publication des données brutes), de biais cognitifs, de pressions (financière, académique, …), ce sont toutes les étapes de la recherche qui se retrouvent impactées, comme le résume cette figure de l’article de Munafò et coll. (5):

 

À venir : Manifeste pour une science reproductible (II): les propositions

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » E. Eklund et al. PNAS 2016.
(2) « Negative Results Are Published » B. O’Hara Nature 471,448–449 (24 Mars  2011).
(3) « 1500 scientists lift the lid on reproductibility » Monya Beker Nature (25 mai 2016)
(4) « Drug development : Raise standards for preclinical cancer research » C.G. Begley et L.M. Ellis  Nature 483, 531–533(29 March 2012)
(5) « A Manifesto for Reproducible Science » Marcus R. Munafò et al. Nature Human Behaviour 1, 0021 (2017)

Posted in actualité, politique, recherche | Tagged , | 2 Comments

On vulgarise bien les trous noirs… Et les sciences de la parentalité ?

Il est difficile, pour moi, de commenter et présenter un ouvrage réalisé par un-e (très) proche, comme le livre de Béatrice Kammerer et Amandine Johais « Comment éviter de se fâcher avec la Terre entière en devenant parent ? » paru en mars dernier. J’ai envie de dire : « OUAAAH ! CLASSE !!  TOP !! » mais on va me dire que je suis pas très crédible aveuglé par l’admiration que j’ai pour le travail de Béatrice.

Pourtant, derrière ce titre, badin à première lecture, se cache en réalité des idées sur les sciences qui me sont très chères, et que je souhaite partager ici. Il y a quelques temps, je publiais « La science est politique. La médiatiser un acte militant » sur ce blog. En particulier, j’insistais sur le grand pouvoir que donne les connaissances scientifiques : celui de pouvoir prendre des décisions éclairées à chaque instant. Dois-je vacciner mes enfants ? Prendre de l’homéopathie ? Consommer des OGM ? Promouvoir l’énergie nucléaire ? Pour ce genre de questions, particulièrement polémiques, on ne peut se passer de savoirs scientifiques, à moins de déléguer à une « autorité » (morale ou politique) le soin de décider à notre place. Et si on arrive à vulgariser des notions de chimie théorique ou les trous noirs, on devrait bien arriver à vulgariser des connaissances qui peuvent -en plus !- servir !

C’est le cas des questions qui ont trait à la parentalité et l’éducation. Face aux innombrables injonctions sociétales, familiales, comment savoir, en tant que parent, ce qui est bon pour son enfant, sa famille ? De là l’esprit de ce livre : partir des « idées qui fâchent » en éducation et parentalité, et les expliquer, les déconstruire, à l’aide de la sociologie, la psychologie, les sciences cognitives, la médecine, l’histoire, etc.

Petite sélection d’extraits…

 

Devenir mère après 40 ans, encore une lubie dangereuse du XXIème siècle ?

« On évoque souvent l’inquiétude des médecins face aux complications supposément plus nombreuses des grossesses tardives. Leur multiplication serait un problème de santé publique contre lequel il faudrait mettre les femmes en garde. Les études sur l’accroissement des risques maternels et fœtaux liés à l’âge sont relativement nombreuses, mais elles sont loin de toutes aboutir aux mêmes résultats ! Et si les quelques augmentations constatées peuvent encourager une surveillance plus importante des grossesses, il semble totalement exagéré d’y voir une raison suffisante pour décourager les femmes de mener des grossesses après 40 ans (à titre d’exemple, le risque de mort fœtale in utero est de l’ordre de 0.4 % vers 25 ans et s’élève à 0.8 % vers 45 ans ce qui fait conclure à une multiplication du risque par 2 après 40 ans en dépit d’un risque absolu faible). De plus, si la majorité de ces études constatent une augmentation de la probabilité de déclarer une complication, elles sont incapables de déterminer si cette augmentation est seulement liée à l’âge des patientes ou au fait qu’après 40 ans, les femmes souffrant de pathologies de la reproduction sont surreprésentées (puisque n’ayant pu concevoir avant). » p. 33-34

Les femmes ont commencé à travailler dans les années 1970 ?

« Les autrices américaines Tilly et Scott, qui se sont penchées sur les rôles sexuels et familiaux en France et en Angleterre depuis le XVIIIe siècle, rappellent qu’à cette époque : « Les femmes mariées partageaient leur temps entre trois activités principales : le travail salarié, la production pour la consommation domestique et la reproduction », ces trois activités influant les unes sur les autres. Même si les femmes enchaînaient les grossesses, les soins requis pour l’éducation des enfants étaient moindres par rapport à aujourd’hui : pas question de l’emmener aux compétitions de gym, ni de lui faire réciter une poésie. Par ailleurs, les enfants eux-mêmes contribuaient très jeunes, par leur travail salarié ou domestique, à la survie économique de la famille. Ainsi, les sphères familiales et professionnelles étaient intimement liées, sans qu’aucune ne définisse le rôle de la femme, ni n’occupe tout son temps. » p. 158-159

La crise d’adolescence, un passage obligé ?

« Au XIXe siècle, l’adolescence était d’abord l’affaire des pédagogues. La raison en est simple : tous les enfants devenaient certes pubères, mais tous ne devenaient pas adolescents. Seuls ceux qui ne passaient pas brutalement des bancs de l’école – quand ils avaient eu l’occasion de les fréquenter – aux entrepôts de l’usine ou à la réclusion du mariage pouvaient goûter aux affres de ce temps de transition. C’est ainsi qu’il est revenu aux éducateurs des garçons de la bourgeoisie, de poser les jalons d’une théorie de l’adolescence. [Par ailleurs] si ce concept de « crise » fait florès, c’est d’abord à cause du contexte historique du XIXe siècle. La France connaît alors son « siècle des Révolutions » : l’ordre ancien a été terrassé par le régicide et il s’agit de jeter les bases de l’ordre nouveau. Tout au long du XIXe siècle, une importante série de régimes politiques se succèdent : deux empereurs, trois monarques, et deux républiques, le tout entrecoupé de deux révolutions et de nombreuses tensions. Ainsi, l’adolescence sera théorisée au moment même où la société connaît violences, espoirs et incertitudes du renouveau : « les définitions de la crise adolescente [focaliseront] ainsi quelques-unes des grandes hantises du siècle. » » p. 295-302

Pères autoritaires, mères tendres ?

La doxa psychologique qui s’étale dans les magazines destinés aux parents et contribue à normaliser les rôles des père et mère, est largement imprégnée des principes de la psychanalyse, tellement communs qu’on ne prend même plus la peine de le signaler. Pourtant, ceux-ci n’ont jamais fait l’objet d’une quelconque validation scientifique, plus encore, ils apparaissent obsolètes au regard de notre société contemporaine, portant la marque d’un temps révolu où les familles monoparentales et les divorces étaient rares, les familles homoparentales et les techniques de procréation médicalement assistées inexistantes.

« De Freud […], nous vient le caractère incontournable du complexe d’Œdipe, dans lequel le père est celui auquel on se confronte, qu’on envie et admire au point d’en fantasmer la place (qu’on voudrait lui dérober) tout en le craignant par-dessus tout […] de Winnicott, la prééminence de la mère dans les soins au petit enfant, formulée comme « préoccupation maternelle primaire » découlant de l’enfantement et dont le père est globalement absent. […] De Lacan, nous est parvenue l’idée de « fonction paternelle » et de « tiers séparateur » […] : l’enfant est supposé initialement se vivre en fusion avec sa mère comme étant le phallus symbolique qui « manquerait » à cette dernière, une illusion qui s’effondrerait lorsqu’il constaterait que le désir de sa mère se porte vers une autre personne (le tiers séparateur) et qui lui permettrait du même coup d’accéder à son individualité. […] Pour le sociologue François de Singly, tout ceci constitue les bases d’un contrôle social : « Les travaux psychologiques peuvent avoir l’efficace des lois, les normes sociales n’ont pas besoin d’avoir un soubassement juridique pour exister et circuler ». » p. 147-148

En conclusion du livre : parents… Face aux injonctions… Prenez le pouvoir par les connaissances !

« Force est de constater que les connaissances relatives à l’éducation et la parentalité circulent de manière très inégale, a fortiori si elles traitent de récentes découvertes : non seulement le passage de l’information depuis les sphères universitaires jusqu’au grand public se fait rarement sans son lot d’infidélités et de simplification inhérent au bouche à oreille, mais plus encore, au sein même du public non-expert, les inégalités d’accès à l’information sont majeures. Rares sont les articles des magazines parentaux qui incluent la référence exacte à l’étude scientifique ou au rapport qu’ils relaient […]. S’ajoutent alors les barrières culturelles qui handicapent la lecture de celles et ceux qui ne sont pas familiers avec le style académique et les concepts convoqués, peu coutumiers de la langue anglaise généralement utilisée, et finalement condamnés à devoir croire sur parole ceux qui les relaient avec plus ou moins de bonheur. » 330-331

« Notre jugement est sans appel : peu importe la force de persuasion des points de vue simplistes et manichéens, ils sont une escroquerie intellectuelle qui infantilise les individus et grignote la confiance accordée aux institutions de production de la connaissance et aux soignants. A ce titre, ils sont donc indéfendables. Nous plaidons au contraire pour une diffusion d’information qui ferait une large place à la complexité, non pas celle qui exclut d’emblée les parents qu’elle considère comme trop peu instruits (et contribue ainsi à les maintenir dans cette position), mais celle qui ouvre à la diversité et replace la science au cœur de sa véritable mission : proposer un nouveau regard sur le monde pour nous permettre d’en inventer les futurs possibles. » p. 335-336

« Comment éviter de se fâcher avec la terre entière en devenant parent » Béatrice Kammerer et Amandine Johais, 2017, Ed. Belin. Disponible dans votre petite librairie de quartier (et sinon sur Amazon)

Posted in sciences sociales | Tagged , , | Leave a comment