Manifeste pour une science reproductible (II) : les propositions

Cet article fait suite à celui-ci, où je donnais quelques exemples illustrant cette « crise de reproductibilité » qui secoue la recherche scientifique. En janvier, Marcus R. Munafò et ses collègues publiaient « Manifesto for reproducible science » dans la revue Nature Human Behaviour.

Dans ce manifeste, ils dénoncent les pratiques qui nuisent à la reproductibilité scientifique, qui provoquent ce gâchis scientifique, humain, financier.

Toutes les étapes de la construction et de la publication de découvertes scientifiques. En rouge, les obstacles à la reproductibilité des résultats. Le terme HARKing signifie « Hypothesizing After the Results are Known » : Faire des hypothèses post hoc, une pratique très souvent dénoncée en sciences du comportement. (source de l’image)

Mais il ne s’agit pas uniquement d’un pamphlet. Les auteurs proposent plusieurs grandes idées pour limiter cette crise de la reproductibilité. J’ai pris la liberté de les reprendre, en les réorganisant sous quatre pôles distincts.

Pré-enregistrer les études, pré-publier : promouvoir la transparence avant même la publication définitive des résultats

Lorsqu’on parle de pré-publication, on pense très vite à la platerforme arXiv.org, qui consiste à rendre public (et gratuitement) des résultats préliminaires, souvent non publiables en l’état, afin de profiter du regard de la communauté scientifique pour valider mesures expérimentales et méthodologie. Pour apparaître sur arXiv, nul besoin de validation par les pairs. Il y a donc un processus complémentaire, ouvert et collaboratif, avant soumission de la publication sur un autre support… ou abandon. Pas besoin du long et douloureux processus de rétractation, ou de corrigendum des publications pour ne conserver que les plus rigoureuses…

Quelques exemples sont suffisamment célèbres pour être signalés (voir la notice arXiv sur wikipédia):

  • Une démonstration de la conjecture de Thurston a été déposée en 2002 sur arXiv par Grigori Perelman, examinée pendant 4 ans, et finalement validée.
  • Une démonstration de l’existence de solutions générales à l’équation de Navier-Stokes a été déposée par Penny Smith, avant d’être finalement abandonné.
  • Les travaux d’Enders Eklund, remettant en question les méthodologies en IRM fonctionnelle ont d’abord été publiés sur arXiv, avant de finir sur la prestigieuse revue PNAS. (Par ailleurs, il me semble – à titre personnel-  que l’accès à une revue aussi sélective a sans doute été rendue possible grâce à la prépublication)

Cependant, tous les domaines scientifiques ne sont pas ouverts à cette plateforme… Principalement en raison des habitudes des communautés de chercheurs. arXiv s’est principalement développée autour de la physique, information, mathématique… La chimie, -au hasard !- n’est pas concernée…(2)

ArXiv est un outil intéressant et productrice d’une rigueur que le peer-reviewing classique n’atteint pas. Les « Registered Reports » me semblent tout à fait complémentaires, et particulièrement efficaces. Le principe est simple : Le processus de Peer-Review est décomposé en deux :

  • Une première étape d’évaluation par les pairs concerne les hypothèses de départ et les méthodes qui seront mis en oeuvre. Si elles sont retenues, l’équipe de recherche obtient un accord de principe pour publication.
  • La deuxième étape d’évaluation concerne le manuscrit de l’article à publier. Sous réserve de la bonne observance des méthodes déjà validées lors de la première étape, et de rigueur de présentation des résultats, et quelque soit leur importance dans le champ disciplinaire concerné, l’article est publié.

Principe des « Registered Reports » : avoir un accord de publication avant obtention des résultats

Cette première validation donne l’assurance aux chercheurs d’être publiés. La nécessité absolue de résultats positifs, voire particulièrement remarquables s’envole, laissant la possibilité de publier des résultats négatifs ou peu significatifs. D’une part la fraude, les petits arrangements perdent beaucoup d’intérêts avec ce processus, mais de plus l’évaluation des chercheurs par les publications redevient un peu plus saine : les « bons » sont ceux qui ont produits des hypothèses pertinentes, et qui ont su se montrer rigoureux dans la construction de nouveaux savoirs scientifiques. Certaines revues ont mis en place, de façon facultative, ces « Registered Reports ». On trouvera une liste ici (notez l’absence de la chimie…).

Finalement, ces « Registered Reports » (oui, je n’ai pas trouvé de traduction, et j’ai du mal à en proposer une à la fois claire et légère…) rejoignent l’arsenal déjà existant qui permet les pré-enregistrement des recherches. Mais encore une fois, les domaines de recherche sont très inégalement concernés par les pré-enregistrements. Ils sont quasi systématique dans le domaine de la recherche médicale, et hébergés par différents sites institutionnels (comme le site américain ClinicalTrials.gov dont l’origine date de 1988, ou l’européen EudraCT Public website propulsé par la Commission Européenne), mais quasi absents de tous les autres domaines. Il est vrai que la question des essais cliniques est particulièrement sensible, tant les enjeux financiers et surtout humains sont importants…

L’indispensable libre accès aux articles et aux données

Quand Eklund conclut son article sur les défauts de traitements statistiques des données issues des expériences d’IRM fonctionnelle, concernant près de 30 000 articles scientifiques, il n’oublie pas de préciser que pour la plupart d’entre eux, il ne sera pas possible d’utiliser les nouvelles méthodologies plus fiables : les données brutes de ces expériences n’existent plus.

Dans un autre registre, je suis tombé il y a quelques minutes, sur ce tweet :

Sans revenir sur cette controverse scientifique concernant le glyphosate où se mêlent lobbies agro-industriels, zêle journalistique pas toujours bien placé, et santé publique, ce rebondissement (Il semblerait que des données non publiées remettent en question les conclusions de l’IARC classant le glyphosate comme « cancérigène probable ») est symptomatique de l’importance de la publication, ouverte à tous, des données des études. Que cela soit pour vérifier les traitements statistiques, en effectuer de nouveaux, plus pertinents, plus fins, ou procéder des méta-analyses nécessitant de re-traiter les données brutes issues de publications distinctes.

Sans entrer dans trop de détail, il me semble que la publication des données brutes fait aujourd’hui consensus, même si elle n’est pas encore suffisamment entreprise. La publication en accès libre des études scientifiques est également un vecteur fondamental de la diffusion des connaissances et des travaux scientifiques. À ce titre, elle permet d’accroître la communauté qui peut vérifier, comparer, évaluer les résultats et les méthodologies mises en oeuvres.

La littérature promouvant le libre accès aux données et aux études est abondante… Nul besoin que j’en remette une couche. Je ne m’étendrais pas plus ici sur la question, d’autant qu’il me faudrait encore critiquer le domaine de la chimie, mauvais élève de la recherche scientifique concernant l’accès libre aux publications…

Peer-review, collaborations… De la diversité, que diable !

Rien de tel que la diversité au sein des équipes, des collaborations, et des re-lecteurs pour améliorer la qualité des publications, et ainsi leur reproductibilité. Ainsi Munafo et coll. expliquent très justement que les chercheurs ne peuvent pas être à la fois des biologistes / psychologues / physiciens / etc. hors pairs, et des mathématiciens / épidémiologistes / statisticiens / informaticiens / etc. au courant des dernières évolutions sur le traitement des données. Ils proposent ainsi que soient associés aux équipes de recherche des professionnels spécialistes des méthodologies, et non du domaine de recherche concerné, dans le but d’offrir un regard aussi neutre que possible sur le design, le suivi, le traitements des résultats des travaux menés.

Cette même proposition est valable pour l’étape d’évaluation par les pairs avant publication.  Les auteurs insistent encore une fois sur l »intérêt de pré-publier les résultats, pour augmenter le nombres d’acteurs susceptibles d’évaluer les études menées, mais également sur la possibilité de post-évaluation des articles, rendue aujourd’hui possible, et même aisée par les outils informatiques et la mise à disposition des études sur le net.

Permettre de larges collaborations est également mis en avant. Là où une équipe isolée ne peut que produire des résultats statistiquement peu robustes, pour des raisons évidentes de moyens financiers et humains mais également pour des raisons de contextualisation qui ammoindrissent nécessairement la portée des travaux, plusieurs équipes mettant en commun hypothèses et protocoles d’études peuvent produire des résultats beaucoup plus fiables et robustes. Il s’agit encore une fois d’éléments de bon sens, mais mis en oeuvre de façon trop ponctuelles. Les auteurs du manifeste citent néanmoins plusieurs initiatives en SHS, comme le projet « The Many Lab« , hébergé sur la plateforme Open Science Framework, qui centralise les projets nécessitant le recrutement d’équipes collaboratrices…
Je vais me permettre de proposer un exemple purement spéculatif pour illustrer l’intérêt de dé-contextualiser des recherches. N’hésitez pas à me dire que je suis hors de propos (en argumentant bien sûr). Il y a environ 4 ans, j’écrivais un billet sur les statines, alors montrées du doigt pour leur prescription au périmètre assez flou et parfois peu étayé. (Je ne me suis pas replongé dans la littérature sur la question, ce n’est pas le sujet ici). En me penchant sur les études considérées comme très fiables (sélectionnées par les collaboration Cochrane pour établir leurs recommandations), on pouvait trouver de larges essais cliniques au Japon, USA, Ecosse. Mais j’avais été surpris, interpellé, par cette carte, partagée par Dominique Dupagne :

Mortalité coronarienne (justement censée diminuer grâce à l’utilisation des statines)

On peut voir une très grande disparité de la mortalité coronarienne, qui est justement une des cibles des traitements par les statines. On passe ainsi d’environ 65 morts / 100 000 habitants en France, à plus de 367 pour toutes les zones en rouge sur la carte, comme l’Ecosse. Les USA ont pour leur part un taux d’environ 120 pour 100000 (voir ici). Le Japon a des chiffres similaires aux USA (voir ici). Ma question est simplement la suivante : compte tenu de ces disparités très importantes, comment peut-on savoir si les statines ont le même intérêt en France (ou Espagne, ou Italie…) qu’en Ecosse, Estonie, ou au Japon ? Avec de telles disparités, comment l’agence Européenne du Médicament prend ses décisions sur l’autorisation et la commercialisation de médicaments ? Il me manque sans doute des éléments de réponse sur ce point précis. Toujours est-il que de larges collaborations sur un même sujet (ici par exemple les statines), permettant une méthodologie commune (sur l’analyse de l’influence des statines sur la mortalité coronarienne) dans des contextes (sanitaires) distincts doit permettre des résultats plus fiables, plus généraux, et adaptés aux diverses situations (ici, aux divers pays, de pyramides d’âge et d’hygiène de vie différentes).

Apprenons à être exigeant envers nous-même, et valorisons ceux qui le sont

Le dernier pôle de proposition concerne l’exigence nécessaire dont les chercheurs doivent faire preuve lorsqu’ils médiatisent, publient leurs travaux. Les auteurs du manifeste parle en particulier de la formation : connaître les outils devrait être un préalable à leur utilisation. cela peut sembler d’une grande trivialité, mais je ne pense pas que beaucoup de biologistes maitrisent les statistiques qu’ils utilisent pourtant pour « valider » leurs expériences. Tout comme les chimistes ne maîtrisent que rarement les algorithmes de simulations des structures 3D des molécules. La formation, initiale et continue des chercheurs ne doit pas s’arrêter à quelques recettes de cuisines magiques de bidouille de quelques chiffres ou quelques boutons de machine, si on souhaite une littérature scientifique solide.

Il est également question de la valorisation, et même de l’obligation de suivi de protocoles contraignants à une approche rigoureuse. Ils s’appellent ARRIVE, TOP, CONSORT, PRISMA,… et tous sont prévus pour servir de standard de reproductibilité et de rigueur. Référencés sur le réseau EQUATOR , ces lignes de conduites doivent, pour Munafo et ses collègues être valorisées, imposées, que ce soit par les éditeurs scientifiques, mais également par les institutions scientifiques publiques, et les financeurs de la recherche.

 

Il est difficile de conclure sur ce manifeste. L’article est en libre accès (lien un peu pllus bas), et est beaucoup plus riche que ce que j’en ai tiré ici. À titre personnel, je ne suis pas pessimiste sur la question de la reproductibilité des études scientifiques, ou, de façon plus large, sur leur qualité. Je crois en la force du partage des connaissances, et en la capacité de la communauté scientifique de faire preuve d’une grande rigueur, ne serait-ce que pour être plus convaincante. Néanmoins, l’existence de conflits d’intérêts permanents, qu’ils trouvent leurs origines dans le registre financier ou ailleurs, est un problème récurrent dans cette quête d’une science rigoureuse : il me semble que le tout premier levier d’action contre cette « crise de la reproductibilité », c’est de donner, totalement, envie aux scientifiques de produire des savoirs fiables. Cela aussi est tellement trivial, qu’on l’oublie trop souvent.

« a Manifesto for Reproducible Science » M.R. Munafo et al. Nature Human Behaviour 1, 0021, 2017

(1) on pourra lire à ce sujet les articles suivant :
– Homo Fabulus : « Le Biais de Confirmation, élémentaire, mon cher Watson »
– Agence Science Presse : « Les biais cognitifs sont humains, les scientifiques aussi, donc… »
(2) à noter la création très récente de ChemRxiv, initiative de l’American Chemical Society, principale éditrice de revues (payantes) en chimie. Néanmoins, sa raison d’être n’est pas forcément si louable que cela

Posted in politique | Tagged , , , | 1 Comment

Manifeste pour une science reproductible (I) : le constat

Cet article fait suite à la publication, il y a quelques mois, dans Nature Human Behaviour d’un article intitulé « A Manifesto for Reproducible Science » écrit par M.R. Munafò et ses collègues issus de prestigieuses universités américaines, anglaises et néerlandaise.

La recherche scientifique, telle qu’elle est menée actuellement, est en pleine « crise de la reproductibilité », questionnant totalement les méthodologies des laboratoires, mais également les modes de publications, d’interactions, et d’évaluations de la recherche. Le phénomène a été particulièrement mis en avant depuis les années 2000. Non pas qu’il ne soit pas plus ancien, (je dirais même qu’il est inhérent au prestige que représente la recherche et les découvertes scientifiques), mais il devient beaucoup plus visible aujourd’hui, sans doute grâce à une meilleure circulation des informations et des publications.

Une « crise de la reproductibilité », des réalités différentes

Derrière ce nom, se cache en réalité des pratiques scientifiques différentes, de la fraude pure et simple, à la non publication de résultats négatifs, en passant par les erreurs « de bonne foi », ou liées à des méthodologies contestables. Il serait difficile de tout lister, bien entendu, mais je peux revenir, à titre d’exemple, sur quelques exemples choisis.

Biais de méthodologie : le cas de l’IRM fonctionnelle

L’Imagerie par Résonance Magnétique a offert aux neurosciences l’opportunité de « visualiser », en temps réel, la réponse de nos cerveaux lorsqu’ils sont stimulés par une réflexion, un sentiment, une sensation. Cette technique, appelée IRM Fonctionnelle permet de mesurer en réalité l’évolution de la quantité de dioxygène dans les différentes zones du cerveau, et ainsi, de voir les zones actives (pauvres en O2, qui a été consommé) et les zones au repos. Le problème, dont j’ai parlé ici sur ce blog (et là pour Pour La Science), concerne la méthodologie de traitement des données pour produire l’image du cerveau. Pour simplifier, un chercheur, Enders Eklund a montré que les méthodes utilisées depuis 20 ans en IRM fonctionnelle donnaient des résultats… Faux la plupart du temps.(1) Quelques 30 000 publications ayant été basées sur l’utilisation de ces méthodes, la question de la reproductibilité de ces travaux scientifiques est critique en neuroscience. Si de nouvelles méthodes de traitement de données beaucoup plus fiables existent aujourd’hui, elles ne pourront pas être utilisées pour évaluer les publications plus anciennes, les données brutes n’ayant jamais été publiées…

Cachez ces résultats négatifs que je ne saurais voir…

Combien de travaux ont été entrepris, sans savoir que d’autres équipes de recherche avaient déjà essayé les mêmes choses, n’avaient rien obtenu et surtout… Rien publié ? Cette non publication occasionne des coûts importants, et une perte de temps considérable. En terme de reproductibilité des résultats, les dégâts sont également importants:
Imaginons que 10 équipes fassent la même expérience, pour établir que « A implique B« . 9 obtiennent un résultat négatif (absence de corrélation) –ne le publient pas– et une, par hasard, trouve une corrélation statistiquement significative (risque d’erreur inférieure à 5 %). Et la publie. C’est cette conclusion qui sera retenue. Alors que les données conjointes des 10 équipes auraient très probablement conduites à une infirmation du lien de causalité entre A et B.
Ce problème a conduit à la multiplication, dans les années 2000, de journaux qui publient les résultats négatifs. D’autres plaident pour des plateformes d’accès libre pour ces résultats, servant de bases de données de ce qui a déjà été tenté, mais qui n’a pas marché…(2)

61 % de rendement… On arrondit à 70 % ?

Enjoliver les résultats… QUE C’EST FACILE !! Prenons un exemple dans un domaine où les conséquences ne sont pas dramatiques (contrairement à la médecine et la pharmaceutique), et que je connais bien, à savoir la chimie organique. Lorsque j’étais en thèse de chimie organique, je travaillais sur la mise au point de réactions conduisant à des molécules de type pyridoacridines.

Certaines de ces réactions donnaient des résultats au rendement très variable. J’obtenais effectivement la bonne molécule à chaque coup (ce qui était en soi un résultat très satisfaisant), mais parfois avec 15 %, parfois avec 50 % de rendement. Il va sans dire que dans mon manuscrit, seul ce « 50 % » figure. Mon premier réflexe est… de ne pas trop m’en vouloir ! Après tout,

  • Quelqu’un au labo est passé derrière, a confirmé ces 50 %, et a amélioré ce résultat de façon assez spectaculaire.
  • Ces réactions ne serviront probablement jamais à rien… Et puis, je l’ai bien obtenu, isolé, mon produit, zut !

Ce type de comportement est extrêmement répandu en chimie fine, d’autant qu’il est très rare que d’autres refassent exactement les même manipulations avec les mêmes substrats. Bref : pas vu, pas pris… Pas (trop) de conséquence. Ce qui est dommageable, c’est être formé -lors d’une thèse par exemple- avec ce type de comportement. Qui fait petit à petit accepter un peu n’importe quoi. Sans fraude manifeste, sans volonté de nuire, on arrive à des résultats non productibles.

« Avez vous échoué à reproduire une expérience ? » tiré de cet article paru dans Nature.(3) Et le domaine gagnant est… La chimie !!

Les essais cliniques : quel gâchis !!

Dans un article paru dans Nature en 2012, C. G. Begley et L.M. Ellis tirent la sonnette d’alarme : en oncologie particulièrement, le taux d’échecs des essais cliniques ne peut pas s’expliquer uniquement par la difficulté de transposer à l’humain les recherches pré-cliniques. Il y a un gros problème de fiabilité et de reproductibilité des travaux scientifiques pré-cliniques(4). Ainsi, reportent-ils, une équipe de Bayer a analysé les données publiées concernant 67 projets de l’entreprise (dont 47 en oncologie) : le taux de reproductibilité est d’environ 20 – 25 %. D’autres chercheurs, de l’entreprise AmGen (Californie) n’ont pu confirmer les résultats que de 6 articles sur 53 (11%). A l’heure de l’envolée du coût de développement des médicaments anti-cancéreux, la perte d’argent, et de temps liés à ces travaux non reproductibles représente un gâchis considérable.

 

Ces quelques exemples ne sauraient être représentatifs. Les recherches en psychologie ont particulièrement été montrées du doigt, mais on voit bien que l’ensemble des disciplines universitaires sont concernées. Que ce soit en raison de mauvaises pratiques (non conservation/ non publication des données brutes), de biais cognitifs, de pressions (financière, académique, …), ce sont toutes les étapes de la recherche qui se retrouvent impactées, comme le résume cette figure de l’article de Munafò et coll. (5):

 

À venir : Manifeste pour une science reproductible (II): les propositions

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » E. Eklund et al. PNAS 2016.
(2) « Negative Results Are Published » B. O’Hara Nature 471,448–449 (24 Mars  2011).
(3) « 1500 scientists lift the lid on reproductibility » Monya Beker Nature (25 mai 2016)
(4) « Drug development : Raise standards for preclinical cancer research » C.G. Begley et L.M. Ellis  Nature 483, 531–533(29 March 2012)
(5) « A Manifesto for Reproducible Science » Marcus R. Munafò et al. Nature Human Behaviour 1, 0021 (2017)

Posted in actualité, politique, recherche | Tagged , | 2 Comments

On vulgarise bien les trous noirs… Et les sciences de la parentalité ?

Il est difficile, pour moi, de commenter et présenter un ouvrage réalisé par un-e (très) proche, comme le livre de Béatrice Kammerer et Amandine Johais « Comment éviter de se fâcher avec la Terre entière en devenant parent ? » paru en mars dernier. J’ai envie de dire : « OUAAAH ! CLASSE !!  TOP !! » mais on va me dire que je suis pas très crédible aveuglé par l’admiration que j’ai pour le travail de Béatrice.

Pourtant, derrière ce titre, badin à première lecture, se cache en réalité des idées sur les sciences qui me sont très chères, et que je souhaite partager ici. Il y a quelques temps, je publiais « La science est politique. La médiatiser un acte militant » sur ce blog. En particulier, j’insistais sur le grand pouvoir que donne les connaissances scientifiques : celui de pouvoir prendre des décisions éclairées à chaque instant. Dois-je vacciner mes enfants ? Prendre de l’homéopathie ? Consommer des OGM ? Promouvoir l’énergie nucléaire ? Pour ce genre de questions, particulièrement polémiques, on ne peut se passer de savoirs scientifiques, à moins de déléguer à une « autorité » (morale ou politique) le soin de décider à notre place. Et si on arrive à vulgariser des notions de chimie théorique ou les trous noirs, on devrait bien arriver à vulgariser des connaissances qui peuvent -en plus !- servir !

C’est le cas des questions qui ont trait à la parentalité et l’éducation. Face aux innombrables injonctions sociétales, familiales, comment savoir, en tant que parent, ce qui est bon pour son enfant, sa famille ? De là l’esprit de ce livre : partir des « idées qui fâchent » en éducation et parentalité, et les expliquer, les déconstruire, à l’aide de la sociologie, la psychologie, les sciences cognitives, la médecine, l’histoire, etc.

Petite sélection d’extraits…

 

Devenir mère après 40 ans, encore une lubie dangereuse du XXIème siècle ?

« On évoque souvent l’inquiétude des médecins face aux complications supposément plus nombreuses des grossesses tardives. Leur multiplication serait un problème de santé publique contre lequel il faudrait mettre les femmes en garde. Les études sur l’accroissement des risques maternels et fœtaux liés à l’âge sont relativement nombreuses, mais elles sont loin de toutes aboutir aux mêmes résultats ! Et si les quelques augmentations constatées peuvent encourager une surveillance plus importante des grossesses, il semble totalement exagéré d’y voir une raison suffisante pour décourager les femmes de mener des grossesses après 40 ans (à titre d’exemple, le risque de mort fœtale in utero est de l’ordre de 0.4 % vers 25 ans et s’élève à 0.8 % vers 45 ans ce qui fait conclure à une multiplication du risque par 2 après 40 ans en dépit d’un risque absolu faible). De plus, si la majorité de ces études constatent une augmentation de la probabilité de déclarer une complication, elles sont incapables de déterminer si cette augmentation est seulement liée à l’âge des patientes ou au fait qu’après 40 ans, les femmes souffrant de pathologies de la reproduction sont surreprésentées (puisque n’ayant pu concevoir avant). » p. 33-34

Les femmes ont commencé à travailler dans les années 1970 ?

« Les autrices américaines Tilly et Scott, qui se sont penchées sur les rôles sexuels et familiaux en France et en Angleterre depuis le XVIIIe siècle, rappellent qu’à cette époque : « Les femmes mariées partageaient leur temps entre trois activités principales : le travail salarié, la production pour la consommation domestique et la reproduction », ces trois activités influant les unes sur les autres. Même si les femmes enchaînaient les grossesses, les soins requis pour l’éducation des enfants étaient moindres par rapport à aujourd’hui : pas question de l’emmener aux compétitions de gym, ni de lui faire réciter une poésie. Par ailleurs, les enfants eux-mêmes contribuaient très jeunes, par leur travail salarié ou domestique, à la survie économique de la famille. Ainsi, les sphères familiales et professionnelles étaient intimement liées, sans qu’aucune ne définisse le rôle de la femme, ni n’occupe tout son temps. » p. 158-159

La crise d’adolescence, un passage obligé ?

« Au XIXe siècle, l’adolescence était d’abord l’affaire des pédagogues. La raison en est simple : tous les enfants devenaient certes pubères, mais tous ne devenaient pas adolescents. Seuls ceux qui ne passaient pas brutalement des bancs de l’école – quand ils avaient eu l’occasion de les fréquenter – aux entrepôts de l’usine ou à la réclusion du mariage pouvaient goûter aux affres de ce temps de transition. C’est ainsi qu’il est revenu aux éducateurs des garçons de la bourgeoisie, de poser les jalons d’une théorie de l’adolescence. [Par ailleurs] si ce concept de « crise » fait florès, c’est d’abord à cause du contexte historique du XIXe siècle. La France connaît alors son « siècle des Révolutions » : l’ordre ancien a été terrassé par le régicide et il s’agit de jeter les bases de l’ordre nouveau. Tout au long du XIXe siècle, une importante série de régimes politiques se succèdent : deux empereurs, trois monarques, et deux républiques, le tout entrecoupé de deux révolutions et de nombreuses tensions. Ainsi, l’adolescence sera théorisée au moment même où la société connaît violences, espoirs et incertitudes du renouveau : « les définitions de la crise adolescente [focaliseront] ainsi quelques-unes des grandes hantises du siècle. » » p. 295-302

Pères autoritaires, mères tendres ?

La doxa psychologique qui s’étale dans les magazines destinés aux parents et contribue à normaliser les rôles des père et mère, est largement imprégnée des principes de la psychanalyse, tellement communs qu’on ne prend même plus la peine de le signaler. Pourtant, ceux-ci n’ont jamais fait l’objet d’une quelconque validation scientifique, plus encore, ils apparaissent obsolètes au regard de notre société contemporaine, portant la marque d’un temps révolu où les familles monoparentales et les divorces étaient rares, les familles homoparentales et les techniques de procréation médicalement assistées inexistantes.

« De Freud […], nous vient le caractère incontournable du complexe d’Œdipe, dans lequel le père est celui auquel on se confronte, qu’on envie et admire au point d’en fantasmer la place (qu’on voudrait lui dérober) tout en le craignant par-dessus tout […] de Winnicott, la prééminence de la mère dans les soins au petit enfant, formulée comme « préoccupation maternelle primaire » découlant de l’enfantement et dont le père est globalement absent. […] De Lacan, nous est parvenue l’idée de « fonction paternelle » et de « tiers séparateur » […] : l’enfant est supposé initialement se vivre en fusion avec sa mère comme étant le phallus symbolique qui « manquerait » à cette dernière, une illusion qui s’effondrerait lorsqu’il constaterait que le désir de sa mère se porte vers une autre personne (le tiers séparateur) et qui lui permettrait du même coup d’accéder à son individualité. […] Pour le sociologue François de Singly, tout ceci constitue les bases d’un contrôle social : « Les travaux psychologiques peuvent avoir l’efficace des lois, les normes sociales n’ont pas besoin d’avoir un soubassement juridique pour exister et circuler ». » p. 147-148

En conclusion du livre : parents… Face aux injonctions… Prenez le pouvoir par les connaissances !

« Force est de constater que les connaissances relatives à l’éducation et la parentalité circulent de manière très inégale, a fortiori si elles traitent de récentes découvertes : non seulement le passage de l’information depuis les sphères universitaires jusqu’au grand public se fait rarement sans son lot d’infidélités et de simplification inhérent au bouche à oreille, mais plus encore, au sein même du public non-expert, les inégalités d’accès à l’information sont majeures. Rares sont les articles des magazines parentaux qui incluent la référence exacte à l’étude scientifique ou au rapport qu’ils relaient […]. S’ajoutent alors les barrières culturelles qui handicapent la lecture de celles et ceux qui ne sont pas familiers avec le style académique et les concepts convoqués, peu coutumiers de la langue anglaise généralement utilisée, et finalement condamnés à devoir croire sur parole ceux qui les relaient avec plus ou moins de bonheur. » 330-331

« Notre jugement est sans appel : peu importe la force de persuasion des points de vue simplistes et manichéens, ils sont une escroquerie intellectuelle qui infantilise les individus et grignote la confiance accordée aux institutions de production de la connaissance et aux soignants. A ce titre, ils sont donc indéfendables. Nous plaidons au contraire pour une diffusion d’information qui ferait une large place à la complexité, non pas celle qui exclut d’emblée les parents qu’elle considère comme trop peu instruits (et contribue ainsi à les maintenir dans cette position), mais celle qui ouvre à la diversité et replace la science au cœur de sa véritable mission : proposer un nouveau regard sur le monde pour nous permettre d’en inventer les futurs possibles. » p. 335-336

« Comment éviter de se fâcher avec la terre entière en devenant parent » Béatrice Kammerer et Amandine Johais, 2017, Ed. Belin. Disponible dans votre petite librairie de quartier (et sinon sur Amazon)

Posted in sciences sociales | Tagged , , | Leave a comment

[Flash Info Recherche] #3 Du nouveau dans les thérapies anti-SIDA

Il est de bon ton de parler aujourd’hui du SIDA comme d’une maladie chronique que l’on contrôle grâce à un cocktail médicamenteux d’anti-rétroviraux (ART) efficaces. Si l’espérance de vie aujourd’hui d’une personne séropositive, en France, semble se rapprocher de celle d’une personne séronégative, avoir le SIDA reste une situation difficile et lourde à porter. Outre les conséquences sociales, cette maladie impose la prise d’ART à vie : ceux-ci rendent certes le HIV indétectable, mais ils ne l’éradiquent pas : quelques semaines après l’arrêt du traitement, le virus ré-apparaît.

N’oublions pas également que la situation française n’est pas la norme à l’échelle de la planète : nombre de patients asiatiques, africains, américains n’auront jamais accès aux ART, faute de moyens.

Une étude parue dans la revue Science il y a quelques mois laisse néanmoins entrevoir l’espoir d’une réelle rémission après la prise d’ART : en travaillant sur le SIV – équivalent simiesque du HIV -, une équipe américaine a découvert qu’en traitant des singes malades avec un anticorps artificiel (spécifique de certaines protéines du système gastro-intestinal) en même temps que les ART, les taux de SIV ne remontaient pas après l’arrêt du traitement (pendant -au moins- 9 mois).(1)

Les chercheurs sont partis du fait que les tissus du système gastro-intestinal jouent un rôle de réservoir permanent de VIH (ou de SIV). Les lymphocytes T4, globules blancs cibles du virus, adhèrent à ces tissus grâce à une protéine de surface de la famille des intégrines : l’intégrine α4β7. Si on empêche ces globules blancs d’adhérer, peut-on empêcher la prolifération du virus ? La réponse semble bien positive :
Des singes SIV-positif ont été traités aux ART accompagné d’anticorps monoclonaux spécifiques de α4β7 simiesque. Après arrêt total des ART et de ces anticorps, le taux de SIV n’est pas remonté, et reste indétectable. Le mécanisme précis est mal connu, mais la prise de ces anticorps ont pour conséquence la diminution de la circulation des lymphocytes T4 riches en α4β7 dans les tissus gastro-intestinaux. Chez le singe, cela semble suffire pour limiter la contamination de ces globules blancs, et donc pour permettre au système immunitaire de lutter efficacement contre le virus.
Chez l’homme, des anticorps monoclonaux spécifiques à l’intégrine α4β7 sont déjà commercialisés pour d’autres indications. Les études humaines devraient probablement en être accélérés… En espérant que leurs résultats soient aussi spectaculaires !

(1) « Sustained virologic control in SIV+ macaques after antiretroviral and α4β7 antibody therapy » Siddappa N. Byrareddy, James Arthos, Claudia Cicala, et al. Science 14 Oct 2016 Vol. 354, Issue 6309, pp. 197-202

Posted in actualité, recherche, santé | Tagged , , | Leave a comment

[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

Posted in actualité, article de recherche, Non classé, santé | Tagged , | Leave a comment

[Flash Info Chimie] #51 : métalloprotéine : un autre métal, pour d’autres applications

Les métalloprotéines sont des protéines qui contiennent un, ou plusieurs ions métalliques. Même si le nom est moins connus que « protéine » toute seule, elles sont très répandues : l’hémoglobine, par exemple, est une métalloprotéine dont la fonction est de transporter l’oxygène dans le sang. Dans ce cas, c’est un ion de Fer qui se trouve au centre de la protéine, et qui se lie à la molécule de dioxygène pour la fixer. La vitamine B12 s’organise autour d’un ion Cobalt, et est indispensable au bon fonctionnement du système nerveux. Les nitrogénases permettent à certaines bactéries de fixer l’azote atmosphérique : le diazote N2 est réduit en ammoniac NH3 grâce à ces métalloprotéines qui contiennent du molybdène et du fer. Dans la nature, le nombre de métaux impliqués est restreint : il n’y a pas grand chose à part le fer, le cuivre, le zinc, le calcium, le magnésium, le cobalt, le molybdène, le tungstène, le vanadium. Pourtant, la plupart de ces métaux ont des propriétés chimiques assez pauvres, comparées aux métaux nobles utilisés en catalyse en laboratoire (iridium, platine, palladium) : c’est l’environnement de l’ion métallique dans les métalloprotéines qui les rend actif.

Des chimistes ont eu l’idée « simple » de synthétiser des métalloprotéines artificielles, contenant, à la place des métaux « pauvres » par des métaux « nobles ». Et cela marche ! En utilisant de l’iridium à la place du fer dans des myoglobines, ils ont pu catalyser des réactions complexes en chimie organique, avec de très bon résultats.

Le DFFZ désigne la métalloprotéine

Le [M]-Myo désigne la métalloprotéine

A noter tout de même qu’un important travail de mise au point de la myoglobine a été nécessaire : la métalloprotéine la plus efficace contient non seulement de l’iridium et non du fer, mais présente également plusieurs mutations pour en augmenter son efficacité.

Pour les amateurs, la meilleure métalloprotéine a permis d’obtenir le composé 2 avec un rendement quasi quantitatif, un excès énantiomérique de 80 %, et un TON supérieur à 100. 

« Abiological catalysis by artificial haem proteins containing noble metals in place of iron » Hanna M. Key, Paweł Dydio, Douglas S. Clark & John F. Hartwig Nature 534,534–537(23 June 2016)

Posted in actualité, chimie, Flash Info Chimie, Non classé | 2 Comments

[Flash Info Recherche] #1 : Recherche pluridisciplinaire : valorisée, mais moins financée

J’écris des articles issus de l’actualité de la recherche, pour un mensuel bien connu, version française de « Scientific American ». Mais tous les sujets que je vois passer dans les grandes revues scientifiques ne sont pas abordés… Cette nouvelle catégorie, parallèle aux « Flash Info Chimie » sera donc là pour donner un instantané -court- de ces articles de recherche, souvent passionnant, qui se retrouvent néanmoins sous-médiatisés…

Comme partout dans le monde, la pluridisciplinarité est encouragée, valorisée en recherche. Et pourtant, les projets qui mêlent plusieurs disciplines scientifiques restent sous-financées. C’est la conclusion d’une étude parue dans Nature il y a quelques mois : En analysant les demandes et les attributions des financements de l’Australian Research Council, Lindell Bromham, Russell Dinnage et Xia Hua de l’Université Nationale d’Australie (Canberra), ont montré qu’un projet avait d’autant moins de chance d’être financé qu’il convoquait une équipe pluridisciplinaire (indépendamment de la discipline, du nombre de contributeur, de l’institution de rattachement)

 

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale). En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement.

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale).
En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement. (source)

La situation est-elle proprement australienne ? Lorsqu’on voit, en France, la difficulté pour les docteurs qui ont fait appel, lors de leurs travaux de thèses, à plusieurs disciplines, d’être qualifié pour le recrutement des Maîtres de Conférences dans une des sections CNU, on peut hélas imaginer que les instances de financement françaises, et probablement européennes, ne font pas mieux que leur homologue australienne.

« Interdisciplinary research has consistently lower funding success » Lindell Bromham, Russell Dinnage & Xia Hua Nature 534,684–687(30 June 2016) doi:10.1038/nature18315

Posted in actualité, article de recherche, Non classé, politique | Tagged , | Leave a comment

Vaccin contre la dengue (Sanofi-Pasteur)… Oui, mais avec modération !

Compte tenu du titre, il me semble qu’il faille tout de suite mettre les choses au point : Je me positionne tout à fait pour l’utilisation de la plupart des vaccins (en particulier tous ceux obligatoires ou recommandés en France), et ce, à la lumière des publications scientifiques qui en montrent l’effet positif pour la santé à l’échelle individuelle, ainsi qu’à l’échelle sociétale. (Pour plus de détails, voir à la fin du texte).

Voilà,on va pouvoir, en toute sérénité, mettre en question la vaccination contre la dengue à l’aide du Dengvaxia, développé par Sanofi-Pasteur, actuellement fabriqué à Neuville-Sur-Saône.

dengvaxia

La dengue : un fléau aux quatre visages*

La dengue est une maladie virale humaine transmise via les moustiques du genre Aedes (dont fait partie le fameux moustique tigre). 40 % de la population mondiale est exposée à ce virus : on estime qu’il y a chaque année plusieurs centaines de millions de contamination, dont 36 millions de personnes qui développent les symptômes classiques de la dengue, mais aussi 2,5 millions de formes graves, et 21 000 décès. Il n’existe aucun antiviral efficace contre cette maladie, la prise en charge consiste donc en le traitement de la douleur et de la fièvre… Dans les cas grave, l’hospitalisation est indispensable.

world_denguetransmission_extension_2008

Allons un tout petit peu plus loin dans la description de cette maladie, afin de comprendre son originalité (sa perversité, j’allais dire) : il existe quatre sérotypes, appelés DENV-1 à DENV-4, qui donnent des symptômes similaires. Lorsqu’une personne est infectée par un des sérotypes, elle se trouve immunisée (définitivement) contre lui. Mais pas contre les quatre autres: Pire, le risque qu’elle développe une forme grave de Dengue est multiplié par 10 lors d’une nouvelle infection par un autre sérotype. 

La lutte contre cette maladie consiste actuellement essentiellement en la destruction de l’habitat des moustiques (eaux stagnantes), et l’utilisation de répulsifs. D’autres pistes sérieuses sont explorées, comme l’introduction massive d’insectes mâles génétiquement modifiés pour que leur descendance ne parvienne pas à l’âge adulte (une diminution de 90 % de la population de moustique est attendue en 6 mois), ou encore l‘introduction de la bactérie Wolbachia qui affecte les moustiques, se transmet de génération en génération, et empêche le virus de la dengue de se répliquer dans cet hôte. Et puis, bien sûr, la vaccination. L’humain étant à la fois un vecteur, et le seul réservoir de ces virus, une vaccination efficace pourrait, idéalement, éradiquer définitivement la maladie.

Le Dengvaxia, un vaccin « faute de mieux » ?

Il y a plusieurs vaccins en cours d’homologation, mais seul le Dengvaxia, développé par Sanofi-Pasteur est actuellement sur le marché. 11 pays l’ont actuellement homologué (Depuis le Mexique à Singapour, en passant par la Thaïlande, le Brésil, etc.). Ce vaccin a une efficacité toute relative, comprise entre 43 % pour DENV-2 et 77% pour DENV-4 (1).** Les autres candidats vaccins ne semblent pas faire mieux que le Dengvaxia…

Venons-en, enfin, au cœur du problème. Le principe du vaccin (de tous les vaccins, en réalité) consiste en la sensibilisation du système immunitaire en l’exposant à des fragments / particules / virus attténués, afin qu’il développe des anticorps « comme si » le corps avait déjà été en contact avec la maladie. Le Dengvaxia est ainsi un vaccin tétravalent, c’est-à-dire qu’il sensibilise le système immunitaire aux quatre sérotypes connus lors de sa mise au point. Mais souvenez-vous : le risque de formes graves augmente considérablement après une première exposition : le vaccin risque donc d’accroître ce risque ! Cela n’aurait aucune incidence si le vaccin était efficace à 100 % sur tous les sérotypes : il n’y aurait, dans ce cas, pas de nouvelle contamination. Mais avec son efficacité qui n’est pas totale, un problème inédit (à ma connaissance) dans l’histoire de la vaccination apparaît : un individu vacciné pourrait présenter un risque accru de dengue sévère comparé à un autre jamais en contact avec cette maladie.

Les résultats de la phase III de l’essai clinique du vaccin, celle qui est effectuée sur de grandes populations, n’a pas permis de lever cette interrogation :

  • Des différences nettes entre l’efficacité du Dengvaxia chez les patients séropositifs (qui avaient déjà eu une dengue avant vaccination) et chez les patients séronégatifs ont été observés: En réalité, Aucune efficacité statistiquement significative n’a été mesurée chez les personnes séronégatives (2).
  • L’efficacité chez les enfants (plus souvent séronégatifs du fait de leur âge), est nettement plus faible que chez les groupes de sujets plus âgés (2).
  • Il a été observé également une augmentation du risque d’hospitalisation pour dengue sévère au cours de la troisième année après administration du vaccin, principalement chez les jeunes enfants, qui ont été de fait exclu de la cible du vaccin (proposé à partir de 9 ans) (1). Ce risque a été mesuré à + 7,5 %, mais du fait de l’échantillon très restreint sur lequel a été fait l’étude, il est en réalité compris entre 1,2 et … 314 %. De travaux de plus larges ampleurs doivent être entrepris pour affiner tout cela !

De quoi renvoyer le Dengvaxia dans les oubliettes de l’histoire des ratés de l’industrie pharmaceutique ? Tout de même pas !

Vaccin contre la dengue : à utiliser avec modération !

À la lumière de ces résultats ni catastrophiques, ni rassurants, des scientifiques ont cherché à établir avec plus de précision quelles étaient les situations sanitaires et épidémiologiques pour lesquelles le vaccin serait bénéfique. Une équipe d’épidémiologistes de l’Université de Stanford a ainsi modélisé mathématiquement l’impact de la vaccination chez des populations dans des zones différemment exposées à la dengue, en prenant en compte les résultats -mitigés- dont nous venons de parler. Ils ont étudié l’impact du vaccin sur des périodes allant de deux ans à trente ans. D’après leurs travaux, il est important d‘adapter la vaccination aux zones géographiques en fonction de l’endémicité de la maladie, et, si possible, en fonction du statut immunitaire de chaque individu.(2)

La logique qui transparaît de cette modélisation est assez simple :

À l’échelle collective :

  • En cas de forte endémicité, le risque d’être contaminé plusieurs fois par les différents sérotypes de la dengue est très grand. La vaccination n’induit globalement pas de risques supplémentaires en rajoutant une exposition. De toute façon, cette exposition avait de très grande chance de se produire… Le bénéfice est donc réel. Les auteurs montrent d’ailleurs que dans ces zones, on pourrait abaisser l’âge minimal de vaccination en dessous de 9 ans (les enfants plus jeunes étant déjà confronté au risque d’être contaminé plusieurs fois…)
  • En cas de faible ou de moyenne endémicité, le risque d’être contaminé une fois existe, mais celui d’être contaminé plusieurs fois est relativement faible. La vaccination, qui rajoute une exposition, peut devenir contre-productive, et causer des symptômes graves lors du contact avec un des sérotypes de la dengue. Une vaccination globale dans ces zones est donc à proscrire.
  • Pour les voyageurs provenant de zone où la dengue est absente, le risque d’attraper la dengue plusieurs fois est quasi nul, aucune vaccination ne doit être entreprise pour la même raison.

À l’échelle individuelle :

  • Une personne séronégative n’a aucun intérêt à se faire vacciner : cela crée une situation de première exposition, et augmente les risques de développer des symptômes graves.
  • Une personne séropositive à un des dengues a tout intérêt à se faire vacciner, puisque le risque de développer des formes graves a déjà été accru par une première infection. Les épidémiologistes ont estimé que ce n’était cependant pas particulièrement intéressant dans les zones de faible endémicité, mais efficace en zone de forte endémicité.

La conclusion globale de cette étude sonne comme une mise en garde : la vaccination par le dengvaxia est intéressante, mais pas n’importe où, pas chez n’importe qui. L’idéal est de pouvoir effectuer un test rapide (et pas cher !) pour connaître le statut sérologique de chaque individu qui se fait vacciner. Si cela n’est pas le cas, il ne faut agir qu’en zone de forte endémicité, où, en vaccinant tout le monde, y compris les séronégatifs, on aura tout de même un bénéfice global en matière de santé publique.

J’aimerais ajouter une remarque plus générale : ce type d’étude montre une chose importante : LA Vaccination n’existe pas (pas plus que L’Antibiotique, ou LE Anticancéreux !) : il existe DES vaccins dont l’évaluation doit être réalisée au cas par cas, de façon minutieuse et précise. Espérons qu’à la lumière de cette étude, ce vaccin soit utilisé de façon réellement utile et efficace, de façon modérée et éclairée dans les pays qui l’ont validé.

 

* Il a été annoncé un cinquième sérotype pour la dengue lors d’une conférence internationale en 2013. Mais cela n’a jamais été confirmé par un article dans une revue. Une discussion à lire sur researchgate montrer qu’il ne s’agirait en fait que d’un variant de DENV-4 (ouf…)

**Il faut bien comprendre qu’en dépit d’une efficacité relativement faible à l’échelle humaine, un vaccin peut permettre l’éradication d’une maladie à l’échelle collective : une diminution de 50 % des malades signifie également un risque de contamination nettement plus faible qu’en l’absence de vaccin. Avec le risque de contamination plus faible ET la probabilité plus grande d’être efficacement immunisé, on arrive à des diminutions réelles et rapides de la prévalence des maladies.

Suite de la mise au point initiale sur les vaccins :

  • Les vaccins sont des produits pharmaceutiques soumis aux mêmes contrôles que les médicaments. Ceux qui sont aujourd’hui obligatoires ou qui sont recommandés en France ont fait leurs preuves, tant pour leur innocuité que pour leur efficacité. De plus, tout comme les médicaments, dire « les vaccins c’est le mal » est aussi idiot que dire « les antibiotiques c’est le mal », ou « les anti-douleurs, c’est le mal », alors qu’il en existe dix mille différents…
  • Des maladies ont disparues (La variole), d’autres pourront disparaître (la polio actuellement en voie d’éradication) grâce à la vaccination.
  • Il existe des effets secondaires aux vaccins, et ils sont pris en compte lors de leur évaluation.
  • L’aluminium présent dans les vaccins n’est responsable ni de cancers, ni de maladies neurodégénératives, ni de maladies auto-immune. Il a été montré qu’il était totalement sûr d’un point de vue de la santé (On pourra lire, entre autre les conclusions de cette revue de la littérature par des membres de la Collaboration Cochrane, qui font référence en terme de sérieux ET d’indépendance en recommandation médicale).
  • Néanmoins, on peut effectivement, d’un point de vue éthique, questionner la question de l’obligation vaccinale en vigueur en France, d’autant qu’elle n’est pas efficace, et qu’elle génère un scepticisme face aux vaccins. (J’ai déjà parlé de ce point dans cet article : « Vaccins : marche-t-on sur la tête ?« )

(1) Site de l’OMS : « Questions-Réponses sur les vaccins contre la Dengue »
(2) « Benefits and risks of the Sanofi-Pasteur dengue vaccine: Modeling optimal deployment » N.M. Ferguson et al.Science 02 Sep 2016: Vol. 353, Issue 6303, pp. 1033-1036
(3) « Surprising new dengue virus throws a spanner in disease control efforts » Science  25 Oct 2013, 342 (6157), pp. 415

Posted in actualité, Non classé, recherche, santé | Tagged , , , | 5 Comments