[Flash Info Recherche] #2 Manger moins pour vivre plus…

Lorsqu’on donne à des souris 30 % de moins de nourriture que ce qu’elles auraient naturellement mangé, elles sont en meilleure santé, et vivent plus longtemps. Le bénéfice de cette restriction alimentaire est très partagée dans le monde animal. Le mécanisme biologique reste néanmoins mal connu, mais tout semble se passer comme si l’organisme subissait un « léger stress », qui activait des mécanismes de défense bénéfiques…

Exemple de souris n'ayant pas de restriction alimentaire...

Exemple de souris n’ayant pas de restriction alimentaire…

Chez l’humain néanmoins tout reste à démontrer :

  • Il n’est pas aisé de convertir ces fameux 30 % de moins que ad libitum
  • Une privation cause un ralentissement du métabolisme : vivre plus vieux, oui, mais si c’est pour fonctionner au ralenti…Aucune étude n’a été réalisée (à ma connaissance) sur des cohortes suivies sur des temps longs…

Cela n’enlève rien à l’intérêt scientifique que l’on peut porter à ce mécanisme. Dans une étude paru dans Nature, une équipe européenne a étudié l’effet de cette restriction alimentaire à des lignées de souris dont on avait supprimé un gène (Ercc1 pour une lignée, Ercc5 pour l’autre) qui permet à l’ADN d’être réparé par la cellule.

Les résultats sont spectaculaires : tant la moyenne que la médiane des durées de vie des rongeurs ont été multiplié par trois par ce régime (pour la première lignée, la médiane passe de 10-13 semaines à 35-39 semaines selon le sexe). D’autres marqueurs du vieillissement, en particulier les fonctions neurologiques, ont été également retardés par la restriction alimentaire.

Pour les auteurs, il serait intéressant de transposer ces résultats aux humains atteints de progeria, ces maladies génétiques qui causent des vieillissements prématurés, en raison de la déficience en certains gènes, comparables aux Ercc1 et Ercc5 chez la souris.

« Restricted diet delays accelerated ageing and genomic stress in DNA-repair-deficient mice » W.P. Vermeij et al. Nature 537,427–431

Posted in actualité, article de recherche, santé | Tagged , | Leave a comment

[Flash Info Chimie] #51 : métalloprotéine : un autre métal, pour d’autres applications

Les métalloprotéines sont des protéines qui contiennent un, ou plusieurs ions métalliques. Même si le nom est moins connus que « protéine » toute seule, elles sont très répandues : l’hémoglobine, par exemple, est une métalloprotéine dont la fonction est de transporter l’oxygène dans le sang. Dans ce cas, c’est un ion de Fer qui se trouve au centre de la protéine, et qui se lie à la molécule de dioxygène pour la fixer. La vitamine B12 s’organise autour d’un ion Cobalt, et est indispensable au bon fonctionnement du système nerveux. Les nitrogénases permettent à certaines bactéries de fixer l’azote atmosphérique : le diazote N2 est réduit en ammoniac NH3 grâce à ces métalloprotéines qui contiennent du molybdène et du fer. Dans la nature, le nombre de métaux impliqués est restreint : il n’y a pas grand chose à part le fer, le cuivre, le zinc, le calcium, le magnésium, le cobalt, le molybdène, le tungstène, le vanadium. Pourtant, la plupart de ces métaux ont des propriétés chimiques assez pauvres, comparées aux métaux nobles utilisés en catalyse en laboratoire (iridium, platine, palladium) : c’est l’environnement de l’ion métallique dans les métalloprotéines qui les rend actif.

Des chimistes ont eu l’idée « simple » de synthétiser des métalloprotéines artificielles, contenant, à la place des métaux « pauvres » par des métaux « nobles ». Et cela marche ! En utilisant de l’iridium à la place du fer dans des myoglobines, ils ont pu catalyser des réactions complexes en chimie organique, avec de très bon résultats.

Le DFFZ désigne la métalloprotéine

Le [M]-Myo désigne la métalloprotéine

A noter tout de même qu’un important travail de mise au point de la myoglobine a été nécessaire : la métalloprotéine la plus efficace contient non seulement de l’iridium et non du fer, mais présente également plusieurs mutations pour en augmenter son efficacité.

Pour les amateurs, la meilleure métalloprotéine a permis d’obtenir le composé 2 avec un rendement quasi quantitatif, un excès énantiomérique de 80 %, et un TON supérieur à 100. 

« Abiological catalysis by artificial haem proteins containing noble metals in place of iron » Hanna M. Key, Paweł Dydio, Douglas S. Clark & John F. Hartwig Nature 534,534–537(23 June 2016)

Posted in Non classé | 2 Comments

[Flash Info Recherche] #1 : Recherche pluridisciplinaire : valorisée, mais moins financée

J’écris des articles issus de l’actualité de la recherche, pour un mensuel bien connu, version française de « Scientific American ». Mais tous les sujets que je vois passer dans les grandes revues scientifiques ne sont pas abordés… Cette nouvelle catégorie, parallèle aux « Flash Info Chimie » sera donc là pour donner un instantané -court- de ces articles de recherche, souvent passionnant, qui se retrouvent néanmoins sous-médiatisés…

Comme partout dans le monde, la pluridisciplinarité est encouragée, valorisée en recherche. Et pourtant, les projets qui mêlent plusieurs disciplines scientifiques restent sous-financées. C’est la conclusion d’une étude parue dans Nature il y a quelques mois : En analysant les demandes et les attributions des financements de l’Australian Research Council, Lindell Bromham, Russell Dinnage et Xia Hua de l’Université Nationale d’Australie (Canberra), ont montré qu’un projet avait d’autant moins de chance d’être financé qu’il convoquait une équipe pluridisciplinaire (indépendamment de la discipline, du nombre de contributeur, de l’institution de rattachement)

 

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale). En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement.

En Abscisse : proportions des projets acceptés (en fonction de la discipline principale).
En ordonnée, influence de la pluridisciplinarité. Si le point est sous la barre des zéros, la pluridisciplinarité affecte négativement les chances de financement. (source)

La situation est-elle proprement australienne ? Lorsqu’on voit, en France, la difficulté pour les docteurs qui ont fait appel, lors de leurs travaux de thèses, à plusieurs disciplines, d’être qualifié pour le recrutement des Maîtres de Conférences dans une des sections CNU, on peut hélas imaginer que les instances de financement françaises, et probablement européennes, ne font pas mieux que leur homologue australienne.

« Interdisciplinary research has consistently lower funding success » Lindell Bromham, Russell Dinnage & Xia Hua Nature 534,684–687(30 June 2016) doi:10.1038/nature18315

Posted in actualité, article de recherche, politique | Tagged , | Leave a comment

Vaccin contre la dengue (Sanofi-Pasteur)… Oui, mais avec modération !

Compte tenu du titre, il me semble qu’il faille tout de suite mettre les choses au point : Je me positionne tout à fait pour l’utilisation de la plupart des vaccins (en particulier tous ceux obligatoires ou recommandés en France), et ce, à la lumière des publications scientifiques qui en montrent l’effet positif pour la santé à l’échelle individuelle, ainsi qu’à l’échelle sociétale. (Pour plus de détails, voir à la fin du texte).

Voilà,on va pouvoir, en toute sérénité, mettre en question la vaccination contre la dengue à l’aide du Dengvaxia, développé par Sanofi-Pasteur, actuellement fabriqué à Neuville-Sur-Saône.

dengvaxia

La dengue : un fléau aux quatre visages*

La dengue est une maladie virale humaine transmise via les moustiques du genre Aedes (dont fait partie le fameux moustique tigre). 40 % de la population mondiale est exposée à ce virus : on estime qu’il y a chaque année plusieurs centaines de millions de contamination, dont 36 millions de personnes qui développent les symptômes classiques de la dengue, mais aussi 2,5 millions de formes graves, et 21 000 décès. Il n’existe aucun antiviral efficace contre cette maladie, la prise en charge consiste donc en le traitement de la douleur et de la fièvre… Dans les cas grave, l’hospitalisation est indispensable.

world_denguetransmission_extension_2008

Allons un tout petit peu plus loin dans la description de cette maladie, afin de comprendre son originalité (sa perversité, j’allais dire) : il existe quatre sérotypes, appelés DENV-1 à DENV-4, qui donnent des symptômes similaires. Lorsqu’une personne est infectée par un des sérotypes, elle se trouve immunisée (définitivement) contre lui. Mais pas contre les quatre autres: Pire, le risque qu’elle développe une forme grave de Dengue est multiplié par 10 lors d’une nouvelle infection par un autre sérotype. 

La lutte contre cette maladie consiste actuellement essentiellement en la destruction de l’habitat des moustiques (eaux stagnantes), et l’utilisation de répulsifs. D’autres pistes sérieuses sont explorées, comme l’introduction massive d’insectes mâles génétiquement modifiés pour que leur descendance ne parvienne pas à l’âge adulte (une diminution de 90 % de la population de moustique est attendue en 6 mois), ou encore l‘introduction de la bactérie Wolbachia qui affecte les moustiques, se transmet de génération en génération, et empêche le virus de la dengue de se répliquer dans cet hôte. Et puis, bien sûr, la vaccination. L’humain étant à la fois un vecteur, et le seul réservoir de ces virus, une vaccination efficace pourrait, idéalement, éradiquer définitivement la maladie.

Le Dengvaxia, un vaccin « faute de mieux » ?

Il y a plusieurs vaccins en cours d’homologation, mais seul le Dengvaxia, développé par Sanofi-Pasteur est actuellement sur le marché. 11 pays l’ont actuellement homologué (Depuis le Mexique à Singapour, en passant par la Thaïlande, le Brésil, etc.). Ce vaccin a une efficacité toute relative, comprise entre 43 % pour DENV-2 et 77% pour DENV-4 (1).** Les autres candidats vaccins ne semblent pas faire mieux que le Dengvaxia…

Venons-en, enfin, au cœur du problème. Le principe du vaccin (de tous les vaccins, en réalité) consiste en la sensibilisation du système immunitaire en l’exposant à des fragments / particules / virus attténués, afin qu’il développe des anticorps « comme si » le corps avait déjà été en contact avec la maladie. Le Dengvaxia est ainsi un vaccin tétravalent, c’est-à-dire qu’il sensibilise le système immunitaire aux quatre sérotypes connus lors de sa mise au point. Mais souvenez-vous : le risque de formes graves augmente considérablement après une première exposition : le vaccin risque donc d’accroître ce risque ! Cela n’aurait aucune incidence si le vaccin était efficace à 100 % sur tous les sérotypes : il n’y aurait, dans ce cas, pas de nouvelle contamination. Mais avec son efficacité qui n’est pas totale, un problème inédit (à ma connaissance) dans l’histoire de la vaccination apparaît : un individu vacciné pourrait présenter un risque accru de dengue sévère comparé à un autre jamais en contact avec cette maladie.

Les résultats de la phase III de l’essai clinique du vaccin, celle qui est effectuée sur de grandes populations, n’a pas permis de lever cette interrogation :

  • Des différences nettes entre l’efficacité du Dengvaxia chez les patients séropositifs (qui avaient déjà eu une dengue avant vaccination) et chez les patients séronégatifs ont été observés: En réalité, Aucune efficacité statistiquement significative n’a été mesurée chez les personnes séronégatives (2).
  • L’efficacité chez les enfants (plus souvent séronégatifs du fait de leur âge), est nettement plus faible que chez les groupes de sujets plus âgés (2).
  • Il a été observé également une augmentation du risque d’hospitalisation pour dengue sévère au cours de la troisième année après administration du vaccin, principalement chez les jeunes enfants, qui ont été de fait exclu de la cible du vaccin (proposé à partir de 9 ans) (1). Ce risque a été mesuré à + 7,5 %, mais du fait de l’échantillon très restreint sur lequel a été fait l’étude, il est en réalité compris entre 1,2 et … 314 %. De travaux de plus larges ampleurs doivent être entrepris pour affiner tout cela !

De quoi renvoyer le Dengvaxia dans les oubliettes de l’histoire des ratés de l’industrie pharmaceutique ? Tout de même pas !

Vaccin contre la dengue : à utiliser avec modération !

À la lumière de ces résultats ni catastrophiques, ni rassurants, des scientifiques ont cherché à établir avec plus de précision quelles étaient les situations sanitaires et épidémiologiques pour lesquelles le vaccin serait bénéfique. Une équipe d’épidémiologistes de l’Université de Stanford a ainsi modélisé mathématiquement l’impact de la vaccination chez des populations dans des zones différemment exposées à la dengue, en prenant en compte les résultats -mitigés- dont nous venons de parler. Ils ont étudié l’impact du vaccin sur des périodes allant de deux ans à trente ans. D’après leurs travaux, il est important d‘adapter la vaccination aux zones géographiques en fonction de l’endémicité de la maladie, et, si possible, en fonction du statut immunitaire de chaque individu.(2)

La logique qui transparaît de cette modélisation est assez simple :

À l’échelle collective :

  • En cas de forte endémicité, le risque d’être contaminé plusieurs fois par les différents sérotypes de la dengue est très grand. La vaccination n’induit globalement pas de risques supplémentaires en rajoutant une exposition. De toute façon, cette exposition avait de très grande chance de se produire… Le bénéfice est donc réel. Les auteurs montrent d’ailleurs que dans ces zones, on pourrait abaisser l’âge minimal de vaccination en dessous de 9 ans (les enfants plus jeunes étant déjà confronté au risque d’être contaminé plusieurs fois…)
  • En cas de faible ou de moyenne endémicité, le risque d’être contaminé une fois existe, mais celui d’être contaminé plusieurs fois est relativement faible. La vaccination, qui rajoute une exposition, peut devenir contre-productive, et causer des symptômes graves lors du contact avec un des sérotypes de la dengue. Une vaccination globale dans ces zones est donc à proscrire.
  • Pour les voyageurs provenant de zone où la dengue est absente, le risque d’attraper la dengue plusieurs fois est quasi nul, aucune vaccination ne doit être entreprise pour la même raison.

À l’échelle individuelle :

  • Une personne séronégative n’a aucun intérêt à se faire vacciner : cela crée une situation de première exposition, et augmente les risques de développer des symptômes graves.
  • Une personne séropositive à un des dengues a tout intérêt à se faire vacciner, puisque le risque de développer des formes graves a déjà été accru par une première infection. Les épidémiologistes ont estimé que ce n’était cependant pas particulièrement intéressant dans les zones de faible endémicité, mais efficace en zone de forte endémicité.

La conclusion globale de cette étude sonne comme une mise en garde : la vaccination par le dengvaxia est intéressante, mais pas n’importe où, pas chez n’importe qui. L’idéal est de pouvoir effectuer un test rapide (et pas cher !) pour connaître le statut sérologique de chaque individu qui se fait vacciner. Si cela n’est pas le cas, il ne faut agir qu’en zone de forte endémicité, où, en vaccinant tout le monde, y compris les séronégatifs, on aura tout de même un bénéfice global en matière de santé publique.

J’aimerais ajouter une remarque plus générale : ce type d’étude montre une chose importante : LA Vaccination n’existe pas (pas plus que L’Antibiotique, ou LE Anticancéreux !) : il existe DES vaccins dont l’évaluation doit être réalisée au cas par cas, de façon minutieuse et précise. Espérons qu’à la lumière de cette étude, ce vaccin soit utilisé de façon réellement utile et efficace, de façon modérée et éclairée dans les pays qui l’ont validé.

 

* Il a été annoncé un cinquième sérotype pour la dengue lors d’une conférence internationale en 2013. Mais cela n’a jamais été confirmé par un article dans une revue. Une discussion à lire sur researchgate montrer qu’il ne s’agirait en fait que d’un variant de DENV-4 (ouf…)

**Il faut bien comprendre qu’en dépit d’une efficacité relativement faible à l’échelle humaine, un vaccin peut permettre l’éradication d’une maladie à l’échelle collective : une diminution de 50 % des malades signifie également un risque de contamination nettement plus faible qu’en l’absence de vaccin. Avec le risque de contamination plus faible ET la probabilité plus grande d’être efficacement immunisé, on arrive à des diminutions réelles et rapides de la prévalence des maladies.

Suite de la mise au point initiale sur les vaccins :

  • Les vaccins sont des produits pharmaceutiques soumis aux mêmes contrôles que les médicaments. Ceux qui sont aujourd’hui obligatoires ou qui sont recommandés en France ont fait leurs preuves, tant pour leur innocuité que pour leur efficacité. De plus, tout comme les médicaments, dire « les vaccins c’est le mal » est aussi idiot que dire « les antibiotiques c’est le mal », ou « les anti-douleurs, c’est le mal », alors qu’il en existe dix mille différents…
  • Des maladies ont disparues (La variole), d’autres pourront disparaître (la polio actuellement en voie d’éradication) grâce à la vaccination.
  • Il existe des effets secondaires aux vaccins, et ils sont pris en compte lors de leur évaluation.
  • L’aluminium présent dans les vaccins n’est responsable ni de cancers, ni de maladies neurodégénératives, ni de maladies auto-immune. Il a été montré qu’il était totalement sûr d’un point de vue de la santé (On pourra lire, entre autre les conclusions de cette revue de la littérature par des membres de la Collaboration Cochrane, qui font référence en terme de sérieux ET d’indépendance en recommandation médicale).
  • Néanmoins, on peut effectivement, d’un point de vue éthique, questionner la question de l’obligation vaccinale en vigueur en France, d’autant qu’elle n’est pas efficace, et qu’elle génère un scepticisme face aux vaccins. (J’ai déjà parlé de ce point dans cet article : « Vaccins : marche-t-on sur la tête ?« )

(1) Site de l’OMS : « Questions-Réponses sur les vaccins contre la Dengue »
(2) « Benefits and risks of the Sanofi-Pasteur dengue vaccine: Modeling optimal deployment » N.M. Ferguson et al.Science 02 Sep 2016: Vol. 353, Issue 6303, pp. 1033-1036
(3) « Surprising new dengue virus throws a spanner in disease control efforts » Science  25 Oct 2013, 342 (6157), pp. 415

Posted in actualité, recherche, santé | Tagged , , , | 3 Comments

Trop de faux positifs en IRM fonctionnelle : un travail scientifique remarquable

Le papier d’Anders Eklund a fait grand bruit dans la presse généraliste (anglophone) et spécialisée (surtout anglophone aussi) : le traitement des données par les logiciels d’IRM fonctionnelle minimise les faux-positifs, et transforme des résultats douteux en des corrélations apparemment statistiquement irréprochables.(1)

 

En IRM fonctionnelle, un double traitement statistique

Un résultat scientifique est considéré comme fiable si le risque que l’effet mesuré ne soit dû qu’au hasard est inférieur à 5 % (le fameux p < 0,05, sésame pour la publication des résultats dans la plupart des revues). Afin de minimiser ce risque, les études doivent multiplier les expériences, et ainsi accumuler suffisamment de données, pour conclure sur l’existence, ou non, d’une corrélation/ d’un effet/ d’un lien entre les facteurs étudiés.

Le problème, c’est qu’en IRM, le traitement statistique n’est vraiment pas simple. Afin d’y voir plus clair, revenons rapidement sur le principe de cette technique : La machine à Imagerie par Résonance Magnétique se base sur les propriétés magnétiques des molécules présentes dans l’organe examiné. Dans le cerveau, les zones activées lors d’un exercice intellectuel consomment davantage de dioxygène que les autres zones : cet appauvrissement en oxygène change localement les propriétés magnétiques, et c’est ça qui est détecté par la machine. (pour davantage d’explication, vous pouvez aller voir cet article : « L’IRM, la machine à observer le cerveau« )

Le cerveau est donc (virtuellement) découpé en petit cube de quelques mm³, appelés voxels, et lors d’une expérience d’IRM fonctionnelle, l’activité de chaque voxel est mesuré des dizaines de fois*. Si les mesures réalisées s’écartent suffisamment de celles attendues chez l’individu au repos, le voxel est considéré comme actif durant l’examen. Suffisamment, cela signifie « avec un risque de faux positif suffisamment faible« , et on retrouve ainsi le facteur p, qui doit être, pour chaque voxel, inférieur à 5 %, ou mieux, 1% voire 0,1 %…

Bon, jusque là, tout va -à peu près- bien. Le soucis, c’est que même avec un risque de faux positif de 1 sur 1000 pour chaque voxel (ce qui est déjà très fiable), on risque d’arriver à une cartographie 3D du cerveau qui risque d’être complètement fausse ! En effet, il faut considérer plusieurs centaines de milliers de voxels pour un cerveau : la probabilité que l’activité d’au moins un d’entre eux soit effectivement faussement positive est approximativement égale à 100 %.

Une seconde étape de traitement statistique vient alors à la rescousse : les voxels dont l’activité est cohérente sont regroupés entre eux, et forment de petites structures appelés clusters. Les caractéristiques de ces structures sont à leur tour comparées avec celle qui se forment également au repos. Encore une fois, il s’agit de vérifier que, d’un point de vue statistique, le risque de faux positifs reste inférieur à la limite que l’on s’est fixé.

A l’issu de ces deux traitements, la cartographie 3D des zones au repos et des zones actives du cerveau du patient est censée être fiable.

Les méthodes dites paramétriques : Pas assez fiables en IRM fonctionnelle !

Afin de vérifier la fiabilité de ce traitement statistique, et surtout des méthodes qu’il utilise, Eklund et ses collègues se sont servis des données du Human Connectome Project, qui sont totalement et gratuitement accessibles, et les ont testé à l’aide des trois logiciels actuellement utilisés en laboratoire. Leur idée est simple : les IRM fonctionnelles d’individus sains et au repos ne doivent pas faire apparaître de différences statistiquement significatives.

Regroupant les données par groupe de 20 sujets, choisis aléatoirement parmi 499, ils ont montré que les logiciels, quelque soient leur paramétrage, établissaient des différences inter-groupes soi-disant statistiquement significative, et ce, bien au-delà des 5 % d’erreurs tolérées. Bref, les résultats des 30 000 publications se basant sur les IRM fonctionnelles ont été obtenus avec des traitements statistiques… faux.

Pour faire vite, sur un sujet que je ne maîtrise pas en profondeur, les méthodes statistiques dites paramétriques utilisées par les logiciels reposent sur des hypothèses sur les modèles de répartition des valeurs et mesures. Mais encore faut-il que ces modèles soient adaptés aux expériences, ce qui ne semble pas être le cas ici. En fait, personne n’avait réellement, en 30 ans d’utilisation d’IRM fonctionnelle, vérifié que ces modèles étaient adaptés.

Il existe également des méthodes dites non paramétriques, qui nécessitent des calculs bien plus long et complexes, mais qui permettent de ne pas faire d’hypothèses sur les modèles de répartition. Elles sont connues depuis longtemps, mais cela ne fait qu’une poignée d’année que les chercheurs peuvent les utiliser réellement, grâce aux progrès informatiques… Eklund a d’ailleurs pu vérifier dans sa publication, sur le même corpus, qu’elles donnaient des résultats tout à fait acceptables.(2)

Une démarche globale et une conclusion impeccables… De la bonne science !

A delà du côté sexy de la publication, c’est la démarche de ce travail (3) qui m’a particulièrement séduit, et la mise en lumière du fonctionnement des neurosciences.

Pendant son doctorat, Enders Eklund a pu constaté, à l’aide de données limitées, que les méthodes paramétriques ne donnaient pas toujours des résultats bien fiables en IRM fonctionnelle. Après son post-doc, se rendant compte que ses premiers travaux n’ont pas été repris et complétés, il a retroussé les manches, et entrepris le travail beaucoup plus poussé présenté dans cet article .

Mais au lieu de publier directement, il a d’abord proposé ses méthodes et ses résultats à l’ensemble de la communauté scientifique grâce à la plateforme de pré-publication arXiv. C’est donc une version améliorée, et dont la démarche a été validée par d’autres scientifiques qui a été publiée dans PNAS. Ce mode de construction des connaissances permet pour moi d’éloigner la recherche du sensationnalisme, tout en proposant des résultats davantage robustes, puisqu’ils auront pu être éventuellement retravaillés, et reproduits.**

Ce qui est intéressant également, c’est de constater que les neuroscientifiques qui utilisent l’IRM fonctionnelle ne semblent pas maîtriser les outils informatiques et mathématiques qu’ils utilisent au quotidien. Inutile de leur lancer la pierre, c’est également le cas de nombres de biologistes, des chimistes,… (Sans parler des médecins, incapables de revenir sur leurs pratiques quand bien même les études scientifiques les contredisent…). En neuroscience, l’IRM fonctionnelle joue un rôle central de « preuve », pour un grand nombre d’assertion qui arrivent, telles quelles, chez le grand public. On apprend pourquoi « L’eau coupe l’appétit« , que « on a localisé le fameux esprit de noël dans le cerveau« , qu' »il faut jouer aux jeux vidéos contre la sclérose en plaque« … Bref, si l’IRM fonctionnelle le dit, c’est que c’est vrai !! Les neuroscientifiques ont donc une responsabilité lourde à porter : on leur fait (démesurément) confiance. Raison de plus pour qu’ils maîtrisent leurs méthodes et les réactualisent…

Enfin, reste la fameuse question : faut-il jeter les 30000 études de neurosciences réalisées à l’aide d’IRM fonctionnelle ? Pour les auteurs, il n’en est pas question. Certaines présentent sans aucun doute des résultats erronés. Mais en général, elles se trouvent rapidement marginalisées, puisqu’elles ne sont pas reproductibles. Seules les conclusions entérinées par plusieurs publications, par des méta-analyses persistent après quelques années. Et c’est valable pour toutes les disciplines scientifiques ! Ce travail nous (ré-)apprend ainsi que le temps de la recherche scientifique s’accorde mal avec le temps des actualités et du sensationnel… Ne l’oublions pas !

 

 

* Comme il faut plusieurs secondes par mesure à chaque fois, cela prend de nombreuses minutes, pendant lesquelles le sujet est placé dans la machine, qui est tout sauf rassurante, et risque également de perturber les mesures… Mais c’est encore un autre problème...

** L’American Chemical Society, plus gros éditeur des journaux de chimie a annoncé la mise en ligne de son propre service de pré-publication, appelée ChemrXiv. Espérons que cette initiative, d’un groupe tout à fait privé, et très peu enclin à l’accès libre des publications, puisse présenter les mêmes intérêts qu’arXiv…

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » A Eklund et al. PNAS 2016

(2) on pourra regarder le début -et la suite- de ce cours pour comprendre les différences et les enjeux des méthodes paramétriques et non paramétriques (pdf)

(3) On pourra lire le récit de cette démarche sur le site de l’Université de Linköping (Suède)

Posted in actualité, biologie | Leave a comment

MOOC : encore un effort pour démocratiser les savoirs !

Vous connaissez sans aucun doute les MOOCs : « Massive Open Online Courses » ? En général gratuits, dispensés par des universitaires reconnus sous forme de vidéos accompagnées de forum, d’exercices, hang out,…, les MOOCs sont apparus (sous cette dénomination du moins) en 2008 aux USA, en 2012 en France. Grâce à la plateforme FUN (France Université Numérique), chacun peut s’inscrire gratuitement à des cours en ligne passionnant, vous pourrez, par exemple, suivre un cours sur « Comprendre l’économie collaborative » (Mine ParisTech), sur « l’anatomie du bois » (Université de Lorraine), ou encore sur « Le language, entre nature et culture » (Université d’Aix-Marseille).

Source : Wikipédia

Source  (via Wikipédia)

Souvent gratuits donc, les MOOCs m’ont tout de suite paru un formidable outil de démocratisation des savoirs. Quelque soit sa formation initiale, son âge, n’importe qui peut apprendre les secrets de la mécanique quantique, ou de la conception en aéronautique (La plupart des MOOCs ne sont cependant pas accessibles aux sourds et malentendants). La gratuité des cours (pas forcément des certifications, hélas…) permet d’envisager que les populations les plus défavorisées, si elles ont accès à internet, puissent aussi accéder à des cours de qualité dont elles sont généralement privées.

Et patatra ! En décembre 2015, un article de J.D. Hansen (Harvard) et J.Reich (Cambridge) dans la revue Science remet les pendules à l’heure (accessible ici, en accès libre ). D’après leur analyse sur les usagers de 68 MOOCs gratuits proposés par de grandes universités américaines, c’est avant tout aux classes socio-économiques supérieures qu’ils profitent. A travers des indicateurs qu’ils présentent comme robustes (niveau des études des parents, niveau d’étude moyen, et salaire moyen dans la zone geographique habité), ils montrent qu’il existe une corrélation forte entre niveau de vie, et usage des MOOCs. Corrélation encore plus marquée lorsqu’ils ont restreint leur échantillon à ceux qui finissent les MOOCs, et obtiennent les certificats de participation et de réussite.

Cela ne signifie pas que ces cours en ligne ne profitent pas aux classes sociales populaires. Simplement, elles profitent davantage aux classes aisées. Ainsi, au lieu de le réduire, ils augmentent l’écart entre la culture/ l’éducation des classes sociales.

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l'accentue...

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l’accentuent… (issus de l’article cité)

Au-delà des MOOCs, les auteurs pointent qu’en matière de nouvelles technologies et de démocratisation des savoirs, c’est le scepticisme qui devrait être de mise. Pour eux, à chaque arrivée de nouveaux médias (radio, télévision, PC, internet…), la fin des inégalités devant les connaissances a été annoncée. À travers de nombreux exemples, et d’études plus anciennes, ils montrent qu’au contraire, ces nouveaux médias ont eu tendance à accentuer le fossé entre catégories socio-économiques.

Dans mon établissement scolaire où un lycéen sur trois est boursier, j’aime parler des MOOCs, de ce qu’ils peuvent apporter en terme d’autonomie dans la construction de son propre savoir. Malgré cette étude, je continuerai à le faire, à montrer des exemples. Puisque cet outil existe, autant le partager au maximum. Mais il serait bon de ne pas perdre de vue que l’accès au savoir se joue probablement bien plus tôt. Et qu’avant d’investir dans ces technologies, aussi spectaculaires et attrayantes qu’elles soient, c’est d’abord pour une école de qualité, égalitaire, enfin débarrassée des préjugés sociaux, qu’il faut œuvrer.

« Democratizing education? Examining access and usage patterns in massive open online courses » J.D. Hansen, J. Reich Science  04 Dec 2015 Vol. 350, Issue 6265, pp. 1245-1248

Posted in Education, sciences sociales | Tagged | 3 Comments

Les prix des médicaments

Les prix des médicaments qui sortent sur le marché sont si élevés qu’ils sont inaccessibles sans assurance santé. Dans certains pays, dont la France, le système de sécurité sociale publique permet leur diffusion auprès de tous les malades. Dans d’autres, c’est-à-dire la plupart des pays dans le monde, il faut être riche, très riche, pour se soigner efficacement. J’en avais déjà parlé dans ce billet coup de gueule*.

C’est l’entreprise qui a déposé le brevet du médicament qui en fixe le prix, souvent pays par pays, en négociant avec les états concernés, et en l’adaptant à la demande. Par exemple, le traitement par le sofosbuvir (contre l’hépatite C) coûte environ 3000 € en Egypte, 41 000 € en France.*

Members of the association Act Up hold signs in front of a stand of US pharmaceutical giant Gilead Sciences to denounce the high price of a new drug, Sofosbuvir, to treat Hepatitis C, on April 29, 2014 in Montpellier, southern France. In the United States, Gilead priced 730 euros per Sofosbuvir pill for a treatment which can last from 12 to 24 weeks. The World Health Organization estimates there are 184 million people infected with hepatitis C worldwide through sources such as transfusions, with the disease causing half a million deaths annually. Signs read ''Nepal, annual income 340 USD, price of Sofosbuvir 900-1 000 USD''.  AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Action d’Act Up à Montpellier, le 29 avril 2014
AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Il faut bien voir une chose : l’entreprise pharmaceutique n’a pas le même intérêt que les états et les sociétés civiles : D’un coté, le médicament est un moyen de gagner de l’argent, de l’autre, il est un moyen d’assurer une santé correcte à la population. C’est cette dualité qui se retrouve dans les aspects juridiques qui encadrent la commercialisation et la protection intellectuelle des médicaments. Et ce, depuis les premiers questionnement sur la place des médicaments parmi les inventions susceptibles d’être brevetées, jusqu’à aujourd’hui, dans la lutte pour l’accès des différents remèdes, par les états les plus démunis comme par les pays occidentaux. ça vous dit, un petit panorama de la question ? Un peu d’histoire tout d’abord… Continue reading

Posted in politique, santé | Tagged , | 4 Comments

[Flash Info Chimie] #50 Production solaire bio-inspirée d’ammoniac

La synthèse de l’ammoniac à partir du diazote atmosphérique, c’est un peu la star de l’industrie chimique. Des tonnages formidable (136.5 millions de tonne en 2012), qui alimentent l’industrie des engrais, des polymères, des explosifs… Pourtant, c’est toujours le même procédé Haber-Bosch, mis au point au début du XXe siècle, qui est utilisé. Très gourmand en énergie, il utilise 1 à 2 % de l’énergie électrique, et 3 à 5 % du gaz naturel mondial : 500°C, 200 bars de pression sont nécessaires pour que la réaction ait lieu correctement, et il faut compter l’énergie dépensée pour la synthèse du dihydrogène, l’autre réactif !

N_{2}+3H_{2} \longrightarrow 2NH_{3}

D’un autre côté, il y a des organismes qui synthétisent de l’ammoniac (ou des produits dérivés) à partir du diazote, dans des conditions moins drastiques. Il s’agit de procaryotes, qui, souvent, vivent en symbiose avec des végétaux, qui leur apporte l’énergie nécessaire en échange de ce fertilisant. Dans ces organismes, c’est le complexe protéinique « nitrogénase » qui permet la fixation de l’azote, à température, et à pression ambiante.

A quelques jours près, deux équipes ont présenté des systèmes, inspirés par les nitrogénases, permettant de réaliser la synthèse de l’ammoniac, à température et pression ambiante. Dont l’énergie provient simplement de la lumière visible.

La première, parue dans PNAS, consiste en un « chalcogel » à base de clusters de sulfure de fer (avec présence éventuelle de Molybdène).

Un chalcogel, c’est un aérogel, c’est-à-dire un matériau de densité extrêmement faible, qui contient des éléments chimiques de la famille des chalcogènes (Oxygène, Soufre, Sélénium, etc…).

Exemple d’aérogel (de silice ici. Source : wikipédia)

L’avantage de ces chalcogels, c’est qu’ils présentent une immense surface active, permettant une adsorption du diazote très efficace. En irradiant avec de la lumière ainsi des chalcogels contenant des clusters de sulfure de fer-molybdène, et/ou simplement sulfure de fer, en présence de diazote, à pression et température ambiante, les chercheurs ont pu synthétiser de l’ammoniac. Vous me direz, on est loin des nitrogénases… Pas tant que ça, en réalité : ce type de cluster Fer-Molybdène-Soufre est inspiré directement de ceux qui se trouvent au cœur de ces protéines :

Cluster Fe-Mo-S de la nitrogénase By Smokefoot - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37239342

Cluster Mo-Fe de la nitrogénase (Smokefoot – Own work, CC BY-SA 4.0)

 

 

Pourquoi « s’inspirer » des nitrogénases lorsqu’on peut directement les utiliser telles quelles ? C’est la base de la seconde publication, dans Science : Cette fois, les chimistes ont simplement fixé la sous-unité qui contient le cluster Fe-Mo directement sur des nanostructures de sulfure de Cadmium. Ces nanostructures captent l’énergie lumineuse, la transfère efficacement à la sous-unité de la nitrogénase, qui réalise la transformation du diazote en ammoniac.

En haut, le fonctionnement "normal" de la nitrogénase, avec une première sous-unité 'Fe Protein' qui capte et transfère l'énergie, et la seconde 'MoFe Protein' qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS (source)

En haut, le fonctionnement « normal » de la nitrogénase, avec une première sous-unité ‘Fe Protein’ qui capte (sous forme d’ATP) et transfère l’énergie, et la seconde ‘MoFe Protein’ qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS qui capte… de la lumière (source)

 

Bon, je n’ai pas parlé de rendements ici. Parce qu’évidemment, ils sont faibles, voire à peine mentionnés dans les publications. Mais les deux démarches sont intéressantes et le fait même d’avoir obtenu de l’ammoniac à température et pression normale, contournant les obstacles énergétiques, représente une belle avancée dans les deux cas.

« Nitrogenase-mimic iron-containing chalcogels for photochemical reduction of dinitrogen to ammonia » Jian Liu et al. PNAS 2016, 113, 55305535

« Light-driven dinitrogen reduction catalyzed by a CdS:nitrogenase MoFe protein biohybrid » Katherine A. Brown et al. Science 2016352 pp. 448-450

Posted in actualité, chimie, Flash Info Chimie | Tagged , , , | Leave a comment