Trop de faux positifs en IRM fonctionnelle : un travail scientifique remarquable

Le papier d’Anders Eklund a fait grand bruit dans la presse généraliste (anglophone) et spécialisée (surtout anglophone aussi) : le traitement des données par les logiciels d’IRM fonctionnelle minimise les faux-positifs, et transforme des résultats douteux en des corrélations apparemment statistiquement irréprochables.(1)

 

En IRM fonctionnelle, un double traitement statistique

Un résultat scientifique est considéré comme fiable si le risque que l’effet mesuré ne soit dû qu’au hasard est inférieur à 5 % (le fameux p < 0,05, sésame pour la publication des résultats dans la plupart des revues). Afin de minimiser ce risque, les études doivent multiplier les expériences, et ainsi accumuler suffisamment de données, pour conclure sur l’existence, ou non, d’une corrélation/ d’un effet/ d’un lien entre les facteurs étudiés.

Le problème, c’est qu’en IRM, le traitement statistique n’est vraiment pas simple. Afin d’y voir plus clair, revenons rapidement sur le principe de cette technique : La machine à Imagerie par Résonance Magnétique se base sur les propriétés magnétiques des molécules présentes dans l’organe examiné. Dans le cerveau, les zones activées lors d’un exercice intellectuel consomment davantage de dioxygène que les autres zones : cet appauvrissement en oxygène change localement les propriétés magnétiques, et c’est ça qui est détecté par la machine. (pour davantage d’explication, vous pouvez aller voir cet article : « L’IRM, la machine à observer le cerveau« )

Le cerveau est donc (virtuellement) découpé en petit cube de quelques mm³, appelés voxels, et lors d’une expérience d’IRM fonctionnelle, l’activité de chaque voxel est mesuré des dizaines de fois*. Si les mesures réalisées s’écartent suffisamment de celles attendues chez l’individu au repos, le voxel est considéré comme actif durant l’examen. Suffisamment, cela signifie « avec un risque de faux positif suffisamment faible« , et on retrouve ainsi le facteur p, qui doit être, pour chaque voxel, inférieur à 5 %, ou mieux, 1% voire 0,1 %…

Bon, jusque là, tout va -à peu près- bien. Le soucis, c’est que même avec un risque de faux positif de 1 sur 1000 pour chaque voxel (ce qui est déjà très fiable), on risque d’arriver à une cartographie 3D du cerveau qui risque d’être complètement fausse ! En effet, il faut considérer plusieurs centaines de milliers de voxels pour un cerveau : la probabilité que l’activité d’au moins un d’entre eux soit effectivement faussement positive est approximativement égale à 100 %.

Une seconde étape de traitement statistique vient alors à la rescousse : les voxels dont l’activité est cohérente sont regroupés entre eux, et forment de petites structures appelés clusters. Les caractéristiques de ces structures sont à leur tour comparées avec celle qui se forment également au repos. Encore une fois, il s’agit de vérifier que, d’un point de vue statistique, le risque de faux positifs reste inférieur à la limite que l’on s’est fixé.

A l’issu de ces deux traitements, la cartographie 3D des zones au repos et des zones actives du cerveau du patient est censée être fiable.

Les méthodes dites paramétriques : Pas assez fiables en IRM fonctionnelle !

Afin de vérifier la fiabilité de ce traitement statistique, et surtout des méthodes qu’il utilise, Eklund et ses collègues se sont servis des données du Human Connectome Project, qui sont totalement et gratuitement accessibles, et les ont testé à l’aide des trois logiciels actuellement utilisés en laboratoire. Leur idée est simple : les IRM fonctionnelles d’individus sains et au repos ne doivent pas faire apparaître de différences statistiquement significatives.

Regroupant les données par groupe de 20 sujets, choisis aléatoirement parmi 499, ils ont montré que les logiciels, quelque soient leur paramétrage, établissaient des différences inter-groupes soi-disant statistiquement significative, et ce, bien au-delà des 5 % d’erreurs tolérées. Bref, les résultats des 30 000 publications se basant sur les IRM fonctionnelles ont été obtenus avec des traitements statistiques… faux.

Pour faire vite, sur un sujet que je ne maîtrise pas en profondeur, les méthodes statistiques dites paramétriques utilisées par les logiciels reposent sur des hypothèses sur les modèles de répartition des valeurs et mesures. Mais encore faut-il que ces modèles soient adaptés aux expériences, ce qui ne semble pas être le cas ici. En fait, personne n’avait réellement, en 30 ans d’utilisation d’IRM fonctionnelle, vérifié que ces modèles étaient adaptés.

Il existe également des méthodes dites non paramétriques, qui nécessitent des calculs bien plus long et complexes, mais qui permettent de ne pas faire d’hypothèses sur les modèles de répartition. Elles sont connues depuis longtemps, mais cela ne fait qu’une poignée d’année que les chercheurs peuvent les utiliser réellement, grâce aux progrès informatiques… Eklund a d’ailleurs pu vérifier dans sa publication, sur le même corpus, qu’elles donnaient des résultats tout à fait acceptables.(2)

Une démarche globale et une conclusion impeccables… De la bonne science !

A delà du côté sexy de la publication, c’est la démarche de ce travail (3) qui m’a particulièrement séduit, et la mise en lumière du fonctionnement des neurosciences.

Pendant son doctorat, Enders Eklund a pu constaté, à l’aide de données limitées, que les méthodes paramétriques ne donnaient pas toujours des résultats bien fiables en IRM fonctionnelle. Après son post-doc, se rendant compte que ses premiers travaux n’ont pas été repris et complétés, il a retroussé les manches, et entrepris le travail beaucoup plus poussé présenté dans cet article .

Mais au lieu de publier directement, il a d’abord proposé ses méthodes et ses résultats à l’ensemble de la communauté scientifique grâce à la plateforme de pré-publication arXiv. C’est donc une version améliorée, et dont la démarche a été validée par d’autres scientifiques qui a été publiée dans PNAS. Ce mode de construction des connaissances permet pour moi d’éloigner la recherche du sensationnalisme, tout en proposant des résultats davantage robustes, puisqu’ils auront pu être éventuellement retravaillés, et reproduits.**

Ce qui est intéressant également, c’est de constater que les neuroscientifiques qui utilisent l’IRM fonctionnelle ne semblent pas maîtriser les outils informatiques et mathématiques qu’ils utilisent au quotidien. Inutile de leur lancer la pierre, c’est également le cas de nombres de biologistes, des chimistes,… (Sans parler des médecins, incapables de revenir sur leurs pratiques quand bien même les études scientifiques les contredisent…). En neuroscience, l’IRM fonctionnelle joue un rôle central de « preuve », pour un grand nombre d’assertion qui arrivent, telles quelles, chez le grand public. On apprend pourquoi « L’eau coupe l’appétit« , que « on a localisé le fameux esprit de noël dans le cerveau« , qu' »il faut jouer aux jeux vidéos contre la sclérose en plaque« … Bref, si l’IRM fonctionnelle le dit, c’est que c’est vrai !! Les neuroscientifiques ont donc une responsabilité lourde à porter : on leur fait (démesurément) confiance. Raison de plus pour qu’ils maîtrisent leurs méthodes et les réactualisent…

Enfin, reste la fameuse question : faut-il jeter les 30000 études de neurosciences réalisées à l’aide d’IRM fonctionnelle ? Pour les auteurs, il n’en est pas question. Certaines présentent sans aucun doute des résultats erronés. Mais en général, elles se trouvent rapidement marginalisées, puisqu’elles ne sont pas reproductibles. Seules les conclusions entérinées par plusieurs publications, par des méta-analyses persistent après quelques années. Et c’est valable pour toutes les disciplines scientifiques ! Ce travail nous (ré-)apprend ainsi que le temps de la recherche scientifique s’accorde mal avec le temps des actualités et du sensationnel… Ne l’oublions pas !

 

 

* Comme il faut plusieurs secondes par mesure à chaque fois, cela prend de nombreuses minutes, pendant lesquelles le sujet est placé dans la machine, qui est tout sauf rassurante, et risque également de perturber les mesures… Mais c’est encore un autre problème...

** L’American Chemical Society, plus gros éditeur des journaux de chimie a annoncé la mise en ligne de son propre service de pré-publication, appelée ChemrXiv. Espérons que cette initiative, d’un groupe tout à fait privé, et très peu enclin à l’accès libre des publications, puisse présenter les mêmes intérêts qu’arXiv…

(1) « Cluster Failure : Why fMRI inferences for spatial extent have inflated false-positive rates » A Eklund et al. PNAS 2016

(2) on pourra regarder le début -et la suite- de ce cours pour comprendre les différences et les enjeux des méthodes paramétriques et non paramétriques (pdf)

(3) On pourra lire le récit de cette démarche sur le site de l’Université de Linköping (Suède)

Posted in actualité, biologie | Leave a comment

MOOC : encore un effort pour démocratiser les savoirs !

Vous connaissez sans aucun doute les MOOCs : « Massive Open Online Courses » ? En général gratuits, dispensés par des universitaires reconnus sous forme de vidéos accompagnées de forum, d’exercices, hang out,…, les MOOCs sont apparus (sous cette dénomination du moins) en 2008 aux USA, en 2012 en France. Grâce à la plateforme FUN (France Université Numérique), chacun peut s’inscrire gratuitement à des cours en ligne passionnant, vous pourrez, par exemple, suivre un cours sur « Comprendre l’économie collaborative » (Mine ParisTech), sur « l’anatomie du bois » (Université de Lorraine), ou encore sur « Le language, entre nature et culture » (Université d’Aix-Marseille).

Source : Wikipédia

Source  (via Wikipédia)

Souvent gratuits donc, les MOOCs m’ont tout de suite paru un formidable outil de démocratisation des savoirs. Quelque soit sa formation initiale, son âge, n’importe qui peut apprendre les secrets de la mécanique quantique, ou de la conception en aéronautique (La plupart des MOOCs ne sont cependant pas accessibles aux sourds et malentendants). La gratuité des cours (pas forcément des certifications, hélas…) permet d’envisager que les populations les plus défavorisées, si elles ont accès à internet, puissent aussi accéder à des cours de qualité dont elles sont généralement privées.

Et patatra ! En décembre 2015, un article de J.D. Hansen (Harvard) et J.Reich (Cambridge) dans la revue Science remet les pendules à l’heure (accessible ici, en accès libre ). D’après leur analyse sur les usagers de 68 MOOCs gratuits proposés par de grandes universités américaines, c’est avant tout aux classes socio-économiques supérieures qu’ils profitent. A travers des indicateurs qu’ils présentent comme robustes (niveau des études des parents, niveau d’étude moyen, et salaire moyen dans la zone geographique habité), ils montrent qu’il existe une corrélation forte entre niveau de vie, et usage des MOOCs. Corrélation encore plus marquée lorsqu’ils ont restreint leur échantillon à ceux qui finissent les MOOCs, et obtiennent les certificats de participation et de réussite.

Cela ne signifie pas que ces cours en ligne ne profitent pas aux classes sociales populaires. Simplement, elles profitent davantage aux classes aisées. Ainsi, au lieu de le réduire, ils augmentent l’écart entre la culture/ l’éducation des classes sociales.

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l'accentue...

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l’accentuent… (issus de l’article cité)

Au-delà des MOOCs, les auteurs pointent qu’en matière de nouvelles technologies et de démocratisation des savoirs, c’est le scepticisme qui devrait être de mise. Pour eux, à chaque arrivée de nouveaux médias (radio, télévision, PC, internet…), la fin des inégalités devant les connaissances a été annoncée. À travers de nombreux exemples, et d’études plus anciennes, ils montrent qu’au contraire, ces nouveaux médias ont eu tendance à accentuer le fossé entre catégories socio-économiques.

Dans mon établissement scolaire où un lycéen sur trois est boursier, j’aime parler des MOOCs, de ce qu’ils peuvent apporter en terme d’autonomie dans la construction de son propre savoir. Malgré cette étude, je continuerai à le faire, à montrer des exemples. Puisque cet outil existe, autant le partager au maximum. Mais il serait bon de ne pas perdre de vue que l’accès au savoir se joue probablement bien plus tôt. Et qu’avant d’investir dans ces technologies, aussi spectaculaires et attrayantes qu’elles soient, c’est d’abord pour une école de qualité, égalitaire, enfin débarrassée des préjugés sociaux, qu’il faut œuvrer.

« Democratizing education? Examining access and usage patterns in massive open online courses » J.D. Hansen, J. Reich Science  04 Dec 2015 Vol. 350, Issue 6265, pp. 1245-1248

Posted in Education, sciences sociales | Tagged | 3 Comments

Les prix des médicaments

Les prix des médicaments qui sortent sur le marché sont si élevés qu’ils sont inaccessibles sans assurance santé. Dans certains pays, dont la France, le système de sécurité sociale publique permet leur diffusion auprès de tous les malades. Dans d’autres, c’est-à-dire la plupart des pays dans le monde, il faut être riche, très riche, pour se soigner efficacement. J’en avais déjà parlé dans ce billet coup de gueule*.

C’est l’entreprise qui a déposé le brevet du médicament qui en fixe le prix, souvent pays par pays, en négociant avec les états concernés, et en l’adaptant à la demande. Par exemple, le traitement par le sofosbuvir (contre l’hépatite C) coûte environ 3000 € en Egypte, 41 000 € en France.*

Members of the association Act Up hold signs in front of a stand of US pharmaceutical giant Gilead Sciences to denounce the high price of a new drug, Sofosbuvir, to treat Hepatitis C, on April 29, 2014 in Montpellier, southern France. In the United States, Gilead priced 730 euros per Sofosbuvir pill for a treatment which can last from 12 to 24 weeks. The World Health Organization estimates there are 184 million people infected with hepatitis C worldwide through sources such as transfusions, with the disease causing half a million deaths annually. Signs read ''Nepal, annual income 340 USD, price of Sofosbuvir 900-1 000 USD''.  AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Action d’Act Up à Montpellier, le 29 avril 2014
AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Il faut bien voir une chose : l’entreprise pharmaceutique n’a pas le même intérêt que les états et les sociétés civiles : D’un coté, le médicament est un moyen de gagner de l’argent, de l’autre, il est un moyen d’assurer une santé correcte à la population. C’est cette dualité qui se retrouve dans les aspects juridiques qui encadrent la commercialisation et la protection intellectuelle des médicaments. Et ce, depuis les premiers questionnement sur la place des médicaments parmi les inventions susceptibles d’être brevetées, jusqu’à aujourd’hui, dans la lutte pour l’accès des différents remèdes, par les états les plus démunis comme par les pays occidentaux. ça vous dit, un petit panorama de la question ? Un peu d’histoire tout d’abord… Continue reading

Posted in politique, santé | Tagged , | 4 Comments

[Flash Info Chimie] #50 Production solaire bio-inspirée d’ammoniac

La synthèse de l’ammoniac à partir du diazote atmosphérique, c’est un peu la star de l’industrie chimique. Des tonnages formidable (136.5 millions de tonne en 2012), qui alimentent l’industrie des engrais, des polymères, des explosifs… Pourtant, c’est toujours le même procédé Haber-Bosch, mis au point au début du XXe siècle, qui est utilisé. Très gourmand en énergie, il utilise 1 à 2 % de l’énergie électrique, et 3 à 5 % du gaz naturel mondial : 500°C, 200 bars de pression sont nécessaires pour que la réaction ait lieu correctement, et il faut compter l’énergie dépensée pour la synthèse du dihydrogène, l’autre réactif !

N_{2}+3H_{2} \longrightarrow 2NH_{3}

D’un autre côté, il y a des organismes qui synthétisent de l’ammoniac (ou des produits dérivés) à partir du diazote, dans des conditions moins drastiques. Il s’agit de procaryotes, qui, souvent, vivent en symbiose avec des végétaux, qui leur apporte l’énergie nécessaire en échange de ce fertilisant. Dans ces organismes, c’est le complexe protéinique « nitrogénase » qui permet la fixation de l’azote, à température, et à pression ambiante.

A quelques jours près, deux équipes ont présenté des systèmes, inspirés par les nitrogénases, permettant de réaliser la synthèse de l’ammoniac, à température et pression ambiante. Dont l’énergie provient simplement de la lumière visible.

La première, parue dans PNAS, consiste en un « chalcogel » à base de clusters de sulfure de fer (avec présence éventuelle de Molybdène).

Un chalcogel, c’est un aérogel, c’est-à-dire un matériau de densité extrêmement faible, qui contient des éléments chimiques de la famille des chalcogènes (Oxygène, Soufre, Sélénium, etc…).

Exemple d’aérogel (de silice ici. Source : wikipédia)

L’avantage de ces chalcogels, c’est qu’ils présentent une immense surface active, permettant une adsorption du diazote très efficace. En irradiant avec de la lumière ainsi des chalcogels contenant des clusters de sulfure de fer-molybdène, et/ou simplement sulfure de fer, en présence de diazote, à pression et température ambiante, les chercheurs ont pu synthétiser de l’ammoniac. Vous me direz, on est loin des nitrogénases… Pas tant que ça, en réalité : ce type de cluster Fer-Molybdène-Soufre est inspiré directement de ceux qui se trouvent au cœur de ces protéines :

Cluster Fe-Mo-S de la nitrogénase By Smokefoot - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37239342

Cluster Mo-Fe de la nitrogénase (Smokefoot – Own work, CC BY-SA 4.0)

 

 

Pourquoi « s’inspirer » des nitrogénases lorsqu’on peut directement les utiliser telles quelles ? C’est la base de la seconde publication, dans Science : Cette fois, les chimistes ont simplement fixé la sous-unité qui contient le cluster Fe-Mo directement sur des nanostructures de sulfure de Cadmium. Ces nanostructures captent l’énergie lumineuse, la transfère efficacement à la sous-unité de la nitrogénase, qui réalise la transformation du diazote en ammoniac.

En haut, le fonctionnement "normal" de la nitrogénase, avec une première sous-unité 'Fe Protein' qui capte et transfère l'énergie, et la seconde 'MoFe Protein' qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS (source)

En haut, le fonctionnement « normal » de la nitrogénase, avec une première sous-unité ‘Fe Protein’ qui capte (sous forme d’ATP) et transfère l’énergie, et la seconde ‘MoFe Protein’ qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS qui capte… de la lumière (source)

 

Bon, je n’ai pas parlé de rendements ici. Parce qu’évidemment, ils sont faibles, voire à peine mentionnés dans les publications. Mais les deux démarches sont intéressantes et le fait même d’avoir obtenu de l’ammoniac à température et pression normale, contournant les obstacles énergétiques, représente une belle avancée dans les deux cas.

« Nitrogenase-mimic iron-containing chalcogels for photochemical reduction of dinitrogen to ammonia » Jian Liu et al. PNAS 2016, 113, 55305535

« Light-driven dinitrogen reduction catalyzed by a CdS:nitrogenase MoFe protein biohybrid » Katherine A. Brown et al. Science 2016352 pp. 448-450

Posted in actualité, chimie, Flash Info Chimie | Tagged , , , | Leave a comment

[Flash Info Chimie] #49 Du Curium « naturel » détecté !

On l’oublie trop souvent, mais tous les éléments chimiques qui composent la Terre ont été synthétisés bien avant l’apparition de notre propre soleil. Dès le Big Bang et les quelques minutes qui ont suivi pour les plus légers (l’hydrogène, hélium, lithium), durant la vie d’étoiles anciennes, ou lors de leur explosion en supernovas pour les autres.

On a coutume de dire que l’élément le plus lourd sur Terre est l’Uranium. 92 protons, plus de 140 neutrons, c’est un gros noyau comparé au carbone (6 protons, 6 neutrons) ou à l’oxygène (8 protons, 8 neutrons). Pourtant, il existe à l’état de trace du Plutonium, synthétisé par l’action de particules alpha sur d’autres noyaux. Néanmoins, la période radioactive* de l’isotope le plus stable de cet élément, de quelques 80 millions d’année, est trop courte pour qu’une accumulation naturelle de plutonium aie lieu. (à titre de comparaison, l’isotope le plus stable de l’Uranium a une période radioactive de 4,5 milliards d’année, soit approximativement l’âge du système solaire). Heureusement que l’humain en synthétise en quantité relativement importante pour des utilisations militaires et civiles (500 tonnes en 70 ans)…

Les différents types de processus de nucléosynthèse n’ont pas encore révélés tous leurs secrets, surtout en ce qui concerne les éléments les plus lourds. On ne sait pas jusqu’à quel point les évènements ultra-violents qui se produisent dans l’univers (comme les supernovas) sont capables de produire les éléments plus lourds que l’uranium.

Alors que le plutonium (94 protons) est présenté comme l’élément le plus lourd non synthétisé par l’homme, des physiciens de l’Université de Chicago viennent de démontrer que du Curium 247 (96 protons, 151 neutrons) a bel et bien été synthétisé « naturellement » dans l’Univers (1).

curium

Pour cela, ils ont étudié la composition de grains de matière issus de la météorite d’Allende. Celle-ci a l’énorme avantage d’être grosse (2 tonnes) et tombée très récemment sur Terre (en 1969). S’étant formé lors de la formation du système solaire, elle a permis en particulier, d’en déterminer précisément l’âge. Ici, les chercheurs ont étudié les différents rapports entre les quantités de métaux lourds présents dans une série de petits grains issus de cette météorite (ici, entre le Néodyme 144 et l’uranium 238). En effet, un élément ultra-lourd peut avoir disparu, il laisse néanmoins une « signature » par les quantités et les ratios entre éléments plus légers qu’il a formé par désintégration radioactive. Un des grains étudiés, nommé « Curious Marie » (ne me demandez pas pourquoi !) présente justement un ratio Néodyme/Uranium très différent des autres. Après avoir éliminé toutes les causes possibles de contamination, d’erreurs de manipulation et de mesure, et en accord avec les modèles de nucléosynthèse, les chercheurs ont annoncé que ce ratio ne pouvait trouver une explication que dans la désintégration du Curium 247, ce qui constitue une preuve définitive de l’existence (passée du moins) de curium 247.

Alors, quel sera le prochain élément hyper-lourd à être découvert ?

 

*Un petit rappel : la période radioactive, c’est le temps qu’il faut pour qu’un échantillon perde la moitié de sa radioactivité. En 80 millions d’années, la radioactivité d’un échantillon de plutonium aura été divisée par deux, et au bout de 80 millions d’années supplémentaires, par 4.

(1) « Origin of uranium isotope variations in early solar nebula condensates » F.L.H. Tissot, N. Dauphas, L. Grossman Sci. Adv. 2016; 2 : e1501400

Posted in actualité, article de recherche, espace, Flash Info Chimie | Tagged | Leave a comment

[Flash Info Chimie] #48 Une application Android pour tester la fraîcheur de sa bière

La bière, ça se boit frais. Mal conservée, elle devient amère, voire totalement imbuvable… La faute en partie au fameux « Skunky Thiol » (le « thiol puant ») dont j’ai déjà parlé ici (dont la formation est liée à des réactions photochimiques) mais aussi à tout un tas de réactions d’oxydation, dégradant petit à petit les chers arômes (pour plus de détail, on pourra voir cette publication). Mais les chimistes ont la solution : voici l’application Android « Furfural Detector », développée par une équipe de l’Université de Madrid !

Le furfural, c’est un peu le composé témoin du vieillissement de la bière, sans être réellement impliqué dans la dégradation de son goût. Sa concentration dans une bière fraîche est aux alentours de 10 à 30 µg par litre. Et elle augmente rapidement, atteignant 500 µg/L en 6 mois pour une blonde mal conservée à 25°C.

Bref, il est INDISPENSABLE de connaître sa concentration avant de goûter au « demi » en terrasse cet été. Ou surtout lorsqu’on veut monter sa propre micro-brasserie ou faire sa bière soi-même (on trouve tout le matériel en ligne, ici par exemple): lors du brassage, des quantités de dioxygène plus ou moins importantes suivant les pratiques peuvent être dissoutes dans la bière, ce qui accroît le risque de mauvaise conservation. On peut aussi y ajouter des fameux « conservateurs », qui sont là pour s’oxyder à la place des molécules qui donnent le goût, et ainsi les préserver… Bref, il est nécessaire de pouvoir vérifier si la bière « maison » que l’on souhaite boire/conserver/commercialiser se conserve correctement, et la concentration en furfural en est un très bon indicateur.

Une équipe madrilène a donc pris le problème à bras-le-corps. En fait, le furfural peut facilement réagir avec des « amines aromatiques » (comme l’aniline) en milieu acide pour donner des composés colorés.

A gauche, le furfural, réagissant avec deux amines aromatiques ( Ar-NH2), donnant les composés colorés à droite

A gauche, le furfural, réagissant avec deux amines aromatiques (« Ar-NH2 »), donnant le composé coloré à droite

En immobilisant des amines de ce type dans un polymère, ils ont ainsi obtenu un matériau qui change de couleur en fonction de la concentration de furfural. En immergeant des pastilles (de quelques mm de diamètre) de ce polymère dans la bière, et en réalisant une lecture optique à l’aide de l’appareil photo d’un smartphone équipé de l’application « Furfural Detector », téléchargeable à cette adresse, ils ont ainsi pu mesurer directement la quantité de furfural, et donc la qualité de la bière… Ils ne sont pas trop forts, ces chimistes !!

Couleur de la pastille de polymère en fonction de la concentration en furfural dans l'échantillon

Couleur de la pastille de polymère en fonction de la concentration en furfural dans l’échantillon

« Furfural Determination with Disposable Polymer Films and Smartphone-Based Colorimetry for Beer Freshness Assessment » Alberto Rico-Yuste et al. Anal. Chem. 2016, Article ASAP

Posted in actualité, article de recherche, chimie, Flash Info Chimie | Tagged , | 1 Comment

Réchauffement climatique : les enseignants américains encore loin du compte

À peine la moitié des états-uniens croit que le réchauffement climatique est lié aux activités humaines. C’est dire l’importance de la médiation et de l’enseignement scientifique sur cette question, très politique au demeurant (ça, c’était pour faire le lien avec mon billet précédent). Publié dans la section Insights de la revue Science, un article fait le point sur le positionnement des enseignants des sciences aux USA sur ce domaine.(1) Parmi ceux qui l’évoquent en cours, ils ne sont que 54 % à souligner le rôle principal de l’activité humaine dans le réchauffement climatique.

WoodleyWonderWorks/Creative Commons

( Crédit : WoodleyWonderWorks/Creative Commons )

En travaillant sur une cohorte statistiquement représentative de 6500 enseignants, Eric Plutzer (Université de l’Etat de Pennsylvanie) et ses collègues ont cherché à savoir quelles étaient les opinions et les pratiques pédagogiques de la profession sur le réchauffement climatique.

La première de leurs constatations est l’insuffisance du temps de cours passé sur le sujet. Chaque enseignant propose, en moyenne, 1 à 2 heures annuelles sur le sujet. Pourtant, l ‘Académie des Sciences américaines, qui a publié en 2012 ce que devrait être le programme en science enseigné jusqu’en terminale, fait du réchauffement climatique une thème à part entière à enseigner. (2)

Par ailleurs, les enseignants sont très mal informés du consensus scientifique sur les causes du réchauffement climatique. A la question : « quel pourcentage de scientifiques soutiennent l’idée que le réchauffement climatique est lié aux activités humaines ? » Ils ne sont que 30 % au collège, 45 % au lycée* seulement à donner la bonne réponse  : « plus de 80 % » (la réponse étant, bien sûr, plus de 95 %). Ceci explique probablement la raison pour laquelle 31 % des enseignants parlent de causes humaines ET environnementales à leurs élèves, afin de ménager ce qu’ils pensent être l’absence de consensus général sur la question…

Enfin, les enseignants de science aux USA semblent manquer cruellement de connaissances sur le sujet. Les modèles climatiques, les preuves concrètes du réchauffement climatique et de sa concomitance avec l’élévation du CO2 atmosphérique ne semblent pas être maîtrisées. Cela se traduit évidement par la difficulté d’enseigner ce qu’ils ont du mal à appréhender, voire qu’ils ont du mal à croire. Cela se traduit également par la mise en avant, par environ 50 % des enseignants, d’éléments hors-sujets comme les pesticides ou le trou dans la couche d’ozone lors de l’évocation de l’évolution du climat…

À l’heure des primaires américaines où Donald Trump, climato-sceptique pur et dur triomphe chez les républicains, dans le pays qui émet le plus de CO2, constater que les enseignants de science ne sont pas des alliés fiables des scientifiques pour parler des causes réelles du réchauffement climatique, est sacrément inquiétant.

 

*correspondance approximative pour « middle-school » et « high-school »

(1) « Climate Confusion Among U.S. Teachers » E. Plutzer et al. Science 2016, 351 (6274), 664-665.

(2) National Research Council A Framework for K-12 Science Education : Practices, Crosscutting Concepts, and Core Ideas (Board on Science Education, National Academic Press, Washington D.C. 2012)

 

Posted in climat, Education, politique, Systeme Terre | 3 Comments

La science est politique. La médiatiser est un acte militant.

Ça m’apprendra, tiens, à lancer à la volée un hashtag sur Twitter… #LaScienceEstUneArme. Alors que je voulais faire de Twitter une sorte de brouillon interactif, qui me servirait à affiner mon projet d’évolution de ce blog, je dois dès à présent expliquer pourquoi la médiation scientifique est une arme politique, sociale. (Alors même que je ne suis pas capable de savoir précisément quelles vont être les évolutions de ma présence sur le net. Ben bravo !)

J’ai donc raconté que « La Science est une arme », que « la médiation scientifique est une action militante », et que « la science est politique ». Peu de réponses (heureusement ?), mais Bruce Benraman, ou Cécile Michaud (journaliste scientifique) n’avaient pas l’air d’être très convaincus… Il est temps que j’expose mes arguments.

Déconnecter science et politique ? Mission impossible !

Pour moi, « la science est politique ». Et cela peut s’entendre de façons différentes : parle-t-on du fonctionnement de la recherche ? Du fonctionnement interne de la science ? De ses enjeux, de ses implications sociétales ?

L’exemple du Commissariat à l’Energie Atomique : 70 ans d’orientation politique de la recherche

En commençant ce paragraphe, j’ai l’impression d’enfoncer des portes ouvertes. Il est évident que la politique influence directement la construction des savoirs scientifiques. Le refus quasi idéologique de la génétique mendelienne par l’Union Soviétique jusque dans les années 1950 (et la disgrâce de Lyssenko) est un exemple -un des pires de l’ère moderne, j’ose espérer- de soumission de la pratique de la recherche au champ du politique. L’histoire du CEA (Commissariat à l’Energie Atomique) est un exemple plus heureux.

En 1945, porté à la fois par la tradition française des physiciens de l’atome (les Curie, Perrin et consort), et par l’éblouissement suscités par la puissance des bombes atomiques d’Hiroshima et Nagasaki, Charles De Gaulle décide de créer le CEA. Il s’agit en effet de développer de vastes programmes scientifiques, devant aboutir in fine à des applications civiles (dans le domaine médical, et, bien sur, dans la production d’électricité) et militaires. Cet organisme de recherche est placé directement sous la tutelle du Président du Conseil (chef de l’état français), alors que sa direction est scientifique (Frédéric Joliot-Curie étant le premier « haut commissaire à l’énergie atomique »). Sans rentrer dans les détails historiques, le CEA a été tiraillé entre la stratégie industrielle, militaire, politique de l’état, et la science. Un seul exemple : Joliot-Curie, pacifiste, a été écarté de la direction en raison de son opposition au programme militaire en 1950. Mais de façon plus générale, la recherche française en physique a été particulièrement soutenue par les pouvoirs publics, via le CEA, en raison de l’attachement politique à l’auto-suffisance énergétique (par le nucléaire) et à la dissuasion nucléaire. Certains sites emblématiques de la recherche française (Le centre de Cadarache avec la construction du réacteur expérimental ITER, le site du LETI à Grenoble, le plateau de Saclay) en sont directement issus.

On pourrait multiplier ce type d’exemples à l’infini, depuis la science de l’espace propulsée par la guerre froide et la compétition URSS / USA, jusqu’aux plans « cancer » gouvernementaux qui favorisent, par leur financement, un travail de recherche acharné dans ce vaste et passionnant domaine.

Financement : le nerf de la science

C’est bien par le financement de la recherche que la politique investit le champ de la science. D’une part en choisissant les domaines à mettre en avant. C’est ce dont on a partiellement parlé quelques lignes plus haut : certains domaines sont plus « rentables » pour un état que d’autres. Ainsi déplore-t-on souvent en France le fait qu’une grande partie du budget de la recherche est engloutie dans les « Très Grandes infrasctructures de Recherche » (ITER, LHC, etc…), au détriment des petits labos, moins visibles pour le grand public. A l’international, ce sont les ONG qui dénoncent l’absence de financements sérieux pour les recherches sur les maladies touchant les pays pauvres. J’imagine que les budgets pour la recherche en biologie de l’évolution des états américains ultra-conservateurs ne doivent pas être bien élevés, comme ceux alloués par l’Iran ou l’Arabie Saoudite sur les problématiques de genre…

Si d’autre part, on souligne souvent les différences internationales dans le mode de financement de la recherche (public, associatif ou via des fondations, privé), on oublie souvent qu’il s’agit aussi d’un levier politique d’influence sur la science. On parle souvent de l’indépendance de la recherche française vis-à-vis de l’industrie. Qu’elle soit réelle ou fictive, passée ou encore vivante, elle correspond à un modèle politique où l’État garantit l’effort de recherche scientifique, en finançant, par l’impôt, les travaux académiques. Grace à ce modèle, la France a eu la réputation de permettre une grande liberté à ses chercheurs, non tenu à des objectifs de production qu’impose un financement privé comme dans le modèle (supposé) des pays anglo-saxons. On retrouve ici l’opposition entre l’interventionnisme de l’état et le libéralisme. Le premier permet d’investir dans des projets fondamentaux, sans retombés immédiates, d’explorer des champs inconnus. Au risque d’une dilution des moyens entre les acteurs, et d’éloigner l’effort financier des préoccupations directes des citoyens, comme la santé. Le second impose aux chercheurs de la rentabilité, des objectifs à court terme, mais permet aussi une plus grande variété dans les sources de financements.

Les clivages politiques traditionnels (social-démocratie / libéralisme) se retrouvent bien ici, s’affrontant… sur le dos de la science.*

* il y aurait bien des choses à ajouter ici, depuis l’ANR, instrument politique de la répartition des moyens de recherche, qui prive de fait les « petits labos » de financement, au Crédit Impôt Recherche, qui permet avant tout de financer la R&D privée, au détriment des recherches fondamentales, tout en permettant d’afficher 3 % du PIB dépensé pour la recherche… la basse politique est là aussi !

La méthode scientifique elle-même est politique !

Mais peut-on aller plus loin dans l’étude des liens entre la science et la politique ? Il me semble que oui.

La méthode de choix pour valider les avancées scientifique reste aujourd’hui l’évaluation par les pairs. Lors de communications orales, écrites, les scientifiques sont appelés à juger de la pertinence et du sérieux des travaux de leurs collègues. On pourrait y opposer une vision des théories scientifiques imposée par un état ou par une religion, ou par une votation citoyenne ! Je ne veux pas débattre de cela ici, mais cette évaluation par les pairs constitue en soi une organisation interne de gestion de la science. Une politique DANS la science. On pourrait la rapporter à un système démocratique – ou technocratique ? – par opposition à un système autoritaire – ou une démocratie directe dans le cas des votations ?

Allons encore plus loin. En 1975 parait « Contre la méthode », de Paul Feyerabend. Dans cet ouvrage, tenant de l’anarchisme épistémologique, l’auteur, épistémologue reconnu, critique le principe même de la « méthode scientifique », au titre qu’il s’agit d’une façon de penser, comme une autre, et qui a ses limites. Se priver des autres est pour lui contre-productif d’un point de vue de l’avancée de la science, ce qu’il montre à travers plusieurs exemples historiques. Sans entrer dans les détails, il prône l’anarchisme épistémologique, par opposition à une méthode scientifique unique. Il me semble, que l’on soit sensible ou non à ces idées, que Feyerabend montre que ce qui fait l’essence même de la science, à savoir la façon dont elle se construit, dont se forge les théories scientifiques, est politique.

Quelque soit l’angle abordé, on arrive à cette évidence : la Science, même avec un grand « S », est une construction, une réflexion humaine sur des faits réels, mais dont l’interprétation est, par la nature même de l’être humain, subjective. On ne pourra pas l’extraire de la politique, c’est-à-dire de l’organisation des sociétés.*

* Je n’ai pas évoqué ici la façon dont la science est au coeur de certains débats politiques, en particulier sur des sujets « sensibles » comme le réchauffement climatique, le « progrès », ou même la bataille évolutionnisme / créationnisme. Cette autre façon de voir comment science et politique sont mêlés se retrouve par exemple dans les initiatives « Je vote pour la science » (au Québec) ou « Votons pour la science » (en France pour les élections 2012), et semble omniprésente dans les débats publiques sur la place de la science dans la société.

La médiation est une arme

(Par Phiip, initialement pour l’événement Lyon Science)

(Par Phiip, initialement pour l’événement Lyon Science 2016)

Si la science est politique, sa médiatisation est un acte militant, chargé de signification idéologique. Libre à chacun de décider quel sens il souhaite donner à son action.* Je souhaite ici donner mon point de vue : je ne médiatise pas la science pour la beauté du geste, mais afin de partager des savoirs et des codes culturels et sociaux classiquement réservés aux élites. Dans le but final de permettre à chacun d’avoir les connaissances nécessaires pour se forger sa propre opinion, et ainsi prendre des décisions éclairées pour soi-même et pour la société.

* Il serait passionnant d’évoquer ici le travail de Bernadette Bensaude-Vincent, publié sous le titre « L’Opinion publique et la science. À chacun son ignorance » (Paris, Ed. La Découverte, 2013), où elle détaille en particulier les raisons de médiatiser la science au cours des XIX et XXe siècle.

Détenir du savoir ne devrait pas être un marqueur social

La science (et plus généralement, la culture)  est une affaire de classes sociales favorisées. Si on regarde simplement le niveau d’étude en fonction de la catégorie socio-professionnelle des parents, on constate que deux tiers des enfants de cadres ou enseignants ont un diplôme supérieur ou égal à Bac +2 contre moins d’un tiers pour les enfants d’employés ou d’ouvriers qualifiés. Les enfants d’ouvriers non qualifiés ne sont que 20 % à atteindre ce même niveau d’étude. (source : Observatoire des Inégalités). Autre indicateur : les musées et parcs d’attraction scientifiques sont souvent délaissés par les classes populaires, malgré souvent des tarifs faibles, en particulier pour les enfants / étudiants / demandeurs d’emploi. Ils paraissent inaccessibles, et le plus souvent inintéressants. En fait, beaucoup ne savent même pas qu’ils existent (Il s’agit ici de mon point de vue. Enseignant dans un lycée avec un public plutôt défavorisé, c’est ce que je constate auprès de mes élèves).

J’ai souvent entendu chez des collègues enseignants que certains élèves « ne sont pas curieux », « sont réfractaires à toute forme de culture », etc… Pour moi, la curiosité, le désir de se cultiver sont des choses qui s’apprennent, par des mises en contact fréquentes avec les savoirs. Ce n’est pas simple, mais la médiation, l’enseignement est censé être là pour ça. (Et c’est ce à coté de quoi passe souvent l’école primaire, en privilégiant de plus en plus l’orthographe, la numération et les calculs au détriment des « découvertes » (sciences, histoire, géographie, etc.) autrement plus passionnantes, et qui incluent les savoir ‘fondamentaux’ cités juste avant). Médiatiser la science, dès le plus jeune age, c’est aller à la rencontre des questionnements d’enfants, leur montrer comment rechercher des réponses, qui amèneront encore plus de questions ! Cette démarche, fondamentale pour l’épanouissement des jeunes, est aussi utile pour réussir à l’école, acquérir les codes sociaux des classes supérieures et s’ouvrir les portes des milieux privilégiés. Cette médiation des sciences est une arme contre la reproduction sociale. Je parle des jeunes enfants, parce que la discrimination sociale est précoce. Mais la médiation scientifique et culturelle doit jouer ce rôle durant toute l’enfance et adolescence, pour la même raison : la curiosité, ça s’apprend (jeune), et ça s’entretient toute la vie.

L’utilisation de médias qui sont investis par l’ensemble des couches de la population est ici assez formidable. Par exemple, l’utilisation des vidéos de type Youtube pour médiatiser des connaissances scientifiques permet toucher un public infiniment plus large que celui du Palais de la Découverte ! D’autres acteurs ont décidés d’amener les outils de la médiation scientifique directement auprès du public populaire. Les initiatives impliquant par exemple le Planétarium de Vaulx-En-Velin, le Club d’Astronomie de Lyon-Ampère, l’association Planète Science (« Ciel des quartiers« ) , ou encore les associations « Les Petits Débrouillards » (voir ce blog par ex.), qui apportent les instruments d’observations astronomiques dans les quartiers défavorisés sont aussi des actions formidables pour la diffusion de la culture scientifique…

La culture, le raisonnement scientifique : pour choisir sa vie, librement

Au-delà de la question sociale, la diffusion des connaissances scientifiques doit permettre à chacun d’appréhender notre monde avec le plus de justesse possible. Un choix n’est libre que s’il est éclairé. Et ça tombe bien, c’est le boulot de la science. Comment savoir quelles sont les actions qui permettent de lutter contre le réchauffement climatique ? Et au fait, existe-t-il vraiment (parce que cet hiver, ça caille !) ? Et ce dépistage organisé pour le cancer du sein, qui coute cher à la sécu, il vaut vraiment le cout ? Et que faut-il mieux pour mon enfant, lait maternel, préparation lactée ? Et l’impact du nucléaire, bien, ou pas bien ? La médiation scientifique permet de répondre de deux façons conjointes à ces multiples questions, auxquelles nous sommes confrontés tous les jours:

  • En nous offrant des connaissances, opérationnalisables immédiatement. C’est ce qu’il m’arrive de faire ici sur ce blog, lorsque je parle du dépistage du diabète gestationnel, ou des pseudo-remèdes contre les cancer
  • En nous familiarisant à la démarche de questionnement scientifique : les sujets du monde entier ne sont pas tout le temps vulgarisés dans des médias bien visibles, et parfois, la recherche d’information est ardue. le rôle de la médiation scientifique doit aussi être de nous donner des éléments pour étudier rationnellement les questions qui nous sont posés : confronter son opinion première aux faits relevés, évoluer, tester ses nouvelles hypothèses, porter un regard critique permanent sur les informations qu’on reçoit, etc.

Ces propos ne sont absolument pas nouveaux. Il est simplement important pour moi de ré-affirmer le rôle de la médiation scientifique dans la lutte contre les manipulations. Si l’Eglise a été durant de nombreuses décennies l’ennemie du savoir scientifique (et l’est encore en partie), elle a de nombreux concurrents : les politiques utilisent largement des raccourcis ou des manipulations scientifiques afin d’asseoir leur popularité, les grandes entreprises s’arrangent avec les données pour prétendre à la supériorité de leurs produits, etc. La médiation scientifique, en diffusant connaissances et méthodes est donc une arme contre cet obscurantisme.

Et le plaisir dans tout ça ?

Le plaisir d’apprendre… Oui, il fallait bien que je finisse là-dessus. Simplement parce que l’essentiel de la médiation scientifique se fixe cet objectif. Il ne s’agit plus là d’une arme, soyons clair. Mais je sais qu’une fois le ventre bien rempli, les pieds bien sur Terre, la conscience tranquille parce qu’on a fait ses choix de façon éclairée, c’est si bon, d’apprendre encore et encore. N’oublions juste pas que nous ne sommes pas nombreux à pouvoir réellement en profiter.

AUX ARMES, MÉDIATEURS !

Posted in politique | 4 Comments