Archives pour la catégorie Non classé

MOOC : encore un effort pour démocratiser les savoirs !

Vous connaissez sans aucun doute les MOOCs : « Massive Open Online Courses » ? En général gratuits, dispensés par des universitaires reconnus sous forme de vidéos accompagnées de forum, d’exercices, hang out,…, les MOOCs sont apparus (sous cette dénomination du moins) en 2008 aux USA, en 2012 en France. Grâce à la plateforme FUN (France Université Numérique), chacun peut s’inscrire gratuitement à des cours en ligne passionnant, vous pourrez, par exemple, suivre un cours sur « Comprendre l’économie collaborative » (Mine ParisTech), sur « l’anatomie du bois » (Université de Lorraine), ou encore sur « Le language, entre nature et culture » (Université d’Aix-Marseille).

Source : Wikipédia

Source  (via Wikipédia)

Souvent gratuits donc, les MOOCs m’ont tout de suite paru un formidable outil de démocratisation des savoirs. Quelque soit sa formation initiale, son âge, n’importe qui peut apprendre les secrets de la mécanique quantique, ou de la conception en aéronautique (La plupart des MOOCs ne sont cependant pas accessibles aux sourds et malentendants). La gratuité des cours (pas forcément des certifications, hélas…) permet d’envisager que les populations les plus défavorisées, si elles ont accès à internet, puissent aussi accéder à des cours de qualité dont elles sont généralement privées.

Et patatra ! En décembre 2015, un article de J.D. Hansen (Harvard) et J.Reich (Cambridge) dans la revue Science remet les pendules à l’heure (accessible ici, en accès libre ). D’après leur analyse sur les usagers de 68 MOOCs gratuits proposés par de grandes universités américaines, c’est avant tout aux classes socio-économiques supérieures qu’ils profitent. A travers des indicateurs qu’ils présentent comme robustes (niveau des études des parents, niveau d’étude moyen, et salaire moyen dans la zone geographique habité), ils montrent qu’il existe une corrélation forte entre niveau de vie, et usage des MOOCs. Corrélation encore plus marquée lorsqu’ils ont restreint leur échantillon à ceux qui finissent les MOOCs, et obtiennent les certificats de participation et de réussite.

Cela ne signifie pas que ces cours en ligne ne profitent pas aux classes sociales populaires. Simplement, elles profitent davantage aux classes aisées. Ainsi, au lieu de le réduire, ils augmentent l’écart entre la culture/ l’éducation des classes sociales.

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l'accentue...

A gauche : des technologies qui réduisent le fossé entre classes aisées et populaires. À droite, qui l’accentuent… (issus de l’article cité)

Au-delà des MOOCs, les auteurs pointent qu’en matière de nouvelles technologies et de démocratisation des savoirs, c’est le scepticisme qui devrait être de mise. Pour eux, à chaque arrivée de nouveaux médias (radio, télévision, PC, internet…), la fin des inégalités devant les connaissances a été annoncée. À travers de nombreux exemples, et d’études plus anciennes, ils montrent qu’au contraire, ces nouveaux médias ont eu tendance à accentuer le fossé entre catégories socio-économiques.

Dans mon établissement scolaire où un lycéen sur trois est boursier, j’aime parler des MOOCs, de ce qu’ils peuvent apporter en terme d’autonomie dans la construction de son propre savoir. Malgré cette étude, je continuerai à le faire, à montrer des exemples. Puisque cet outil existe, autant le partager au maximum. Mais il serait bon de ne pas perdre de vue que l’accès au savoir se joue probablement bien plus tôt. Et qu’avant d’investir dans ces technologies, aussi spectaculaires et attrayantes qu’elles soient, c’est d’abord pour une école de qualité, égalitaire, enfin débarrassée des préjugés sociaux, qu’il faut œuvrer.

« Democratizing education? Examining access and usage patterns in massive open online courses » J.D. Hansen, J. Reich Science  04 Dec 2015 Vol. 350, Issue 6265, pp. 1245-1248

Les prix des médicaments

Les prix des médicaments qui sortent sur le marché sont si élevés qu’ils sont inaccessibles sans assurance santé. Dans certains pays, dont la France, le système de sécurité sociale publique permet leur diffusion auprès de tous les malades. Dans d’autres, c’est-à-dire la plupart des pays dans le monde, il faut être riche, très riche, pour se soigner efficacement. J’en avais déjà parlé dans ce billet coup de gueule*.

C’est l’entreprise qui a déposé le brevet du médicament qui en fixe le prix, souvent pays par pays, en négociant avec les états concernés, et en l’adaptant à la demande. Par exemple, le traitement par le sofosbuvir (contre l’hépatite C) coûte environ 3000 € en Egypte, 41 000 € en France.*

Members of the association Act Up hold signs in front of a stand of US pharmaceutical giant Gilead Sciences to denounce the high price of a new drug, Sofosbuvir, to treat Hepatitis C, on April 29, 2014 in Montpellier, southern France. In the United States, Gilead priced 730 euros per Sofosbuvir pill for a treatment which can last from 12 to 24 weeks. The World Health Organization estimates there are 184 million people infected with hepatitis C worldwide through sources such as transfusions, with the disease causing half a million deaths annually. Signs read ''Nepal, annual income 340 USD, price of Sofosbuvir 900-1 000 USD''.  AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Action d’Act Up à Montpellier, le 29 avril 2014
AFP PHOTO / SYLVAIN THOMAS / AFP / SYLVAIN THOMAS

Il faut bien voir une chose : l’entreprise pharmaceutique n’a pas le même intérêt que les états et les sociétés civiles : D’un coté, le médicament est un moyen de gagner de l’argent, de l’autre, il est un moyen d’assurer une santé correcte à la population. C’est cette dualité qui se retrouve dans les aspects juridiques qui encadrent la commercialisation et la protection intellectuelle des médicaments. Et ce, depuis les premiers questionnement sur la place des médicaments parmi les inventions susceptibles d’être brevetées, jusqu’à aujourd’hui, dans la lutte pour l’accès des différents remèdes, par les états les plus démunis comme par les pays occidentaux. ça vous dit, un petit panorama de la question ? Un peu d’histoire tout d’abord… Continue la lecture

[Flash Info Chimie] #50 Production solaire bio-inspirée d’ammoniac

La synthèse de l’ammoniac à partir du diazote atmosphérique, c’est un peu la star de l’industrie chimique. Des tonnages formidable (136.5 millions de tonne en 2012), qui alimentent l’industrie des engrais, des polymères, des explosifs… Pourtant, c’est toujours le même procédé Haber-Bosch, mis au point au début du XXe siècle, qui est utilisé. Très gourmand en énergie, il utilise 1 à 2 % de l’énergie électrique, et 3 à 5 % du gaz naturel mondial : 500°C, 200 bars de pression sont nécessaires pour que la réaction ait lieu correctement, et il faut compter l’énergie dépensée pour la synthèse du dihydrogène, l’autre réactif !

N_{2}+3H_{2} \longrightarrow 2NH_{3}

D’un autre côté, il y a des organismes qui synthétisent de l’ammoniac (ou des produits dérivés) à partir du diazote, dans des conditions moins drastiques. Il s’agit de procaryotes, qui, souvent, vivent en symbiose avec des végétaux, qui leur apporte l’énergie nécessaire en échange de ce fertilisant. Dans ces organismes, c’est le complexe protéinique « nitrogénase » qui permet la fixation de l’azote, à température, et à pression ambiante.

A quelques jours près, deux équipes ont présenté des systèmes, inspirés par les nitrogénases, permettant de réaliser la synthèse de l’ammoniac, à température et pression ambiante. Dont l’énergie provient simplement de la lumière visible.

La première, parue dans PNAS, consiste en un « chalcogel » à base de clusters de sulfure de fer (avec présence éventuelle de Molybdène).

Un chalcogel, c’est un aérogel, c’est-à-dire un matériau de densité extrêmement faible, qui contient des éléments chimiques de la famille des chalcogènes (Oxygène, Soufre, Sélénium, etc…).

Exemple d’aérogel (de silice ici. Source : wikipédia)

L’avantage de ces chalcogels, c’est qu’ils présentent une immense surface active, permettant une adsorption du diazote très efficace. En irradiant avec de la lumière ainsi des chalcogels contenant des clusters de sulfure de fer-molybdène, et/ou simplement sulfure de fer, en présence de diazote, à pression et température ambiante, les chercheurs ont pu synthétiser de l’ammoniac. Vous me direz, on est loin des nitrogénases… Pas tant que ça, en réalité : ce type de cluster Fer-Molybdène-Soufre est inspiré directement de ceux qui se trouvent au cœur de ces protéines :

Cluster Fe-Mo-S de la nitrogénase By Smokefoot - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37239342

Cluster Mo-Fe de la nitrogénase (Smokefoot – Own work, CC BY-SA 4.0)

 

 

Pourquoi « s’inspirer » des nitrogénases lorsqu’on peut directement les utiliser telles quelles ? C’est la base de la seconde publication, dans Science : Cette fois, les chimistes ont simplement fixé la sous-unité qui contient le cluster Fe-Mo directement sur des nanostructures de sulfure de Cadmium. Ces nanostructures captent l’énergie lumineuse, la transfère efficacement à la sous-unité de la nitrogénase, qui réalise la transformation du diazote en ammoniac.

En haut, le fonctionnement "normal" de la nitrogénase, avec une première sous-unité 'Fe Protein' qui capte et transfère l'énergie, et la seconde 'MoFe Protein' qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS (source)

En haut, le fonctionnement « normal » de la nitrogénase, avec une première sous-unité ‘Fe Protein’ qui capte (sous forme d’ATP) et transfère l’énergie, et la seconde ‘MoFe Protein’ qui transforme le diazote. En bas, la première unité est remplacée par une nanostructure de CdS qui capte… de la lumière (source)

 

Bon, je n’ai pas parlé de rendements ici. Parce qu’évidemment, ils sont faibles, voire à peine mentionnés dans les publications. Mais les deux démarches sont intéressantes et le fait même d’avoir obtenu de l’ammoniac à température et pression normale, contournant les obstacles énergétiques, représente une belle avancée dans les deux cas.

« Nitrogenase-mimic iron-containing chalcogels for photochemical reduction of dinitrogen to ammonia » Jian Liu et al. PNAS 2016, 113, 55305535

« Light-driven dinitrogen reduction catalyzed by a CdS:nitrogenase MoFe protein biohybrid » Katherine A. Brown et al. Science 2016352 pp. 448-450

[Flash Info Chimie] #49 Du Curium « naturel » détecté !

On l’oublie trop souvent, mais tous les éléments chimiques qui composent la Terre ont été synthétisés bien avant l’apparition de notre propre soleil. Dès le Big Bang et les quelques minutes qui ont suivi pour les plus légers (l’hydrogène, hélium, lithium), durant la vie d’étoiles anciennes, ou lors de leur explosion en supernovas pour les autres.

On a coutume de dire que l’élément le plus lourd sur Terre est l’Uranium. 92 protons, plus de 140 neutrons, c’est un gros noyau comparé au carbone (6 protons, 6 neutrons) ou à l’oxygène (8 protons, 8 neutrons). Pourtant, il existe à l’état de trace du Plutonium, synthétisé par l’action de particules alpha sur d’autres noyaux. Néanmoins, la période radioactive* de l’isotope le plus stable de cet élément, de quelques 80 millions d’année, est trop courte pour qu’une accumulation naturelle de plutonium aie lieu. (à titre de comparaison, l’isotope le plus stable de l’Uranium a une période radioactive de 4,5 milliards d’année, soit approximativement l’âge du système solaire). Heureusement que l’humain en synthétise en quantité relativement importante pour des utilisations militaires et civiles (500 tonnes en 70 ans)…

Les différents types de processus de nucléosynthèse n’ont pas encore révélés tous leurs secrets, surtout en ce qui concerne les éléments les plus lourds. On ne sait pas jusqu’à quel point les évènements ultra-violents qui se produisent dans l’univers (comme les supernovas) sont capables de produire les éléments plus lourds que l’uranium.

Alors que le plutonium (94 protons) est présenté comme l’élément le plus lourd non synthétisé par l’homme, des physiciens de l’Université de Chicago viennent de démontrer que du Curium 247 (96 protons, 151 neutrons) a bel et bien été synthétisé « naturellement » dans l’Univers (1).

curium

Pour cela, ils ont étudié la composition de grains de matière issus de la météorite d’Allende. Celle-ci a l’énorme avantage d’être grosse (2 tonnes) et tombée très récemment sur Terre (en 1969). S’étant formé lors de la formation du système solaire, elle a permis en particulier, d’en déterminer précisément l’âge. Ici, les chercheurs ont étudié les différents rapports entre les quantités de métaux lourds présents dans une série de petits grains issus de cette météorite (ici, entre le Néodyme 144 et l’uranium 238). En effet, un élément ultra-lourd peut avoir disparu, il laisse néanmoins une « signature » par les quantités et les ratios entre éléments plus légers qu’il a formé par désintégration radioactive. Un des grains étudiés, nommé « Curious Marie » (ne me demandez pas pourquoi !) présente justement un ratio Néodyme/Uranium très différent des autres. Après avoir éliminé toutes les causes possibles de contamination, d’erreurs de manipulation et de mesure, et en accord avec les modèles de nucléosynthèse, les chercheurs ont annoncé que ce ratio ne pouvait trouver une explication que dans la désintégration du Curium 247, ce qui constitue une preuve définitive de l’existence (passée du moins) de curium 247.

Alors, quel sera le prochain élément hyper-lourd à être découvert ?

 

*Un petit rappel : la période radioactive, c’est le temps qu’il faut pour qu’un échantillon perde la moitié de sa radioactivité. En 80 millions d’années, la radioactivité d’un échantillon de plutonium aura été divisée par deux, et au bout de 80 millions d’années supplémentaires, par 4.

(1) « Origin of uranium isotope variations in early solar nebula condensates » F.L.H. Tissot, N. Dauphas, L. Grossman Sci. Adv. 2016; 2 : e1501400

[Flash Info Chimie] #48 Une application Android pour tester la fraîcheur de sa bière

La bière, ça se boit frais. Mal conservée, elle devient amère, voire totalement imbuvable… La faute en partie au fameux « Skunky Thiol » (le « thiol puant ») dont j’ai déjà parlé ici (dont la formation est liée à des réactions photochimiques) mais aussi à tout un tas de réactions d’oxydation, dégradant petit à petit les chers arômes (pour plus de détail, on pourra voir cette publication). Mais les chimistes ont la solution : voici l’application Android « Furfural Detector », développée par une équipe de l’Université de Madrid !

Le furfural, c’est un peu le composé témoin du vieillissement de la bière, sans être réellement impliqué dans la dégradation de son goût. Sa concentration dans une bière fraîche est aux alentours de 10 à 30 µg par litre. Et elle augmente rapidement, atteignant 500 µg/L en 6 mois pour une blonde mal conservée à 25°C.

Bref, il est INDISPENSABLE de connaître sa concentration avant de goûter au « demi » en terrasse cet été. Ou surtout lorsqu’on veut monter sa propre micro-brasserie ou faire sa bière soi-même (on trouve tout le matériel en ligne, ici par exemple): lors du brassage, des quantités de dioxygène plus ou moins importantes suivant les pratiques peuvent être dissoutes dans la bière, ce qui accroît le risque de mauvaise conservation. On peut aussi y ajouter des fameux « conservateurs », qui sont là pour s’oxyder à la place des molécules qui donnent le goût, et ainsi les préserver… Bref, il est nécessaire de pouvoir vérifier si la bière « maison » que l’on souhaite boire/conserver/commercialiser se conserve correctement, et la concentration en furfural en est un très bon indicateur.

Une équipe madrilène a donc pris le problème à bras-le-corps. En fait, le furfural peut facilement réagir avec des « amines aromatiques » (comme l’aniline) en milieu acide pour donner des composés colorés.

A gauche, le furfural, réagissant avec deux amines aromatiques ( Ar-NH2), donnant les composés colorés à droite

A gauche, le furfural, réagissant avec deux amines aromatiques (« Ar-NH2 »), donnant le composé coloré à droite

En immobilisant des amines de ce type dans un polymère, ils ont ainsi obtenu un matériau qui change de couleur en fonction de la concentration de furfural. En immergeant des pastilles (de quelques mm de diamètre) de ce polymère dans la bière, et en réalisant une lecture optique à l’aide de l’appareil photo d’un smartphone équipé de l’application « Furfural Detector », téléchargeable à cette adresse, ils ont ainsi pu mesurer directement la quantité de furfural, et donc la qualité de la bière… Ils ne sont pas trop forts, ces chimistes !!

Couleur de la pastille de polymère en fonction de la concentration en furfural dans l'échantillon

Couleur de la pastille de polymère en fonction de la concentration en furfural dans l’échantillon

« Furfural Determination with Disposable Polymer Films and Smartphone-Based Colorimetry for Beer Freshness Assessment » Alberto Rico-Yuste et al. Anal. Chem. 2016, Article ASAP

Réchauffement climatique : les enseignants américains encore loin du compte

À peine la moitié des états-uniens croit que le réchauffement climatique est lié aux activités humaines. C’est dire l’importance de la médiation et de l’enseignement scientifique sur cette question, très politique au demeurant (ça, c’était pour faire le lien avec mon billet précédent). Publié dans la section Insights de la revue Science, un article fait le point sur le positionnement des enseignants des sciences aux USA sur ce domaine.(1) Parmi ceux qui l’évoquent en cours, ils ne sont que 54 % à souligner le rôle principal de l’activité humaine dans le réchauffement climatique.

WoodleyWonderWorks/Creative Commons

( Crédit : WoodleyWonderWorks/Creative Commons )

En travaillant sur une cohorte statistiquement représentative de 6500 enseignants, Eric Plutzer (Université de l’Etat de Pennsylvanie) et ses collègues ont cherché à savoir quelles étaient les opinions et les pratiques pédagogiques de la profession sur le réchauffement climatique.

La première de leurs constatations est l’insuffisance du temps de cours passé sur le sujet. Chaque enseignant propose, en moyenne, 1 à 2 heures annuelles sur le sujet. Pourtant, l ‘Académie des Sciences américaines, qui a publié en 2012 ce que devrait être le programme en science enseigné jusqu’en terminale, fait du réchauffement climatique une thème à part entière à enseigner. (2)

Par ailleurs, les enseignants sont très mal informés du consensus scientifique sur les causes du réchauffement climatique. A la question : « quel pourcentage de scientifiques soutiennent l’idée que le réchauffement climatique est lié aux activités humaines ? » Ils ne sont que 30 % au collège, 45 % au lycée* seulement à donner la bonne réponse  : « plus de 80 % » (la réponse étant, bien sûr, plus de 95 %). Ceci explique probablement la raison pour laquelle 31 % des enseignants parlent de causes humaines ET environnementales à leurs élèves, afin de ménager ce qu’ils pensent être l’absence de consensus général sur la question…

Enfin, les enseignants de science aux USA semblent manquer cruellement de connaissances sur le sujet. Les modèles climatiques, les preuves concrètes du réchauffement climatique et de sa concomitance avec l’élévation du CO2 atmosphérique ne semblent pas être maîtrisées. Cela se traduit évidement par la difficulté d’enseigner ce qu’ils ont du mal à appréhender, voire qu’ils ont du mal à croire. Cela se traduit également par la mise en avant, par environ 50 % des enseignants, d’éléments hors-sujets comme les pesticides ou le trou dans la couche d’ozone lors de l’évocation de l’évolution du climat…

À l’heure des primaires américaines où Donald Trump, climato-sceptique pur et dur triomphe chez les républicains, dans le pays qui émet le plus de CO2, constater que les enseignants de science ne sont pas des alliés fiables des scientifiques pour parler des causes réelles du réchauffement climatique, est sacrément inquiétant.

 

*correspondance approximative pour « middle-school » et « high-school »

(1) « Climate Confusion Among U.S. Teachers » E. Plutzer et al. Science 2016, 351 (6274), 664-665.

(2) National Research Council A Framework for K-12 Science Education : Practices, Crosscutting Concepts, and Core Ideas (Board on Science Education, National Academic Press, Washington D.C. 2012)

 

La science est politique. La médiatiser est un acte militant.

Ça m’apprendra, tiens, à lancer à la volée un hashtag sur Twitter… #LaScienceEstUneArme. Alors que je voulais faire de Twitter une sorte de brouillon interactif, qui me servirait à affiner mon projet d’évolution de ce blog, je dois dès à présent expliquer pourquoi la médiation scientifique est une arme politique, sociale. (Alors même que je ne suis pas capable de savoir précisément quelles vont être les évolutions de ma présence sur le net. Ben bravo !)

J’ai donc raconté que « La Science est une arme », que « la médiation scientifique est une action militante », et que « la science est politique ». Peu de réponses (heureusement ?), mais Bruce Benraman, ou Cécile Michaud (journaliste scientifique) n’avaient pas l’air d’être très convaincus… Il est temps que j’expose mes arguments.

Déconnecter science et politique ? Mission impossible !

Pour moi, « la science est politique ». Et cela peut s’entendre de façons différentes : parle-t-on du fonctionnement de la recherche ? Du fonctionnement interne de la science ? De ses enjeux, de ses implications sociétales ?

L’exemple du Commissariat à l’Energie Atomique : 70 ans d’orientation politique de la recherche

En commençant ce paragraphe, j’ai l’impression d’enfoncer des portes ouvertes. Il est évident que la politique influence directement la construction des savoirs scientifiques. Le refus quasi idéologique de la génétique mendelienne par l’Union Soviétique jusque dans les années 1950 (et la disgrâce de Lyssenko) est un exemple -un des pires de l’ère moderne, j’ose espérer- de soumission de la pratique de la recherche au champ du politique. L’histoire du CEA (Commissariat à l’Energie Atomique) est un exemple plus heureux.

En 1945, porté à la fois par la tradition française des physiciens de l’atome (les Curie, Perrin et consort), et par l’éblouissement suscités par la puissance des bombes atomiques d’Hiroshima et Nagasaki, Charles De Gaulle décide de créer le CEA. Il s’agit en effet de développer de vastes programmes scientifiques, devant aboutir in fine à des applications civiles (dans le domaine médical, et, bien sur, dans la production d’électricité) et militaires. Cet organisme de recherche est placé directement sous la tutelle du Président du Conseil (chef de l’état français), alors que sa direction est scientifique (Frédéric Joliot-Curie étant le premier « haut commissaire à l’énergie atomique »). Sans rentrer dans les détails historiques, le CEA a été tiraillé entre la stratégie industrielle, militaire, politique de l’état, et la science. Un seul exemple : Joliot-Curie, pacifiste, a été écarté de la direction en raison de son opposition au programme militaire en 1950. Mais de façon plus générale, la recherche française en physique a été particulièrement soutenue par les pouvoirs publics, via le CEA, en raison de l’attachement politique à l’auto-suffisance énergétique (par le nucléaire) et à la dissuasion nucléaire. Certains sites emblématiques de la recherche française (Le centre de Cadarache avec la construction du réacteur expérimental ITER, le site du LETI à Grenoble, le plateau de Saclay) en sont directement issus.

On pourrait multiplier ce type d’exemples à l’infini, depuis la science de l’espace propulsée par la guerre froide et la compétition URSS / USA, jusqu’aux plans « cancer » gouvernementaux qui favorisent, par leur financement, un travail de recherche acharné dans ce vaste et passionnant domaine.

Financement : le nerf de la science

C’est bien par le financement de la recherche que la politique investit le champ de la science. D’une part en choisissant les domaines à mettre en avant. C’est ce dont on a partiellement parlé quelques lignes plus haut : certains domaines sont plus « rentables » pour un état que d’autres. Ainsi déplore-t-on souvent en France le fait qu’une grande partie du budget de la recherche est engloutie dans les « Très Grandes infrasctructures de Recherche » (ITER, LHC, etc…), au détriment des petits labos, moins visibles pour le grand public. A l’international, ce sont les ONG qui dénoncent l’absence de financements sérieux pour les recherches sur les maladies touchant les pays pauvres. J’imagine que les budgets pour la recherche en biologie de l’évolution des états américains ultra-conservateurs ne doivent pas être bien élevés, comme ceux alloués par l’Iran ou l’Arabie Saoudite sur les problématiques de genre…

Si d’autre part, on souligne souvent les différences internationales dans le mode de financement de la recherche (public, associatif ou via des fondations, privé), on oublie souvent qu’il s’agit aussi d’un levier politique d’influence sur la science. On parle souvent de l’indépendance de la recherche française vis-à-vis de l’industrie. Qu’elle soit réelle ou fictive, passée ou encore vivante, elle correspond à un modèle politique où l’État garantit l’effort de recherche scientifique, en finançant, par l’impôt, les travaux académiques. Grace à ce modèle, la France a eu la réputation de permettre une grande liberté à ses chercheurs, non tenu à des objectifs de production qu’impose un financement privé comme dans le modèle (supposé) des pays anglo-saxons. On retrouve ici l’opposition entre l’interventionnisme de l’état et le libéralisme. Le premier permet d’investir dans des projets fondamentaux, sans retombés immédiates, d’explorer des champs inconnus. Au risque d’une dilution des moyens entre les acteurs, et d’éloigner l’effort financier des préoccupations directes des citoyens, comme la santé. Le second impose aux chercheurs de la rentabilité, des objectifs à court terme, mais permet aussi une plus grande variété dans les sources de financements.

Les clivages politiques traditionnels (social-démocratie / libéralisme) se retrouvent bien ici, s’affrontant… sur le dos de la science.*

* il y aurait bien des choses à ajouter ici, depuis l’ANR, instrument politique de la répartition des moyens de recherche, qui prive de fait les « petits labos » de financement, au Crédit Impôt Recherche, qui permet avant tout de financer la R&D privée, au détriment des recherches fondamentales, tout en permettant d’afficher 3 % du PIB dépensé pour la recherche… la basse politique est là aussi !

La méthode scientifique elle-même est politique !

Mais peut-on aller plus loin dans l’étude des liens entre la science et la politique ? Il me semble que oui.

La méthode de choix pour valider les avancées scientifique reste aujourd’hui l’évaluation par les pairs. Lors de communications orales, écrites, les scientifiques sont appelés à juger de la pertinence et du sérieux des travaux de leurs collègues. On pourrait y opposer une vision des théories scientifiques imposée par un état ou par une religion, ou par une votation citoyenne ! Je ne veux pas débattre de cela ici, mais cette évaluation par les pairs constitue en soi une organisation interne de gestion de la science. Une politique DANS la science. On pourrait la rapporter à un système démocratique – ou technocratique ? – par opposition à un système autoritaire – ou une démocratie directe dans le cas des votations ?

Allons encore plus loin. En 1975 parait « Contre la méthode », de Paul Feyerabend. Dans cet ouvrage, tenant de l’anarchisme épistémologique, l’auteur, épistémologue reconnu, critique le principe même de la « méthode scientifique », au titre qu’il s’agit d’une façon de penser, comme une autre, et qui a ses limites. Se priver des autres est pour lui contre-productif d’un point de vue de l’avancée de la science, ce qu’il montre à travers plusieurs exemples historiques. Sans entrer dans les détails, il prône l’anarchisme épistémologique, par opposition à une méthode scientifique unique. Il me semble, que l’on soit sensible ou non à ces idées, que Feyerabend montre que ce qui fait l’essence même de la science, à savoir la façon dont elle se construit, dont se forge les théories scientifiques, est politique.

Quelque soit l’angle abordé, on arrive à cette évidence : la Science, même avec un grand « S », est une construction, une réflexion humaine sur des faits réels, mais dont l’interprétation est, par la nature même de l’être humain, subjective. On ne pourra pas l’extraire de la politique, c’est-à-dire de l’organisation des sociétés.*

* Je n’ai pas évoqué ici la façon dont la science est au coeur de certains débats politiques, en particulier sur des sujets « sensibles » comme le réchauffement climatique, le « progrès », ou même la bataille évolutionnisme / créationnisme. Cette autre façon de voir comment science et politique sont mêlés se retrouve par exemple dans les initiatives « Je vote pour la science » (au Québec) ou « Votons pour la science » (en France pour les élections 2012), et semble omniprésente dans les débats publiques sur la place de la science dans la société.

La médiation est une arme

(Par Phiip, initialement pour l’événement Lyon Science)

(Par Phiip, initialement pour l’événement Lyon Science 2016)

Si la science est politique, sa médiatisation est un acte militant, chargé de signification idéologique. Libre à chacun de décider quel sens il souhaite donner à son action.* Je souhaite ici donner mon point de vue : je ne médiatise pas la science pour la beauté du geste, mais afin de partager des savoirs et des codes culturels et sociaux classiquement réservés aux élites. Dans le but final de permettre à chacun d’avoir les connaissances nécessaires pour se forger sa propre opinion, et ainsi prendre des décisions éclairées pour soi-même et pour la société.

* Il serait passionnant d’évoquer ici le travail de Bernadette Bensaude-Vincent, publié sous le titre « L’Opinion publique et la science. À chacun son ignorance » (Paris, Ed. La Découverte, 2013), où elle détaille en particulier les raisons de médiatiser la science au cours des XIX et XXe siècle.

Détenir du savoir ne devrait pas être un marqueur social

La science (et plus généralement, la culture)  est une affaire de classes sociales favorisées. Si on regarde simplement le niveau d’étude en fonction de la catégorie socio-professionnelle des parents, on constate que deux tiers des enfants de cadres ou enseignants ont un diplôme supérieur ou égal à Bac +2 contre moins d’un tiers pour les enfants d’employés ou d’ouvriers qualifiés. Les enfants d’ouvriers non qualifiés ne sont que 20 % à atteindre ce même niveau d’étude. (source : Observatoire des Inégalités). Autre indicateur : les musées et parcs d’attraction scientifiques sont souvent délaissés par les classes populaires, malgré souvent des tarifs faibles, en particulier pour les enfants / étudiants / demandeurs d’emploi. Ils paraissent inaccessibles, et le plus souvent inintéressants. En fait, beaucoup ne savent même pas qu’ils existent (Il s’agit ici de mon point de vue. Enseignant dans un lycée avec un public plutôt défavorisé, c’est ce que je constate auprès de mes élèves).

J’ai souvent entendu chez des collègues enseignants que certains élèves « ne sont pas curieux », « sont réfractaires à toute forme de culture », etc… Pour moi, la curiosité, le désir de se cultiver sont des choses qui s’apprennent, par des mises en contact fréquentes avec les savoirs. Ce n’est pas simple, mais la médiation, l’enseignement est censé être là pour ça. (Et c’est ce à coté de quoi passe souvent l’école primaire, en privilégiant de plus en plus l’orthographe, la numération et les calculs au détriment des « découvertes » (sciences, histoire, géographie, etc.) autrement plus passionnantes, et qui incluent les savoir ‘fondamentaux’ cités juste avant). Médiatiser la science, dès le plus jeune age, c’est aller à la rencontre des questionnements d’enfants, leur montrer comment rechercher des réponses, qui amèneront encore plus de questions ! Cette démarche, fondamentale pour l’épanouissement des jeunes, est aussi utile pour réussir à l’école, acquérir les codes sociaux des classes supérieures et s’ouvrir les portes des milieux privilégiés. Cette médiation des sciences est une arme contre la reproduction sociale. Je parle des jeunes enfants, parce que la discrimination sociale est précoce. Mais la médiation scientifique et culturelle doit jouer ce rôle durant toute l’enfance et adolescence, pour la même raison : la curiosité, ça s’apprend (jeune), et ça s’entretient toute la vie.

L’utilisation de médias qui sont investis par l’ensemble des couches de la population est ici assez formidable. Par exemple, l’utilisation des vidéos de type Youtube pour médiatiser des connaissances scientifiques permet toucher un public infiniment plus large que celui du Palais de la Découverte ! D’autres acteurs ont décidés d’amener les outils de la médiation scientifique directement auprès du public populaire. Les initiatives impliquant par exemple le Planétarium de Vaulx-En-Velin, le Club d’Astronomie de Lyon-Ampère, l’association Planète Science (« Ciel des quartiers« ) , ou encore les associations « Les Petits Débrouillards » (voir ce blog par ex.), qui apportent les instruments d’observations astronomiques dans les quartiers défavorisés sont aussi des actions formidables pour la diffusion de la culture scientifique…

La culture, le raisonnement scientifique : pour choisir sa vie, librement

Au-delà de la question sociale, la diffusion des connaissances scientifiques doit permettre à chacun d’appréhender notre monde avec le plus de justesse possible. Un choix n’est libre que s’il est éclairé. Et ça tombe bien, c’est le boulot de la science. Comment savoir quelles sont les actions qui permettent de lutter contre le réchauffement climatique ? Et au fait, existe-t-il vraiment (parce que cet hiver, ça caille !) ? Et ce dépistage organisé pour le cancer du sein, qui coute cher à la sécu, il vaut vraiment le cout ? Et que faut-il mieux pour mon enfant, lait maternel, préparation lactée ? Et l’impact du nucléaire, bien, ou pas bien ? La médiation scientifique permet de répondre de deux façons conjointes à ces multiples questions, auxquelles nous sommes confrontés tous les jours:

  • En nous offrant des connaissances, opérationnalisables immédiatement. C’est ce qu’il m’arrive de faire ici sur ce blog, lorsque je parle du dépistage du diabète gestationnel, ou des pseudo-remèdes contre les cancer
  • En nous familiarisant à la démarche de questionnement scientifique : les sujets du monde entier ne sont pas tout le temps vulgarisés dans des médias bien visibles, et parfois, la recherche d’information est ardue. le rôle de la médiation scientifique doit aussi être de nous donner des éléments pour étudier rationnellement les questions qui nous sont posés : confronter son opinion première aux faits relevés, évoluer, tester ses nouvelles hypothèses, porter un regard critique permanent sur les informations qu’on reçoit, etc.

Ces propos ne sont absolument pas nouveaux. Il est simplement important pour moi de ré-affirmer le rôle de la médiation scientifique dans la lutte contre les manipulations. Si l’Eglise a été durant de nombreuses décennies l’ennemie du savoir scientifique (et l’est encore en partie), elle a de nombreux concurrents : les politiques utilisent largement des raccourcis ou des manipulations scientifiques afin d’asseoir leur popularité, les grandes entreprises s’arrangent avec les données pour prétendre à la supériorité de leurs produits, etc. La médiation scientifique, en diffusant connaissances et méthodes est donc une arme contre cet obscurantisme.

Et le plaisir dans tout ça ?

Le plaisir d’apprendre… Oui, il fallait bien que je finisse là-dessus. Simplement parce que l’essentiel de la médiation scientifique se fixe cet objectif. Il ne s’agit plus là d’une arme, soyons clair. Mais je sais qu’une fois le ventre bien rempli, les pieds bien sur Terre, la conscience tranquille parce qu’on a fait ses choix de façon éclairée, c’est si bon, d’apprendre encore et encore. N’oublions juste pas que nous ne sommes pas nombreux à pouvoir réellement en profiter.

AUX ARMES, MÉDIATEURS !

[Flash Info Chimie] #47 Les chaperones pharmacologiques : un nouvel outil thérapeutique pour maladie incurable

Certaines maladies sont liées à l’accumulation anormale de biomolécules (comme les protéines ou les lipides), qui s’agrègent dans les tissus, les empêchant de remplir leur fonction normale. C’est par exemple le cas de la maladie de Gaucher, où un sphingolipide, le glucocérébroside, s’accumule dans les tissus nerveux. C’est aussi le cas pour la cataracte, maladie qui touche 70 % des personnes de plus de 70 ans, qui se manifeste par l’opacification du cristallin, conduisant à la cécité. Cette opacification est liée à l’agrégation anormale des protéines qui constituent le cristallin. D’autres accumulations et agrégations de protéines (tout particulièrement de la protéine tau) sont aussi impliquées dans des maladies neurodégénératives…

Oeil humain touché par la cataracte. Le cristallin devient progressivement opaque, par agrégation des protéines -α-crystalline.

Oeil humain touché par la cataracte. Le cristallin devient progressivement opaque, par agrégation des protéines alpha -crystalline.(source : wikipédia)

Les chaperones pharmacologiques sont des molécules qui vont permettre d’agir sur ces biomolécules, pour restaurer leur solubilité dans les tissus. C’est-à-dire qu’au lieu de s’agréger, et former des résidus solides pathologiques, elles vont pouvoir rester sous forme dissoutes dans les fluides présents. Le principe de fonctionnement réside simplement en la liaison entre ces chaperones et la biomolécule, créant ainsi une nouvelle entité qui ne peut plus s’agréger aussi facilement…

Dans un article récent paru dans le journal Science, L. N. Makley de l’Université du Michigan et son équipe, font état d’une nouvelle méthodologie pour identifier des chaperones pharmacologiques permettant de re-solubiliser les biomolécules agrégées.

En effet, ils ont étudié les points de fusion « apparents »* des agrégats de la protéine α-crystalline, (responsables de l’apparition de la cataracte), avec, ou sans chaperone. Parmi les 2446 molécules candidates, 32 permettaient d’abaisser le point de fusion de 72 °C à moins de 70 °C. Une chaperone finale a été retenue, et testés sur des cristallins de souris touchés par la cataracte, et qui ont vu leur transparence partiellement restaurée.

la molécule chaperone ("compound 29") au coeur d'un modèle de la protéine ciblée. Cet assemblage a un point de fusion plus faible que la protéine seule.

la molécule chaperone (« compound 29 ») au coeur d’un modèle de la protéine ciblée. Cet assemblage a un point de fusion apparent plus faible que la protéine seule. (source)

Au delà des progrès médicaux que cela inaugure pour le traitement non chirurgical de la cataracte, cet article, qui traite davantage de la méthodologie de recherche de chaperone pharmacologique que de cette maladie particulière, apporte la preuve qu’il est possible de chercher rationnellement des composés pouvant agir directement sur les agrégats de biomolécules, et ainsi restaurer les fonctions des tissus des organes touchés.

* Il s’agit en réalité de la température de re-solubilisation des agrégats dans la solution étudiée.

« Pharmacological chaperone for α-crystallin partially restores transparency in cataract models » L.N. Makley et al. Science 2015, 350 (6261), 674-677.