Archives pour la catégorie viepratique

[Flash Info Chimie] #18 Scandale alimentaire : les frites meilleures sur Jupiter que sur la Terre

Certaines informations capitales, parues dans des revues scientifiques spécialisées, passent parfois inaperçues. C’est le cas, pour ce numéro spécial de « Flash Info Chimie« . Mes ami(e)s, confrères, consoeurs, camarades, l’heure est grave. Oui, un scandale gastronomique est en cours, et on nous cache tout.

Les frites fabriquées sur Jupiter seraient meilleures que les frites terriennes.

Ça m’a fait le même choc qu’à vous. Nous sommes là, sur Terre, à nous demander si les « French Fries » sont meilleures dans l’hexagone ou en Belgique, alors qu’à quelques centaines de millions de km de là, on en fait de bien meilleures (ou plutôt on en ferait, si une friteuse pouvait y être envoyée). C’est le résultat d’une étude ca-pi-ta-le publiée dans la très sérieuse revue Food Research International réalisée par Lioumbas et Karapantsios.

Revenons un peu aux bases scientifiques de la friture, pour mieux comprendre ce complot interplanétaire. Ce qui fait toute la qualité d’une bonne frite, c’est sa croûte. Dorée à point, mais surtout bien épaisse, uniforme, pour garantir tout le croustillant et la tenue de la frite. La base de toute friture bien réussite réside donc dans la réalisation d’une croûte parfaite.

Divers paramètres ont déjà été étudiés : nature de l’huile, taux d’humidité et d’amidon dans la pomme de terre, … Mais jusqu’alors, aucune forme de concurrence interplanétaire n’avait pu voir le jour. Jusqu’à ce que l’ESA, (Agence Spatiale Européenne) se penche un peu plus sur la nourriture des astronautes, qui se plaignent trop souvent de manger des ersatz déshydratés peu ragoûtant… Et qui aimeraient bien des frites pour leur remonter le moral lors des missions longues, par exemple ! (Euh, ça, c’est vrai de vrai, hein, et c’est au 2e paragraphe de la 2e page de la publication). C’est ainsi l’influence de la gravité, variant d’une planète à l’autre qui a été étudiée ici.

Soyons clair : pour les astronautes, ce qui importe, c’est de savoir si on peut avoir des bonnes frites bien croustillantes en micro-gravité : en voyage dans l’espace, en orbite autour d’une planète, la situation est bien plus proche de l’absence de gravitation, que d’une hyper-gravité, comme on pourrait le trouver sur une planète comme Jupiter. il n’empêche, on ne sait jamais. Et puis, une hyper-gravité est plus facile à simuler qu’une micro-gravité : il suffit d’utiliser une centrifugeuse ! Dans cette étude, c’est la LDC (Large Diameter Centrifuge) de l’ESA qui a été utilisée.

Les boîtes rouges contiennent les expériences. Et ici... la friteuse (source : ESA)

Les boîtes rouges contiennent les expériences. Et ici… la friteuse (source : ESA)

Avant de passer aux résultats, accablants pour notre planète, pourtant mère de toute gastronomie, on peut se demander pourquoi, mais pourquoi donc la gravité peut avoir une quelconque influence sur la friture ? La réponse se trouve au coeur des échanges de chaleur entre la frite et son huile : pour que la frite puisse cuire, et former la croûte que chacun réclame, il faut qu’elle atteigne des températures de l’ordre de 150 °C. Bref, il faut que le milieu dans lequel elle se trouve lui transfère de l’énergie thermique de la façon la plus efficace possible.

Le soucis, c’est que l’huile, en cédant son énergie à la frite, va refroidir. Celle qui se trouve à proximité immédiate du bâton de pomme de terre doit soit à son tour être réchauffée par l’huile située un peu plus loin (et ainsi de suite, ce qui correspond au phénomène de conduction thermique), soit être déplacée, et donc remplacée par de l’huile plus chaude (ce qui correspond au phénomène de convection).

Evidemment, la conduction thermique est un phénomène beaucoup plus lent, et donc beaucoup moins efficace que la convection. C’est par exemple la raison pour laquelle il y a des ventilateurs dans les ordinateurs : pour refroidir, mieux vaut renouveler l’air, plutôt qu’attendre que l’énergie thermique se diffuse peu à peu dans les milieux immobiles.

Lors de la friture, deux processus en particulier permettent une convection efficace de l’huile. Naturellement, le fluide le plus chaud est aussi le moins dense. Il va donc s’élever dans la friteuse, puis se refroidir au contact de l’air, avant de replonger vers le fond, où il va à nouveau être chauffé, etc… Une petite vidéo toute simple pour visualiser :

Regardez directement à 1min37 pour visualiser les mouvements de convection

L’autre processus qui permet les mouvements de convection lors de la friture, est liée à la formation de petites bulles de vapeur d’eau à la surface de la frite. Petites bulles qui vont ensuite se détacher pour remonter à la surface. C’est en fait ce phénomène qui provoque le plus de mouvements dans l’huile. Vous savez bien, ce moment gênant où votre friteuse (ou casserole) trop remplie d’huile déborde à cause de toutes les bulles qui se forment !! J’ai trouvé de jolis exemples chez nos amis outre-Atlantique :

J’ai ainsi appris que Thanksgiving était le jour aux accidents domestiques les plus spectaculaires au USA (quelques accidents sur cette vidéo) !

La gravité est la cause de ces deux mouvements de convection :

– L’huile chaude est moins dense, donc, à volume égal, plus légère que l’huile froide. Cette dernière subit une force d’attraction gravitationnelle (appelée Poids sur Terre) plus importante, tombe donc au fond du récipient,  pendant que la chaude remonte à la surface. En absence de gravité, que l’huile soit plus ou moins dense n’importe pas sur sa position, puisqu’elle n’est plus attirée par une planète / étoile / astre quelconque. Par contre, en hypergravité, L’écart entre le poids de l’huile chaude et l’huile froide augmente, ce qui provoque une accélération des phénomènes de convection

– L’explication pour les bulles de vapeur d’eau sont similaires : en simplifiant à l’extrême, les bulles sont soumises à leur poids, et à la poussée d’Archimède. La force résultante est verticale, vers le haut, et on peut écrire son expression :

 F = (ρhuile – ρvapeur) x Vbulle x g

Explication de texte : ρhuile est la masse volumique de l’huile (environ 920 kg/m3), et ρvapeur est celle de la vapeur d’eau (environ 0,6 kg/m3). Vbulle est le volume de la bulle, et g l’intensité de la gravité.
En cas de micro-gravité ( g proche de zéro), il n’y a plus de forces qui s’exercent sur la bulle : elle ne bougera pas, et donc ne provoquera pas de mouvement de convection de l’huile. Par contre, la force proportionnelle à l’intensité de la gravité, sera d’autant plus grande que g est grand.

Ainsi, plus la gravité est importante, plus il y a de convection, ce qui signifie des échanges thermiques plus efficaces. Les expériences menées dans la centrifugeuse de l’ESA confirment tout à fait ces résultats. Pour le même temps de cuisson, la croûte est de plus en plus épaisse lorsque la gravité augmente. Cependant, les essais à une gravité de 6 et 9 fois celle de la Terre, la croûte se sépare de la pomme de terre, à cause de grosses bulles de vapeurs qui se forment dans son coeur. Et c’est donc à une gravité proche de celle de Jupiter (3 fois celle de la Terre) que la croûte est la plus épaisse, tout en restant bien uniforme.

Frite bla bla

La croûte d’une frite (entre la ligne blanche et la ligne rouge). On voit qu’à 3 fois la gravité terrestre, la croûte a une épaisseur optimale. Au-delà, on voit une grosse cavité sous la croûte. (source)

Alors voilà. La frite produite à la surface de Jupiter est la meilleure du système solaire. Ça y est, c’est prouvé. Après que la gastronomie française, et la washoku japonaise ont été classés patrimoine mondial de l’humanité par l’UNESCO, faudra-t-il un jour élever la friture jupitérienne au rang de… Non, laissez tomber.

« Effect of increased gravitational acceleration in potato deep-fat frying » John S. Lioumbas, Thodoris D. Karapantsios, Food Research International 2014, 55, 110-118

Pourquoi cela ne sert à rien de souffler sur les frites pour les refroidir ?

Qui n’a jamais soufflé sur des frites, toutes justes sorties de l’huile bouillante ? Et qui ne s’est pas QUAND MÊME brûlé la langue avec ?

frites

Et bien c’est normal. Et oui. Je ne sais pas si ça vous soulage de le savoir, mais peut-être cela vous évitera une prochaine hyper-ventilation inutile.

Le problème est simple, et mérite d’être présenté à l’envers : pourquoi souffler sur une bonne cuillère de soupe permet qu’elle refroidisse ?

Tout simplement parce que ça permet à l’eau de s’évaporer. Je vais m’expliquer.

En fait Quelque soit sa température, l’eau co-existe sous forme liquide, et gazeuse. Par contre, à partir de 100°C, l’eau liquide n’est plus stable, et donc s’évapore totalement, pour former de la vapeur d’eau.

Cette co-existence correspondre à un équilibre :  suivant la pression, et la température, l’air au dessus d’une surface d’eau doit être composé d’une certaine fraction d’eau, que l’on mesure en terme de pression partielle (c’est-à-dire pour simplifier la contribution de la vapeur d’eau à la pression totale, qui sera la somme des pressions partielles des différents gaz composant l’atmosphère). Cette pression s’appelle « pression de vapeur saturante« . Bien sûr, plus il fait chaud, plus cette pression est grande, signe que l’atmosphère est composée d’une fraction importante d’eau. Par exemple, à 20°C, la pression de vapeur saturante de l’eau est de 23,4 mBar, c’est-à-dire, que juste au dessus d’un récipient contenant de l’eau, l’atmosphère est grosso modo composé de 2,3 % d’eau. À 60°C, c’est 20 % d’eau, et à 100°C, évidemment, c’est 100 %.

Les conséquences de cette co-existence d’eau liquide et gazeuses sont évidemment innombrables : c’est ce qui explique pourquoi l’eau d’une flaque s’évapore, l’eau de la mer s’évapore, l’eau qui mouille du linge s’évapore… Prenons l’exemple du linge, dehors, à 20°C : tout autour de la chemise mouillée, la pression partielle de l’eau est celle de la pression de vapeur saturante, c’est-à-dire environ 20 mBar, pour simplifier. Il fait grand soleil, l’humidité ambiante est faible, disons une hygrométrie à 20 % (La pression partielle de l’eau dans l’air (sans la chemise) est de 20 % de la pression de vapeur saturante). Il existe donc un grand déséquilibre entre la zone à proximité immédiate du tissus, et le reste de l’air.

linge

Du coup, tout cela va se ré-équilibrer, grâce à des mouvements de diffusion (en l’absence absolument totale de courant d’air, et c’est lent et peu efficace), ou grâce à des mouvements de convections (des masses d’air vont se déplacer, grâce au vent et à tout courant d’air). Et l’air à proximité du linge va être beaucoup trop  »sec » ! L’équilibre est rompu, et l’eau dans la chemise va s’évaporer pour le rétablir, jusqu’à ce que… Jusqu’à ce qu’il n’y ait plus d’eau du tout dans le vêtement, bref, qu’il ait fini de sécher.

 

Et notre frite alors ?

Lorsqu’on souffle sur un aliment trop chaud, c’est pour augmenter les mouvements de convection, donc provoquer une évaporation plus rapide, et plus efficace. Pourtant, on ne souffle pas pour que notre soupe sèche ! En fait, lorsque l’eau se vaporise, elle a besoin d’énergie. Et elle la prend à la partie liquide, dont l’énergie thermique diminue, donc la température diminue. Pour l’eau, passer d’un litre d’eau liquide à 100°C de la forme liquide à la forme gazeuse nécessite une énergie de 2257 kiloJoules. Si cette énergie est prise à de l’eau, cela représente une diminution de 50 °C d’environ 100 litres d’eau !

Alors lorsqu’on souffle sur sa soupe, cela permet d’accélérer l’évaporation en diminuant la pression partielle de l’eau vapeur. Cela nécessite beaucoup d’énergie, prise au liquide, qui refroidit. Et voilà le travail !!

 

Pour les frites, ça marche beaucoup, beaucoup moins bien. En fait, l’huile va remplacer l’eau dans la pomme de terre, au moins en surface. Ce faisant, elle va rendre impossible l’évaporation de l’eau, soit parce qu’il y en a quasiment plus (en fait, là, c’est plutôt les chips), soit en bloquant l’eau à l’intérieur. On aura beau souffler, l’eau ne s’évaporera pas. Et du coup, la frite ne refroidira pas efficacement… Vous allez me dire, l’huile peut jouer le même rôle que l’eau, et s’évaporer, tout en refroidissant la frite ? Et bien pas tout à fait. Tout d’abord, même si je dois avouer ne pas avoir trouvé les chiffres, l’huile de friture a une température d’ébullition très élevée, très très très élevée. En fait, elle ne bout jamais, puisqu’à partir de 180- 200°C, elle se dégrade, (se transforme chimiquement). Cette température d’ébullition très haute a pour conséquence une pression de vapeur saturante très faible. On a beau souffler sur la frite, une très très infime partie de son huile va passer sous forme vapeur. Mais de plus, ce processus est beaucoup moins gourmand en énergie ! Rappelez vous, il faut plus de 2000 kJ à 1 litre d’eau pour s’évaporer. Et bien si on regarde cette énergie de vaporisation pour des composants organiques, de structures proches de celles des composants de l’huile, on arrive à une valeur d’environ 300 à 400 kJ pour 1 kg. 5 à 7 fois moins ! Donc même si on arrivait à faire évaporer autant l’huile que l’eau, on refroidirait la frite 5 fois moins vite !

Voilà, On est condamné à attendre que la frite refroidisse toute seule. Ou alors, comme Mme Pourquoi (aka Mme Déjantée) l’a proposé, on peut aussi ouvrir la frite dans le sens de la longueur : l’eau qui était prisonnière peut ainsi s’évaporer, et la frite perdre son énergie thermique pour redevenir mangeable…

Bon Appétit !

 

Sources:

http://fr.academic.ru/dic.nsf/frwiki/584507 (Une ressource indispensable pour les enthalpies de changement d’état)

Il n’y a pas d’effets non-thermiques des micro-ondes

Les micro-ondes sont montrés du doigt dans plusieurs domaines de notre vie quotidienne. On dit parfois qu’il ne faut pas réchauffer le lait de bébé au micro-onde, parce que ces ondes le rendent mauvais, ou encore que le wifi, et le téléphone portable sont des ondes cancérigènes, etc… La liste est assez longue, allez sur des sites poubelles comme danger-sante.org (le pire que j’ai trouvé, en quelques instants, est ) pour avoir une idée de tout ce qu’on peut leur reprocher.

Bon. certains travaux récents de recherches en chimie organique peuvent nous aider à y voir un peu plus clair. Il ne s’agit pas de travaux en recherche médicale, il est vrai, mais je pense que cela peut donner à réfléchir aussi sur l’utilisation quotidienne de ce type d’onde.

Depuis une vingtaine d’année, les chimistes organiciens (qui travaillent sur les composés du vivant, contenant principalement carbone, oxygène, hydrogène, azote) se sont aperçus que les micro-ondes, les mêmes que ceux de nos fours et nos portables, étaient très efficaces pour chauffer les mélanges réactionnels, et ainsi permettre des transformations chimiques intéressantes, et souvent beaucoup plus rapidement et efficacement qu’avec un chauffage classique.

En clair, de nombreux exemples de réactions chimiques très lentes avec un chauffage conventionnel, ont été rendus possibles, efficaces, et rapides grâce à ce mode de chauffage particulier. L’explication de cette efficacité des micro-ondes a été abordés de diverses manières, et globalement, deux effets ont été mis en avant :

Tout d’abord, l’effet thermique. Les micro-ondes ne chauffent pas par conduction thermique et convection, c’est-à-dire depuis les surfaces en contact du récipient en contact avec la source de chaleur vers le centre, grâce à l’agitation. Ils chauffent par rayonnement, ce qui permet dans ce cas un chauffage extrêmement rapide, et uniforme, de tout le mélange réactionnel.

microwave heating

A gauche, un tube contenant des réactifs, chauffés par micro-onde. On voit que tout le contenant est chaud (en rouge plus ou moins foncé). A droite, un chauffage traditionnel : le coeur du tube est froid. (source)

D’autres effets thermiques pourraient exister, moins conventionnels : l’idée la plus représentative de ces effets, c’est que les micro-ondes ne stimulent pas de la même manière toutes les molécules, et pourraient chauffer « sélectivement » certains réactifs ou catalyseurs, ce qui pourrait induire une augmentation de la vitesse de réaction, ou même des réactions différentes.

Et puis il y a les effets non-thermiques. Il est admis que l’énergie véhiculée par les ondes ‘micro-ondes’ est trop faible pour pouvoir induire des ruptures dans les liaisons chimiques

[Il faut ici distinguer énergie globale de la source de l’onde, qui correspond à la puissance du générateur multipliée (800 W pour un four micro-onde moyen) par le temps de fonctionnement, et l’énergie véhiculée par chaque « photon » de l’onde. Dans le cas d’une réaction chimique, c’est l’énergie par photon qui compte, et il faut généralement des énergies correspondant à des ultraviolets, c’est à dire 100000 fois plus importante que celle des micro-ondes].

Cependant, des hypothèses ont été émises sur la stabilisation d’intermédiaires chimiques [En particulier les intermédiaires dont la polarité est importante], ou d »‘états de transition », ce qui correspond à abaisser la barrière énergétique à franchir pour que la réaction fonctionne. Si on abaisse cette barrière, alors l’apport énergétique par le chauffage peut être moindre, et les temps de réaction sont diminués, ou, si plusieurs réactions simultanées sont possibles, celles dont les intermédiaires ou états de transitions sont les plus stabilisés sont favorisées. [Si vous souhaitez plus de précision ici, n’hésitez pas à me les demander en commentaires…]

En résumé, ce mode de chauffage non-conventionnel permettrait non seulement d’augmenter la vitesse de réaction, voire de rendre possible certaines d’entre elles, mais permettrait également d’obtenir des espèces chimiques différentes qu’avec un chauffage « classique ». J’ai entendu lors de ma thèse une maître de conférence raconter ainsi que le lactose du lait subissait des transformations différentes dans un micro-onde que dans une casserole, et c’est ce qui expliquerait pourquoi le lait, dans ce cas, serait moins digeste.

Ceci dit, certains chimistes contestent ces effets extraordinaires… La dernière publication de O.C. Kappe et de ses collègues leur donne raison. Dans le numéro du 21 janvier 2013 du journal prestigieux (pour les chimistes) Angewandte Chemie (International Edition), ceux-ci mettent à mal les ardents défenseurs des effets non-thermiques. Reprenant les résultats les plus marquants publiés sur le sujet, ils ont montré qu’il n’y avait aucune différence de réactivité entre les différents mode de chauffage. Les effets thermiques non conventionnels, qui pourtant se basent sur des arguments scientifiquement pertinents, n’ont pas été observés, pas plus que les effets non-thermiques qui semblaient ouvrir la voie à de nouvelles perspectives en synthèse organique, mais dont les principes théoriques restaient trop fragiles.

Alors, la faute à qui, à quoi ? aux chimistes trop passionnés, trop heureux de résultats réellement extraordinaires. Et surtout à l’utilisation de capteurs de température, comment dire… absurdes ? Effectivement, ce sont des capteurs thermiques qui mesurent la température de l’EXTERIEUR du récipient. Si on regarde à nouveau le profil de température de la figure précédente, on voit que cela n’est pas du tout pertinent, puisqu’il s’agit de l’endroit du réacteur le plus froid ! En réalité, lorsque les chercheurs affirmaient qu’un chauffage de 100°C aux micro-ondes était plus efficace qu’un chauffage de 100°C conventionnel, ils se trompaient ! le mélange réactionnel était sans aucun doute beaucoup plus chaud !

Le mérite de Kappe et coll. a été, et est toujours de proposer des contre-expériences rigoureuses, permettant de reproduire les mêmes conditions expérimentales de température, pression, temps de réaction pour le chauffage conventionnel et pour le chauffage aux micro-ondes. Ce qui n’était pas gagné, compte tenu de ses spécificités (chauffage très rapide, gradient de température différent dans le réacteur,…)

Cela ne signifie en aucun cas la fin de l’utilisation des micro-ondes en chimie organique : ce mode de chauffage a de nombreux avantages, et en particulier d’être plus économe en énergie (car les temps de réaction sont considérablement réduits), et de ne pas nécessiter de solvant. Quasiment la panacée en terme de ‘Chimie verte’ ! Par contre, en terme de nocivité du rayonnement micro-onde, les médecins et chercheurs en biologie pourront se concentrer uniquement sur un effet thermique des micro-ondes, et laisser de côté la formation de molécules potentiellement nocives.

Et puisque c’est comme ça, je vais manger la bonne pâte de coing de mon beau-père, obtenu par chauffage non conventionnel, et qui est non toxique, et même délicieuse ! (sauf quand il ne la passe pas suffisamment finement au moulin…)

 

Sources :

http://brsmblog.com/?p=1756

‘Microwave Effects in Organic Synthesis: Myth or reality?’ O.C. Kappe et al., Angew. Chem. Int. Ed. 2013, 52, 1088-1094

Microwaves in organic synthesis. Thermal and non-thermal microwave effects‘ A. De la Hoz, Chem. Soc. Rev. 2005, 34, 164-178

Voyage au pays des matières grasses : les acides gras (2)

Maintenant qu’on y voit un peu plus clair sur les acides gras, leurs structures et la réactivité des acides gras saturés (voir première partie), voyons comment se comportent les acides gras insaturés. Ceux-ci se distinguent des premiers par la présence, je le rappelle, d’une ou plusieurs doubles liaisons. Comme j’ai pu l’évoquer précédemment, l’énergie nécessaire pour modifier une double liaison est beaucoup plus faible que pour casser une simple. Et cela permet de multiplier les réactions possibles.

Le chimiste, en laboratoire, va pouvoir engager un acide gras dans tout un tas de réaction, permettant d’accéder à une grande variété de nouveaux composés. Prenons par exemple un acide gras  » oméga-3  » :

réactivité acide gras insaturé

Les chimistes avertis auront reconnus :

  • En 1 et 2 : une époxydation suivi d’une hydroxylation
  • En 3 : une hydrogénation permettant d’obtenir l’acide gras saturé correspondant
  • En 4 : une coupure oxydante : dans ce cas, la suite de réaction permet non seulement de couper la double liaison, mais aussi la liaison simple restante…
  • En 5 : une hydratation (addition d’une molécule d’eau, tout simplement)
  • En 6 : Plus compliqué, avec un certain type de réactif, une réaction de type ‘Diels-Alder
  • Etc…

[Note de la rédaction : liste absolument non exhaustive : par exemple, la plupart des atomes d’oxygène qui sont additionnés sur la double liaison pourraient être remplacés par des azotes, soufres, et beaucoup d’autres éléments, ou molécules…Je ne parle pas non plus des additions radicalaires, ni des métathèses, ni encore de toute la chimie organo-métallique que l’on pourrait imaginer, ou de l’activation de la liaison C-H du carbone adjacent…)

Et le point de vue du biochimiste ? et les réactions in vivo ?

Les machines chimiques que sont les protéines sont souvent capables de rendre possible des réactions chimiques où les liaisons sont très difficiles à rompre. Cependant, les lois de la chimie sont les mêmes partout, et ce sont avant tout les liaisons « fragiles » qui vont pouvoir être modifiées par les organismes. Cela semble se vérifier avec les acides gras insaturés.

Effectivement, si les acides gras saturés semblent ne « servir » au corps humain qu’en tant que constituant des parois cellulaires, et comme réserve d’énergie (voir le billet précédent), les acides gras insaturés ont des rôles supplémentaires.

Tout commence, pour la plupart des mammifères, avec deux acides gras, un oméga-3, l’acide α-linolénique, un oméga-6, l’acide linoléique, qui sont dits essentiels, car non fabriqués par le corps.

acide linolénique

 

Acide linoléique

Les doubles liaisons servent à ‘activer’ les liaisons voisines, c’est-à-dire à augmenter leur réactivité, et cela permet la synthèse d’autres acides gras, comme par exemple acide arachidonique.

acide arachidonique

Ces acides poly-insaturés peuvent agir directement comme messager cellulaire, en particulier lors des processus d’inflammation. La présence des doubles liaisons est sans aucun doute à l’origine de la reconnaissance de ces molécules par leurs récepteurs. Mais ce n’est pas tout : ils sont à l’origine d’une classe importante de molécules du vivant : les eicosanoïdes. Si ce nom ne vous dit rien, celui de « prostaglandine » vous parle sans doute plus. Cette grande classe de composés ont des rôles très variés dans l’organisme, depuis l’agrégation plaquettaire, la fièvre, jusqu’aux contractions utérines lors d’un accouchement.

La réactivité des doubles liaisons, à la fois « riches » en électrons et faciles à rompre, permet leur modification par de nombreuses enzymes, permettant d’atteindre des composés à la structure variée. Un exemple (non exhaustif !) est donné sur wikipédia : L’acide arachidonique est modifiée en un premier composé (la prostaglandine H2) (le mécanisme est déjà relativement complexe, avec addition de dioxygène, migrations de doubles liaisons,… mais tout peut s’expliquer a priori par de simples considérations de liaisons qui se fond et défont, en fonction de leur énergie, accessibilité, …), qui est transformé en d’autres prostaglandines, thromboxanes, et prostacyclines.

Prostanoid_synthesis

 

Alors à la fin de cet exposé, la question qui me reste sur le bout du clavier, est : pourquoi diable les acides gras saturés sont plus nocifs pour la santé que les acides gras insaturés ?

Il me semble, et cela n’est que mon avis qui devrait être vérifié, que le problème réside dans l’accumulation de ces espèces chimiques : Les acides gras saturés sont nécessaires dans notre organismes, et c’est leur excès qui pose un problème de santé. Lorsque tous les besoins sont satisfaits, c’est uniquement sous la forme de graisse que sont stockés ces molécules. Dans le cas des acides gras insaturés, leur utilité est multiple, et ils sont en permanence utilisés pour produire d’autres composés essentiels à notre corps. Leur accumulation paraît (« me paraît » devrais-je dire) plus improbable, ces acides gras profitant de diverses voies métaboliques pour être consommés par l’organisme.

C’est pas tout ça, mais ça m’a donné bien faim d’écrire tout cela. M’en vais manger une tartine de beurre (63 % de matières grasse saturées, bof bof…) avec du Nutella dessus (20 % d’huile de palme, constituée de 100 % de matières grasses saturées, re-bof…). Et c’est pas grave, pour équilibrer, je compléterais avec une salade-vinaigrette à l’huile de colza (97% d’acides gras insaturés) et à l’huile d’olive (85 % d’insaturés). Bon appétit bien sûr !

Le glaçon dans l’apéro, l’iceberg et la montée des eaux…

On présente souvent la fonte des icebergs, immenses glaçons flottant dans les océans, comme la cause d’une hausse du niveau des mer. et, même si le échelles et les conséquences ne sont pas comparables, la fonte du glaçon dans un verre d’apéritif rempli à ras-bord comme la cause de son débordement.

Et bien non, dans ces deux cas, la fonte des glaces et des glaçons ne sont pas en cause. Pour simplifier, et parce que le temps s’y prête, on va faire notre raisonnement à l’aide du verre d’apéro.

Essayons d’y voir plus clair. Comme chacun sait, la glace, ça flotte. Comme chacun sait, c’est parce que l’eau a la propriété (assez rare) d’être moins dense à l’état solide qu’à liquide, ce qui fait que 1 litre de glace a une masse de 917 g (Pour les puristes, je parle ici de la glace « ordinaire », puisque l’eau solide peut exister sous plusieurs formes, dont la plupart ont une densité supérieure à 1. Voir Wikipédia par exemple). Bref, en langage courant et abusif, « c’est plus léger, donc ça flotte ».

En fait, c’est grâce à la fameuse poussée d’Archimède qu’un corps moins dense qu’un fluide « flotte ». Sans vouloir refaire un exposé sur la poussée d’Archimède, je souhaite juste ici en rappeler le principe de base. A cause de la gravité, la pression augmente lorsqu’on descend sous l’eau (ou dans l’air, ou dans n’importe quel gaz ou liquide). Ce qui fait qu’un objet plongé dans l’eau subit une force de pression plus importante dans sa partie la plus profonde que dans sa partie la plus haute. 

Les flèches symbolisent les forces de pression. Sur les côtés, elles se compensent. Par contre, les forces de pression en bas sont plus importantes qu’en haut, d’où une force globale qui fait « remonter » l’objet immergé.

Bon, les lois de la statique des fluides nous permettent d’établir une expression de cette force verticale, vers le haut :

 Π = ρ(fluide) . g . V(immergé)

(Π étant la valeur de la poussée d’Archimède, ρ la densité du fluide dans lequel est immergé l’objet, g une constante, et V le volume de l’objet effectivement immergé)

Cette formule amène deux commentaires :

  • la densité du corps plongé dans le fluide n’intervient pas : une balle de polystyrène et une boule de pétanque de même volume, maintenus dans l’eau, subissent la même poussée vers le haut. Par contre, le poids de la boule de polystyrène est beaucoup plus faible, et donc la poussée d’Archimède peut le compenser. Ce qui n’est pas le cas de la boule de pétanque, dont le poids est beaucoup trop grand.
  • L’objet, s’il est trop léger, c’est-à-dire que son poids ne permet pas de compenser la poussée d’Archimède, va remonter vers la surface, et une partie va émerger au-dessus du fluide : V(immergé) va donc diminuer, et ainsi la valeur de la poussée, jusqu’à ce qu’elle soit identique à celle du poids. A ce moment, les forces se compensent, et l’objet est en équilibre.
  • la densité du fluide intervient : plus il est dense, plus la poussée est grande. On peut ainsi faire flotter une lourde pièce de monnaie sur du mercure.

Pour aller un peu plus en profondeur (hum…), on peut détailler les calculs pour un objet qui flotte : L’équilibre est donc atteint lorsque le poids et la poussée d’Archimède se compensent exactement.

On a alors :  Π = P , c’est-à-dire  ρ(fluide) . g . V(immergé) = ρ(objet) . g . V(total)

On peut simplifier, et on obtient V(immergé) / V(total) = ρ(objet) / ρ(fluide)

Dans le cas de la glace, le calcul donne V(immergé) / V(total) = 0,917 ; soit 91,7% de la glace immergé, et le reste à la surface.

[Nota Bene : Tout cela est valable pour l’eau douce. Dans le cas d’un iceberg (eau douce) dans la mer (eau salée, donc de densité légèrement supérieure), la partie non immergée est un peu plus importante. L’idée du calcul reste identique.]

[Nota Bene 2 : on néglige bien sûr ici les poches d’air présentes dans les glaçons, dans les icebergs, ainsi que les forces liées à la tension superficielle, qui sont faibles comparées au poids dans ce cas]

Bon, et le rapport avec les océans qui débordent et le niveau de l’apéro qui monte ?

Alors souvenons-nous de la situation avant que le glaçon fonde : le verre est remplie à ras-bord, avec un glaçon qui dépasse. Le volume {apéro + glaçon} dépasse donc les capacités du récipient. Donc la question est donc de savoir, lorsque le glaçon aura fondu, quel sera le volume final… Pour répondre rigoureusement à cette question simple, il faut se souvenir que si le volume va varier, la masse, elle, non.

Du coup, on peut exprimer la masse du glaçon de 2 façons :

m =  ρ(glace) . V(glaçon) avant qu’il ne fonde, et  m =  ρ(eau) . V(glaçon fondu) après

En combinant ces expressions, on obtient que V(glaçon fondu) / V(glaçon) = ρ(glace) / ρ(eau) = 0.917 !

Donc, en résumé, le volume du glaçon fondu est exactement le même que le volume immergé du glaçon !

L’apéro ne déborde pas ! OUF !

Et le niveau des océans ne monte pas non plus. Enfin, pas pour cette raison.

Pour les océans, il est plus raisonnable de penser à la dilatation liée à l’augmentation de la température. Je n’ai pas vérifié, mais c’est plus plausible. Pour l’apéro, il semblerait, d’après une loi purement empirique, que le taux de débordement soit proportionnel au nombre de verre dégusté…

[Nota Bene 3: J’avais prévu de mettre de belles photos de mon cru, mais il s’est avéré que mes glaçons étaient trop bien fait, sans assez d’air dedans pour les faire émerger de façon bien visible… Alors je me suis mis en quête d’une bonne photo sur le net, et me suis rendu compte à ce moment du subterfuge : pour faire apparaître des glaçons qui sortent à 50 % de l’eau, les photographes remplissent complètement le verre de glaçons, et celui qui surnarge, en fait, ne flotte pas, mais tient sur la pyramide constitué par les autres morceaux de glace. Il va sans dire que dans ce cas, mon petit calcul ne tient pas du tout… Allez, je mets quand même une photo, ça servira pour apparaître en Une…]

La physique des arcs-en-ciel

Le phénomène des arcs-en-ciel est expliqué partout, à l’aide d’un petit schéma montrant la dispersion de la lumière dans une goutte d’eau.

Image de l’excellent blog scienceetonnante.wordpress.com

L’idée physique à l’origine de ce schéma, c’est qu’une goutte d’eau se comporte comme un prisme en optique : la lumière blanche qui arrive au niveau de la goutte est composé de toutes les couleurs possibles. [à chaque couleur correspond une « longueur d’onde« ] En traversant la surface de séparation entre l’air et l’eau, les différentes couleurs sont déviées, dans des directions différentes, dépendantes de leurs longueurs d’onde [ce qui correspond aux phénomènes de réfraction et de dispersion de la lumière]. C’est un peu sommaire, comme explications, mais en allant voir les liens, on finit par y voir suffisamment clair.

Bref, à partir de la lumière blanche, du soleil, on obtient dans des directions différentes, toutes les couleurs de l’arc-en-ciel. CQFD ?

Hélas, ou tant mieux, les choses ne sont pas du tout aussi simple. Et avec mon collègue et ami Alex, nous avons passé des heures à discuter, modéliser (surtout lui, pour la modélisation !)  pour essayer de voir plus clair.

Premier point, le plus simple : l’ordre des couleurs de l’arc-en-ciel. Contrairement (apparemment seulement) à cette photo, l’ordre des couleurs de l’arc-en-ciel principal est, du bas vers le haut : rouge, orange,… jusqu’au violet. La contradiction n’est qu’apparente. En fait, il faut se rappeler que pour que  l’on  voit un « objet », en optique, il faut que de la lumière, que l’on modélise sous forme d’un « rayon » lumineux, parte de cet objet, et arrive jusqu’à notre oeil. Un arc-en-ciel est un objet « étendu », c’est à dire qu’on peut le voir comme un ensemble de point émettant de la lumière. Donc pour qu’on puisse le voir, il faut qu’un rayon lumineux provenant de chaque point, c’est-à-dire de chaque goutte d’eau soit intercepté par notre oeil. Ainsi, pour expliquer l’ordre des couleurs,  c’est un « mur » de goutte telle que celle présentée sur le schéma suivant qu’il  faut imaginer. Chaque goutte renvoie toutes les couleurs,mais notre oeil intercepte seulement une couleur par goutte, suivant sa position. Et dans ce cas, l’ordre des couleurs est bien respecté !

Ici, l’observateur (l’oeil à gauche) a le soleil dans le dos. Il faut imaginer chaque goutte (à droite) ré-émettant toutes les couleurs à la fois, dans toutes les directions comprises entre le rayon bleu, et le rayon rouge, matérialisés en traits fins. Mais chaque goutte ne renvoit qu’une seule couleur dans la direction de l’observateur (traits épais), ce qui lui fait voir l’arc-en-ciel, comme une image étendue, projetée sur un écran de goutte d’eau…

[Une question ouverte pour les matheux : peut-on parler de passer d’un espace à son « espace réciproque », dans  ce type de situation, où on passe d’un phénomène qui part d’une goutte pour émettre de la lumière dans toutes les directions, à la situation où on a une « infinité » de sources lumineuses qui émet de la lumière vers un seul point ? Je sais, ce  n’est pas très clair, mais cela me fait tellement penser aux dispositifs où la figure de diffraction est la transformée du dispositif diffractant…]

Voyons maintenant un GROS problème. les fameux 42° . Pour ceux qui ne sont pas encore au courant, l’angle formé entre les rayons provenant du soleil vers l’arc-en-ciel et ceux venant de l’arc jusqu’à l’observateur est d’environ 42°. On trouve par exemple ce type de schéma :

(Source : http://www.figer.com/publications/betisier.htm)

ou encore ça :

source : http://ark-en-ciel.e-monsite.com/pages/i-qu-est-ce-qu-un-arc-en-ciel.html

Là où le problème se pose, c’est qu’en fait, la goutte en entier est éclairée par le soleil. ET donc là où on dessine un rayon incident, il faudrait en dessiner une infinité, tous parallèles entre eux, arrivant sur toute une moitiée de goutte. Si on fait cela, grâce au logiciel Geogebra (et je tiens ici à exprimer mon profond respect à Alex qui a programmé cette situation), et on calcule les angles de sortie des rayons, on obtient ça :

En jaune un rayon du soleil. En bleu, les rayons issus de la goutte, pour une seule couleur donnée, pour des rayons du soleil frappant, avec le même angle, toute la surface à gauche de la goutte

Bref, chaque goutte renvoie, pour chaque couleur, des rayons lumineux avec des angles de – 42° à 42 ° environ avec les rayons issus du soleil. Si on en reste là, pas d’arc-en-ciel, mais juste finalement, de la lumière de toutes les couleurs à la fois (donc blanche), provenant du mur d’eau !

Il faut donc trouver une explication valable. On la trouve (ici par exemple, ou  et ), sans beaucoup d’explication autre que des calculs certes intéressants, mais qu’il est difficile de transposer dans la situation réelle.

Grâce à la simulation sur Geogebra qui a permis le schéma précédent, et en multipliant les rayons incidents sur toute la surface de la goutte, on peut y voir plus clair :

On peut voir assez nettement ici que lorsque la goutte est entièrement exposée à la lumière, il y a un effet de concentration des rayons au niveau des angles maximaux de déviation : certes, la sphère d’eau ré-émet dans dans toutes les directions, mais avec une intensité beaucoup plus importante dans 2 directions : environ -42 ° (celui-là, on ne le voit jamais, sauf en avion) et + 42 ° : c’est la direction de l’arc-en-ciel. Alex avait réalisé des calculs pour montrer à quel point l’effet de concentration était efficace, mais non seulement cela alourdirait beaucoup ce billet, mais en plus il les a égaré… [par contre, on les retrouve ]

Le schéma précédent est évidemment valable pour une seule couleur. Pour les autres, l’angle de sortie sera légèrement différent, toujours autour des fameux 42°, ce qui permet de ré-obtenir les schémas si habituels avec les rayons de chaque couleur dans une direction différente, comme le premier de cet article.

[Néanmoins, pour les matheux, (mais qui ont la flemme d’aller sur les sites que j’ai évoqué), l’idée du calcul est de trouver l’expression de la dérivée de l’angle de sortie en fonction de l’angle d’entrée. Elle s’annule pour environ 42°, et de plus reste proche de zéro sur une plage assez importante d’angle incident. D’où l’effet de « concentration ».]

Mais les rayons renvoyés dans toutes les directions se voient aussi, et sont responsables de l’impression de ciel très lumineux que l’on a en regardant l’arc-en-ciel. Sauf dans une zone, que l’on appelle la bande d’Alexandre. Je reviendrais dessus dans quelques lignes.

Ce travail sur Geogebra, Alex l’a aussi appliqué à la modélisation de la formation de l’arc-en-ciel secondaire. En fait, cet arc-en-ciel nettement moins visible est formé par les rayons qui font une réflexion de plus dans la goutte avant de sortir. Lors de cette réflexion supplémentaire (comme lors de n’importe quel phénomène de réflexion ou réfraction) une partie de l’énergie lumineuse est perdue (ou transmise dans une autre direction). Ce qui explique une luminosité moindre.

[A ce propos, l’angle d’incidence a aussi une influence sur l’énergie transmise. Et on peut donc imaginer dans quelle direction l’énergie transmise est la plus importante, « par rayon », ou plus scientifiquement correct, par unité de surface éclairée par le soleil. Il s’avère que les fameux 42° correspondent à une direction privilégiée d’un point de vue énergétique, mais l’écart avec les autres directions reste faible, ne permettant pas d’expliquer le phénomène d’arc-en-ciel. Je serais ravi de fournir la modélisation qu’a réalisé Alex à ce sujet à tout(e) curieux(se)]

Ainsi, pour expliquer l’existence de ce second arc-en-ciel, on peut obtenir le schéma suivant, où l’on voit les rayons émergents après 2 réflexions :

on remarque dans ce cas que la plupart des rayons issus de la goutte sont cette fois-ci, à cause de la réflexion supplémentaire dans la goutte, plutôt vers l’arrière. Avec toujours l’effet de concentration des rayons dans une direction privilégiée, ici environ 51°.

Il est intéressant de décortiquer, pour finir, le phénomène de la bande d’Alexandre. Il s’agit d’une bande plus sombre entre les arcs-en-ciel principal et secondaire (en dessous). Ça se voit vraiment très bien, pour peu qu’on y fasse attention :

[Au passage, on voit nettement sur cette photo les « arcs surnuméraires », juste en dessous de l’arc principal, mais qui sont dus à des phénomènes de type diffraction/interférence lumineuse.Explications par exemple ici]

En fait, le travail de modélisation permettant d’expliquer la zone d’ombre a déjà été présenté ici : il suffit de superposer les rayons issus de la goutte après une réflexion avec ceux issus de 2 réflexions :

On voit ici une petite zone dans laquelle la goutte ne renvoie pas de lumière du tout. Si on accumule pour toutes les gouttes du « mur d’eau », on s’aperçoit que pour une direction donnée, celle de l’observateur, les gouttes d’eau situées entre celles responsables des arcs-en-ciel secondaire et principal ne renvoie pas de lumière du soleil. D’où l’impression plus sombre du ciel à cet endroit. [Je n’ai pas réussi à faire une capture d’image suffisamment claire pour cela à l’aide de la simulation Geogebra,.. avec le mur de goutte, ça fait vraiment trop chargé…]

 

Bon. Nous voilà arrivé aux termes de ce billet. J’espère avoir été plus clair que d’autres sur ce sujet tellement vaste.

Evidemment, je souhaite remercier Alexandre pour tout son boulot (il ne s’est pas trop senti, finalement, pour la rédaction de l’article… ça sera pour la prochaine fois !)

N’hésitez pas à me demander de vous envoyer le fichier Geogebra de la simulation ! (dès que j’ai le temps, je vous l’incorpore directement dans l’article !)

A lire aussi:

 

Les additifs alimentaires et l’hyperactivité. Où en est-on ?

Les additifs alimentaires, ces fameuses molécules au nom de code commençant par le célèbre « E » font régulièrement parler d’elle. Il y a pas si longtemps, j’ai encore vu passer des « rumeurs » sur leur dangerosité, en particulier sur leur possible cancérogénicité. Ce n’est pas de ce soucis là dont je vais parler, mais des liens supposés entre ces additifs et l’hyperactivité. Relançant une hypothèse datant de 1975, une équipe de chercheur a publié en 2007 un article dans la prestigieuse revue The Lancet, mettant directement en cause des cocktails de ces additifs dans l’hyperactivité d’enfants de 3-4 ans, et de 8-9 ans.

CoraRoZ, dans sa participation aux Vendredis Intellos du 9 décembre, relaie ainsi deux éléments d’importance. Le premier est la demande d’interdiction de ces additifs par l’Association Belge des Consommateurs en cette fin d’année 2011, et le second est la demande du parlement européen d’étiqueter une mise en garde sur les produits en contenant, dès 2008.

Ces deux points sont intéressants. Le premier pose la question fondamentale de la sécurité des produits de l’industrie agro-alimentaire. Nous allons y revenir longuement. Pour le second, je rejoins des deux mains les commentaires de CoraRoZ et Mme Déjantée, qui s’offusquent de ce type de décision : on continue d’autoriser ces produits, mais on y adjoint une mise en garde… Soyons clair, soit ces additifs sont effectivement dangereux, et leur interdiction doit être une évidence, soit ils ne le sont pas, et dans ce cas, une mise en garde est malhonnête. Ce n’est pas au consommateur de faire ce choix, en surveillant chacun de ses plats et boissons, mais bien aux pouvoirs publics !

Revenons sur ces additifs, et les études qui les mettent en cause. La première date de 1975 effectivement. Ayant réuni un panel d’enfants hyperactifs, le Dr Feingold et son équipe leur ont proposé un régime alimentaire exempt d’additifs alimentaires, et ils ont observé une amélioration des symptômes de ce trouble du comportement. Ces travaux ont ensuite été de nombreuses fois repris, et ce sont une trentaine d’articles scientifiques qui ont été publiés depuis, dont le dernier (à ma connaissance) en 2007. En complément de ces études, les autorisations de ces additifs, ainsi que leurs doses maximales journalières tolérées, ont été maintes fois revues. Oui, à chaque fois qu’une étude scientifique est publiée sur un sujet aussi sensible, les agences nationales et/ou supranationales de sécurité alimentaire sont aussitôt saisies, pour produire très rapidement de nouvelles recommandations [Pour info, c’est le cas pour les parabènes, l’aspartame, etc… Et vous pouvez retrouver quelques uns de ces rapports, résumés et simplifiés en français sur le site http://www.greenfacts.org ].

Et ainsi l’EFSA, l’agence de sécurité alimentaire européenne a produit un rapport de 50 pages en 2008, écrit par 18 « experts » déclarant ne pas avoir de conflits d’intérêts sur le sujet, sur la pertinence de l’article publié  en 2007 par McCann et son équipe.

Entrons dans le vif du sujet. L’étude qu’à mené l’équipe de McCann consiste à donner à des enfants « normaux », soit un placebo, soit deux mélanges distincts de 4 colorants alimentaires et du benzoate de sodium (conservateur présent… partout). Les précautions méthodologiques ont consisté à faire une étude en double aveugle, si bien que ni les parents, ni les enfants, ni même les chercheurs qui donnaient les mélanges ne pouvaient savoir si c’était le placebo ou le mélange « actif » qui étaient consommés chez tel ou tel enfant. L’hyperactivité des enfants a été évaluée par leurs parents, leurs enseignants, ou éventuellement un chercheur extérieur. Les résultats présentés montrent une augmentation globale du score indiquant des troubles de type « hyperactivité » chez les enfants de 3-4 ans et chez les enfants de 8-9 ans testés, par rapport au placebo.

Le soucis, c’est qu’une fois encore, cette étude souffre de nombreux problèmes méthodologiques, ou d’interprétation des résultats, qui ont été soulignés et évalués par le panel d’expert de l’EFSA, qui a donc maintenu ses conclusions de sécurité sur les additifs concernés. Les doses maximales admises pour ces additifs sont inchangées, et sont dictées par leur toxicité, et non par leur implication dans d’éventuels troubles du comportements.

Voici la liste des biais relevées, (mal) traduite en français :

• « la cohérence limitée des résultats à l’égard de l’âge et le sexe des enfants, le
effets des deux mélanges d’additifs testés et le type d’observateur (parent, enseignant ou observateur indépendant);
• la pertinence clinique inconnue de la nouvelle métrique, le score GHA;
• la pertinence inconnue de l’effet dû au petit effectif (comme l’a également vu dans la méta-analyse des études par Schab et Trinh, (2004));
• le fait que l’étude n’a pas été conçu pour identifier les effets des différents
additifs
• un manque d’information sur le lien dose-réponse;
• l’absence d’un mécanisme biologiquement plausible pour l’induction d’effets comportementaux de la consommation d’additifs alimentaires. »
Effectivement, si l’étude a bien été menée en double aveugle, des biais statistiques apparaissent : sans entrer dans les détails, la ligne de base a été un peu truandée, en prenant une ligne de base moyenne et en mesurant les écarts au score mesurant l’hyperactivité de façon individuelle, ce qui a eu pour effet d’amplifier les cas positifs.
De plus, l’évaluation des troubles du comportement a été confiée à des personnes non qualifiées : parents et profs en particulier, et il a été observé dans de nombreuses études précédentes un vrai écart entre cette évaluation et celle de psy spécialisés. Pour évaluer cette hyperactivité, les chercheurs ont aussi utilisé une nouvelle métrique, le « score GHA », dont la pertinence n’a jamais été étudiée.
Des graves incohérences quant aux résultats mettent aussi le doute : Si le mix A (et pas du tout le mix B !)  semble avoir quelques effets chez les 3-4 ans, c’est l’inverse pour les 8-9 ans !  C’est quand même ennuyeux…
Enfin, deux éléments supplémentaires vont dans le même sens :
  • Il n’y a pas d’étude de dépendance des symptômes en fonction des doses consommées, ce qui est un élément de crédibilité scientifique majeur.
  • Depuis 36 ans, aucun mode d’action biologique expliquant un tant soit peu ce lien entre hyperactivité et additifs alimentaires n’a pu être proposé, même par ceux qui sont persuadés de la nocivité de ces derniers… [Il faut dire que si on regroupe ces espèces chimiques sous le même terme « d’additif », elles ont des structures moléculaires très variées, ce qui a pour conséquence des actions sur l’organisme forcément très variées aussi…]
La question de l’hyperactivité semble ici écartée, si on fait confiance aux « sages » de l’EFSA. Evidemment, on n’est jamais sûr qu’il n’y ait pas de grossières manipulations, mais le rapport est bien détaillé, et m’inspire, scientifiquement parlant, confiance. Certes, les politiques subissent de multiples pressions de lobbies industriels qui pourraient fausser leurs points de vue. Mais ce qu’on observe actuellement, c’est plutôt le phénomène inverse : malgré l’absence de preuve tangible sur la dangerosité de certaines substances comme les parabènes, des lois sont en train d’être votées pour les interdire…

Néanmoins, au-delà de la nocivité éventuelle de ces nombreuses substances, vient la question de notre alimentation. Quel besoin avons-nous que notre sirop de menthe soit vert, que notre boisson préférée soit orange, et que nos céréales soit riches en exhausteur de goût ? Ces additifs transforment notre façon de voir nos assiettes, au risque de ne plus « comprendre » et apprécier un plat réalisé de façon traditionnelle.

Là réside peut-être le vrai danger.

Sources :

  • « Food additives and hyperactive behaviour in 3-year-old and 8/9-year-old children in the community : a randomised, double-blinded, placebo-controlled trial » D. McCann et al. Lancett,  2007, 370 (9598), 1542
  • « Scientific Opinion of the Panel on Food Additives, Flavourings, Processing Aids and Food Contact Materials (AFC) on a request from the Commission on the results of the study by McCann et al. (2007) on the effect of some colours and sodium benzoate on children’s behaviour« . The EFSA Journal, 2008, 660, 1-54.

>Pourquoi ça mousse lorsqu’on met de l’eau oxygénée sur une plaie ?

>Un des reflexes de nos (grand)-parents, c’était de nous désinfecter les petit bobos avec de l’eau oxygénée. Ça pique un peu, et surtout ça mousse. Quand on est petit, ça suffit largement pour se sentir mieux… (Quand on est adulte, il en faut un peu plus, c’est bien connu, les adultes sont des grands sensibles…). Mais au fait, pourquoi ça mousse ??

L’eau oxygénée est en fait une solution de peroxyde d’hydrogène (H2O2) dans de l’eau. Et ce peroxyde d’hydrogène, comme tous les peroxydes, est instable (ne regardez tout de même pas votre bouteille d’eau oxygénée de pharmacie ou pour vos lentilles comme si c’était un explosif, à cette concentration là, il n’est pas dangereux). Il se « dismute » facilement, en eau et dioxygène :

C’est pour ça que les bouteilles ne se conservent pas très longtemps, surtout une fois ouverte. Et c’est pour ça, indirectement, que ça mousse… 
En fait, cette réaction chimique est lente, très lente… Il faut plusieurs semaines pour qu’à température ambiante, l’eau oxygénée ne le soit plus. Mais comme la plupart des réactions chimiques, on peut l’accélérer, en chauffant, ou en la « catalysant ». Sans rentrer dans les détails de ce qu’est la catalyse, il s’agit içi de rajouter un composé qui va « activer » le peroxyde d’hydrogène et permettre une dismutation en quelques secondes. Plusieurs espèces chimiques sont des bons catalyseurs de la réaction : les ions Fer(III) (ceux présents dans la rouille), le platine métallique par exemple. Et puis il y a les « catalases », protéines déjà évoquées dans le billet sur le stress et le cancer. La raison d’être de ces enzymes, c’est justement de débarasser le corps d’un excès de peroxyde d’hydrogène. Et bien sûr, il y en a plein dans le sang ! La mousse est donc liée à une réaction enzymatique de dismutation du peroxyde d’hydrogène par les catalases présentes dans la circulation sanguine. (ça, c’était pour la jolie phrase de fin). 
Si vous êtes en vacances, et que vous vous ennuyez sous la pluie, vous n’êtes pas obligés de vous saigner pour reproduire l’expérience : des catalases, il y en a aussi dans le foie d’animal ,jus de navet et dans d’autres légumes… A vous de voir lesquels !