La fusion nucléaire contrôlée est-elle en passe de réussir ?

Jeudi 5 Mai 2022

Comment obtenir une énergie, propre (n’émettant pas des gaz à effet de serre ni de déchets radioactifs) et qui est disponible indéfiniment? Seule la fusion nucléaire répond à ces exigences dans la mesure où elle peut être contrôlée. Dans une réaction de fusion deux noyaux d’atomes légers (deutérium et tritium par exemple) fusionnent pour donner un noyau plus lourd (hélium). Au cours de la fusion il y a perte de masse qui selon l’équation d’Einstein se transforme en énergie. Maitriser la réaction de fusion permettrait d’obtenir de l’énergie en quantité infinie.

La fusion ne peut avoir lieu que si les noyaux atomiques sont séparés de leur environnement électronique pour cela il faut chauffer les atomes a des températures très élevées de l’ordre de 150 millions de degrés on obtient ainsi un plasma dans lequel noyaux et électrons sont séparés. Les noyaux peuvent alors se percuter et, si la percussion est très forte, fusionner. On a tenté de réaliser ces fusions de deux manières les « mégajoules » et les « tokamaks ».

Dans les mégajoules on enferme les deux gaz deutérium et tritium dans une capsule de la taille d’un grain de maïs, et on soumet cette capsule à une impulsion simultanée du rayonnement de 150 à 200 lasers dont la somme de capacités énergétiques est proche de deux mégajoules. La capsule et donc les deux gaz qu’elle contient reçoivent un choc énergétique susceptible de provoquer la fusion de leurs noyaux.

Les tokamaks sont des enceintes de forme torique enveloppées par une grille de puissants aimants. Dans cette enceinte les gaz deutérium et tritium sont chauffés jusqu’à atteindre la phase plasma où noyaux et électrons sont séparés ; les aimants vont maintenir le plasma en forme d’anneau qui ne puisse toucher et fondre les parois du tokamak. Les noyaux confinés à l’intérieur du plasma vont pouvoir fusionner et produire à leur tour de l’énergie par perte de masse.

Jusqu’ici les dispositifs mégajoule et les tokamaks avaient échoué dans l’initiation d’une réaction de fusion. Ce n’est plus le cas aujourd’hui ; les deux dispositifs les plus avancés : le NIF (National Ignition Project) mégajoule Américain et le JET (Joint European Torus) le plus grand tokamak en fonctionnement actuel basé en Angleterre ont publié des résultats particulièrement encourageants.

Les chercheurs qui travaillent sur le mégajoule américain ont annoncé avoir produit, le 8 août de l’année dernière, une réaction de fusion délivrant une quantité d’énergie à la limite de celle apportée par le tir des lasers*. Un tir de 1,9 mégajoule a produit une fusion délivrant 1,35 mégajoule  ce qui s’est traduit par une flamme qui s’est propagée à l’intérieur de la minuscule chambre plasmatique. Les chercheurs espèrent atteindre une énergie de fusion supérieure à celle fournie par un tir de lasers en améliorant la taille de la chambre plasmatique et l’efficacité des tirs.

En 1997, le tokamak JET avait généré pendant 1,5 seconde, une pulsion énergétique qui avait atteint les deux tiers de la quantité de celle qui lui était fournie**. Mais les progrès restaient insignifiants et l’appareil posait de nombreux problèmes. Cela a d’ailleurs conduit à la réalisation d’ITER,  tokamak géant (20m de diamètre) en cours de construction à Cadarache, qui devrait permettre un meilleur confinement du plasma. En attendant les chercheurs du JET ne sont pas restés inactifs, ils ont augmenté la puissance des aimants, modifié le système de chauffage et remplacé les parois internes de la chambre de leur tokamak  de façon à se rapprocher le plus près du futur ITER. Le 21 décembre 2021 ils ont pu maintenir pendant 5 s deux isotopes de l’hydrogène (Tritium et Deutérium) à 150 millions de degrés et créer une réaction de fusion libérant une énergie de 59 mégajoules 2,5 fois plus que les 22 mégajoules qu’ils avaient obtenus il y a 20 ans. Ce succès est encourageant pour ITER qui devrait enfin atteindre un rendement supérieur à l’énergie qui est dépensée pour entretenir le plasma.

Une réaction de fusion entretenue et contrôlée semble maintenant du domaine du possible ; bientôt pourrons-nous peut-être disposer d’une source d’énergie propre en quantité illimitée.

*Daniel Clery, Science, vol.373, N°6557, P.841.

**Daniel Clery, Science, vol. 375, N° 6581, p.600.   

L'accroissement des surfaces affectées aux cultures vivrières a été, sur deux décades, de 100 millions d'hectares !

 Mardi 5 Avril 2022

Une nouvelle carte globale des surfaces agricoles destinées aux cultures vivrières vient d’être établie* à partir de donnée satellitaires, elle montre que ces surfaces se sont accrues au cours des deux dernières décades de 100 millions d’hectares (deux fois la surface de l’Espagne).

La carte a été établie à partir d’images du programme Lansat de la NASA qui a lancé périodiquement une série de satellites qui ont photographié à chacune de leur révolution des surfaces qui bord à bord couvraient l’ensemble de la planète. Chaque pixel des images obtenues représentait environ 30 m2. L’équipe a visité des fermes dans différentes régions de notre planète ou a utilisé des images commerciales de Google pour distinguer les zones de culture des zones de prairie naturelles ou d’autres couvertures du sol.

 Si les besoins de terre pour de nouvelles cultures sont associés à la croissance très forte de la population africaine, les auteurs de l’étude soulignent aussi que la planète devient une ferme mondiale dans laquelle les pays riches se fournissent au détriment des pays pauvres. Par ailleurs la moitié des terres ont été reprises sur la forêt ou d’autres écosystèmes naturels au détriment du piégeage du carbone et du maintien de la biodiversité.

Entre 2000 et 2019, les surfaces mises en culture se sont accrues de 9% bien au-delà des prévisions calculées par la FAO qui n’étaient que de 2,6%. C’est en Amérique du Sud où l’expansion a été la plus forte, près de 50%, des nouvelles terres ont été affectées essentiellement à la culture du soja dont la demande a explosée avec le développement des élevages en Chine et ailleurs. Mais la croissance absolue la plus forte a été en Afrique : 40%. Il a fallu faire face à une population rapidement croissante et l’affectation de nouvelles terres à la culture sera encore nécessaire. Enfin l’Asie du Sud et les grandes plaines Nord-Américaines ont aussi agrandi leur surface agricoles vivrières.

Sur quelles couvertures naturelles du sol sont prélevées ces terres ? Si la conversion à l’agriculture des forêts humides comme la forêt Amazonienne reste la plus importante, de nouveaux espaces sur lesquels la biodiversité est plus ou moins grande sont largement empiétés comme les forêts sèches et les savanes (Chaco et le Cerrado en Argentine).

La biomasse obtenue sur les terres arables s’est accrue, sur la période d’étude, de 25% alors que la surface affectée à chaque individu a baissé de 10%. Il y a donc une meilleure efficacité dans les techniques culturales ; cependant l’Afrique obtient les moins bons résultats, il y faut plus de terre pour obtenir la même récolte. L’Afrique doit améliorer sa productivité agricole.

Enfin ces pertes diminuent le stockage par les arbres et le sol du carbone et contribuent ainsi à l’effet de serre. L’affectation des sols aux cultures vivrières contribuerait à un huitième des émissions humaines de carbone.

En 2000, des chercheurs (voir mon livre page 51) estimaient que l’augmentation des surfaces de terres affectées à la production vivrière en 2020 serait de 120 millions d’hectares ce chiffre bien que supérieur à ce qui a été atteint reste du même ordre de grandeur. Il était prévu qu’en 2050 il faudrait 350 millions d’hectares supplémentaires. Où allons-nous ! La demande en terres vivrières ne peut d’ailleurs se stabiliser qu’avec l’arrêt de la croissance de la population mondiale nous n’y sommes pas encore.

*Gabriel Popkin, Science, 7 janvier 2022, N° 6576, p. 12.     

L'expérimentation dans les sciences de la vie.

 Samedi 5 Mars 2022

Les sciences de la vie ont recours très souvent à l’expérimentation en ce sens elles font partie des sciences expérimentales. Expérimenter c’est répondre à une question : le phénomène biologique que l’on observe est-il déterminé par le facteur que nous supposons en être le responsable ?

Notons d’abord que le dispositif expérimental que nous allons mettre en œuvre pour répondre à la question qui est posée peut nous emmener à faire deux types d’erreurs. La première est la suivante : le résultat de l’expérimentation nous dit que l’hypothèse est juste alors qu’en réalité elle est fausse, c’est une erreur de type 1. C’est l’erreur la plus grave, elle fait plaisir au chercheur qui aime que son hypothèse soit bonne car elle va lui permettre de faire une publication, mais étant fausse elle peut faire circuler un résultat qui n’est pas en accord avec la réalité. L’on notera ici l’importance de refaire l’expérimentation. La deuxième erreur possible est que le résultat de l’expérimentation ne confirme pas l’hypothèse qui avait été faite alors qu’elle était vraie. C’est une erreur de type 2 qui est moins grave que la première car elle n’entraîne pas de publication erronée, mais en revanche elle fait perdre une information qui aurait fait progresser la science.

Après ces considérations d’ordre logique, comment peut-on concrètement aborder une expérimentation ? Il nous faut travailler sur un exemple  concret ; j’ai pensé à une observation agronomique que l’on peut faire à la fin de l’hiver : la chute des bourgeons floraux chez certaines espèces fruitières, ces bourgeons contiennent une petite fleur morte qui n’a pu éclore. Cette chute est-elle due au gel qui a sévi au cours de l’hiver ? Voilà une première question que l’on peut se poser.

Il serait stupide de commencer une expérimentation sans avoir fait une étude bibliographique du sujet. La science en effet est une œuvre collective où chacun apporte sa contribution à un sujet qui appartient à tous. Cette contribution peut-être minime ou décisive. L’étude bibliographique va consister à rechercher et à étudier toutes les publications qui ont une relation même faible avec le sujet et voir si la question que l’on se pose n’a pas déjà été traitée.

Pour dégrossir la recherche on peut aussi faire des observations sur le déroulement chronologique du phénomène ; est-il réellement en accord avec la survenue d’un épisode gélif ? On pourra par exemple établir au cours de l’hiver les dates d’apparition des fleurs détruites en prélevant chaque semaine des échantillons de bourgeons floraux dont on observera, après dissection, l’état des petites fleurs qu’ils contiennent. La courbe de fréquence hebdomadaire des bourgeons floraux détruits sera confrontée, dans un même graphique, à la courbe de variation des températures journalières et l’on verra alors si la venue d’une gelée a été suivie d’une mortalité des fleurs.

La phase expérimentale n’est réellement possible que si l’on réussit à induire le phénomène en soumettant l’arbre sensible à des températures négatives (non excessives évidemment, comme celles qui peuvent sévir en hiver) toutes les autres conditions (hygrométrie, éclairage, alimentation de l’arbre etc.) étant égales par ailleurs. Il existe pour cela des enceintes dans lesquelles on peut programmer une période climatique et faire varier à volonté l’un des facteurs du climat. Ainsi on pourra dans l’une, créer un climat hivernal sans gel et dans l’autre un climat hivernal avec gel. On placera dans chacune de ces enceintes des arbres en pots de la même variété et à la fin du cycle on observera les bourgeons des arbres traités différemment.

L’expérimentation devrait pouvoir dire si l’hypothèse qui a été faite est correcte ou incorrecte. Il faut noter ici que l’on rencontre fréquemment, au cours de sa réalisation, des obstacles imprévus qui nécessitent de la refaire  maintes fois avant d’obtenir une réponse non critiquable.    

Le télescope spatial James Webb

Samedi 5 Février 2022

Lors de son lancement le 24 décembre dernier de la base de Kourou en Guyane Française, on a beaucoup parlé du télescope spatial James Webb* conçu par la NASA. Nous voulons souligner ici l’originalité de l’appareil et ses possibilités.

Rappelons d’abord qu’un télescope est un appareil fait pour regarder des objets très lointains vers lesquels on dirige un miroir parabolique qui va concentrer la lumière qu’il reçoit de ces objets au foyer de sa parabole. C’est là que les astronomes vont recueillir l’image qu’ils recherchent. Plus le miroir parabolique est grand plus la lumière recueillie est importante et plus l’image sera nette ; en outre des objets très lointains émettant une faible lumière seront visibles.

Le miroir du télescope Webb (6,5m de diamètre) a plus de cinq fois la capacité de récolter la lumière que l’ancien télescope spatial Hubble (2,4m de diamètre). Il opère dans l’infra-rouge de 600 nanomètres à 28 500 nanomètres, ceci lui permet de voir la lumière d’objets très éloignés qui se décale vers le rouge et perce des nuages de poussière. Ce choix a nécessité de complexifier l’appareil par l’ajout de panneaux de refroidissement qui se déploient sous la parabole et créent une ombre qui refroidit passivement les instruments. Il sera aussi capable d’examiner, grâce à son équipement spectrographique, l’atmosphère des exoplanètes dont l’empreinte infrarouge n’est pas accessible aux télescopes terrestres.

La construction d’un télescope ayant de telles capacités avait été envisagée dès 1989 avant le lancement de Hubble. Il devait être disponible en 2011. Son coût évalué à 2 milliards de dollars en début de construction a, en définitive, atteint 11 milliards. Ces ajustements financiers successifs ont failli arrêter sa construction.

Les différentes opérations qui ont suivi le lancement de Webb ont été une période critique pour les responsables du projet (trente jours de terreur selon eux). Aussitôt dans l’espace le télescope a déployé ses panneaux solaires et deux heures après son antenne de communication. Au troisième jour, alors qu’il dépassait la lune, il a déployé ses panneaux de refroidissement. Au onzième jour, il a commencé à déployer le miroir parabolique qui est constitué de 18 éléments hexagonaux. Enfin des fusées d’appoint se sont allumées pour placer le télescope sur une trajectoire géostationnaire au point de  Lagrange L2 à 1,5 millions de Km de la terre autour duquel Webb tournera. Toutes ces étapes ont été franchies aujourd’hui.            

Ce télescope spatial pourrait voir des galaxies apparues entre l’aurore cosmique 200 millions d’années après le « big bang » et le midi cosmique quand la formation des étoiles culmine soit 2 milliards d’années plus tard (l’âge de l’univers est estimé à 13,8 milliards d’années). Une autre question pourrait être résolue, celle de l’origine des trous noirs.

Mais peut être la partie la plus intéressante de cette exploration serait l’examen des exoplanètes. La mission Kepler avait montré en surveillant  le voisinage de 100 000 étoiles que la présence d’exoplanètes n’était pas un phénomène rare mais la norme. Avec ses puissantes capacités d’observation, Webb devrait permettre de connaître la composition de l’atmosphère de petites exoplanètes de la taille de la terre. Cette atmosphère est-elle, pour certaines d’entre elles, compatibles avec la vie ?

En fait, ce télescope spatial exceptionnel va-t-il faire une découverte exceptionnelle ?

 

*Daniel Clery. Science, 12 Novembre 2021, N° 6569, pp. 807-811.      

Effets du braconnage sur la fréquence des éléphants sans défenses.

 Lundi 10 Janvier 2022

  

Le braconnage est à l’origine de la raréfaction d’espèces de grande taille sinon de leur disparition. Ainsi l’éléphant ne s’est maintenu en Afrique que dans des parcs nationaux car il a été chassé à outrance pour ses défenses en ivoire.

Des auteurs* se sont intéressés à l’effet du braconnage pendant la guerre civile au Mozambique (1977 à 1992) sur l’évolution des éléphants du parc national du Gorongoza. Ce braconnage évidemment avait pour cible la récupération des défenses d’éléphants qui étaient revendues par les deux protagonistes en conflit pour entretenir leurs armées. En éliminant les éléphants pour prélever leurs défenses, les braconniers ont réalisé une sélection dont ils n’avaient pas conscience sur le caractère : présence/absence de défenses. Il existe en effet dans la population d’éléphants, des individus femelles qui naturellement n’ont pas de défenses et dont le nombre a augmenté. Sur les 28 années de l’étude comprenant les 15 années de guerre civile,  les auteurs ont observé que le nombre de femelles sans défenses avait augmenté de 33% alors que la population globale n’avait cessé de décliner. Cette augmentation s’est révélée supérieure à celle antérieure au conflit (18,5%) ; elle était aussi supérieure à ce à quoi on aurait pu s’attendre en l’absence de sélection. Chez les mâles  le caractère absence de défenses n’existe pas et les prélèvements de braconnage ne l’on pas fait apparaître. Comment interpréter ces résultats ? Le braconnage avait induit une réponse évolutive, la fréquence dans la population d’éléphants de gènes déterminant la présence ou l’absence de défenses avait été modifiée. Quels étaient ces gènes ?

Les auteurs ont montré que par analogie avec ce qui se passe chez l’être humain, deux loci sont impliqués : celui qui intervient sur la synthèse de l’émail et du cément de la dent AMELX et celui qui intervient sur la dentine (ivoire) MEP1A. Le premier est situé sur le chromosome sexuel X, le deuxième sur un autosome (chromosome non lié au sexe). Les allèles qui sont présents sur le locus AMEXL sont à l’origine de la synthèse d’une protéine qui serait impliquée dans la bio-minéralisation de l’émail de la dent.

L’absence de défenses serait consécutive à une mutation dominante de l’un des allèles portés par AMEXL. Ainsi la femelle de génotype amxl/amxl possède des défenses, la femelle AMEXL/amexl ou AMEXL/AMEXL n’en a pas. Chez les mâles qui n’ont qu’un chromosome sexuel X, nous ne pouvons avoir que les génotypes suivants AMEXL ou amexl c’est-à-dire qu’il devrait y avoir dans la population des individus sans défenses et des individus avec défenses or tous les mâles ont des défenses ! Les auteurs expliquent que le locus AMELX serait proche du locus d’un gène létal et que les mâles AMEXL seraient ainsi non viables avant leur naissance.

Ce qui est intéressant dans cette étude c’est qu’inconsciemment, les braconniers ont modifié génétiquement la fréquence des gènes favorables à la survie de l’espèce. Ils ont agi comme le ferait la sélection naturelle !

 

Jane C. Campbell-Staton et al. Science, 22 octobre 2021, N°6566, pp.483-487 ;        

La notion de race en biologie

Dimanche 5 Décembre 2021


Le monde biologique est constitué d’espèces (exemple : l’espèce abricotier, l’espèce chien) qui se partagent ou se disputent l’énergie et les nutriments disponibles à la surface de notre planète. Leur nombre est  extraordinairement grand, leur diversité surprenante. Une espèce est un groupe de populations qui s’entre croisent naturellement, mais ces populations sont isolées de celles d’une autre espèce par une impossibilité de reproduction. Une espèce a en fait une cohésion génétique historiquement acquise par l’évolution et partagée par tous ses membres.

Comment se forment les espèces ? On doit à Ernst Mayr* d’avoir établi que l’une des voies les plus fréquentes de la spéciation est l’isolement géographique : « une nouvelle espèce se développe quand une population de cette espèce, isolée géographiquement des autres populations de l’espèce parentale, acquiert durant cette période d’isolation des caractères qui garantissent son isolation reproductive après que les barrières externes se soient rompues ».

Supposons qu’un groupe d’individus appartenant à une espèce se déplace et qu’il s’éloigne géographiquement de la population d’origine au point qu’il n’y ait plus d’échanges génétiques entre ce groupe et la population d’origine. Que va-t-il se passer pour ce groupe isolé ? Soit son potentiel génétique, trop petit, va s’amenuiser du fait de l’absence d’échanges avec les individus de l’espèce source et les effets de la consanguinité, le groupe va alors disparaître ; soit son potentiel génétique est assez grand alors  le groupe va se maintenir et se développer. Il va aussi évoluer. Les nouvelles mutations qui apparaîtront chez certains individus de l’isolat seront soumises à la sélection naturelle du milieu géographique nouveau et peu à peu cet isolat va diverger génétiquement et phénotypiquement de l’espèce source. Quand il aura acquis des caractères qui garantissent l’isolation reproductive, si les barrières géographiques disparaissent, alors il n’y aura plus d’échanges génétiques possibles entre l’espèce source et ce qu’est devenu l’isolat, ce dernier constituera une nouvelle espèce.

La formation d’une nouvelle espèce étant un processus très lent, il n’est pas possible de suivre ce phénomène de spéciation géographique au cours d’une vie de chercheur, mais on peut en reconstruire des séries continues en ordonnant des stades fixés dans une séquence chronologique correcte. Ainsi une population isolée lorsqu’elle présente des individus ayant des caractères différents de l’espèce source est devenue une race géographique, si la divergence s’accroît on aura une sous espèce, enfin quand il n’y a plus possibilité de croisements avec l’espèce source du fait de l’apparition d’une barrière génétique provenant de mutations, l’isolat est une nouvelle espèce. Tous ces stades ont été décrits.

La race géographique traduit donc les premiers stades d’adaptation au nouveau milieu de la population qui s’est séparée et isolé géographiquement de l’espèce source. Elle est le résultat d’une sélection naturelle locale qui agit sur les mutations nouvelles apparues dans cette population.

Et l’espèce humaine moderne Homo sapiens, qu’elle est sa place dans tout cela ? L’espèce humaine est aussi issue de l’évolution ; elle est apparue en Afrique il y a 200 000 ans. Elle a semble-t-il échoué dans une première tentative d’expansion vers le proche orient il y a 120 000 ans. Puis, il y a 60 000 ans, dans une 2ème tentative, elle a migré vers l’Asie occidentale et l’Australie. Enfin elle a occupé l’Europe à partir de 40 000 ans ; il y a 26 000 ans Homo sapiens était seule en Europe (voir mon billet Out of Africa). Les groupes d’humains qui ont effectué ces périples se sont isolés peu à peu de la population source d’Afrique tant que les moyens de déplacement étaient réduits à la marche. Ces isolats ont commencé à évoluer sous la pression sélective des nouveaux milieux dans lesquels ils s’étaient installés. Ainsi sont apparues des races géographiques que nous connaissons surtout par leur couleur de peau (voir mon billet la couleur de notre peau) qui est le caractère le plus distinctif qu’elles offrent à la vue, mais en fait une adaptation au rayonnement solaire. D’autres caractères, que nous ne voyons pas, ont été modifiés par la sélection naturelle comme la résistance au chaud ou au froid (un esquimau est plus résistant au froid qu’un africain et inversement un africain est plus résistant à la chaleur qu’un esquimau), la résistance à certains parasites, à certaines maladies etc.  Ces races géographiques auraient pu évoluer vers de nouvelles espèces si l’isolement s’était maintenu. C’est probablement à la Renaissance que les conditions d’isolement ont changé profondément. L’accroissement de la  sécurité de navigation à rompu complètement l’isolation des continents, les échanges génétiques ont repris entre les races géographiques qui s’étaient constituées et l’espèce humaine a pu retrouver sa globalité génétique. Mais il reste encore les traces de cette évolution pluri spécifique.

 Notons que la biologie n’émet  pas des jugements de valeur : une race n’est pas supérieure à une autre ; elle est mieux adaptée au milieu dans lequel  elle vit que ne l’est une race vivant dans un autre milieu.

*Ernst Mayr.  Population Species and evolution, The Belknap press of Harvard University, Cambridge Massachussets U.S.A. 1963

La qualité de l'air intérieur que nous respirons

Vendredi 5 Novembre 2021

La pandémie du Covid a mis en relief le problème de la qualité de l’air intérieur que nous respirons. Y-a-t-il des précautions à prendre pour que cet air ne soit pas contaminé ? D’une manière plus générale, l’air que l’on respire à l’intérieur des immeubles est-il de qualité satisfaisante ? Un chercheur* spécialiste du sujet, a établi quelques règles que je vais exposer dans ce billet.

Avant le Covid on connaissait le syndrome de la maladie des immeubles découvert dans les  années 1970 : fatigue, démangeaisons oculaires, maux de tête, lassitude. On a pensé que l’exposition à un air contaminé par des substances organiques volatiles émises par les matériaux de construction pouvait être la cause de cette maladie. Les nouvelles règles de constructions préconisées à partir de 1990 en vue de rendre les immeubles mieux isolés ont éliminées les matériaux susceptibles de produire ces substances, mais elles n’ont pas privilégié la qualité de l’air. Un air confiné est non seulement riche en substances volatiles mais aussi en micro particules : poussière, aérosols, pollens, et en CO2 issu de la respiration des occupants. Ce gaz participe au syndrome de la maladie du confinement.

Comment rendre un air intérieur plus sain ? En choisissant un mobilier non émetteur de substances volatiles, en renouvelant l’air, en le filtrant correctement, on doit améliorer considérablement ce que l’on respire.

Il faut bien choisir l’ameublement qui sera disposé dans les pièces : tapis, meubles et le revêtement des murs : peintures, papiers peints. Ils peuvent  être source de composés volatils organiques susceptibles de provoquer des irritations et des problèmes de santé. Il faut contrôler la qualité des meubles, bien connaître les matières avec lesquelles ils ont été fabriqués. On se méfiera aussi des tapis qui accumulent les poussières.

Un circuit fermé conventionnel de traitement de l’air peut servir à modifier sa température et filtrer les particules, mais il ne renouvèle pas l’air et notamment n’abaisse pas la teneur en CO2 provenant de la respiration. En utilisant une filtration de meilleure qualité, en admettant de l’air extérieur dans le circuit ou en ouvrant les fenêtres on améliorera la qualité de l’air intérieur. Prendre de l’air à l’extérieur est la meilleure façon d’assurer la qualité de l’air intérieur. Il est recommandé de renouveler chaque heure le volume de la pièce 4 à 6 fois soit par l’ouverture des fenêtres soit à l’aide du système de ventilation. Si l’air extérieur est fortement pollué il faudra le traiter, avant son admission à l’intérieur, par des filtres appropriés ou par un traitement qui retient les gaz toxiques.

Parmi les nombreuses particules que l’on trouve dans l’air intérieur des immeubles (soit qu’elles soient exhalées par les occupants, soit qu’elles soient remises en suspension par les déplacements dans les pièces), celles inférieures à 5 microns correspondent aux aérosols** transporteurs du virus du Covid, celles inférieures à 2,5 microns correspondent aux poussières. Le renouvèlement de l’air permettra d’éliminer les aérosols, sa filtration et un nettoyage régulier des surfaces, évitera la présence de poussières.

On néglige trop souvent le renouvèlement de l’air qui diminue le taux de CO2 et élimine les aérosols porteurs de virus.

  

 

*Douglas Starr, Science 6 Août 2021, N°6555, pp. 612-615

**les aérosols sont des particules microscopiques liquides, solides et semi solides qui sont si petites qu’elles peuvent rester en suspension dans l’air. Les aérosols respiratoires sont produits quand on respire, parle, chante, tousse, crache ; ils sont vecteurs de virus et de bactéries si celui qui les émet est porteur de ces parasites. Les postillons (gouttelettes) que l’on projette aussi dans les mêmes conditions, sont moins contaminants car ils retombent très vite au sol  (distance inférieure à 20 cm). On a élargi maintenant la définition des aérosols et l’on considère que 100 microns est la limite supérieure des microparticules qui restent suspendues dans l’air pendant plus de 5 secondes et peuvent se déplacer au-delà de 1 mètre.

Les Plastiques

 

Mardi 5 Octobre 2021

Les plastiques sont des matériaux indispensables à nos activités économiques mais qui posent aussi de graves problèmes de pollution. Il est devenu urgent de réduire celle-ci. Ainsi la revue Science* leur consacre une section spéciale  dont nous nous inspirerons pour rédiger ce billet.

 Qu’est-ce qu’un plastique ? C’est un polymère ; c’est à dire une longue chaine dans laquelle sont répétées une ou deux molécules carbonées  liées entre elles soit par deux de leurs atomes de carbone soit entre un atome de carbone et un atome d’oxygène. Ainsi le polyéthylène téréphtalate avec lequel on fait des bouteilles est une chaine de deux monomères, l’éthylène glycol et l’acide téréphtalique, qui se lient entre un atome de carbone et un atome d’oxygène.

 Utiliser une matière que l’on peut mouler ou modeler à chaud et qui durcit en refroidissant ce qui permet d’obtenir une large variété d’objets identiques au moule, est une idée ancienne. Dès le milieu du 19ème siècle on utilisait des sécrétions de certains arbres : résines, gommes et latex pour fabriquer des objets moulés. C’était les premiers bioplastiques car produits à partir de substances naturelles. L’étape suivante a été de faire des bioplastiques avec la cellulose polymère de D glucose principal constituant de la paroi squelettique des cellules des plantes. Par traitements chimiques on extrayait la cellulose de déchets issus du coton ou de la pulpe de bois ; ainsi ont été fabriqués dès 1856 le celluloïd (nitrate de cellulose) très inflammable que l’on utilise encore pour fabriquer les balles de tennis de table, la viscose (ou rayonne) à base de cellulose et de collodion permet d’obtenir des fibres (soie artificielle) utilisées en lingerie, la cellophane qui est un hydrate de cellulose utilisé pour les emballages alimentaires. Les plastiques naturels ou semi synthétiques ont été peu à peu supplantés par les plastiques issus des carburants fossiles (pétrole, charbon). Le premier d’entre eux est la bakélite obtenu en 1907 à partir du charbon et par la suite de 1920 à 1930 les chlorures et acétate de polyvinyle et le polyéthylène issus de la pétrochimie. Les plastiques issus de la pétrochimie ont pris une place prépondérante  sur le marché, les masses produites sont colossales. Voici la liste des principaux plastiques utilisés par l’industrie, les quantités produites annuellement, et leur principale utilisation.

Polyéthylène, 116 millions de tonnes, emballages alimentaires, plateaux, casiers.

Polypropylène, 68 millions de tonnes, emballages alimentaires, revêtement intérieur des véhicules.

Chlorure de polyvinyle, 38 millions de tonnes, cadres de fenêtres, gaines d’isolation, piscines gonflables, tuyaux d’arrosage.

Polyéthylène téréphtalate, 35 millions de tonnes, bouteilles.

Polyuréthane, 27 millions de tonnes, isolation des bâtiments, garnissage  des coussins et couettes, éponges de cuisine.

Polystyrène, 25 millions de tonnes, emballage du lait et de la viande, couverts jetables.

Divers, 75 millions de tonnes, fibres optiques, matériel chirurgical.

 Que deviennent ces matériaux une fois utilisés ? Ils sont, soit déversés dans des dépôts d’ordures, soit brûlés (auquel cas ils restituent dans l’atmosphère leur carbone sous forme de CO2, gaz à effet de serre), ou jetés n’importe où. Très peu sont recyclés car pour les rendre aptes à leur usage on ajoute des additifs ou on réalise des mélanges difficiles à dissocier. Les plastiques abandonnés vont être plus ou moins dégradés : mécaniquement, par un processus photochimique, par oxydation thermique ou par hydrolyse bactérienne. On va les retrouver dans l’environnement sous forme de fragments dont la taille va du méga-fragment au nano-fragment. Ils peuvent selon leur dimension et leur densité polluer les sols, l’air, les eaux de surface et les océans. Dans les sols s’ils sont correctement stockés dans des décharges contrôlées leur dispersion sera contenue. Laissés abandonnés dans des décharges hors contrôle ou jetés par négligence ils vont être dispersés et peu à peu dégradés. Les fragments selon leur taille vont être enfouis dans le sol ou emportés par les vents dans l’atmosphère ou entraînés par l’écoulement des eaux superficielles vers les océans.

Dans les sols, les plastiques peuvent altérer l’agrégation des éléments minéraux et, s’ils sont en trop grande quantité, réduire le passage de l’eau modifiant ainsi l’hydrologie souterraine. Un apport de plastiques peut aussi, en réduisant la densité du sol, être favorable à la croissance des plantes. On connait mal cependant les aspects positifs et négatifs de la présence en quantités importantes des plastiques dans les sols.

Des micro et nano-plastiques sont présents dans l’atmosphère et notamment dans l’air que nous respirons. Près des zones urbaines et des lieux de fabrication ils se déposent en grande quantité mais leur faible densité facilite leur transport sur des longues distances. On connait mal si leur présence affecte la qualité de l’air et l’albédo (fraction d’énergie solaire réfléchie par la terre).

Les plastiques entrent dans les eaux terrestres par mauvaise gestion des décharges, déversements directs ou par érosion des sols. Une fois dans l’eau, ils peuvent se déposer là où le courant ralentit, être dégradés dans la colonne d'eau,  ou transportés vers les océans. On estime que 1 à 2 millions de tonnes de plastiques sont transportés chaque année par les rivières vers les océans.

 Les océans reçoivent des plastiques par les rivières, les dépôts côtiers, les dépôts atmosphériques et les rejets directs. Dans les eaux océaniques on distingue la micro couche de surface, la charge flottante (celle que l’on étudie le plus souvent), la charge en suspension et la charge qui se dépose dans le fond des océans. Les plastiques ayant une densité élevée se déposent au fond des océans ils représentent environ 40% des plastiques immergés. On trouve d’ailleurs dans le fond des océans des zones fortement contaminées. Les 60% restants sont des plastiques flottants. Les plastiques flottants de surface (charge flottante) sont échantillonnés  entre 10 et 100cm de profondeur et représenterait entre 0,07 millions de tonnes et 0,20 millions de tonnes de plastiques. A des profondeurs au-dessous de 1m flottent des nano-plastiques, fins aux formes angulaires. Les plastiques flottants de surface sont les plus dangereux ; ils affectent l’écologie (ingestion souvent mortelle pour les espèces marines) et les fonctions biochimiques de la couche océanique qui couvre les deux tiers de la surface de la planète.

 Les plastiques sont présents partout. La dangerosité de cette pollution est surtout visible sur les animaux marins mais qu’en est-il de leur présence dans l’air que nous respirons et dans la terre qui nourrit les plantes ? Il est temps que nous réduisions leur utilisation et que nous nous attachions à leur recyclage.

 

*Section spéciales sur les plastiques. Science 2 juillet 2021, N°6550, PP.34-69.       

Population Media Center une O.N.G. qui agit intelligemment pour lutter contre la surpopulation.

 Jeudi 5 Août 2021


 Rappelons d’abord qu’une population est stable quand le nombre moyen de filles par femme est de 1, en dessous de ce taux net de reproduction, la population décroît, en dessus elle croît. Paradoxalement c’est dans les pays en voie de développement que ce taux est élevé et que les populations sont croissantes alors qu’il peut être faible dans les pays développés où les populations sont souvent décroissantes. On pourrait dire : l’un compense l’autre, mais il n’en est rien car globalement la population mondiale continue de croître fortement alors que pour protéger ce qui reste de notre environnement naturel elle ne devrait plus progresser. Si l’on se place d’un point de vue écologique, l’immigration des pays du sud vers ceux du nord ne doit pas non plus être considérée comme la solution, car les pays développés ont très souvent une densité d’occupation du sol très élevée et l’accroître revient à y réduire encore le milieu naturel.

Comment persuader les familles qu’il faut réguler les naissances, c’est un problème extrêmement difficile car s’y accumulent des oppositions  nombreuses.

-         Au niveau des parents : en dehors du plaisir qu’il y a de procréer, avoir de nombreux enfants c’est aussi disposer d’une main d’œuvre supplémentaire qui, plus tard, sera un soutien à la vieillesse ; la responsabilité que l’on a envers l’enfant est oubliée.

-         Les religions rejettent le contrôle des naissances lorsque ce contrôle n’est pas naturel ; elles peuvent prescrire même des structures familiales qui le défavorisent.

-         L’absence d’éducation ou une éducation rudimentaire est un obstacle à l’ouverture des esprits.

-         Les Etats n’ont pas toujours les moyens d’assurer une éducation généralisée.

-         La croissance de la population mondiale n’est pas considérée comme un problème pour l’environnement,  elle est ignorée ou reléguée en position secondaire par des associations ou des partis politiques écologistes.

-         Enfin moralement peut-on prescrire une limitation des naissances sans atteindre à la liberté des individus ?

La croissance incontrôlée de la population mondiale reste donc un sujet délaissé qui n’a qu’à se résoudre de lui-même !

Devant ces oppositions et cette indifférence, fallait-il baisser les bras ? L’O.N.G. « Population Media Center » est peut-être la seule qui actuellement agit pour engager des populations à contrôler les naissances. Cette organisation Américaine s’est donné pour mission d’utiliser les médias de masse pour diffuser des jeux éducatifs afin de promouvoir des changements culturels en faisant connaître aux femmes, aux jeunes filles, et aux populations leurs droits et les interconnections qui lient ces droits avec la protection de l’environnement. Les gens doivent pouvoir vivre mieux et en meilleure santé, la population de la planète doit se stabiliser à un niveau où chacun puisse vivre sans que s’épuisent les ressources renouvelables.

Population Media Center produit et diffuse, sur un mode attrayant, des émissions de télévision ou de radio pour motiver les gens à changer, à être plus efficaces, et à persévérer dans leur action même si des difficultés surgissent dans leur nouveau comportement. Elle ne tente pas de dire ce qu’il faut faire, mais elle indique ce qui est positif, négatif et ce qui peut se faire de manière transitoire pour progresser. Population Media Center est présente dans plus de 50 pays et touche 500 millions de personnes.

L’O.N.G. promeut l’égalité des sexes :

-         les femmes et les jeunes filles sont privées de leur place sociale et de leur autodétermination, leur donner libre choix est un acte de justice.

-         La croissance actuelle de la population mondiale n’est pas acceptable, c’est en redonnant du pouvoir aux  femmes et aux jeunes filles que l’on contribuera à ralentir cette croissance puis à la stabiliser.

-         Enfin, il faut aussi, en aidant à cette évolution sociale, y associer une éducation à la protection de l’environnement.

Ces objectifs sont de bon sens et devraient être encouragés et aidés par les Etats et par l’O.N.U. Notre billet a pour but de faire connaître cette O.N.G. et l’intelligence de son action.

 

Stockage de l'énergie, un moyen original : la gravité

Lundi 5 Juillet 2021

Le problème majeur des énergies renouvelables, captées par des éoliennes ou des panneaux photovoltaïques, est leur irrégularité. Tantôt elles sont disponibles en excès tantôt elles manquent totalement. Il faudrait donc pouvoir les stocker pour régulariser leur offre. Le moyen de stockage le plus utilisé est la batterie chimique mais les capacités d’une batterie sont très limitées et pour stocker des quantités importantes d’énergie il faut des batteries géantes. On utilise déjà un autre moyen de stocker l’énergie en ayant recours à la gravité. En barrant une rivière on emmagasine de l’énergie potentielle produite par le champ gravitationnel qui s’exerce sur l’eau. La libération contrôlée de cette eau va servir à produire de l’énergie électrique. Cependant quand le barrage sera vide il n’y aura plus d’énergie disponible. Le barrage peut se comporter comme une batterie si on le recharge en eau. C’est ce qui se fait sur certains barrages lorsqu’en période de faible demande électrique (la nuit notamment) on pompe l’eau en aval du barrage et on remonte celle-ci pour reconstituer la réserve d’énergie potentielle ; elle pourra être utilisée à nouveau, lorsque la demande électrique sera forte.

Une société écossaise* a imaginé une autre manière d’utiliser la gravité pour stocker de l’énergie électrique de la même manière que le ferait une batterie géante. Son prototype est constitué par une cage d’ascenseur dans lequel la cabine a été remplacée par une masse d’acier de 50 tonnes, cette masse est reliée par un câble à un treuil à l’extrémité de la cage qui est actionné par un moteur électrique. Quand le réseau électrique est en sur- capacité (la nuit par exemple) le moteur électrique est mis en route pour remonter la masse d’acier on crée ainsi de l’énergie potentielle ; quand le réseau électrique est en sous capacité on libère de manière contrôlée la descente la masse d’acier qui, inversant le fonctionnement du moteur électrique, devient alors générateur d’électricité. Cette électricité restituée au réseau lui permet de faire face au supplément de demande temporaire  des utilisateurs.

Ce système présente certains avantages, il a une durée de vie bien plus longue que les batteries à ion lithium qui perdent leur capacité en peu d’années alors qu’une cage d’ascenseur, un treuil, un câble et un alternateur peuvent durer plusieurs décennies. Il est bon marché et ne nécessite pas d’exploiter des mines nouvelles ce qui est préjudiciables à l’environnement et à la santé des hommes. Enfin ce stockage gravitationnel pourrait réutiliser les puits de mines abandonnés qu’il suffirait de réhabiliter.

A partir du prototype en démonstration, la société écossaise qui développe cette idée, se propose de construire un élévateur fonctionnel avec une masse d’acier bien plus grande, dans un puits de mine de près de 1km de profondeur.  L’appareil pourrait délivrer une puissance de 4 mégawatts. Ce système redonnerait vie au nombreux puits de mine abandonnés.

 

*Cathleen O’Grady. Science, 30 Avril 2021, N° 6541, p. 446.