Quelle surface de notre planète faudrait-il préserver pour un maintien satisfaisant de la biodiversité ?

Samedi 5 Novembre 2022


Nous avons déjà parlé de ce sujet et signalé les préconisations de la convention sur la diversité biologique d’Aichi au Japon (2010) qui estimait qu’il fallait que l’on réserve 17% de la surface de la planète (soit 25  millions de km2, surface de la terre 147 millions de km2 ) si l’on voulait maintenir cette biodiversité. Un article de la revue Science* revient sur ce sujet et donne des informations nouvelles plus précises.

Le choix d’une aire à conserver nécessite de définir des critères qui aiderons à rendre ce choix le plus pertinent possible. Plusieurs approches ont été proposées : retenir les aires en pondérant les espèces et écosystème qu’elles contiennent selon  leur endémicité et leur risque d’extinction ; retenir des aires sur la persistance globale de biodiversité  (aires clés), dans ce cas on s’attachera à la présence d’espèces ou d’écosystèmes menacés, ou de systèmes écologiques intacts rares ; retenir les aires encore intactes avant qu’elles ne soient dégradées. Selon les auteurs de l’étude ces critères utilisés séparément présentent des lacunes qui ne permettront pas un choix optimal des aires à conserver, leur projet est de les combiner dans un nouveau cadre global. Par ailleurs leur objectif n’est pas de désigner des « aires à conserver » car il existe, pour chaque aire, différentes stratégie de conservation des espèces et écosystèmes ; ils utilisent plutôt l’expression aires nécessitant une « attention à conserver ».

Les auteurs considèrent que 64,7millions de km2 (44% de la surface de la terre) nécessitent  une attention à conserver ; c’est bien au-delà des 17% de la convention d’Aichi. Cette surface englobe 35,1 millions de km2 d’aires écologiquement intactes, 20,5 millions de km2 d’aires protégées déjà existantes, 11,6 millions de km2 d’aires clés de biodiversité et 12,4 millions de km2 d’aires additionnelles nécessaires pour garantir la persistance d’espèces sur leur diversité minimale (notons que la somme de ces surfaces : 79,6 millions de km2, dépasse le chiffre proposé : 64,7 millions de km2, cela tient au fait que les aires qui ont été classées dans chaque catégorie se chevauchent partiellement).

Si 70,1% des zones qui nécessitant une attention à conserver sont actuellement intactes, les 29,9 % restantes ont des besoins de restauration, par ailleurs 2,2 millions de km2 situés dans les zones intactes sont susceptibles d’être converties d’ici 2050 en zones d’habitation ou d’intense activité humaine. Ces conversions sont variables d’un continent à l’autre et d’un pays à l’autre. Le continent africain serait le plus affecté (1,4 millions de km2). Les risques de conversion sont moindres en Océanie et en Amérique du Nord.

Un autre problème tient à la présence de populations humaines vivant déjà sur les zones intactes. Un quart des êtres humains (1,87 milliards d’individus) sont concernés, essentiellement en Afrique, Asie et Amérique centrale. La plupart de ces populations ont une économie émergente ce qui implique que les stratégies de conservation n’entravent pas leur développement économique. On ne peut plus protéger ces terres en déplaçant les populations indigènes, ce serait injuste et même impossible. Il faut reconnaître que ces populations ont montré, dans leurs pratiques coutumières, une autorité indiscutable pour la protection de la biodiversité, et qu’elles  doivent pouvoir se maintenir  sur leur terre et en garder la possession.

Sur les zones qui méritent "attention de protection", les créations de routes, le développement de l’agriculture, de l’activité forestière, ou de l’extraction de minerais doivent se faire précautionneusement en tenant compte des espèces qui y vivent et de la menace qui pèsent sur leur disparition. La pression humaine va s’accroître avec l’augmentation de la population et de la consommation, il faudra donc apprendre localement l’importance de la sauvegarde de la diversité biologique.

Une évaluation à haute résolution, à l’échelle spatiale fine à partir de cartes de végétations et d’écosystèmes devrait être l’étape logique suivante pour délimiter ces zones.

Que penser de tout cela ? Ce qui surprend d’abord c’est l’importance de la surface en « attention à conserver » : 44% de la surface de la planète (64,7 millions de km2) ! Certes une grande partie de ces terres sont situées dans des zones encore intactes (35,1 millions de km2) mais il faut caser les 29,6 millions de km2 restants. En ce qui nous concerne, si l’on s’en tient aux propositions de cette publication, nous sommes encore bien au-dessous des surfaces qu’il faudra protéger. Comment affecter de nouvelles terres à la sauvegarde de la biodiversité sans réduire l’activité économique, ceci ne peut se faire qu’au détriment de la population humaine qui est toujours en croissance ? Il faudra consommer moins (pas uniquement pour se nourrir), et il y aura moins de travail. Ce sera donc un appauvrissement général. On peut atténuer ces perspectives négatives par une éducation à la protection du milieu naturel, par des projets d’artificialisation plus raisonnables qui tiennent compte du monde vivant qui nous entoure.

* James R. Allan et al. Science 3 juin 2022, N°6597, pp. 1094-1106.

 

L'eau dans le sol

 

Mercredi 5 Octobre 2022

Lorsque vous arrosez une plante en pot, vous observez que le sol ne retient pas toute l’eau que vous lui donnez puisque une certaine quantité va se retrouver dans l’assiette que vous mainteniez à la base du pot ; cette eau qui s’écoule est l’eau gravitationnelle, elle ne sera pas utile à la plante. L’eau utile à la plante est retenue par le sol. C’est une eau qui adhère par capillarité aux particules du sol ou qui est accrochée par cohésion à l’eau de capillarité. La quantité d’eau totale qui reste dans le sol représente la capacité de rétention du sol. Cette capacité dépend de la taille des éléments qui constituent le sol. Un sol dont la taille des particules est majoritairement petite (sol argileux ou limoneux) a une texture à surface relativement grande et donc retient une grande quantité d’eau mais l’eau de cohésion, faiblement retenue, y est peu importante. Un sol dont la taille des particules est majoritairement grande  (sol sableux) a une texture  à surface relativement petite et de grands interstices, elle retient une quantité d’eau moindre mais l’eau de cohésion, faiblement retenue, y est en plus grande quantité.

Les racines des plantes récupèrent l’eau du sol par osmose. Tant que la pression osmotique à l’intérieur des cellules des racines est supérieure à celle de l’eau interstitielle du sol, la plante absorbe de l’eau ; mais à mesure que l’eau de cohésion disparait, il va être de plus en plus difficile d’accéder à l’eau de capillarité. Il vient donc le moment où, bien qu’il reste encore de l’eau dans le sol, la plante ne peut plus l’utiliser, c’est le point de flétrissement. Ce point de flétrissement dépend de la structure physique des sols, les sols sableux à grosses particules donc à petite surface contiennent beaucoup  d’eau de cohésion et retiennent peu d’eau au point de flétrissement ; les sols argilo limoneux à petite particules et donc à grande surface contiennent peu d’eau de cohésion et gardent beaucoup d’eau au point de flétrissement. Le point de flétrissement dépend aussi des plantes qui peuvent ajuster leur pression osmotique racinaire ; une plante grasse par exemple est adaptée à des zones désertiques où la teneur en eau des sols peut devenir très faible. En définitive un sol dont les éléments fins coexistent avec des éléments grossiers est le plus apte, dans la durée, à fournir à la plante une quantité d’eau régulière. On appelle ces sols des terres franches.

L’eau du sol fournit à la plante les éléments qu’elle a dissous et qui proviennent essentiellement de la roche mère environnante. Certains sont indispensables à la plante car ils entrent en quantités notables dans sa constitution. Ces nutriments sont l’azote, le phosphore, le soufre, le potassium, le calcium, le magnésium et le fer. Ils sont absorbés sous forme d’ions (NO3- et NH4+ pour l’azote, PO43- pour le phosphore etc.). D’autres interviennent dans l’alimentation des plantes en quantités infimes : le bore, le cuivre, le zinc et le molybdène et le sélénium, ce sont des éléments traces. Enfin certains peuvent être toxiques comme le sodium, le chlore, l’aluminium. En culture hydroponique, de plus en plus utilisée en horticulture, on se contente de dissoudre dans l’eau d’irrigation les nutriments et les éléments traces nécessaires à la plante, ce sont les engrais dont nous avons si peur.

Devenir des espèces marines sous l'effet du réchauffement climatique.

 

Vendredi 5 Août 2022

Les effets du réchauffement climatique ne sont pas perçus encore comme la cause de la disparition d’espèces à la surface de la terre, c’est l’action humaine directe qui est à l’origine de ces disparitions. On peut se demander toutefois ce qu’il pourrait advenir si la température continuait de croître, du fait des émissions de gaz à effet de serre, dans les milieux océaniques où la température régule notamment la teneur en oxygène de l’eau. Des chercheurs* ont analysé cette situation et modélisé ce qui pourrait advenir des espèces vivant dans les océans dans le cas où la température des eaux s’y élèverait au-delà des limites actuelles.

La teneur en oxygène de l’eau décroit avec l’augmentation des températures (il existe d’ailleurs des tables qui donnent cette teneur maximale en fonction de sa température). Chaque espèce vivant dans l’eau a des besoins en oxygène particuliers ; ainsi la truite affectionne les eaux fortement oxygénées de montagne où l’eau est froide et agitée par un courant sinueux coupé de cascades. Elle ne survit pas dans l’eau stagnante peu aérée. La teneur en oxygène des eaux océaniques détermine ainsi la répartition des espèces marines, si d’autres facteurs jouent évidemment comme le pH ou la disponibilité alimentaire, ils ne sont pas décisifs. C’est pourquoi on peut établir des modèles d’évolution des populations marines en tenant compte seulement de la variation des températures de l’eau qui découle de la température aérienne.

Un modèle a été établi, calibré sur les conditions thermiques qui ont sévi au cours de  l’extinction de masse de la fin du Permien. Il retrace les tendances multi centenaires du réchauffement global et  l’évolution future de celui-ci en fonction d’émissions anthropogéniques hautes ou basses de gaz à effets de serre sur les 300 prochaines années. La diversité marine globale est représentée par une série simulée (types éco physiologiques) de 104 espèces marines définies par leur tolérance thermique et leur résistance à l’hypoxie. L’habitabilité d’une zone océanique exige que les conditions s’y maintiennent à l’intérieur des tolérances physiologiques des espèces qui y vivent. Ainsi l’augmentation de la température de l’eau va provoquer une diminution de sa teneur en oxygène qui, en-deçà d’un certain seuil, provoque l’éradication de l’espèce.

On peut distinguer, selon l’intensité du réchauffement climatique, des extinctions locales ou comme à la fin du permien des extinctions globales. Si les émissions de gaz à effet de serre entraînent à la fin du siècle un réchauffement climatique de l’ordre de 1,9°C les pertes resteront dans les limites actuelles. Si le réchauffement de l’air voisinait 5°C, les pertes seraient très élevées localement ; en effet des habitats océaniques froids des pôles disparaîtraient pour les espèces adaptées au froid ce qui entraînerait leur disparition définitive n’ayant pas de possibilité d’immigrer vers des zones océaniques nouvelles correspondantes à leurs besoins ; en revanche les espèces équatoriales auraient la possibilité d’immigrer vers le tropiques elles pourraient ainsi se maintenir. En extrapolant une augmentation continue des températures jusqu’ en 2300, où elles pourraient dépasser 10°C, la disparition des espèces marines serait comparable à celle de la fin du permien car il n’y aurait plus de zone océanique accueillante. Les mers seraient peu à peu vidées de toute espèce de poisson.

Nous commençons à voir les effets du réchauffement climatique sur le monde marin avec l’apparition dans nos mers de climat tempéré d’espèces qui y étaient rares comme les méduses. Ces mouvements correspondent déjà aux premiers stades de ce que deviendront nos mers si la température de la surface de la terre continue de croître.

 

*Justus L. Penn et Curtis Deutsch. Science 29 avril 2022, N°6592, pp.524-526.  

L'émotion animale

Mercredi 6 Juillet 2022


La prise en compte morale de la douleur animale est récente. Il a fallu progresser dans la neurophysiologie pour comprendre que la sensibilité n’était pas réservée à l’espèce humaine mais qu’elle était présente chez les animaux proches de l’homme et d’une certaine manière chez les poissons et les crustacés. A partir d’un article* de la revue Science nous allons suivre la progression de la connaissance sur ce sujet.

On est parti de loin puisque, jusqu’en 1980, on pensait encore que la non expression verbale d’un ressenti (apanage de l’être humain) signifiait absence de ressenti ; les très jeunes enfants qui ne parlaient pas encore étaient donc insensibles à la douleur et de ce fait on pouvait les opérer sans anesthésie!

Pour tenir compte de la sensibilité (notamment à la douleur) des animaux proches de l’homme (mammifères),  il a fallu séparer le ressenti de l’émotion. Le ressenti est un état conscient personnel qui n’est pas perceptible extérieurement et donc inaccessible à l’expérimentation ; l’espèce humaine grâce au langage peut faire état du ressenti ce qui n’est pas le cas des animaux. Les émotions au contraire sont mesurables physiologiquement ou au niveau neuronal. Le visage, chez l’homme, traduit les émotions par des contractions musculaires spécifiques que l’on peut retrouver chez les chimpanzés. Les espèces plus éloignées vont manifester leurs émotions de manière différente et l’on a découvert par exemple que la peur se manifestait par un abaissement des températures des extrémités aussi bien chez le rat que chez les êtres humains. Les physiologistes peuvent aussi étudier chez l’animal les aires du cerveau qui sont affectées lorsqu’il ressent de la peur, de la colère, du dégoût ou de l’attraction.

Les outils d’évaluation des réponses émotives se sont améliorés. Les chercheurs modifient l’environnement de l’animal : riche versus pauvre ou agité versus calme. Ils entraînent l’animal à ces stimuli extrêmes puis le placent dans un environnement ambigu, moyen. Ils peuvent alors juger l’approche optimiste ou pessimiste du stimulus par l’animal. On a ainsi montré que les environnements pauvres affectent négativement la vision du monde des mammifères et des oiseaux.

Les animaux sont particulièrement sensibles aux signes émotionnels de leurs congénères. Cela se traduit par des marques d’empathie au moyen de contacts corporels lorsqu’un de leur congénère est stressé. Il peut y avoir aussi des comportements synchronisés : Lorsqu’un individu du groupe a peur ou perçoit un danger tous les individus du groupe vont manifester de la peur et s’enfuir. Ces réponses seraient commandées par des mécanismes neuronaux.

Enfin, bien que l’on ne puisse démontrer que le ressenti des animaux supérieurs existe, leurs comportements émotionnels sont en faveur de son existence ; la science reconnait des similarités entre ces animaux supérieurs et l’espèce humaine en ce qui concerne la neurophysiologie, la connaissance, les émotions et le ressenti.

Qu’en est-il maintenant des poissons et plus éloignés encore des crustacés  (crabes, langoustes et homards). Pour ces derniers on a,  dans certains pays comme l’Angleterre, interdit de les plonger dans de l’eau bouillante en l’état vivant pour les cuisiner! On a très longtemps pensé  que la réaction qu’ils manifestaient à un choc agressif était nociceptive c’est-à-dire une réaction réflexe qui implique seulement le système nerveux périphérique (analogue à la réaction de retrait que nous manifestons  lorsqu’on touche un objet très chaud). Des expériences plus récentes ont montré cependant que poissons et crustacés ont une mémoire des expériences négatives et qu’ils évitent les lieux où ils ont subi ces expériences. Cette mémoire négative implique une décision prise au niveau du système nerveux supérieur.

Dès lors que nous reconnaissons que les animaux peuvent aussi avoir un ressenti (bien moins développé que le nôtre sans doute), ils ne peuvent être exclus, par convenance, de notre champ moral. Déjà des règles d’abattage ont été prescrites, et l’éducation au bien-être des animaux se développe mais on est loin encore d’un comportement général satisfaisant.

 

*Adam J. Kucharski et Cheryl Cohen, Science 25 mars 2022, N°6587, pp. 1349-1350                  

Les plantes et la sècheresse.

 

Lundi 6 Juin 2022

Tous les organismes vivants sont composés essentiellement d’eau. Cette eau est nécessaire à l’apport des nutriments, au fonctionnement du métabolisme, au maintien des structures internes, à l’élimination des déchets.  Ainsi les plantes récupèrent par leurs racines les éléments minéraux dissouts dans l’eau du sol, ces nutriments sont transportés grâce à l’eau dans les cellules où seront synthétisées les molécules constitutives des organes, l’eau sera éliminée au niveau des stomates par évaporation ou par sudation au niveau des nectaires ou des glandes sécrétrices. Le manque d’eau va affecter la nutrition, le métabolisme, les structures internes et à la limite la vie des plantes.

Au fur et à mesure qu’une période de sècheresse se développe nous observerons donc plusieurs phénomènes : chez les plantes herbacées, une fanaison des feuilles (phénomène encore réversible) et, si la sècheresse se prolonge, leur dessiccation et leur mort. La pelouse devient sèche, elle ne reverdira qu’après une pluie qui fera germer des graines présentes dans le sol non affectées par le manque d’eau ou induira la croissance de nouveaux bourgeons à l’aisselle du collet racinaire encore vivant. Chez les plantes ligneuses (arbres et arbustes), il y a dessiccation des feuilles et leur chute. La présence de lignine dans les rameaux et les troncs est une protection forte contre leur dessiccation, mais si la sècheresse persiste on observera une destruction des jeunes rameaux non encore totalement lignifiés et, sur les troncs, des lésions se manifestent par des méplats de l’écorce sous lesquels apparaissent le bois desséché. Ces lésions sont liées à l’échauffement produit par le rayonnement solaire sur le tronc, la chaleur n’y est plus évacuée par la montée de sève provenant de l’absorption racinaire. Non visibles à l’œil nu, peuvent aussi se créer dans les vaisseaux du bois des ruptures de la colonne de sève qui les rendent ensuite impropres à la conduction.

Les plantes (nous nous limiterons aux plantes de nos climats non xérophytes) ont acquis plusieurs défenses pour se protéger des variations climatiques. Il y a d’abord des dispositifs dits de régulation, ceux-ci ne nécessitent pas de changements morphologiques ou biochimiques. En ce qui concerne la déshydratation, le plus important est la fermeture des stomates qui intervient dès que la perte par évaporation à la surface des feuilles est supérieure à la fourniture d’eau par les racines. Au-delà de cette fermeture, la déshydratation de la feuille se fait par toute sa surface et aboutit à la fanaison qui est une perte de turgescence des feuilles et des jeunes rameaux. La fanaison est un phénomène réversible si la déshydratation tissulaire n’affecte pas l’intégrité des cellules. L’acclimatation est un autre dispositif réversible de protection des plantes aux variations du climat. Elle ne s’acquiert que lentement. Ainsi en période sèche, la cuticule, couche cireuse qui recouvre l’épiderme les feuilles et des fruits, s’épaissit ralentissant ainsi l’évaporation ; les tissus internes sont moins hydratés (penser à la différence entre une salade de serre et celle de plein champ) enfin la pilosité est plus dense (notamment chez les plantes dont les feuilles et les fruits sont à épiderme duveteux : pêches, Kiwis). En dernier lieu il existe des réponses irréversibles de type développemental. La plus remarquable, vis-à-vis de la sècheresse, est la capacité du système racinaire à explorer le sol. La vigne en est l’exemple le plus démonstratif, son système racinaire est capable de s’enfoncer très profondément dans le sol pour y puiser l’eau retenue dans les couches imperméables.    

La fusion nucléaire contrôlée est-elle en passe de réussir ?

Jeudi 5 Mai 2022

Comment obtenir une énergie, propre (n’émettant pas des gaz à effet de serre ni de déchets radioactifs) et qui est disponible indéfiniment? Seule la fusion nucléaire répond à ces exigences dans la mesure où elle peut être contrôlée. Dans une réaction de fusion deux noyaux d’atomes légers (deutérium et tritium par exemple) fusionnent pour donner un noyau plus lourd (hélium). Au cours de la fusion il y a perte de masse qui selon l’équation d’Einstein se transforme en énergie. Maitriser la réaction de fusion permettrait d’obtenir de l’énergie en quantité infinie.

La fusion ne peut avoir lieu que si les noyaux atomiques sont séparés de leur environnement électronique pour cela il faut chauffer les atomes a des températures très élevées de l’ordre de 150 millions de degrés on obtient ainsi un plasma dans lequel noyaux et électrons sont séparés. Les noyaux peuvent alors se percuter et, si la percussion est très forte, fusionner. On a tenté de réaliser ces fusions de deux manières les « mégajoules » et les « tokamaks ».

Dans les mégajoules on enferme les deux gaz deutérium et tritium dans une capsule de la taille d’un grain de maïs, et on soumet cette capsule à une impulsion simultanée du rayonnement de 150 à 200 lasers dont la somme de capacités énergétiques est proche de deux mégajoules. La capsule et donc les deux gaz qu’elle contient reçoivent un choc énergétique susceptible de provoquer la fusion de leurs noyaux.

Les tokamaks sont des enceintes de forme torique enveloppées par une grille de puissants aimants. Dans cette enceinte les gaz deutérium et tritium sont chauffés jusqu’à atteindre la phase plasma où noyaux et électrons sont séparés ; les aimants vont maintenir le plasma en forme d’anneau qui ne puisse toucher et fondre les parois du tokamak. Les noyaux confinés à l’intérieur du plasma vont pouvoir fusionner et produire à leur tour de l’énergie par perte de masse.

Jusqu’ici les dispositifs mégajoule et les tokamaks avaient échoué dans l’initiation d’une réaction de fusion. Ce n’est plus le cas aujourd’hui ; les deux dispositifs les plus avancés : le NIF (National Ignition Project) mégajoule Américain et le JET (Joint European Torus) le plus grand tokamak en fonctionnement actuel basé en Angleterre ont publié des résultats particulièrement encourageants.

Les chercheurs qui travaillent sur le mégajoule américain ont annoncé avoir produit, le 8 août de l’année dernière, une réaction de fusion délivrant une quantité d’énergie à la limite de celle apportée par le tir des lasers*. Un tir de 1,9 mégajoule a produit une fusion délivrant 1,35 mégajoule  ce qui s’est traduit par une flamme qui s’est propagée à l’intérieur de la minuscule chambre plasmatique. Les chercheurs espèrent atteindre une énergie de fusion supérieure à celle fournie par un tir de lasers en améliorant la taille de la chambre plasmatique et l’efficacité des tirs.

En 1997, le tokamak JET avait généré pendant 1,5 seconde, une pulsion énergétique qui avait atteint les deux tiers de la quantité de celle qui lui était fournie**. Mais les progrès restaient insignifiants et l’appareil posait de nombreux problèmes. Cela a d’ailleurs conduit à la réalisation d’ITER,  tokamak géant (20m de diamètre) en cours de construction à Cadarache, qui devrait permettre un meilleur confinement du plasma. En attendant les chercheurs du JET ne sont pas restés inactifs, ils ont augmenté la puissance des aimants, modifié le système de chauffage et remplacé les parois internes de la chambre de leur tokamak  de façon à se rapprocher le plus près du futur ITER. Le 21 décembre 2021 ils ont pu maintenir pendant 5 s deux isotopes de l’hydrogène (Tritium et Deutérium) à 150 millions de degrés et créer une réaction de fusion libérant une énergie de 59 mégajoules 2,5 fois plus que les 22 mégajoules qu’ils avaient obtenus il y a 20 ans. Ce succès est encourageant pour ITER qui devrait enfin atteindre un rendement supérieur à l’énergie qui est dépensée pour entretenir le plasma.

Une réaction de fusion entretenue et contrôlée semble maintenant du domaine du possible ; bientôt pourrons-nous peut-être disposer d’une source d’énergie propre en quantité illimitée.

*Daniel Clery, Science, vol.373, N°6557, P.841.

**Daniel Clery, Science, vol. 375, N° 6581, p.600.   

L'accroissement des surfaces affectées aux cultures vivrières a été, sur deux décades, de 100 millions d'hectares !

 Mardi 5 Avril 2022

Une nouvelle carte globale des surfaces agricoles destinées aux cultures vivrières vient d’être établie* à partir de donnée satellitaires, elle montre que ces surfaces se sont accrues au cours des deux dernières décades de 100 millions d’hectares (deux fois la surface de l’Espagne).

La carte a été établie à partir d’images du programme Lansat de la NASA qui a lancé périodiquement une série de satellites qui ont photographié à chacune de leur révolution des surfaces qui bord à bord couvraient l’ensemble de la planète. Chaque pixel des images obtenues représentait environ 30 m2. L’équipe a visité des fermes dans différentes régions de notre planète ou a utilisé des images commerciales de Google pour distinguer les zones de culture des zones de prairie naturelles ou d’autres couvertures du sol.

 Si les besoins de terre pour de nouvelles cultures sont associés à la croissance très forte de la population africaine, les auteurs de l’étude soulignent aussi que la planète devient une ferme mondiale dans laquelle les pays riches se fournissent au détriment des pays pauvres. Par ailleurs la moitié des terres ont été reprises sur la forêt ou d’autres écosystèmes naturels au détriment du piégeage du carbone et du maintien de la biodiversité.

Entre 2000 et 2019, les surfaces mises en culture se sont accrues de 9% bien au-delà des prévisions calculées par la FAO qui n’étaient que de 2,6%. C’est en Amérique du Sud où l’expansion a été la plus forte, près de 50%, des nouvelles terres ont été affectées essentiellement à la culture du soja dont la demande a explosée avec le développement des élevages en Chine et ailleurs. Mais la croissance absolue la plus forte a été en Afrique : 40%. Il a fallu faire face à une population rapidement croissante et l’affectation de nouvelles terres à la culture sera encore nécessaire. Enfin l’Asie du Sud et les grandes plaines Nord-Américaines ont aussi agrandi leur surface agricoles vivrières.

Sur quelles couvertures naturelles du sol sont prélevées ces terres ? Si la conversion à l’agriculture des forêts humides comme la forêt Amazonienne reste la plus importante, de nouveaux espaces sur lesquels la biodiversité est plus ou moins grande sont largement empiétés comme les forêts sèches et les savanes (Chaco et le Cerrado en Argentine).

La biomasse obtenue sur les terres arables s’est accrue, sur la période d’étude, de 25% alors que la surface affectée à chaque individu a baissé de 10%. Il y a donc une meilleure efficacité dans les techniques culturales ; cependant l’Afrique obtient les moins bons résultats, il y faut plus de terre pour obtenir la même récolte. L’Afrique doit améliorer sa productivité agricole.

Enfin ces pertes diminuent le stockage par les arbres et le sol du carbone et contribuent ainsi à l’effet de serre. L’affectation des sols aux cultures vivrières contribuerait à un huitième des émissions humaines de carbone.

En 2000, des chercheurs (voir mon livre page 51) estimaient que l’augmentation des surfaces de terres affectées à la production vivrière en 2020 serait de 120 millions d’hectares ce chiffre bien que supérieur à ce qui a été atteint reste du même ordre de grandeur. Il était prévu qu’en 2050 il faudrait 350 millions d’hectares supplémentaires. Où allons-nous ! La demande en terres vivrières ne peut d’ailleurs se stabiliser qu’avec l’arrêt de la croissance de la population mondiale nous n’y sommes pas encore.

*Gabriel Popkin, Science, 7 janvier 2022, N° 6576, p. 12.     

L'expérimentation dans les sciences de la vie.

 Samedi 5 Mars 2022

Les sciences de la vie ont recours très souvent à l’expérimentation en ce sens elles font partie des sciences expérimentales. Expérimenter c’est répondre à une question : le phénomène biologique que l’on observe est-il déterminé par le facteur que nous supposons en être le responsable ?

Notons d’abord que le dispositif expérimental que nous allons mettre en œuvre pour répondre à la question qui est posée peut nous emmener à faire deux types d’erreurs. La première est la suivante : le résultat de l’expérimentation nous dit que l’hypothèse est juste alors qu’en réalité elle est fausse, c’est une erreur de type 1. C’est l’erreur la plus grave, elle fait plaisir au chercheur qui aime que son hypothèse soit bonne car elle va lui permettre de faire une publication, mais étant fausse elle peut faire circuler un résultat qui n’est pas en accord avec la réalité. L’on notera ici l’importance de refaire l’expérimentation. La deuxième erreur possible est que le résultat de l’expérimentation ne confirme pas l’hypothèse qui avait été faite alors qu’elle était vraie. C’est une erreur de type 2 qui est moins grave que la première car elle n’entraîne pas de publication erronée, mais en revanche elle fait perdre une information qui aurait fait progresser la science.

Après ces considérations d’ordre logique, comment peut-on concrètement aborder une expérimentation ? Il nous faut travailler sur un exemple  concret ; j’ai pensé à une observation agronomique que l’on peut faire à la fin de l’hiver : la chute des bourgeons floraux chez certaines espèces fruitières, ces bourgeons contiennent une petite fleur morte qui n’a pu éclore. Cette chute est-elle due au gel qui a sévi au cours de l’hiver ? Voilà une première question que l’on peut se poser.

Il serait stupide de commencer une expérimentation sans avoir fait une étude bibliographique du sujet. La science en effet est une œuvre collective où chacun apporte sa contribution à un sujet qui appartient à tous. Cette contribution peut-être minime ou décisive. L’étude bibliographique va consister à rechercher et à étudier toutes les publications qui ont une relation même faible avec le sujet et voir si la question que l’on se pose n’a pas déjà été traitée.

Pour dégrossir la recherche on peut aussi faire des observations sur le déroulement chronologique du phénomène ; est-il réellement en accord avec la survenue d’un épisode gélif ? On pourra par exemple établir au cours de l’hiver les dates d’apparition des fleurs détruites en prélevant chaque semaine des échantillons de bourgeons floraux dont on observera, après dissection, l’état des petites fleurs qu’ils contiennent. La courbe de fréquence hebdomadaire des bourgeons floraux détruits sera confrontée, dans un même graphique, à la courbe de variation des températures journalières et l’on verra alors si la venue d’une gelée a été suivie d’une mortalité des fleurs.

La phase expérimentale n’est réellement possible que si l’on réussit à induire le phénomène en soumettant l’arbre sensible à des températures négatives (non excessives évidemment, comme celles qui peuvent sévir en hiver) toutes les autres conditions (hygrométrie, éclairage, alimentation de l’arbre etc.) étant égales par ailleurs. Il existe pour cela des enceintes dans lesquelles on peut programmer une période climatique et faire varier à volonté l’un des facteurs du climat. Ainsi on pourra dans l’une, créer un climat hivernal sans gel et dans l’autre un climat hivernal avec gel. On placera dans chacune de ces enceintes des arbres en pots de la même variété et à la fin du cycle on observera les bourgeons des arbres traités différemment.

L’expérimentation devrait pouvoir dire si l’hypothèse qui a été faite est correcte ou incorrecte. Il faut noter ici que l’on rencontre fréquemment, au cours de sa réalisation, des obstacles imprévus qui nécessitent de la refaire  maintes fois avant d’obtenir une réponse non critiquable.    

Le télescope spatial James Webb

Samedi 5 Février 2022

Lors de son lancement le 24 décembre dernier de la base de Kourou en Guyane Française, on a beaucoup parlé du télescope spatial James Webb* conçu par la NASA. Nous voulons souligner ici l’originalité de l’appareil et ses possibilités.

Rappelons d’abord qu’un télescope est un appareil fait pour regarder des objets très lointains vers lesquels on dirige un miroir parabolique qui va concentrer la lumière qu’il reçoit de ces objets au foyer de sa parabole. C’est là que les astronomes vont recueillir l’image qu’ils recherchent. Plus le miroir parabolique est grand plus la lumière recueillie est importante et plus l’image sera nette ; en outre des objets très lointains émettant une faible lumière seront visibles.

Le miroir du télescope Webb (6,5m de diamètre) a plus de cinq fois la capacité de récolter la lumière que l’ancien télescope spatial Hubble (2,4m de diamètre). Il opère dans l’infra-rouge de 600 nanomètres à 28 500 nanomètres, ceci lui permet de voir la lumière d’objets très éloignés qui se décale vers le rouge et perce des nuages de poussière. Ce choix a nécessité de complexifier l’appareil par l’ajout de panneaux de refroidissement qui se déploient sous la parabole et créent une ombre qui refroidit passivement les instruments. Il sera aussi capable d’examiner, grâce à son équipement spectrographique, l’atmosphère des exoplanètes dont l’empreinte infrarouge n’est pas accessible aux télescopes terrestres.

La construction d’un télescope ayant de telles capacités avait été envisagée dès 1989 avant le lancement de Hubble. Il devait être disponible en 2011. Son coût évalué à 2 milliards de dollars en début de construction a, en définitive, atteint 11 milliards. Ces ajustements financiers successifs ont failli arrêter sa construction.

Les différentes opérations qui ont suivi le lancement de Webb ont été une période critique pour les responsables du projet (trente jours de terreur selon eux). Aussitôt dans l’espace le télescope a déployé ses panneaux solaires et deux heures après son antenne de communication. Au troisième jour, alors qu’il dépassait la lune, il a déployé ses panneaux de refroidissement. Au onzième jour, il a commencé à déployer le miroir parabolique qui est constitué de 18 éléments hexagonaux. Enfin des fusées d’appoint se sont allumées pour placer le télescope sur une trajectoire géostationnaire au point de  Lagrange L2 à 1,5 millions de Km de la terre autour duquel Webb tournera. Toutes ces étapes ont été franchies aujourd’hui.            

Ce télescope spatial pourrait voir des galaxies apparues entre l’aurore cosmique 200 millions d’années après le « big bang » et le midi cosmique quand la formation des étoiles culmine soit 2 milliards d’années plus tard (l’âge de l’univers est estimé à 13,8 milliards d’années). Une autre question pourrait être résolue, celle de l’origine des trous noirs.

Mais peut être la partie la plus intéressante de cette exploration serait l’examen des exoplanètes. La mission Kepler avait montré en surveillant  le voisinage de 100 000 étoiles que la présence d’exoplanètes n’était pas un phénomène rare mais la norme. Avec ses puissantes capacités d’observation, Webb devrait permettre de connaître la composition de l’atmosphère de petites exoplanètes de la taille de la terre. Cette atmosphère est-elle, pour certaines d’entre elles, compatibles avec la vie ?

En fait, ce télescope spatial exceptionnel va-t-il faire une découverte exceptionnelle ?

 

*Daniel Clery. Science, 12 Novembre 2021, N° 6569, pp. 807-811.      

Effets du braconnage sur la fréquence des éléphants sans défenses.

 Lundi 10 Janvier 2022

  

Le braconnage est à l’origine de la raréfaction d’espèces de grande taille sinon de leur disparition. Ainsi l’éléphant ne s’est maintenu en Afrique que dans des parcs nationaux car il a été chassé à outrance pour ses défenses en ivoire.

Des auteurs* se sont intéressés à l’effet du braconnage pendant la guerre civile au Mozambique (1977 à 1992) sur l’évolution des éléphants du parc national du Gorongoza. Ce braconnage évidemment avait pour cible la récupération des défenses d’éléphants qui étaient revendues par les deux protagonistes en conflit pour entretenir leurs armées. En éliminant les éléphants pour prélever leurs défenses, les braconniers ont réalisé une sélection dont ils n’avaient pas conscience sur le caractère : présence/absence de défenses. Il existe en effet dans la population d’éléphants, des individus femelles qui naturellement n’ont pas de défenses et dont le nombre a augmenté. Sur les 28 années de l’étude comprenant les 15 années de guerre civile,  les auteurs ont observé que le nombre de femelles sans défenses avait augmenté de 33% alors que la population globale n’avait cessé de décliner. Cette augmentation s’est révélée supérieure à celle antérieure au conflit (18,5%) ; elle était aussi supérieure à ce à quoi on aurait pu s’attendre en l’absence de sélection. Chez les mâles  le caractère absence de défenses n’existe pas et les prélèvements de braconnage ne l’on pas fait apparaître. Comment interpréter ces résultats ? Le braconnage avait induit une réponse évolutive, la fréquence dans la population d’éléphants de gènes déterminant la présence ou l’absence de défenses avait été modifiée. Quels étaient ces gènes ?

Les auteurs ont montré que par analogie avec ce qui se passe chez l’être humain, deux loci sont impliqués : celui qui intervient sur la synthèse de l’émail et du cément de la dent AMELX et celui qui intervient sur la dentine (ivoire) MEP1A. Le premier est situé sur le chromosome sexuel X, le deuxième sur un autosome (chromosome non lié au sexe). Les allèles qui sont présents sur le locus AMEXL sont à l’origine de la synthèse d’une protéine qui serait impliquée dans la bio-minéralisation de l’émail de la dent.

L’absence de défenses serait consécutive à une mutation dominante de l’un des allèles portés par AMEXL. Ainsi la femelle de génotype amxl/amxl possède des défenses, la femelle AMEXL/amexl ou AMEXL/AMEXL n’en a pas. Chez les mâles qui n’ont qu’un chromosome sexuel X, nous ne pouvons avoir que les génotypes suivants AMEXL ou amexl c’est-à-dire qu’il devrait y avoir dans la population des individus sans défenses et des individus avec défenses or tous les mâles ont des défenses ! Les auteurs expliquent que le locus AMELX serait proche du locus d’un gène létal et que les mâles AMEXL seraient ainsi non viables avant leur naissance.

Ce qui est intéressant dans cette étude c’est qu’inconsciemment, les braconniers ont modifié génétiquement la fréquence des gènes favorables à la survie de l’espèce. Ils ont agi comme le ferait la sélection naturelle !

 

Jane C. Campbell-Staton et al. Science, 22 octobre 2021, N°6566, pp.483-487 ;