Le paysage sonore des océans.

 Lundi 5 Avril 2021

 

Les sons se définissent par leur fréquence, leur amplitude et leur source. L’eau est un excellent support pour leur propagation ; ils s’y déplacent plus vite et plus loin que dans l’air ; ils sont perçus par de nombreuses espèces marines qui à leur tour peuvent émettre des sons. Il y a donc un paysage sonore naturel dans les océans qui a beaucoup changé avec l’activité humaine.

 

Nous résumons ici une revue bibliographique* qui fait le point sur les nombreuses études qui ont été réalisées sur les bruits marins et leurs effets sur le monde océanique vivant. Il nous semble que l’intérieur des mers est calme et silencieux et bien non, les eaux océaniques sont bruyantes, les bruits qui s’y créent ont plusieurs origines : les conditions atmosphérique, l’activité géologique « géophonie », l’activité biologique des espèces inféodées aux océans « biophonie » et enfin l’activité humaine « anthropophonie ».

 

Le vent qui souffle, les vagues qui se brisent, la pluie et la grêle qui tombent sur la mer créent dans l’eau un spectre sonore particulier. La géophonie est produite par les volcans sous-marins, les tremblements de terre, les sources thermales marines, ces sons émis par l’activité géologique ont une propagation vaste, leur spectre sonore est très large. Les animaux marins émettent intentionnellement des sons dont les fréquences sont généralement comprises entre 10 Hertz (infrasons) et 20 kilohertz (ultrasons). Cette biophonie est modulée en fréquence et amplitude ; elle peut-être émise en simples pulsations, en train de pulsations (appels de poissons) ou en phrases mélodiques (chants des baleines). A ces sons liés à des organes émetteurs s’ajoutent des bruits mécaniques liés à leur activité marine : chocs des nageoires qui renseignent sur la masse de l’animal, bruits de mastication etc.  

 

Les animaux marins ayant une perception auditive se distribuent depuis les invertébrés marins, poissons et reptiles sensibles aux basses fréquences, jusqu’aux cétacées capables de percevoir de hautes fréquences (au-delà de 200 kilohertz). Ils utilisent leur appareil auditif pour se guider dans leurs déplacements, la recherche de nourriture, la défense du territoire, la recherche sexuelle ou la parade nuptiale.

 

Jusqu’à la révolution industrielle, les océans et les mers n’ont connu que ce paysage sonore naturel avec le développement de l’activité humaine ce paysage sera de plus en plus pollué par l’anthropophonie. L’activité humaine est une source colossale de pollutions sonores des océans et des mers. La recherche pétrolière utilise des explosions marines dont les ondes réfléchies permettent d’établir si le sous-sol marin est susceptible de renfermer des poches de pétrole ou de gaz. La cartographie des fonds se fait en émettant des sons à très haute fréquence et en mesurant le temps de retour de leur écho. Les sous-marins se guident  avec des sonars. Mais l’antropophonie est surtout un sous-produit non intentionnel de l’activité humaine. Le bruit produit par les bateaux (essentiellement ondes à basse fréquence) sur les routes maritimes a été multiplié 32 fois en 50 ans. Avec moins de régularité tous les travaux sous-marins sont source de bruits : forages pétroliers, installation de plateformes pétrolières, mise en place d’éoliennes marines, dragages, travaux d’extension portuaires, création de digues, pêche à la dynamite etc.  Et par-dessus tout, les explosions produites par les guerres.

 

En quoi l’anthropophonie est-elle préjudiciable à la vie marine ? Au départ on s’est focalisé sur les effets des bruits intenses sur les mammifères marins (sonars, explosions marines) ; mais l’exposition chronique à l’anthropophonie est aussi préjudiciable. Les signaux sonores de la navigation sont devenus permanents sur de grands espaces sous-marins, ils interfèrent avec les signaux pouvant provenir d’appels de la même espèce ou de signaux indiquant la présence de prédateurs ou de proies. Ils affectent les déplacements, la recherche de nourriture, la socialisation, la communication et le repos chez les mammifères marins. Chez les jeunes poissons, ils atténuent leur comportement anti prédation ; chez les invertébrés ils ont un impact sur le lieu de leur nidification et sur leur développement.

 

Les animaux marins peuvent se prémunir des bruits marins par évitement ou en s’habituant à eux. Cela peut les entraîner à quitter des sites riches en nourritures, à s’accumuler dans des lieux où leur activité sera contrainte. Enfin l’habitude peut-être utile pour reconnaître les bateaux de pêche qui rejettent souvent à l’eau les prises non commercialisables et qui représentent une nourriture obtenue sans effort.

 

Cette revue bibliographique fait prendre conscience que même un milieu qui nous paraissait à l’abri de nos activités bruyantes est fortement pollué par elles. Il sera difficile de réduire cette pollution tant elle est vaste et en majorité sous-produit non intentionnel d’une activité qui nous est indispensable.

 

*C.M. Duarte t al. Science 5 février 2021, N°6529, pp. 583-593.

Limites à la croissance d'une population.

 

Samedi 5 Mars 2021


La croissance exponentielle d’une population ne peut pas se prolonger indéfiniment sans quoi elle accaparerait très vite tout l’espace disponible sur notre planète ; il viendra donc un moment où cette population va être confrontée à des obstacles qui feront ralentir sa croissance et pourront même entraîner son arrêt ; quels sont ces obstacles ? Ce sera l’objet de ce billet. 

Si nous revenons à notre billet « une croissance exponentielle » qui décrit la croissance sans limites d’une population,  nous avons noté que la courbe N=N0ert était affectée d’un paramètre r ou taux d’accroissement  spécifique de la population. Ce paramètre peut  prendre différentes valeurs qui modifient la pente de la courbe ; des chercheurs ont suggéré que ce paramètre diminuait à mesure que la population augmentait traduisant ainsi qu’il existait une limite à l’accaparement de l’espace et des ressources du milieu dans lequel vit et se développe la population. Le paramètre r est constant tant que les ressources du milieu sont suffisantes pour satisfaire tout l’accroissement de la nouvelle génération, il diminue lorsqu’elles sont insuffisantes pour satisfaire tout l’accroissement de la nouvelle génération, il s’annule alors qu’il s’établit un équilibre entre  le nombre d’individus de la nouvelle génération et les ressources disponible du milieu. 

La courbe qui décrit bien le phénomène est une courbe en S ou sigmoïde. Elle a dans sa première partie la forme d’une courbe exponentielle tant que le milieu où vit la population dispose d’espace et de ressources pour satisfaire la croissance. Dès que ressources et espace se raréfient la courbe décroit jusqu’à ce que sa pente soit nulle alors l’effectif de la population a atteint la capacité de charge du milieu. 

Des études expérimentales ont conforté cette description mathématique. Chez les insectes par exemple, si l’on met dans un flacon contenant un milieu nutritif un couple de drosophiles, on observe que la population des drosophiles issue de ce couple va croître très vite de manière exponentielle (on peut les compter régulièrement en les endormant) car le milieu est assez riche pour satisfaire toutes les nouvelles larves. Puis la croissance de la population ralentit et s’arrête. On note alors une mortalité larvaire de plus en plus grande car elles sont trop nombreuses pour trouver assez de nourriture dans le milieu nutritif qu’elles partagent. On a observé chez d’autres insectes que la diminution des ressources alimentaires entraînait un retard dans la croissance corporelle, une réduction de la survie et de la fécondité.

Chez les plantes, la densité va modifier la taille des plantes, le poids des graines qu’elles produisent, la fertilité de ces graines. Lorsque la densité d’un semis est très forte, il y a concurrence entre les plantules, celles qui avaient un pouvoir germinatif élevé (du fait de l’importance de leurs réserves) ou qui se trouvaient dans une zone du sol plus riche se développent plus vite ; une concurrence s’établit au détriment des plantules moins avantagées. Ces dernières vont mourir, les plantules avantagées vont accaparer l’espace, les ressources, et se développer davantage permettant ainsi une compensation de la production de graines pour la génération suivante. 

Notons ici l’importance de la densité en agriculture. Il existe pour chaque espèce agricole et pour chaque sol une densité des semis qui optimise la qualité et la quantité de la récolte. Un semis trop clair fait perdre du rendement, un semis trop dense fait perdre de la qualité.     

 

Comment fonctionnent les racines des plantes

 

Vendredi 5 Février 2021


On a dit beaucoup de choses sur le fonctionnement des racines, beaucoup de choses fausses aussi, notamment on a décrit des comportements anthropomorphiques (des racines de plantes voisines peuvent s’entraider) qui ne sont pas recevables dans les sciences expérimentales. Il est vrai que cachées dans le sol, il est difficile de les observer sans modifier leur milieu naturel.

 Une grande fraction de la photosynthèse aérienne est transportée vers les racines qui sont à la fois réserve d’énergie et organes d’absorption des nutriments et de l’eau du sol. Pour cette dernière fonction la plante fabrique des racines ; y-a-t-il une limite à cette prolifération, autrement dit la plante fabrique-t-elle des racines pour préempter les ressources tant qu’il y en a ou se restreint-elle parce qu’il y a d’autres compétiteurs ou d’autres obstacles ?

Des chercheurs* ont travaillé sur un modèle dont nous allons énoncer les principales idées.

A mesure que l’extrémité absorbante d’une racine s’éloigne de l’axe de la tige, le coût d’absorption unitaire des nutriments par cette racine s’accroît. Dans le modèle proposé chaque individu maximise sa propre absorption par unité de coût. Si le coût est faible la plante émet beaucoup de racines, s’il est fort il diminue cette production. Pour une plante isolée, à partir d’une certaine distance entre le point d’insertion de la racine sur la tige et la pointe de la racine, le coût d’absorption unitaire devenant trop élevé on glisse d’une surproduction de racines vers une sous production. Globalement le système racinaire est dense au niveau du point d’insertion des racines sur la tige, il s’éclaircit lorsqu’on s’en éloigne. Lorsque deux plantes sont voisines, dès que les racines de chaque plante se rapprochent le coût unitaire d’absorption des nutriments s’accroît car respectivement elles épuisent les ressources locales, il existe un point S de l’espace où se produit, pour chaque plante, un glissement de surproduction de racines vers la sous production.       

Le modèle coopératif entre deux systèmes racinaires différents serait plus complexe car il faudrait que chaque plante reconnaisse les racines de la plante voisine (le non soi) et leur coût d’absorption à leur voisinage c’est pour cela que sa vraisemblance est faible.

Les auteurs ont testé expérimentalement leur hypothèse en observant le comportement racinaire de plantes cultivées seules ou confrontées à une plante voisine.

        . Pour une plante seule ils constatent, en accord avec leur hypothèse, un amas racinaire au voisinage du tronc. Très peu de racines s’éloignent de celui-ci (on observe d’ailleurs la même chose pour des vergers irrigués au goutte à goutte).

        . Quand deux plantes sont voisines, le système racinaire est dissymétrique ; surabondant près du tronc dans la partie opposée où les deux systèmes racinaires se confrontent, sous abondant dans l’espace de confrontation.

 Cette nouvelle présentation du comportement des racines devrait mieux guider les techniques agricoles.

 *Ciro Cabal et al. Science, 4 décembre 2020, N°6521, pp.1197-1199

Les objectifs de limitation du réchauffement climatique prévus dans les accords de Paris ne pourront être atteints que si l’on intervient aussi sur les systèmes de production alimentaire.

 Mardi 5 janvier 2021


Pour réduire les émissions de gaz à effets de serre de manière à limiter l’accroissement du réchauffement climatique entre 1,5°C et 2°C  à l’horizon de 2100 on a pensé qu’il fallait essentiellement intervenir sur l’arrêt de l’utilisation des combustibles fossiles mais l’on s’est peu préoccupé jusqu’ici des autres sources émettrices. Dans une publication récente* des chercheurs montrent que les objectifs ne pourront être atteints que si l’on réduit aussi, de manière drastique, les émissions issues des systèmes de production alimentaire.

 

Produire des aliments nécessite de disposer de terres arables, il faut donc nettoyer des landes et abattre des forêts, ce qui émet du dioxyde de carbone CO2 et de l’oxyde nitreux N2O. La production d’engrais et de produits agrochimiques émet du CO2, du N2O et du méthane CH4, la fermentation anaérobie de la panse des ruminants produit du CH4, les rizières émettent CH4, le fumier émet du N2O et du CH4, enfin on utilise en agriculture des machines qui brûlent des combustibles fossiles et émettent ainsi du CO2. Au total selon ces auteurs la production mondiale alimentaire émettrait en moyennes 16 milliards de tonnes d’équivalent CO2 par an.

 

Réduire les émissions des gaz à effet de serre en intervenant sur les systèmes de production alimentaire sera essentiel si l’on veut atteindre l’objectif de limiter le réchauffement climatique de 1,5 à 2°C à l’horizon 2100. En effet les auteurs estiment que sans modifications de ces systèmes, ils émettraient de 2020 à 2100 1356 gigatonnes d’équivalents CO2 ; à ce niveau, même si l’on stoppait dès 2020 les émissions provoquées par la combustion des énergies fossiles, celles induites par la seule production alimentaire entraîneraient un réchauffement climatique de 1,5°C entre 2051 et 2063.

 

Comment réduire l’impact des systèmes alimentaires sur les émissions de gaz à effet de serre ? Les auteurs examinent 5 possibilités : 1) en adoptant pour tous, à partir de 2020, une alimentation essentiellement végétale (diète de type méditerranéen) on atteindrait en 2100 une émission cumulée d’équivalents CO2 de 708 gigatonnes ; 2) en limitant à 2100 kilocalories par personne l’alimentation journalière on atteindrait 946 gigatonnes 3) en augmentant de 50% les rendements de la production agricole on atteindrait 1162 gigatonnes 4) en diminuant de 50% les pertes de la production alimentaire ainsi que les déchets on atteindrait 992 gigatonnes 5) en accroissant l’efficacité de la production (agriculture de précision, rations animales optimisées) on atteindrait 817 gigatonnes. Si les cinq stratégies étaient partiellement utilisées (50%) à partir de 2050, seule la cible d’une augmentation de 2°C pourrait être atteinte en 2100 ; si elles étaient totalement utilisées à partir de 2050 en remplacement du système de production alimentaire actuel, alors l’effet émissif des systèmes de production serait sans effets sur le bilan carbone du fait de la séquestration positive du carbone des terres agricoles abandonnées.

 

En définitive, même si on arrivait rapidement (à l’horizon 2050) à supprimer totalement les émissions de gaz à effet de serre issus de la combustion des ressources fossiles, on ne pourra pas faire l’impasse d’une réduction drastique des émissions liées aux systèmes de production alimentaire si l’on veut ne pas dépasser les limites du réchauffement climatique fixées aux accords de Paris.

 

*Michael A. Clark et al. Science 6 Novembre 2020, N°6517, pp.705-707    

Qu'est-ce que la culture ?

 Samedi 5 Décembre 2020

 

Selon les anthropologistes et les biologistes, « la culture est une combinaison de caractères qui distinguent un groupe d’individus d’un autre ; un caractère culturel est un comportement qui a été soit inventé soit appris d’un autre groupe et qui a été ensuite transmis aux autres membres du groupe*». Notons donc qu’un caractère culturel appartient au groupe, qu’il a été acquis ou emprunté, et qu’il est transmis ce qui nécessite une mémoire à long terme. 

Il est nécessaire de donner deux exemples simples de caractères culturels qui appartiennent l’un à un singe anthropoïde le chimpanzé, l’autre à des populations primaires de la forêt amazonienne.

        .Chez certaines familles de chimpanzés, les individus ont appris à cueillir et à effeuiller un rameau qu’ils utilisent pour aller récolter les termites dans un trou de termitière ; cette aptitude se transmet dans la famille de génération en génération.

.Chez l’homme, les habitants d’un groupe de villages isolés au nord du Brésil, jettent un poison végétal dans l’eau de la rivière et recueillent peu après les poissons qui flottent sur l’eau, cette méthode de pêche est spécifique à ces villages.

Le caractère culturel peut donc exister déjà chez les animaux supérieurs mais il va prendre toute son ampleur chez l’être humain. 

Essayons d’analyser ce que sous-tend cet acte culturel. Il faut d’abord l’intelligence nécessaire à la découverte de celui-ci ; très souvent un seul individu en est l’inventeur. Il faut ensuite une capacité d’apprentissage aux autres membres du groupe pour se l’approprier. Enfin, il faut une mémoire à long terme pour qu’il passe de génération en génération. Le fait culturel suppose donc, du groupe qui le partage, une capacité cognitive élevée. 

Un caractère culturel majeur est la langue parlée : le français, l’anglais etc. Elle répond en effet entièrement aux critères que nous avons énoncés plus haut : invention des sons correspondant à la désignation des objets et de la grammaire qui structure la langue ; nécessité d’un apprentissage dès la jeune enfance; enfin sa transmission de génération en génération. Celle-ci a recours à la mémoire à long terme que l’être humain possède au-dessus de toute autre espèce animale. La langue parlée intègre l’individu au groupe,  elle influencera insensiblement tous ses autres comportements. Ainsi chaque langue est unique par la nature des sons qu’elle emploie, par la multiplicité et la précision des désignations, par sa grammaire. L’intégration au groupe nécessite une appropriation intime de sa langue. Elle permet l’abstraction, elle introduit à la littérature et à l’œuvre d’art.

 

*Edward O. Wilson. The social conquest of earth    

Les batteries au plomb

Jeudi 5 Novembre 2020

 

Les batteries au plomb sont-elles condamnées à plus ou moins brève échéance face aux batteries à l’ion lithium ? Peut-être pas car, selon une publication récente de deux chercheurs* dans la revue Science, ces batteries ont des avantages et peuvent-être améliorées. 

La batterie au plomb et à l’acide sulfurique a été inventée au 19ème siècle par un français Gaston Planté. Il n’imaginait surement pas l’importance que prendrait par la suite ce moyen de stockage de l’électricité ni l’importance de sa valeur financière. Les batteries au plomb représentent actuellement encore 70% du marché de stockage de l’énergie avec une production totale de 600 gigawatts heures en 2018. Elles sont utilisées dans les systèmes fournisseurs d’énergie en continu, dans les réseaux électriques, dans les moteurs automobiles y compris les moteurs hybrides et ceux qui fonctionnent aux batteries à ion lithium où elles fonctionnent en tant que fournisseurs indépendants d’électricité au démarrage, à l’allumage des bougies, à l’éclairage du véhicule. Elles fonctionnent aussi dans des conditions extrêmes de froid et sont utiles comme générateurs de secours en cas de panne du secteur électrique. 

Une batterie au plomb est schématiquement constituée d’une électrode grille négative en plomb remplie d’une pâte de plomb et d’une électrode grille positive en plomb remplie d’une pâte d’oxyde de plomb (les électrodes grilles peuvent être aussi constituées d’un alliage de plomb cadmium ou de plomb antimoine). Les deux électrodes sont plongées dans de l’acide sulfurique plus ou moins hydraté et séparées par un panneau perméable aux électrolytes. Lors de la décharge de la batterie, le plomb de l’anode cède deux électrons (créant ainsi le courant électrique dans le circuit branché sur la batterie), les ions plomb (Pb 2+) ainsi formés se combinent avec les ions sulfate (SO4 2-) de l’acide sulfurique pour donner du sulfate de plomb insoluble  (SO4Pb) qui s’accumule sur les deux électrodes grille. Quand on charge la batterie le sulfate de plomb se dissocie et le plomb se régénère grâce aux électrons apportés par le courant électrique de charge ; cependant comme le sulfate de plomb est très insoluble, la régénération se fait lentement. Au cours de la charge de la batterie se produit aussi une réaction d’électrolyse de l’eau catalysée par les impuretés métalliques présentes dans le plomb. Cette réaction donne de l’oxygène et de l’hydrogène avec perte d’eau, il faut donc rajouter de l’eau à la batterie. 

Le changement répété : dépôt et dissolution du SO4H2, qui se produit au cours de la charge et de la décharge de la batterie, entraîne une corrosion des électrodes grilles et l’arrêt du fonctionnement de la batterie. 

Le problème majeur à résoudre pour ces batteries est la lenteur avec laquelle se fait leur régénération  car le courant de charge doit dissocier le sulfate de plomb peu soluble. L’énergie électrique nécessaire à cette opération est de ce fait dissipée en partie en énergie calorifique ; de plus l’apparition du phénomène indésirable d’électrolyse de l’eau utilise aussi, en cours de charge, une partie de l’électricité fournie. La corrosion des électrodes est un autre problème car il limite la durée de vie de ces batteries. Une amélioration devrait être apportée à ces problèmes en œuvrant sur les électrodes grilles : modification de leur composition chimique et de leur structure. 

Selon les auteurs de l’article les batteries au plomb ne sont pas obsolètes ; trop lourdes et ayant une densité énergétique faible elles seront concurrencées sur les véhicules électriques par les batteries à l’ion lithium, leur avenir est dans le stockage de l’électricité des réseaux électriques où le prix de revient est important alors que le poids ne pose plus de problèmes. Ces batteries sont peu coûteuses à fabriquer, le matériel de base est abondant et bon marché. La critique que l’on peut faire concernant la toxicité du plomb sur la santé et l’environnement est déjà moins recevable dans la mesure où ces batteries sont recyclables à 99% ; pour aller au-delà de cette limite, il suffirait d’appliquer strictement les règles légales qui concernent les manipulations de ce métal et de renforcer les contrôles opératoires de la fabrication des batteries.

 

* Pietro P. Lopes et Vojislav R. Stamenkovic,  Science, 21 août 2020, N°6506, pp.923-924    

La science rejetée.

 

Lundi 5 Octobre 2020

 

Le but de la science peut se définir comme une tentative d’explication rationnelle (non théologique) du monde qui nous entoure : monde physique, monde chimique, monde biologique. Elle utilise pour cela des outils de description rationnelle : les mathématiques, des outils d’investigation matérielle : microscopes, télescopes etc. et une méthodologie : l’expérimentation. Dans son projet initial la science était une démarche susceptible de combler la curiosité de l’esprit humain mais très vite il est apparu que ses premiers succès explicatifs pouvaient aussi avoir des applications susceptibles d’améliorer nos conditions de vie.

 

La science appliquée à fait faire des progrès gigantesques à notre confort (il n’y a qu’à citer l’évolution de la médecine ou la domestication des différentes formes de l’énergie) mais elle a été aussi source de développements critiquables sinon dangereux pour notre avenir : armes thermonucléaires de destruction totale, réchauffement climatique etc. Si du point de vue strict de la connaissance, la science n’est pas critiquable, du point de vue de ses applications l’être humain n’a pas su limiter ses ambitions. Ainsi la science dont l’unique objet est la connaissance devrait être acceptée de tous, mais ses applications fruits d’une volonté humaine peuvent être contestées.

 

On assiste aujourd’hui à un rejet souvent non justifié, des préconisations issues des résultats scientifiques : inutilité des vaccins, recours à une médecine empirique, recours à une agriculture empirique, déni du réchauffement climatique et, récemment, contestation de l’efficacité du port du masque pour se protéger du corona virus ; enfin  rejet de la science elle-même qui serait à l’origine de tous nos maux ! Qu’elle est l’explication de ces attitudes ?

-Il y a d’abord une instruction insuffisante ; Une personne dont les études sont lacunaires soit parce qu’elle ne s’est pas impliquée elle-même dans celles-ci, soit parce que sa situation familiale ne le lui a pas permis, risque de ne pas savoir différencier une connaissance qui a été acquise par la science d’une donnée colportée, empirique.

- De nombreuses sectes rejettent la science et manipulent des esprits crédules.

- Les informations journalistiques sont quelquefois erronées car le journaliste qui les donne n’a pas une connaissance scientifique suffisante du sujet qu’il traite.

- Les réseaux sociaux sont une source inépuisable de fausses nouvelles pouvant impliquer la validité de résultats scientifiques. Finalement avec un retour à la protection de l’environnement, il s’installe un mouvement anti progrès qui est aussi un mouvement contre la science.

 

Face à ces attaques, le scientifique doit s’impliquer davantage dans la défense de celle-ci. Il doit d’abord simplifier le message scientifique afin de le rendre accessible à tous et en même temps éviter les contradictions qui troublent les esprits. Il ne doit pas hésiter à signaler au journaliste ce qui de son point de vue est incorrect dans ses articles. Les technologies digitales (réseaux sociaux notamment) sont une source inépuisable de fausses informations, le scientifique doit utiliser les mêmes technologies pour corriger ce qui est faux et rappeler ce qui est vrai.

La plantation de forêts peut-elle être un facteur efficace de lutte contre les émissions de CO2?

Mercredi 5 Août 2020

 

Du fait de leur capacité à piéger le CO2, les plantations d’arbres sont de plus en plus préconisées  pour réduire les émissions de gaz à effets de serre. Une stratégie forestières pourrait permettre de piéger 7Pg (Péta multiplier par 1015) d’équivalents CO2 par an à partir de 2030 ; elle aurait aussi des effets favorables à la biodiversité, rendrait des services aux écosystèmes et contribuerait à la conservation des sols*.

Une stratégie forestière peut se décliner en quatre catégories : 1) éviter les déforestations, 2) replanter des forêts 3) améliorer la gestion des forêts naturelles 4) améliorer les méthodes de plantation. Pour que ces projets soient efficaces dans le piégeage des émissions de carbone, ils doivent être permanents à l’échelle du siècle au moins sans quoi leur rôle dans l’atténuation des effets de serre sera insignifiant. L’ennui c’est qu’avec les changements climatiques les forêts sont soumises à des risques aléatoires croissants ; la non évaluation de ces risques par les outils scientifiques disponibles et la non prise en compte des données déjà existantes peut compromettre des projets séduisants et entraîner des dépenses inutiles.

Quels sont les risques permanents qui se sont d’ailleurs aggravés avec le réchauffement climatique, et qui peuvent affecter, s’ils ne sont pas pris en compte sérieusement, toute tentative de développer le domaine forestier.

En premier lieu il y a les incendies. Entre 1997 et 2016, 500 millions d’hectares de terre ont été affectées annuellement par des incendies ; leur fréquence décroît dans les savanes et les prairies naturelles et s’accroît dans les forêts de l’ouest des Etats Unis, de l’Australie, des climats méditerranéens et dans les forêts boréales américaines et asiatiques. Les changements climatiques modifient la fréquence des incendies, les surfaces détruites et l’intensité des dégâts ; notamment les températures plus élevées influencent la mortalité des arbres et la destruction de la matière organique du sol. Les incendies remettent dans l’atmosphère le carbone qui était stocké par la forêt ce qui est à l’encontre de l’objectif poursuivi : faire de celle-ci un piège à carbone. Il existe maintenant des bases de données issues d’observations par satellites sur la localisation des feux, sur leur intensité et leur permanence au cours du temps, ces données seront judicieusement  consultées avant tout projet d’une plantation d’arbres destinée à demeurer en place à long terme.

La sécheresse (cause aussi d’incendies de forêts) devrait affecter des territoires plus vastes avec le réchauffement climatique. Elle réduit la production forestière et est cause d’émissions de carbone par mort des arbres. Des périodes de sécheresse extrême  expliqueraient, au cours des 30 dernières années, une fluctuation de la production forestière de 78%. Enfin la mortalité par sécheresse est diffuse mais sévit sur des territoires très vastes. La sécheresse est souvent sous-estimée lorsque on projette la mise en place d’importantes plantations forestières et certains projets africains n’ont pas suffisamment pris en compte ce risque. Des données sur la sécheresse qui peut sévir dans une région existent et l’on peut calculer à partir de relevés météorologiques des indices d’aridité. Ces données et ces indices devraient être déterminants dans le choix variétal d’une plantation forestière elles devraient aussi préjuger de son échec éventuel.

Le parasitisme constitue lui aussi une cause importante de mortalité des arbres des forêts ; il y a les insectes scolytes qui se nourrissent du phloème et peuvent introduire des champignons qui vont obstruer les faisceaux du bois, les insectes défoliants, les champignons parasites du feuillage. En plus de ces parasites locaux, il peut y avoir des invasions parasitaires imprévisibles provenant d’autres pays qui affectent brutalement une espèce forestière. Il est très difficile de prévoir les incidences du parasitisme sur la forêt. Leur gravité est liée fortement aux facteurs climatiques : sécheresse, froid, humidité excessive. Cependant avec le réchauffement climatique on peut s’attendre à ce que les espèces forestières rejetées à la limite de leur zone d’adaptation soient fragilisées face aux parasites.

La forêt peut encore être affectée par des accidents climatiques : tempêtes, neige, gel. Les effets peuvent en être graves mais ils sont généralement localisés. Le réchauffement climatique entraîne enfin un déplacement des espèces. Les espèces vulnérables au changement climatique vont être éliminées de leur zone d’adaptation ancienne et remplacées par des espèces de substitution mieux adaptées. Il s’en suit une mortalité accrue d’arbres et de nouveaux assemblages spécifiques.

Développer la forêt pour participer à l’effort de piégeage du CO2 est une opération souhaitable ; mais elle ne doit pas se décider à la légère car elle peut conduire à des échecs coûteux. Il existe un ensemble très complet de données qui doivent être prises en compte avant toute décision. Établir un projet  de reforestation à grande échelle sans s’appuyer sur les données satellitaires, météorologiques et pédologiques qui ont été peu à peu rassemblées sur la zone concernée c’est courir l’échec.

 

*W.R.L. Anderegg et al. Science 19 juin 2020, N°6497 p. 1327

Il n’y aura pas de billet en septembre ; bonnes vacances à mes lecteurs.


Agriculture et écologie


Dimanche 5 Juillet 2020


 « Faire de l’agriculture c’est affecter un espace à une espèce animale ou végétale utile à l’homme et exclure de cet espace toute autre espèce concurrente ». Cette définition, donnée dans mon livre, résume à la fois l’objectif de l’agriculture : favoriser une espèce pour quelle donne son meilleur rendement et son effet d’exclusion particulièrement néfaste au milieu naturel. Malgré ces contraintes totalement arbitraires, peut-on rapprocher l’agriculture de l’écologie naturelle ? C’est ce qu’essaient de faire les tenants de l’agriculture biologique puisqu’ils tentent de d’obtenir une production tout en préservant le milieu naturel. Peut-on réussir une telle gageure ?

L’agriculture biologique propose de très nombreuses techniques pour que les produits qu’elle obtient soient sains pour le consommateur et que les pratiques agricoles préservent le milieu naturel. A notre connaissance ces pratiques n’ont fait l’objet que de peu d’études soumises aux contraintes scientifiques elles relèvent le plus souvent  de pratiques empiriques. Or pour asseoir la validité de cette agriculture ne faudrait-il pas justement revenir à ce qui a fait le succès de la méthode scientifique : l’expérimentation.

En écologie on étudie scientifiquement les systèmes vivants naturels, en agriculture on gère des systèmes vivants en essayant de s’appuyer sur les règles de l’écologie. L’agriculture biologique mélange l’écologie des systèmes vivant naturel à celle des systèmes vivants gérés cette situation nouvelle ne peut être efficace que si elle est étudiée par les méthodes scientifiques.

La méthode scientifique commence par l’observation attentive et le suivi à long terme. Prenons un exemple : certaines plantes non agricole seraient répulsives pour certains parasites des plantes agricoles ; l’observation attentive de la plante répulsive et de la plante agricole cultivées côte à côte doit d’abord permettre de voir si elles hébergent le même parasite ou s’il est différent car la reconnaissance des parasites n’étant pas toujours évidente une erreur grossière d’identification est toujours possible. On vérifiera aussi si le parasite est absent, peu présent ou en quantité habituelle sur l’espèce cultivée en présence de l’espèce répulsive L’observation enfin devra aussi être reprise sur plusieurs cycles pour s’assurer que ce que l’on a observé une fois se répète dans le temps.

Après l’observation vient l’expérimentation. L’expérimentation consiste à établir un dispositif au cours duquel un processus naturel est sous contrôle de l’expérimentateur. Il doit répondre à la question dite « hypothèse nulle »  qui dans le cas qui nous intéresse est la suivante : la plante non agricole n’est pas répulsive pour le parasite de la plante agricole. Les dispositifs d’expérimentation sont, pour cette question, des dispositifs codifiés traitables par les statistiques ; ils mettent en jeu des parcelles répétées dans lesquelles tantôt la plante agricole sera seule, tantôt en compagnie de la plante supposée répulsive ou d’une plante non répulsive. L’analyse statistique consistera en une comparaison des moyennes des mesures de la quantité de parasite présente sur la plante agricole dans chaque traitement. Si les moyennes ne sont pas significativement différentes, l’hypothèse nulle sera acceptée. Si elles sont significativement différentes c’est que la présence de la plante répulsive a bien un effet positif. Dans tous les cas une ou plusieurs répétitions dans le temps du dispositif expérimental sera nécessaire pour accepter ou rejeter l’hypothèse nulle.     

Y-a-t-il une diminution des populations d'insectes?


Vendredi 5 Juin 2020


Les insectes constituent un très grand groupe d’espèces qui tient une place majeure dans le fonctionnement des écosystèmes. Ils consomment des végétaux, ils dégradent des déchets, ils transforment tout cela en protéines, qui nourriront leurs prédateurs : oiseaux, animaux ; ils sont des agents de pollinisation indispensables à la multiplication des espèces végétales à reproduction sexuée. 
Pour l’être humain ils favorisent la production agricole par la pollinisation,  ils produisent des aliments comme le miel et d’autres produits utiles, mais ils sont aussi des parasites actifs qui affectent les récoltes et transmettent des maladies. De nombreuses alertes concernant la diminution des populations d’insectes ont été émises, ont-elles des bases scientifiques solides ? Notamment sont-elles conformes dans la durée et dans l’espace ? Des chercheurs* ont essayé d’y voir plus clair en analysant une masse de données qui ont été recueillies sur ce sujet, nous allons voir que leurs conclusions ne sont pas aussi catégoriques que ce que l’on annonce le plus souvent.

L’étude s’est appuyée sur des observations standardisées et à long terme (supérieures à 10 ans). La série de données incluait 166 compilations faites sur 1676 sites répartis dans 41 pays.

Ces études présentent une grande variation des tendances même entre des sites géographiquement voisins. Il apparait aussi, de manière évidente, qu’il y a bien un déclin de la présence des insectes terrestres estimé à 0,92% par an (-8,8% par décade) alors qu’au contraire, il y a une augmentation de la présence des insectes d’eau douce de 1,08% par an (+11,33% par décade). Comme l’eau douce n’occupe que 2,4 % de la surface terrestre, les deux résultats ne peuvent être combinés pour représenter les tendances à l’échelle mondiale.

Le déclin des insectes terrestres est particulièrement net en Amérique du nord et en Europe (il est vrai que les études y ont été plus fréquentes). Les tendances sont nettement affirmées en climat tempéré, méditerranéen, et pour les zones désertiques sèches. L’accroissement de la présence des insectes d’eau douce semblent récente car elle n’apparait que dans les dernières études.

Ces tendances à la baisse sont-elles liées aux activités humaines qui modifient non seulement la destination des sols mais aussi le climat ?
Les baisses sont plus faibles dans les zones protégées ; l’urbanisation n’agit que modérément sur la diminution de la présence des insectes terrestres, au contraire l’augmentation de la présence des insectes qu’ils soient terrestres ou d’eau douce est positivement associée aux espaces cultivés. Ceci serait lié à la stabilité des zones cultivées mais aussi au fait que les pratiques culturales seraient moins agressives de nos jours. Enfin il n’y a pas d’influence du réchauffement climatique ni de la pluviométrie sur l’augmentation ou la diminution de la présence des insectes.

Les conclusions de l’étude sont soumises à quelques réserves. Il y a sur- représentation des données provenant d’Amérique du Nord et d’Europe ;  les observations, très nombreuses, recueillies sur les zones protégées influent  fortement sur les tendances alors que leur part ne représente qu’un faible pourcentage des surfaces de la planète. De nouvelles données devraient donc être acquises sur les zones sous représentées.
Le déclin de la présence des insectes doit être associé au déclin des oiseaux insectivores ; en même temps leur accroissement dans les zones d’eau douce pourrait s’expliquer par une amélioration de la qualité des eaux.

*R Van Klink et al. Science, 24 avril 2020, N°6489, pp.417-420.    

Recevoir les nouveaux billets par Email