Revue AE&S vol.8, n°1,4 juin 2018 : Agronomie et agriculture numérique

De la Révolution Numérique à la Révolution Agronomique


 Gilbert Grenier*

 

* Bordeaux Sciences Agro

Contact auteur : gilbert.grenier@agro-bordeaux.fr

Prochainement téléchargeable en pdf


Le Numérique est en train de bouleverser nos vies, aussi bien sur le plan professionnel que sur le plan personnel. Nos façons de vivre et de travailler sont modifiées, des métiers nouveaux apparaissent et d'autres sont confrontés à des phénomènes "d'Ubérisation" qui remettent en cause ces métiers.

Ce sont aussi les connaissances et les méthodes de travail qui se modifient, qui évoluent du fait de cette Révolution Numérique.

L'Agriculture au sens large, et l'Agronomie en particulier, n'échappent pas à cette (R)évolution. L'objectif de ce texte est avant tout de présenter les conséquences de cette évolution, et cela sans trop rentrer dans le détail des outils maintenant à disposition des Agronomes (et des Agriculteurs). Nous nous attarderons en priorité sur les changements dans les approches méthodologiques et les conséquences des apports du Numérique dans le domaine de l'Agronomie.

 

Les domaines impactés par le Numérique

 

Les outils Numériques impactent fortement 4 domaines différents, domaines essentiels à l'Agronomie ;

·         Les mesures (l'observation des variables agronomiques et de leur évolution),

·         La nature et la pertinence des informations récoltées

·         L'analyse et les outils d'analyse de ces informations

·         L'expérimentation et la définition des protocoles d'expérimentation

 

Les mesures et l'observation des variables agronomiques

L'émergence de capteurs de toutes sortes, depuis les stations météo automatiques jusqu'aux satellites de type Spot ou Pléiades, permet de disposer de volumes d'informations qui ont littéralement explosé. Si, pour gérer une culture il y a peu d'années, l'agriculteur devait se contenter de quelques dizaines d'informations, il a maintenant accès à des milliers voire millions de données. Sur le principe rien de changé : il s'agit toujours d'avoir des observations sur le sol, les plantes et le climat (le tryptique de base de l'agronomie), sans oublier également les observations sur les maladies et ravageurs et - on trop tendance à sous-estimer ce point - sur la qualité du travail réalisé par les machines.

En quelques dizaines d'années, de nombreux capteurs ont été développés afin de permettre - peu ou prou - d'effectuer des mesures sur le terrain en lieu et place de mesures en laboratoire. C'est particulièrement le cas pour les mesures sur le sol, avec des capteurs capables d'effectuer des mesures rapides et relativement précises sur le terrain de variables comme : la résistivité, le pH, la teneur en matière organique, … et à court terme les teneurs en N, P, K,…

Un des aspects importants de cette innovation technologique concerne la consommation d'énergie de ces capteurs de terrain (essentiellement pour les capteurs mis en place sur le terrain pour une longue période comme les réseaux de capteurs et les objets connectés). La baisse drastique de consommation d'énergie est due à la fois aux progrès en matière d'électronique (circuits basse consommation, dispositifs de mise en veille et de réveil automatique des circuits électroniques, …) et aux nouveaux systèmes de communication de données vers un centre d'analyse et de stockage (réseaux bas débit comme Sigfox, Lora).

Cette baisse de consommation a permis de réduire considérablement la taille des batteries, et surtout de se passer de panneaux solaires pour recharger ces batteries.

En conséquence les prix des capteurs de terrain ont fortement diminué en quelques années (ainsi le prix des stations météo automatiques a été divisé par un facteur 10 à 20 en moins de 10 ans). Et, autre conséquence, avec le même budget on peut accroitre de façon significative la densité de capteurs sur le terrain et accroitre ainsi la qualité des mesures par un accroissement du nombre de points d'échantillonnage.

Pour d'autres capteurs, et en particulier les capteurs d'images (caméras RGB, caméras hyperspectrales, caméras thermiques,…), les progrès de l'électronique ont permis à la fois une amélioration considérable de leur résolution optique (de 500 pixels par ligne à plus de 5000 pixels), et une amélioration de la sensibilité spectrale et de leur performances (temps de réaction, cadence de prise de vue,..).

Et là encore l'évolution des prix a été très favorable au développement de l'usage de ces capteurs.

Il ne faudrait pas oublier non plus les progrès algorithmiques qui permettent de traiter des images sans cesse plus volumineuses (on est passé rapidement du Mo au To) et plus complexes (images en 3D, séries chono-temporelles,...).

 

La nature et la pertinence des informations récoltées

La multiplication des capteurs numériques a un impact très important sur la façon de mesurer et sur la pertinence des informations récoltées.

A titre d'exemple, lorsque l'on fait des prélèvements à des fins d'analyse de sol, on peut passer complètement à côté de phénomènes importants qui sont liés à l'hétérogénéité du sol. Cette hétérogénéité peut être naturelle (liée à la pédogénèse), ou induite par les activités humaines (le remembrement des parcelles en particulier, figure 1.).

Figure 1. : Parcelle de céréales avec une zone en retard de maturité, l'hétérogénéité intra-parcellaire est vraisemblablement issue d'une opération de regroupement de petites parcelles au passé très différent (Crédit personnel)

 

 

Si l'on n'a pas une connaissance précise de cette hétérogénéité (niveaux de variation et délimitation des zones), il est difficile de pouvoir effectuer un échantillonnage correct des parcelles. Ou alors il faut augmenter de façon drastique la densité des points d'échantillonnage, la limite étant alors la contrainte financière.

 

Figure 2. : Fig2a = Modélisation d'une parcelle avec 2 zones contrastées ; Fig2b = faible pression d'échantillonnage (1 prélèvement/Ha), la zone rouge n'est pas détectée ; Fig2c = en passant à près de 10 prélèvements/Ha la petite zone rouge est détectée mais avec un coût de mesure qui devient prohibitif ; Fig2d = des mesures géophysiques permettent de faire un zonage correct de la parcelle, ce zonage devra être complété par quelques prélèvements (au moins un dans chaque zone). Source : Géocarta

 

La figure 2 illustre ce problème : l'augmentation de la pression d'échantillonnage n'est souvent pas possible économiquement parlant. Il est plus judicieux - et moins coûteux - de combiner deux méthodes différentes : une méthode qui donne un aperçu exhaustif du phénomène (ici, un capteur de résistivité électrique tiré par un quad) et qui permet de déterminer le nombre, la forme, la taille et les contours des zones intraparcellaires), et ensuite une méthode classique d'analyse de sol, mais avec un échantillonnage ciblé, qui permet de quantifier les valeurs du phénomène au sein des zones intraparcellaires identifiées.

C'est ainsi que l'on est passé en peu d'années d'une seule méthode de mesure (l'échantillonnage) à quatre méthodes de mesure bien distinctes :

 

La méthode par échantillonnage

C'est la méthode de référence dont l'usage est toujours d'actualité. Toutefois son usage a évolué, et plusieurs procédures sont possibles :

o    L'échantillonnage aléatoire, pour lequel il existe de nombreuses études scientifiques pour définir au mieux le mode opératoire et la densité d'échantillonnage,

o    La méthode du "Grid Sampling", plus simple en matière de procédure de réalisation, et très prisée aux USA. Ici on superpose au plan de la parcelle une grille régulière (par exemple une grille carrée de 100m de côté, et on réalise une mesure (par exemple une analyse de sol) pour chaque carré de cette grille,

o    L'échantillonnage orienté, qui s'est beaucoup développé à partir du moment où l'on a commencé à raisonner non plus au niveau de la parcelle (supposée être homogène) mais au niveau des zones intraparcellaires cartographiées.

Mais ce que l'on constate au niveau parcellaire ou intraparcellaire, on le constate également à un niveau plus régional. Ainsi, beaucoup de modèles de développement de maladies ou de ravageurs utilisent en entrée des données météo. Mais la qualité de la réponse de ces modèles dépend en grande partie de la qualité de ces données météo. L'augmentation de la densité de points de mesure est une nécessité, mais on se heurte à une logique financière qui impose le plus souvent de ne pas aller jusqu'au niveau de densité souhaitable. Il est donc nécessaire d'utiliser une approche différente, qui passe par un changement de méthode et/ou d'outil de mesure (figure 3).

Figure 3. : Comparaison entre des cartes de pluviométrie obtenues sur un territoire de 320 km², avec une densité croissante de pluviomètres (de 2 à 18), et la carte obtenue avec un radar de pluie. Source Novimet/Cap2020

 

La figure 3 montre que l'augmentation du nombre de pluviomètres sur un territoire améliore la cartographie des intensités de pluie sur ce territoire, mais qu'une densité d'un pluviomètre pour 15 km² reste très insuffisante pour pouvoir cartographier correctement ce phénomène très complexe au niveau spatial.

Le risque principal est d'affecter à certaines zones des valeurs (ici la pluviométrie) qui sont totalement erronées. Le processus d'interpolation des données est pris en défaut à la fois parce que le phénomène est complexe, et du fait que les résultats obtenus sont très dépendants de la localisation des points de mesure (de leur représentativité, ou plutôt de leur manque de représentativité).

En particulier, le couloir sans pluie visible au centre de la cartographie obtenue avec le radar est très mal restitué même avec la plus forte densité de pluviomètres.

En conclusion, la méthode de mesure par échantillonnage n'est pas adaptée pour rendre compte de phénomènes dont la dynamique de variation est élevée, cela nous renvoie au théorème de Shannon bien connu en électronique et traitement du signal : la fréquence d'échantillonnage d'un signal doit être au minimum deux fois plus élevée que la fréquence la plus élevée présente dans le signal.

Par contre il faut noter qu'avec la méthode d'échantillonnage, les mesures effectuées sont des mesures "directes", c'est-à-dire que les variables mesurées sont les variables d'intérêt.

 

Imagerie et/ou cartographie

C'est une méthode de mesure qui est apparue avec l'usage de la télédétection, que le capteur soit porté par un satellite, un avion, un ULM ou encore un drone. D'autres capteurs sont apparus plus tardivement, et sont le plus souvent classés comme capteurs de proxidétection (le vecteur ici n'est plus aérien mais terrestre : opérateur humain, tracteur, quad, robot,…).

Dans certains cas, il s'agit toujours d'imagerie permettant d'obtenir - comme pour la télédétection - un indice de végétation (NDVI le plus souvent) ou un indice de brillance du sol,…

Mais l'essentiel des développements actuels porte sur des capteurs qui ne sont pas optiques et qui permettent d'obtenir des cartes et non pas des images.

Parmi les premiers capteurs de ce type, on trouve les capteurs géophysiques pour caractériser les sols (résistivité électrique pour Géocarta et son concurrent américain Veris, conductivimétrie électromagnétique pour le canadien Géonics).

Et d'autres capteurs ont suivi, comme des capteurs de cartographie du pH, de la teneur en matière organique,… Une des tendances fortes actuelles est au développement de capteurs de cartographie aussi bien pour caractériser le sol (texture, structure et éléments minéraux) que pour caractériser la végétation (poids de bois de taille pour la vigne, densité de peuplement pour les céréales,…).

La principale différence entre les capteurs d'image (du type caméra) et les capteurs permettant d'effectuer des cartographies tient dans le mode d'acquisition des données :

o   Un capteur d'image permet d'avoir une information exhaustive sur une surface importante en une seule acquisition. La surface visée en un seul cliché dépend beaucoup plus du vecteur que du capteur : on peut ainsi avoir une surface de plusieurs dizaines de km² avec une caméra embarquée sur un satellite, et de seulement quelques centaines ou milliers de m² pour un capteur du même type embarqué sur un drone.

o   Un capteur réalisant des cartographies est porté par un vecteur terrestre qui se déplace, et c'est le déplacement du vecteur qui assure l'exhaustivité des mesures.

Il en résulte deux conséquences qu'il ne faut pas sous-estimer :

       -) la mesure n'est pas du tout instantanée (comme dans le cas d’une image satellite), et il peut y avoir de la dérive du capteur entre le début et la fin des mesures. A cela peut s'ajouter la dérive du phénomène observé durant le temps de mesure, mais ce cas n'existe que pour des phénomènes dynamiques, par exemple pour des mesures sur le climat (par exemple la température de l'air), ou sur des ravageurs,

       -) la densité des points de mesure peut être très différente selon l'axe de travail et la perpendiculaire à cet axe. Ainsi, pour les mesures géophysiques on aura des points de mesure tous les 10 à 15 cm dans le sens d'avancement, et des passages du vecteur qui peuvent être distants de plusieurs mètres,

A noter que dans certains cas, la prise d'image n'est pas instantanée et les problèmes rencontrés sont très similaires à ceux rencontrés pour la cartographie. Ainsi certaines caméras (en particulier de nombreuses caméras hyperspectrales) font une acquisition de données sur une ligne seulement (et non pas sous forme d'un cliché rectangulaire). C'est le déplacement du vecteur qui assure l'obtention de la deuxième dimension, la régularité de ce déplacement est primordiale pour l'obtention d'une image exploitable.

C'est aussi le cas des acquisitions par drones, où la taille de la ROI (Region Of Interest) est souvent très inférieure à la taille de la parcelle. Il faut donc faire du mosaïquage, c'est-à-dire reconstituer une image de grande taille à partir d'un grand nombre d'images acquises à des moments différents et dans des conditions de prise de vue qui ont pu fortement évoluer.

Quoi qu'il en soit, dans la majorité des cas, les mesures effectuées avec des capteurs d'images ou des capteurs permettant de faire de la cartographie, sont des mesures indirectes.

C'est-à-dire que la variable mesurée n'est pas la variable d'intérêt. Ainsi, les capteurs utilisés en télédétection permettent de calculer des indices de végétation comme le NDVI (Normalized Difference Vegetation Index), le SAVI (Soil-Adjusted Vegetation Index).

,…. Ces indices sont calculés à partir de valeurs de réflectance, le plus souvent à partir du canal rouge (R) et du canal proche-infrarouge (PIR, NIR en anglais, pour near infra red). Par exemple le NDVI est donné par la formule (NIR-R)/(NIR+R)). Mais ce qui intéresse l'agriculteur ou l'agronome n'est pas cet indice, mais une quantité de biomasse, un stress azoté ou un stress hydrique,…

Une des difficultés majeures dans le traitement des données est de pouvoir faire un lien correct entre la variable mesurée et la variable d'intérêt, sachant que dans la plupart des cas, la variable mesurée est influencée par différentes variables (ainsi la valeur du NDVI dépend de multiples facteurs comme l'indice foliaire, la quantité de biomasse, l'activité chlorophyllienne, le stress hydrique,…).

 

Réseaux de capteurs et/ou objets connectés

Cette méthode de mesure consiste en une augmentation sensible du nombre de points d'échantillonnage sur le terrain, et surtout en une automatisation des mesures avec une fréquence qui est souvent très élevée (une à plusieurs fois par heure).

Cette méthode de mesure est la plus récente, son développement est lié aux progrès exposés précédemment : baisse de consommation des composants électroniques, et surtout apparition des réseaux de communication bas débit.

La baisse des prix, par exemple pour les mini stations météo, permet d'accroitre sensiblement la densité de ces appareils sur le terrain. Là où l'on se contentait d'une station météo par exploitation, on peut envisager une voire plusieurs stations météo par parcelle.

Et dans le sillage de ces mini stations météo dont le développement est assuré par des start-up dynamiques (Sencrop, Weenat,…), sont apparus également d'autres familles de capteurs connectés comme, en particulier, des pièges connectés.

Si le principe de base reste inchangé (attirer des insectes ou des papillons grâce à des capsules de phéromones), le principe de mesure a radicalement changé. Les pièges classiques permettaient de capturer les insectes ou les papillons, et ne restait ensuite qu'à venir compter les captures de temps en temps (souvent une fois par semaine).

Les pièges connectés permettent de compter les individus au moment où ils pénètrent dans le piège, et pour certains pièges il est possible également de prendre une image à des fins d'identification de cet individu (figure 4).

Figure 4a. : Piège connecté CapTrap : 1) les papillons sont attirés par une capsule de phéromone et entre dans le piège par l'ouverture supérieure, 2) ils sont emprisonnés dans la partie basse du piège après avoir été identifiés et comptés, 3) les résultats du comptage sont envoyés à intervalles réguliers par le biais d'un réseau bas débit. Source Cap2020

Figure 4b. : Comparaison des résultats de comptage manuel (pièges delta classiques) et de comptage du piège CapTrap sur tordeuse orientale du pêcher (Cydia molesta). Source Cap2020

 

Le principal changement qu'apportent les capteurs connectés et les réseaux de capteurs, c'est un changement d'échelle dans le rythme de mesure. Avec ces nouveaux outils la fréquence de mesure augmente de façon très importante, pour atteindre dans certains cas une cadence de mesure quasiment "temps réel".

Ainsi pour les pièges à papillons, on passe d'une fréquence de mesure de l'ordre de la semaine (au minimum de quelques jours) à une fréquence horaire voire de quelques minutes.

Sur la figure 4b, on voit nettement que la courbe de cumul entre méthode manuelle et piège est globalement la même (avec cependant un retard dans la prise en compte de certains vols de papillons pour les mesures manuelles).

Par contre, le piège fournit une information dynamique (quand et combien de papillons ont été capturés), là où la méthode manuelle ne donne qu'une information "statique", c'est-à-dire un cumul sur une période donnée. Et cette information dynamique est une aide précieuse pour la caractérisation de la dynamique de ces insectes ou papillons, par exemple avec plusieurs pièges sur un territoire étendu, on peut analyser la progression de ces ravageurs en termes spatiaux et temporels.

En conclusion, les capteurs connectés et réseaux de capteurs permettent de donner une information temporelle beaucoup plus fine et pertinente que les méthodes de mesures classiques. Il s'agit de suivre en temps réel (ou presque) l'évolution de phénomènes dynamiques complexes, au lieu de se contenter de mesures "cumulatives" (par exemple : on accède à la pluviométrie instantanée au lieu du cumul de pluie sur une journée).

A noter, que le plus souvent les mesures effectuées sont des mesures "directes" : c'est la variable d'intérêt (comme la pluviométrie ou le nombre de papillons) qui est mesurée.


Capteurs embarqués sur machines, ou portés à la main

C'est un cas qui est un peu la synthèse des deux cas précédents : le capteur est transporté soit par une machine (un tracteur le plus souvent), soit par un utilisateur.

Le déplacement du "vecteur" (machine ou piéton) assure l'exhaustivité des mesures sur le terrain (exhaustivité spatiale), la répétition du passage du vecteur (et donc du capteur) assure une fréquence élevée de mesure (aspect temporel des mesures).

Il y a encore peu d'applications de ce type au niveau des exploitations agricoles, mais par contre on peut considérer les plates-formes de phénotypage haut débit comme faisant partie de ce type de méthode de mesure (figure 5).

 

Figure 5 : Robot de phénotypage haut débit "Phénomobile". Source INRA/Arvalis

 

Ce cas de figure étant la synthèse des deux cas précédents, on aura à la fois des mesures directes pour certains capteurs, et des mesures indirectes pour d'autres. Mais le point essentiel ici est bien le fait que l'on recherche une exhaustivité spatiales des mesures, associée à un rythme de mesure qui tends vers le "temps réel".

 

L'analyse et les outils d'analyse des informations

Les changements ne se limitent pas à l'utilisation de nouveaux capteurs et à la mise en œuvre de nouvelles méthodes de mesure. Il faut aussi considérer le changement radical en matière de volume de données, et surtout l'amélioration sensible de la pertinence de ces données.

Tout cela amène à reconsidérer la façon d'analyser les données, et donc cela conduit à utiliser des outils différents, adaptés à ce nouveau contexte.

Un verrou important est de nature psychologique : il faut oublier la notion de "précision des mesures" telle que nous la connaissons pour nous focaliser sur les ordres de grandeur et la dynamique des phénomènes. Dit autrement, peu importe que la valeur mesurée du pH en un point soit de 6,2 ou 6,18, ou encore de 6,23. Ce qui compte c'est la dynamique de variation de cette grandeur. Et non pas la précision sur une mesure ponctuelle (figure 6).

 

Figure 6 : Valeurs de ph mesurées en différents points d'un verger de noyers. Source Coopérative Unicoque

 

La figure 6 montre la localisation de différentes mesures de pH réalisées dans un verger de noyers. Une amélioration de la précision des mesures n'apporterait rien de plus en termes de raisonnement agronomique.

Par contre, la prise en compte de l'hétérogénéité - au moyen d'un zonage - est indispensable pour pouvoir raisonner localement - ie : au niveau intraparcellaire - la façon de chauler (impasse, redressement,..), ou encore pour analyser les raisons qui font que dans certaines zones la culture est bien développée alors qu'elle l'est moins dans d'autres (quels sont les freins et les facteurs limitants du développement "local" d'une culture).

Les nouveaux capteurs permettent d'avoir une information avec un niveau de détail jusqu'ici impossible à obtenir, en conséquence les méthodes d'analyse des données doivent être en cohérence avec cette évolution.

La première étape indispensable est d'arrêter de considérer les parcelles comme étant homogènes, et donc de d'essayer de mesurer les variables agronomiques de façon exhaustive afin de pouvoir les cartographier.

A partir de là, les outils d'analyse vont être principalement des outils aptes à aider à l'analyse de données géoréférencées : tout d'abord les SIG pour la représentation et le croisement de couches de données, et les géostatistiques pour l'analyse des données, et en particulier pour définir les motifs spatiaux et pour pouvoir "zoner" correctement les données.

De façon un peu simpliste et provocante : l'outil statistique essentiel pour l'Agronome ne peut plus être le coefficient de corrélation mais ce doit être le variogramme ! En effet, l'analyse des données doit bien entendu porter sur les valeurs obtenues, mais il devient impératif de prendre en compte également la disposition spatiale de ces données. Et les géostatistiques sont un outil incontournable pour l'analyse des données spatialisées, d'autant que de nombreuses variables agronomiques (et en particulier les variables liées au sol) ont un caractère anisotrope (anisotropie géométrique et/ou anisotropie zonale).

Lorsque l'on parle de révolution numérique, et d'explosion des volumes d'information, de façon inéluctable arrive dans la discussion l'outil magique : le Big Data.

Effectivement, les nouveaux capteurs et nouvelles méthodes de mesure font que les données à caractère agronomique peuvent être considérées comme relevant du Big Data. En effet, on retrouve peu ou prou les 5 caractéristiques classiques du Big Data (les 5 V) : Volume, Variété, Vélocité, Véracité et Valeur.

Et donc les nouveaux outils utilisés pour traiter des données de ce type (les outils du data mining) peuvent être utilisés pour traiter les données agronomiques, et de nouveaux métiers (ceux de "Data Scientist" et de "Data manager") sont en passe d'apparaitre au niveau de la recherche agronomique et dans les organismes de conseil pour les agriculteurs.

Mais les outils du Big Data sont loin d'être magiques, et leur usage doit être effectué avec prudence, avec un regard "métier" très acéré. Le risque est grand, sinon, d'obtenir des résultats décevants voire aberrants.

Ceci dit, le croisement de données hétérogènes - que ce soit avec les outils du Big Data ou avec des outils plus classiques - peut être source de remise en cause de préceptes et de recommandations bien ancrés dans nos discours (figure 7).

 

Figure 7a : Comparaison entre production de céréales et colza, et achats d'engrais azotés. Source Unifa/Ministère de l'Agriculture

 

La figure 7a montre, que depuis 1990, la courbe des achats d'engrais azoté en France a décroché par rapport à la courbe de production de céréales et colza. Il faut bien entendu être très prudent quant aux causes possibles de ce décrochage, mais on peut émettre l'hypothèse que l'utilisation par les agriculteurs d'outils numériques de plus en plus sophistiqués (NSensor, FarmStar,…) leur a permis de mieux ajuster la fertilisation azotée des cultures aux besoin réels de ces cultures, et que c'est une des causes de ce décrochage.

Mais cet exemple lié à l'optimisation de plus en plus poussée de la fertilisation azotée devrait nous amener aussi à nous interroger sur le bien fondé de certains "dogmes agronomiques" (figure 7b).

Figure 7b : Recommandations en matière de fertilisation azotée des cultures. Source Comifer

 

Les recommandations, comme les 3 kg d'azote par quintal de blé, ont été établies à un moment donné, sur la base d'expérimentations effectuées avec les outils, les méthodes et les savoirs de l'époque. Il est probable que l'acquisition de grands volumes de données va nous permettre, non pas de remettre en cause ces recommandations, mais de les affiner, de les préciser, de les relativiser selon les contextes pédoclimatiques.

 

L'expérimentation et la définition des protocoles d'expérimentation

C'est probablement un des aspects qui va évoluer le plus, mais qui est en même temps très perturbant pour les Agronomes car cela induit une rupture totale avec les pratiques actuelles.

De façon abrupte, on peut dire que le Numérique entraine la disparition des essais en micro-parcelles. Il faut bien sur nuancer ce propos, mais c'est une tendance de fond pour des cas de figures éloignés des impératifs de recherche (en particulier les expérimentations effectuées par les Chambre d'Agriculture, coopératives,…).

Ces essais en petites parcelles ont pour objet de mettre en évidence un phénomène agronomique, par exemple l'effet de la dose d'engrais sur le rendement d'une culture, ou le gain en rendement d'une nouvelle variété par rapport à des variétés de référence.

Et donc, la variabilité intraparcellaire est de facto un élément perturbateur qu'il convient de minimiser. D'où le recours à des plans d'expérience plus ou moins sophistiqués en matière de nombre de répétitions et d'agencement des différentes modalités.

Outre la complexité de mise en œuvre des différentes opérations culturales sur ces micro-parcelles, les biais expérimentaux sont importants : effets des bordures, tassements différentiels, précision des opérations,…

Avec les outils du Numérique, il devient possible de faire des expérimentations en "vraie grandeur", sur des parcelles de plusieurs hectares voire de dizaines d'hectares, et de traiter les données en croisant rendements obtenus, caractéristiques du sol et observations menées durant le cycle cultural.

Des agriculteurs, et des ETA (Entreprises de Travaux Agricoles) réalisent déjà des expérimentions sur parcelles entières. Ces expérimentations sont du même type que celles réalisées par des conseillers agricoles de terrain ou des coopératives. Il s'agit le plus souvent de comparer les performances de plusieurs cultivars, ou des densités de semis,…

L'approche ici est radicalement différente : il ne s'agit plus de "gommer" ou de minimiser la variabilité intraparcellaire, mais de la quantifier et de déterminer les effets des différentes classes de valeur sur la variable à analyser.

Un des exemples d'expérimentations conduites concernent les comparaisons de cultivars : le cultivar à tester et le cultivar de référence sont semés en bandes alternées (bandes dont la largueur est celle de l'outil de semis). Ensuite, un logiciel permet d'interpoler les données et de constituer une carte de rendement pour chaque cultivar. Pour d'autres expérimentations, la parcelle est simplement coupée en deux, et un logiciel permet de comparer les résultats entre cultivar pour des zones de sol de même nature.

 

C'est donc une rupture profonde avec les usages habituels, d'autant que certains agriculteurs sont équipés d'outils performants en matière de réalisation des travaux et de mesure des paramètres de travail (guidage centimétrique des tracteurs par GPS RTK, capteurs de rendement, cartographie des conditions de semis,…).

Et donc, de plus en plus d'expérimentations vont pouvoir être effectuées en "réseau", c'est à dire un agronome (un conseiller) qui définit les modalités de ces expérimentations, et des agriculteurs qui les réalisent et qui fournissent les données de suivi de ces expérimentations.

Et ce schéma est déjà en application en Bretagne, avec le réseau Cléo : ce réseau d'ETAs (Entreprises de Travaux Agricoles) propose des prestations complètes d'Agriculture de Précision depuis la cartographie des sols jusqu'à la cartographie des rendements et l'analyse des données. Ce réseau a embauché des ingénieurs agronomes pour la cartographie des sols, le zonage des parcelles, le traitement des données,… et l'expérimentation chez les agriculteurs (plus de 300 ha d'essais de colza cette année, essentiellement des comparaisons de cultivars, ou de densité de semis).

 

Les changements pour les Agronomes

 

Les outils Numériques induisent une rupture dans la façon de travailler des Agronomes. La première rupture concerne les informations disponibles sur la connaissance que l'on peut avoir des phénomènes agronomiques.

 

Prise en compte de la variabilité intraparcellaire

Pour les variables agronomiques liées au sol, la principale rupture concerne la prise en compte de la variabilité intraparcellaire : sans les outils du numérique, il était difficile voire impossible de la prendre en compte.

Maintenant, non seulement on peut la prendre en compte mais il serait aberrant de ne pas le faire. Considérer que la valeur moyenne d'une variable agronomique est suffisante pour piloter une culture, c'est un peu comme un médecin qui considère que son patient est en bonne santé parce que sa température corporelle est de 37°C, alors que ce patient a la tête dans le four (thermostat 7) et les pieds dans le congélateur.

Si nous reprenons la figure 6, la valeur moyenne du pH de cette parcelle n'est absolument pas intéressante. Par contre il y a des zones où il est impératif d'effectuer un chaulage de redressement, alors que pour d'autres zones il ne faut surtout pas amener de calcium.

On aborde ici un point essentiel de la révolution agronomique qu'engendre le numérique : on peut - enfin ! - gérer les facteurs limitants au cas par cas, pour chaque zone on peut essayer de rétablir des équilibres propices au bon développement des cultures. Et cela touche des éléments aussi fondamentaux que la teneur en matière organique, le pH et les éléments minéraux.

Mais cette bonne gestion des zones suppose trois préalables :

       -) une cartographie fine et précise de la variabilité intraparcellaire, et cette cartographie doit être réalisée pour chaque variable. Il n'y a aucune raison que la carte du pH soit identique à la carte des teneurs en phosphore,…

       -) un zonage adapté à la fois à chaque variable cartographiée, et aussi aux capacités d'action de l'agriculteur et des machines (il ne sert à rien de faire une carte avec une centaine de zones de quelques mètres carrés chacune),

       -) et surtout ne pas utiliser un raisonnement du type "un problème è une solution". Et pourtant, c'est bien ce que l'on constate encore couramment sur le terrain. A partir d'une image de télédétection et du calcul d'un indice comme le NDVI, on en déduit une carte de préconisation de doses d'engrais azoté. Mais ce faisant, on oublie allègrement une étape : est-ce que le besoin en azote détecté en tel ou tel endroit est lié à un réel manque d'azote dans le sol, ou à un problème de pH trop acide dans cette zone, ou à un défaut d'enracinement de la culture,… ?

 

Prise en compte de la complexité des phénomènes agronomiques

Pour rendre compréhensibles les phénomènes agronomiques, et pour pouvoir les modéliser, nous avons eu tendance à simplifier les problèmes et à les traiter séparément.

L'exemple typique de cela, c'est la méthode du bilan, méthode qui est la base du l'Agriculture Raisonnée (figure 8, sur l’exemple du bilan hydrique).

Figure 8 : Schématisation de la méthode du bilan appliquée à l'irrigation. Crédit personnel

 

La méthode du bilan est facile à comprendre sur le plan conceptuel, mais c'est une méthode qui est très imparfaite car :

       -) différents postes sont évalués de façon grossière (comme ici le drainage),

       -) la variabilité spatiale (variabilité intraparcellaire) n'est pas prise en compte, et cela concerne en particulier la réserve utile du sol et aussi les pluies,

       -) la variabilité temporelle n'est pas non plus prise en compte,

       -) et enfin les dysfonctionnements des machines sont totalement ignorés, tout comme des aspects essentiels comme la pente du terrain.

Quelques chercheurs essaient encore d'améliorer cette méthode du bilan (en particulier pour le pilotage de l'irrigation), mais il est clair qu'à terme cette méthode ne sera plus utilisée pour le pilotage des apports d'intrants (n.b. : par contre cette méthode aura toujours sa place pour le dimensionnement des installations d'irrigation, ou le calcul des quantités d'engrais à acheter en morte-saison).

Ce qui remplace la méthode du bilan, ce qui est à la base de ce que j'appelle l'Agriculture Mesurée, c'est un processus dynamique en 3 étapes :

       1-) la mesure, et là on retrouve tous les capteurs et les différentes méthodes de mesure cités précédemment. Et cette mesure permet un suivi de la dynamique du phénomène observé, comme par exemple la dynamique de l'eau dans le sol (humidité des différents horizons, profil de réhumectation et/ou de desséchement des horizons inférieurs,..).

       2-) l'analyse et la prise de décision, avec ici tous les outils de communication et de partage de données, de mémorisation et de stockage, de présentation et de cartographie, et aussi de modélisation et d'aide à la décision, il s'agit ici de définir la dose (ou plutôt les zones au sein de la parcelle, et la dose à apporter à chacune de ces zones). Cette définition des zones et des doses peut être effectuée en temps réel (par exemple, dans le cas des apports d’azote, un capteur de type N-Sensor mesure la réflectance du couvert végétal, et le logiciel embarqué dans le tracteur définit la dose à appliquer au fur et à mesure de l'avancement). Cette définition des zones peut être faite en amont : par exemple, pour l'irrigation, elle est faite au moment de la mise en place des arroseurs, et la dose est définie pour chaque zone au jour le jour.

       3-) l'action, qui est le domaine des machines et en particulier des machines capables de moduler leur action (travail du sol, semis, engrais, …). Un composant essentiel pour la bonne gestion de ces actions, en cours de généralisation, c'est le réseau Isobus. C'est un réseau informatique normalisé qui permet "l'intéropérabilité" des tracteurs et des machines, à l'instar de la norme USB qui permet l'intéropérabilité des ordinateurs, appareils photos, clés USB,… Pour d'autres actions, comme la modulation de l'irrigation, ce sont les matériels qui sont modifiés (type d'arroseurs, écartements, pilotage à distance,…) afin de pouvoir moduler les doses apportées.

A ces 3 étapes qui se situent sur un même plan temporel (le cycle cultural), on peut rajouter une quatrième étape : la traçabilité et le retour d'expérience. C'est un moyen de pouvoir anticiper sur les actions à mener, en allant consulter les "archives" des années passées, par exemple rechercher ce qui s'est passé durant une année climatique antérieure qui ressemble à l'année actuelle.

Mais surtout il s'agit d'analyser les résultats obtenus et de les comparer aux objectifs initiaux, de rechercher les éléments qui ont pu faire que les résultats obtenus ne sont pas ceux attendus. Et là, c'est un des éléments clés de la Révolution Agronomique : la capacité de pouvoir analyser de façon plus complète et plus approfondie la relation entre actions et résultats.

Un des apports principaux du numérique c'est la capacité de traitement rapide de gros volumes de données, et la capacité à pouvoir mettre en évidence des phénomènes de faible occurrence ou qui font partie du "bruit de fond".

Dès lors, il n'est plus nécessaire de simplifier les problèmes pour pouvoir les analyser. Et même il est important de les analyser dans toute leur complexité afin de ne pas passer à côté de ces phénomènes de faible occurrence, ou à côté d'inter-relations difficiles à déceler.

Par contre la difficulté consiste à trouver les outils permettant d'explorer et d'analyser cette complexité. Il y a bien sur les outils du Big Data, mais ces outils risquent d'être trop complexes à utiliser pour ceux qui ne seront pas des Data Scientist.

C'est un peu le même problème que l'on rencontre déjà avec les outils comme les SIG et les logiciels de géostatistiques. Les outils génériques sont performants mais seuls les experts de ces domaines arrivent à les utiliser correctement.

A côté de ces outils "génériques", on peut trouver des outils plus simples, orientés "métier", qui sont plus accessibles aux utilisateurs dont le cœur de métier n'est pas dans l'utilisation de ces outils.

En matière de traitement de gros volumes de données agronomiques, on trouve déjà sur le marché quelques outils qui sont à l'interface du Big Data, du SIG et des géostatistiques. Ces outils ont été pensés pour offrir une interface de travail très ergonomique et intuitive pour l'utilisateur (agronome, conseiller ou agriculteur).

 

Le Numérique : Progrès ou Danger ?

 

Certains chercheurs tiennent un discours très anxiogène, très critique sur le Numérique, et surtout sur la perte d'autonomie décisionnelle des agriculteurs.

La première chose à faire, c'est d'abord de faire une typologie des différentes formes du Numérique en Agriculture.

La forme la plus simple concerne tout ce qui touche à l'automatisation des machines. Il est vrai que l'automatisation des machines entraine une perte de décision pour les utilisateurs. Mais est-ce vraiment un problème que le système GPS permette au chauffeur de lâcher le volant et de faire un travail de meilleure qualité ? Ou que ce système puisse ouvrir ou fermer les tronçons de rampes de pulvérisation exactement au bon moment et au bon endroit ?

 

Une forme plus complexe touche aux décisions en matière d'opérations culturales, et en particulier à la définition des doses d'intrants à appliquer. Dans ce domaine, la situation est relativement contrastée selon les types d'opérations, et selon la façon dont l'agriculteur a accès aux données dont il a besoin, par exemple : est-ce qu'il module les apports d'engrais azotés à partir d'un capteur N-Sensor qu'il a acheté, ou à partir d'une préconisation élaborée par Farmstar ou Airinov ? Dans le premier cas, puisque le système fonctionne en temps réel (sans carte de modulation établie à l'avance), l'agriculteur aura à prendre des décisions quant au réglage de son outil (où faire la zone de référence, quelles bornes inférieure et supérieure en termes de dose,..?). Dans l'autre cas, il recevra une proposition de carte de modulation, libre à lui de la modifier et de l'adapter s'il le juge utile.

Toujours est-il que le traitement des données (données de sol, données de rendement, données de télédétection) suppose à la fois des outils que nombre d'agriculteurs n'ont pas (ou n'auront pas) et aussi un bon niveau de formation à ces outils.

Quelques agriculteurs se débrouillent très bien tout seul, mais on peut raisonnablement penser qu'ils ne seront pas majoritaires.

Pour les autres, ils feront appel à des conseillers spécialisés à l'instar de ce qui se passe depuis longtemps pour la fiscalité des entreprises, les aspects juridiques,… bref pour tous les domaines très complexes et spécialisés.

Il est très peu probable que les agriculteurs perdent leur autonomie décisionnelle en matière agronomique, et ce pour plusieurs raisons :

       -) le conseil devenant indépendant des circuits de vente, les agriculteurs vont être face à des conseillers qui - a priori - seront là plus pour le conseil que pour la vente,

       -) l'évolution que l'on a connue en viticulture est de même nature : face à un domaine qui s'est complexifié (l'élaboration de vins de plus en plus qualitatifs), les producteurs se sont attachés les services d'œnologues sans que cela réduise leur capacité décisionnelle,

       -) et enfin le développement du Numérique est une formidable opportunité pour se poser des questions nouvelles. En particulier, si - il y a quelques années - les agriculteurs visaient la performance technique (faire partie du "club des 100 quintaux"), maintenant ils sont amenés à viser la performance économique, la durabilité de leur exploitation.

Et avec les outils du Numérique ils peuvent avoir accès à des indicateurs très pertinents, jusque-là inconnus comme les cartes de rentabilité (figure 9).

Figure 9 : Cartes de rentabilité (cartographie des marges nettes). Source : Kinoshita et al, Agricultural and Environnemental Letters 2016

 

La carte de rentabilité, pas encore utilisée en France, est un outil de gestion qui pourrait être essentiel en ce sens qu'il permet à la fois de quantifier l'intérêt ou non de la modulation des intrants, et qu'il doit servir à l'analyse de la relation actions/résultats.

Mais c'est aussi un outil "pédagogique" qui permet aux agriculteurs de se réapproprier les problèmes agronomiques, de se poser des questions nouvelles et essentielles. Bref de redécouvrir l'agronomie sous un jour plus complexe mais bien plus passionnant.

Il est bon de noter également que Numérique et agroécologie ne sont pas incompatibles, ou contradictoires, et on peut même affirmer que le Numérique est potentiellement indispensable à l'Agroécologie.

Les outils du Numérique, au travers de la caractérisation de la variabilité intraparcellaire et de la modulation des intrants, est de nature à répondre pleinement à certaines des pratiques agroécologiques comme la réduction de l'érosion du sol, l'augmentation de la fertilité des sols, la préservation de la ressource en eau, l'accroissement de l'autonomie du troupeau,…

Et surtout, ce sont les outils indispensables pour établir des références technico-économiques fiables et détaillées, (par exemple : des cartes de rentabilité) et pour pouvoir mener des expérimentations individuelles et/ou en réseau.

 

En conclusion

 

Le Numérique, ou plutôt les outils du Numérique, change notre façon de travailler et cela peut être assez perturbant. En particulier parce que nos savoirs et nos méthodes de travail sont bousculés.

Si on y regarde de près, le Numérique a déjà bousculé profondément certains secteurs du monde agricole, comme l'horticulture sous serre (avec les ordinateurs de pilotage du climat et de la ferti-irrigation), et également le monde de l'élevage (DAC - Distributeurs Automatique de Concentrés - en élevage laitier, distributeurs d'aliments en élevage porcin et avicole).

Globalement on retrouve dans tous ces secteurs les mêmes "ingrédients", c'est-à-dire :

       -) des capteurs pour la Mesure des variables d'intérêt,

       -) des ordinateurs, logiciels et autres dispositifs électroniques pour l'Analyse et la Décision (calcul des doses de ferti-irrigation en serre et du rythme d'arrosage, ration individualisée en élevage,..),

       -) des machines capables de moduler de façon très fine leur Action (vanne 3 voies pour la régulation du chauffage en serre, DAC en élevage,…).

Le terme "Agriculture Mesurée" que je propose s'appuie sur un double sens :

       *) mesurée au sens "mesures effectuées par des capteurs"

       *) mesurée au sens "actions modérées et appropriées au contexte"

Et tous les développements du Numérique en agriculture (depuis le secteur de l'horticulture jusqu'à la viticulture de Précision) relèvent de ce concept d'Agriculture Mesurée.

Le secteur des grandes cultures suit la même évolution que les autres secteurs comme l'horticulture ou l'élevage, avec un retard qui est lié aux difficultés particulières de ce secteur, essentiellement en matière d'analyse des données et de prise de décision (sans négliger les problèmes de mesure sur de grandes surfaces).

Pour caractériser cette évolution on peut faire un parallèle : en élevage, essentiellement en élevage laitier, on est passé d'une gestion globale (le troupeau) à une gestion individualisée (l'animal).

Pour les cultures (depuis les céréales jusqu'à l'arboriculture) on essaye de passer d'une gestion globale (la parcelle) à une gestion individualisée (la zone intraparcellaire). Si l'évolution est similaire, les difficultés sont bien supérieures pour effectuer cette individualisation (identifier une vache au sein du troupeau est bien moins complexe que de définir une zone au sein d'une parcelle).

Mais l'individualisation des zones est un impératif à la fois économique et sociétal. Il convient de faire mieux (voire beaucoup mieux) avec toujours moins d'intrants, et en particulier avec beaucoup moins - voire plus du tout - de produits controversés.

Cette individualisation (le zonage intraparcellaire) permet de respecter les grands principes agronomiques que nous connaissons mais que nous ne savions pas appliquer sur de grandes surfaces : dose de semis en fonction de la texture, chaulage en fonction du pH,…

Mais ce faisant, nous sommes dans une logique à la fois de lever les facteurs limitants "locaux" et de donner aux plantes de bonnes conditions de croissance.

Les quantités de données qui deviennent accessibles sont aussi potentiellement porteuses de savoirs nouveaux, comme par exemple l'effet de l'anisotropie des sols sur la dynamique de l'azote dans le sol, et nous obligent à revisiter nos connaissances, comme par exemple les règles de fertilisation des cultures.

Pour les agronomes, le Numérique - et les outils qui vont avec - est une formidable opportunité pour aller plus loin en matière de recherche, et en matière d'analyse de systèmes très complexes et d'analyse des interactions sol-climat-plantes-ravageurs et maladies. Et ce qui change certainement le plus c'est la capacité à suivre de façon très fine - à la fois spatialement et temporellement - la dynamique des phénomènes agronomiques. C'est un changement vertigineux de regard sur les agrosystèmes auquel nous sommes confrontés.


 

   Les articles sont publiés sous la licence Creative Commons (CC BY-NC-ND 2.0)

http://creativecommons.org/licenses/by-nc-nd/2.0/fr/Pour la citation et la reproduction de cet article, mentionner obligatoirement le titre de l'article, le nom de tous les auteurs, la mention de sa publication dans la revue AES et de son URL, la date de publication.