Synthèse du colloque « L’agriculture au prisme des data sciences – Regards sur les méthodes de traitement des données agronomiques »

Actualité | Synthèses

Colloque de l’Alliance H@rvest – Lundi 3 février 2025 sur le campus de Télécom Paris (Palaiseau)

Les data sciences pour mieux comprendre, anticiper, piloter et collaborer en agriculture.

Chaque colloque annuel de l’Alliance H@rvest s’inscrit dans une dynamique continue qui suit la chaîne de valeur de la donnée agricole. Nous explorons ensemble les différentes étapes, depuis l’acquisition des données via des capteurs jusqu’aux recommandations tactiques et stratégiques offertes par des outils numériques et technologiques.

Pour sa deuxième édition, le colloque annuel de l’Alliance H@rvest fait le focus sur le traitement de la donnée, la modélisation et l’intelligence artificielle. L’objectif : appréhender comment ces outils permettent de mieux comprendre, anticiper, piloter et collaborer dans le domaine de l’agriculture. Les interventions ont été illustrées par des cas d’usage provenant à la fois du monde de la recherche et des concepteurs de solutions appliquées sur le terrain.

Fil directeur de la rencontre : l’agroécologie. Les data sciences peuvent-elles réellement faciliter la transition vers des pratiques plus durables et respectueuses de l’environnement ? Au-delà de l’optimisation de l’apport d’intrants (agriculture de précision), permettent-elles réellement l’orientation de processus écologiques à des fins productives (agroécologie) ?

Parmi les intervenants, des étudiants et deux jeunes agriculteurs ont ainsi pu porter un regard critique sur les présentations proposées. Ces derniers ont notamment pu souligner l’enjeu à leurs yeux de bien démontrer la création de valeur pour les producteurs eux-mêmes par rapport aux coûts qu’ils peuvent générer (en termes de temps et d’argent), en positionnant ces outils technologiques au service de leur stratégie, de l’aide à leur prise de décision et de leurs actions.

Rendez-vous en 2026 pour le 3ème colloque de l’Alliance H@rvest ! On poursuivra l’analyse de la chaîne de valeur de la donnée agronomique, en s’intéressant plus particulièrement aux usages et modèles économiques des outils numériques sur le terrain.

IA : pour intelligence artificielle et/ou intelligence augmentée ?

Points clés tirés de l’intervention de Antoine Cornuéjols, AgroParisTech et des propos introductifs d’étudiants partageant définitions et interpellations.

Une brève histoire de l’IA nous amène à penser quatre phases : Information (1936 – 1955) ; Raisonnement (1956 – 1969) ; Connaissances (1970 – 1985) ; Apprentissage (1986 – à nos jours).

Pas d’IA sans données (forme d’externalisation de la mémoire par enregistrement d’éléments descriptifs de la réalité, à l’instar des premières tablettes sumériennes datant de 2500 av. J.-C.) ni algorithme (série d’instructions précises et ordonnées utilisés en informatique pour traiter des données, effectuer des calculs ou automatiser des processus visant à résoudre un problème ou d’effectuer une tâche spécifique).

L’IA puise ses origines dans la formalisation de processus généraux de raisonnement (cf. General Problem Solver d’Herbert Simon en 1957). La représentation des connaissances (via par exemple des réseaux sémantiques) a supporté le développement de systèmes experts (capables d’effectuer un raisonnement à partir de faits et de règles connues en reproduisant les mécanismes cognitifs d’un expert). Ainsi, un système expert repose sur des règles et des connaissances préprogrammés par des experts humain

Avec le machine learning (qui repose sur le principe de réseaux de neurones s’inspirant du fonctionnement du cerveau humain), l’apprentissage est automatique : les algorithmes de classification, de prédictions ou de prise des décisions sont générés directement à partir de données sur lesquels sont appliqués des processus généraux d’apprentissage (i) descriptif (recherche de régularités, de motifs fréquents, au milieu des données ex. clustering) ; (ii) prédictif (prédire pour de nouveaux exemples ex. analyse d’image par apprentissage supervisé (utile pour la détection d’insectes ravageurs, de maladies ou d’adventices) ; (iii) prescriptif (recherche de causalité) ou (iv) par renforcement (l’agent apprend à résoudre les problèmes en interagissant avec son environnement via un système de récompenses/pénalités).

La révolution du Big Data (à partir de 2005) avec l’accès à des données massives, couplé à une puissance de calcul exponentielle et des échanges numériques facilités, a permis d’accélérer le développement de méthodes d’apprentissage automatique et plus particulièrement de l’apprentissage profond (Deep Learning, mettant en jeu des réseaux de neurones artificiels avec de nombreuses couches). L’apprentissage automatique peut aller jusqu’à s’appliquer aux représentations elles-mêmes (plus besoin de supervision de l’apprentissage dans ces cas-là) et les années 2020 voient advenir la révolution des modèles de fondation et des LLMs (Large Langage Models, grands modèles de langage). Des modèles universels et génératifs (« IA générative ») deviennent utilisables par tout le monde. On observe un total changement de paradigme avec le passage à ces approches multi-tâches, multimodales et génératives. Ces modèles se nourrissent des données disponibles et en cela ils présentent des risques d’épuisement (certains estiment l’horizon à 2028 !) et de pollutions multiples (infox, mise en abyme avec des données d’entrée elles-mêmes générées par des IA génératives, hallucinations).

Aux questions stratégiques et techniques, se mêlent de plus en plus des questions socio-économiques et éthiques : rapport coûts/bénéfices pour accéder aux données (pour les offreurs de solutions) et aux résultats d’intérêt (pour les agriculteurs) ; respect des intérêts des parties partageant leurs données ; souveraineté sur les données et l’expertise ; représentativité des bases de données à la base de l’apprentissage et risques de biais associés ; transparence sur les domaines de fiabilité des algorithmes et explicabilité des suggestions ; interopérabilité et adaptabilité ; éducation et démocratisation des technologies d’intérêt ; risque de technosolutionnisme ou blanchiment technologique.

Et demain ? Vers des Large Actions Models qui apprennent à prédire les conséquences des actions et à générer des séquences d’actions efficaces en fonction du contexte en temps réel en se basant sur l’analyse de masses de données d’actions prises par des humains.

IA et agriculture, la fin des systèmes experts ? A l’ère du « big data », l’accès aux données est-il encore un problème ?

Avec l’agriculture, il s’agit de s’intéresser à des mondes non artificiels aux conditions environnementales non maîtrisées, à des systèmes dynamiques, adaptatifs et très complexes, aux multiples échelles spatiales et temporelles. Multifactoriels, les phénomènes sont difficiles à prévoir. Le tout dans des démarches multi-objectifs, avec des acteurs multiples et variés. D’où l’intérêt de l’IA pour répondre aux besoins de surveillance (des cultures, des troupeaux), de compréhension et d’anticipation (de la dynamique de bio-agresseurs, des aléas climatiques), et d’aide à la décision (pour le pilotage des pratiques) et dépasser les limites des modèles mécanistes classiques.

Est-ce pour autant la fin des systèmes experts ? Non, les cas d’usage présentés nous ont prouvé le contraire, il faut remettre du raisonnement dans l’IA (importances des ontologies). On a pu également voir que l’accès à des données de qualité et en quantité, nécessaires à l’élaboration de modèles performants, reste une question centrale, en particulier pour celles relevant de la traçabilité des pratiques des agriculteurs.
Si les données de caractérisation des situations de production issues de capteurs connectés ou de la télédétection peuvent être abondantes – cf. accès à beaucoup de données sur la météo et l’état des cultures (images satellitaires, données éventuellement enregistrées automatiquement sur les tracteurs) – on dispose en routine d’encore relativement peu de données, et très dispersées, sur les facteurs explicatifs de cet état, hors météo (sols, interventions de l’agriculteur) en productions végétales. Pour répondre à cette difficulté, on observe un continuum de techniques de traitement en fonction des qualité et quantité de données disponibles et de l’enjeu adressé. Le Deep Leaning s’est finalement beaucoup plus rapidement développé en productions animales du fait du déploiement de robots de traite et de capteurs dans les élevages à l’origine de données abondantes produites dans des environnements contrôlés. L’interprétation de signaux parfois faibles et ambigus s’en trouve alors facilité.

Retour sur les cas d’usage de la séquence Comprendre et caractériser

Les apports de l’imagerie satellitaire optique par Anne Dubois, EarthDaily Agro-Geosys

L’imagerie satellitaire optique offre un potentiel considérable, en particulier pour (i) la détection automatique des cultures en saison (en croisant des modèles de deep learning s’appuyant sur des données de réflectance ainsi que des données météo et des modèles Random Forest s’appuyant sur des synthèses décadaires de réflectances) ; (ii) la caractérisation des couverts, cultures intermédiaires et de leur biomasse (grâce à un modèle de machine learning entrainé à partir de jeux de données incluant différentes espèces de couverts et mélanges en France).

La caractérisation de la biodiversité associée aux cultures, telles que les infrastructures agroécologiques, représente un défi technique particulier, en recourant à de la segmentation spatiale et temporelle pour isoler les bords de parcelles et des séries temporelles d’indices de végétation pour bien faire la différence entre objets adjacents. Ainsi les haies de moins de 3 mètres sont ainsi difficiles à distinguer. La détection de la floraison des prairies nécessite également une grande précision.

Différentes méthodes de traitement sont donc utilisées en fonction des objectifs (index de traitement, suivi de cycle phénologique, prédiction de rendement, suivi hydrique, détection de changement…), allant de simples calculs d’indices à des interprétations et modélisations plus complexes : on passe de relations simples de bande à bande et de valeurs seuils, à des algorithmes complexes créés par régressions linéaires, modélisations, etc… Là encore, tout est une histoire de compromis technologiques sachant qu’il n’y a pas de bons modèles sans bonnes données ni vérifications sur le terrain.

A suivre, le projet BioCapital (qui s’inscrit dans le prolongement du projet Agrobiomes) qui vise à produire et suivre des indicateurs servant à la mise en œuvre de systèmes financiers favorables à la biodiversité. Une liste d’indicateurs permis par le potentiel technologique, contrainte par la résolution spatiale, temporelle et spectrale, sera croisée avec les besoins des acteurs de terrain et les exigences de l’ingénierie technique et financière des paiements pour services environnementaux.

A terme, la nouvelle constellation EarthDaily devrait lever certains de ces freins en améliorant la résolution spatiale, temporelle et spectrale, facilitant ainsi une meilleure caractérisation et surveillance des écosystèmes agricoles.

Les apports de l’imagerie satellitaire radar par Florence Tupin, Telecom Paris

Une image radar correspond à l’enregistrement par une antenne de la rétrodiffusion par le sol d’une onde électromagnétique (fréquences en GHz, longueurs d’onde en cm) préalablement émise par cette même antenne.

Parmi ses avantages : (i) un capteur fonctionnant à toute heure (source d’éclairage propre) et par tous temps (onde électromagnétique pénétrant les nuages) ; (ii) permettant de classifier des objets (l’analyse d’amplitude permet de caractériser des cultures, de détecter des précipitations par exemple) ; (iii) d’évaluer l’élévation (l’analyse par interférométrie des différences de phases permet ainsi de retraduire la topographie d’un milieu) ; (iv) et de qualifier des propriétés géo-biophysiques tout en étant complémentaires des images optiques (l’analyse polarimétrique est sensible à la croissance des plantes par exemple).

Parmi ses limites : il s’agit de données très bruitées, d’où l’intérêt de recourir à des méthodes d’apprentissage profond pour améliorer les interprétations.

De nouveaux capteurs embarqués sur des constellations de satellites amélioreront la précision spatio-temporelle des données acquises et fourniront à l’avenir des mesures plus fines de la biomasse forestière, en réduisant les incertitudes dans les flux de carbone et de leur dynamique à l’échelle du paysage notamment. D’autres permettront de mieux appréhender l’humidité du sol et de suivre les ressources en eau. Une des perspectives consistera à développer des algorithmes pour extraire les informations des images de façon automatique.

Enfin, le traitement combiné de données radar avec les données optiques offre des perspectives intéressantes pour combler les manques dans les séries temporelles optiques par exemple. Le lancement en 2025 du satellite d’observation européen BIOMASS permettra de cartographier la biomasse des forêts afin d’estimer les quantités de carbone stockées et ainsi évaluer l’impact des forêts sur le cycle du carbone et les changements climatiques. Ce système sera complété par le lancement de ROSE-L et NISAR qui permettront, en utilisant des longueurs d’onde plus grandes, de pénétrer davantage dans la canopée, surtout pendant la phase où la végétation est dense.

Retour sur les cas d’usage de la séquence Anticiper et prédire

Génération, analyse et optimisation de scénarios d’irrigation des cultures, Bruno Cheviron, INRAE

Dans le contexte du changement climatique, il est nécessaire de penser une irrigation déficitaire, car l’eau n’est plus disponible pour obtenir des rendements maximums durablement. L’objectif consiste à favoriser une production fiable. Pour ce faire, il faut convertir les données du problème en problème de données.

Optirrig est un modèle qui permet de générer, analyser et optimiser des stratégies d’irrigation. Il cherche à répondre à l’enjeu de favoriser des stratégies efficientes qui s’adaptent à l’évolution de la tension sur la ressource en France hexagonale. Il s’agit d’un modèle de culture purement mécaniste et relativement parcimonieux en données, mis en œuvre par des stratégies d’irrigation, reproduisant les processus biophysiques influant le rendement se déroulant dans l’atmosphère, le sol et la plante. Ses principes de fonctionnement sont déterministes avec des liens causaux paramétrés, le jeu de paramètre étant lui-même une donnée (critères, doses, contraintes). L’objectif consiste à identifier et évaluer les déterminants du rendement (fonction de production). Toutefois, c’est bien la stratégie d’irrigation qui fait varier éminemment le rendement, bien plus que les autres facteurs tels que les maladies, ou les effets liés à l’azote. Un changement progressif est en cours qui se traduit par une prise en compte de plus en plus importante d’autres indicateurs de performance que le seul rendement.

La production de millions de simulations (en fonction de : (i) scénarios climatiques (GIEC ou Explore 2) ; types de sols/profondeur de sol (RU) ; (ii) de types de méthodes/contraintes d’irrigation ; (iii) de types de cultures irriguées) permet la création d’enveloppes de cas. Ces approches quantitatives et les évaluations statistiques qui en sont tirées peuvent éclairées les politiques publiques (préconisation de stratégies d’irrigation, objectivation de quotas, le tout contextualisé pour servir les négociations entre parties prenantes). Les résultats d’une étude commandée par le ministère de l’Agriculture seront mis à disposition publiquement à l’horizon début 2026.

Quelles méthodes pour la prévision de rendement en grandes cultures, Philippe Stoop, Itk

A l’instar d’autres problématiques, les méthodes employées pour prévoir le rendement en grandes cultures dépendent de l’échelle et des données disponibles. Aujourd’hui, il existe un déséquilibre entre les données d’occupation des sols (données de télédétection et données météorologiques qui accumulent des quantités énormes de données) et les données nécessaires pour caractériser la situation de chaque exploitant et l’état des sols.

Ainsi, pour des préconisations à la parcelle et dans le cas d’utilisateurs à forte compétence agronomique collectant toutes les données nécessaires (en situation d’expérimentation par exemple), les modèles mécanistes sont adaptés et pertinents.
Pour produire des préconisations de collecte à l’échelle régionale, les utilisateurs peuvent là encore recourir à un modèle mécaniste du type Cropwin développé par Itk, mais paramétré en fonction de zonages (microrégions agricoles homogènes) définis par la coopérative ou le négoce concerné (collecter des données parcellaires de manière exhaustive est quasi impossible).
Pour des préconisation de collecte à l’échelle nationale, et dans le cas où l’on ne dispose pas d’information agronomique précise (ex. assureurs, unions nationales de coopératives), la chaîne de traitement combine différentes méthodes : (i) analyse d’image satellite par Deep Learning pour calculer des indices foliaires (cf. cas d’usage EarthDaily Agro) ; (ii) calculs d’indicateurs agro-climatiques qui prennent en compte d’autres facteurs de risque non visibles sur les images via un modèle mécaniste simplifié ; (iii) estimation du rendement via un algorithme en forêt aléatoire intégrant ces deux sources. Pour conclure, en agriculture, il faut utiliser une diversité de données et plusieurs modèles à la fois pour obtenir des résultats fiables.

Simon MOULIERAS, Greenshield

Greenshield propose des prestations et des solutions agronomiques, technologiques et mathématiques pour maîtriser les risques sanitaires en agriculture et plus particulièrement en viticulture. Partant du constant que la création d’hétérogénéité ralentit l’évolution des bioagresseurs, Greenshield s’inspire des stratégies de lutte contre les feux de forêt pour penser le contrôle de la propagation des épidémies, en prenant comme hypothèse que des plantes traitées confèrent une protection aux plantes non traitées voisines. Ainsi Greenshield met en place des stratégies de traitement préventif en « motif anti-percolation » (avec une distribution précise de zones traitées et non traitées), adaptées à la cible, au mode de culture (vignes étroites ou larges), au cycle végétatif et aux moyens de lutte disponibles. Ces motifs permettent de créer des modèles spécifiques pour chaque maladie ou culture, entraînés sur des données d’observation. Ces modèles produisent des scénarios de simulation d’évolution spatiale, intégrant des cartes de préconisation pour une pulvérisation ciblée ou la coupure de tronçons.

La stratégie de gestion des risques est adaptative, ajustée en fonction des moyens de production disponibles (phyto et matériels) et de l’état sanitaire à un instant donné. Elle repose sur des données de référence et des observations ponctuelles, avec pour objectif ultime d’industrialiser la démarche grâce à des données de surveillance complètes spatialisées et historisées. Cela permettrait d’évaluer les effets de la stratégie et de mettre à jour les pratiques de lutte en fonction des conditions de culture. Un outil clé dans cette approche est VineMapper, un capteur embarqué capable de détecter les maladies en temps réel. Ce dispositif permet de créer de nouvelles cartographies de symptômes en identifiant des anomalies sur les feuilles et les grappes de vigne, et ainsi de mettre à jour le modèle de propagation des maladies. L’enjeu est de produire des résultats en temps réel et d’adapter la stratégie de motifs de traitement au fil de l’eau, pour une gestion optimale des risques.

Greenshield a déployé une chaîne complète de traitement dans le cadre du projet MATAE (« mathématiques appliquées pour la transition agroécologique »), testant des solutions en agriculture biologique, biocontrôle, mixte ou phytosanitaires conventionnels sur des cultures comme la betterave, la pomme de terre et la vigne. En termes de commercialisation, VineMapper devrait être disponible dès 2025, tandis que les motifs de traitement ne seront pas commercialisés avant 2027.

Retour sur les cas d’usage de la séquence Contrôler et piloter

Machine Learning pour piloter des interventions : zoom sur les modèles causaux, Michèle Sebag, CNRS

Le machine learning peut aborder 4 types de questions : (i) décrire l’existant (par exemple, utiliser des capteurs pour identifier l’état actuel d’un système (monitoring)) ; (ii) prédire ce qu’il va se passer (prévoir des résultats futurs en se basant sur des observations passées ; par exemple, estimer la récolte en fonction des intrants, du climat et des cultures, en supposant que rien ne change) ; (iii) intervenir/piloter : agir sur un système pour obtenir un résultat souhaité (par exemple choix des intrants pour influencer la récolte) ; (iv) raisonnement contrefactuel : imaginer ce qui se serait passé si certaines conditions avaient été différentes (par exemple, estimer comment la récolte aurait évolué avec des intrants ou des conditions climatiques différentes).

Pour passer de la simple prédiction à l’intervention et au contrôle des systèmes, en particulier en agriculture, un modèle causal, qui permet de comprendre les relations entre les causes et les effets est essentiel. La causalité consiste à donner du sens à une corrélation, une explication de causalité. Contrairement aux modèles purement corrélatifs, un modèle causal permet de répondre à des questions comme : « Que se passerait-il si nous modifions telle variable ? » ou « Comment agir pour obtenir un résultat spécifique ? ».

En combinant expertise humaine (cf. systèmes experts), essais randomisés contrôlés et découverte de modèles à partir de données d’observation (approche reposant sur des données existantes pour inférer des relations causales), il est possible de construire des outils puissants pour piloter des systèmes dans des domaines variés.

Une approche prometteuse pour améliorer l’apprentissage des modèles causaux consiste à utiliser des données provenant de multiples environnements. Cette méthode repose sur l’hypothèse que le mécanisme causal sous-jacent reste invariant, même si les conditions varient. En combinant des données issues de différents contextes, il devient possible d’identifier des relations causales plus robustes et généralisables. Pour ouvrir la voie à des applications concrètes et impactantes, les défis associés à cette approche incluent : la collecte et l’intégration de données hétérogènes ; la création d’une représentation commune pour comparer les environnements ; l’organisation et la mise à jour des données pour les rendre exploitables.

Du bruit à l’action : quand l’IA écoute et veille au bien-être des élevages, Victoria Potdevin, Adventiel

Earwise est un ensemble de solutions hardware/software permettant d’analyser des sons et de développer des modèles utiles en productions animales, pour surveiller les élevages, anticiper des problèmes de santé (ex. prédire la dynamique des maladies respiratoires des jeunes bovins), suivre les activités, détecter des éventuels dysfonctionnements et ainsi renforcer la sécurité des bâtiments. Au fondement de ces modèles, des bases de données sur lesquelles sont entrainés des algorithmes (apprentissage supervisé). S’il existe déjà des interfaces intuitives pour annoter des images, il n’en était rien pour l’audio. D’où la solution Earwise qui propose une méthode d’aide à l’annotation reposant sur des méthodes de clustering (ici, de sons qui se ressemblent). Le logiciel construit a priori des clusters de sons en fonction de caractéristiques audio, puis l’opérateur renseigne des annotations pour chaque cluster. Le premier cluster est le plus hétérogène mais rapidement pour les clusters suivants, il peut extrapoler ses annotations à l’ensemble du cluster concerné. A défaut de reconnaissance (en l’absence de données de références sur le cas concerné), la solution permet aussi la détection d’anomalies temporelles (ex. détection précoces d’incendies). Les données sonores deviennent ainsi une nouvelle corde à l’arc des IA ! 

Modélisation de la connaissance agronomique et de la planification des cultures maraichères à l’aide des technologies du web sémantique, Baptise Darnala, Elzeard

Elzeard développe une application d’aide au pilotage et à la planification des travaux des exploitations maraîchères diversifiées, caractérisées par la présence de plusieurs types de cultures au sein d’une même parcelle, de plusieurs modes de culture (sous-abri, plein champ) et de plusieurs types de cultures entre les parcelles.

Deux approches pour aider les agriculteurs dans leurs processus de planification des cultures ont été présentées. La première approche recourant aux technologies du web sémantique (alignement, inférence) permet de modéliser la planification des cultures pour des maraîchers et d’avoir un apport de connaissance pour aider à la tâche de planification (création d’une ontologie et un graphe de connaissances). Un problème de scalabilité (durée de traitement trop longue) a toutefois été rencontré ce qui conduit à changer de type de base de données (passage au relationnel).

La deuxième approche autour des méthodes d’apprentissage à partir de données (collectées historiquement via l’application et enrichies par des données de références (RPG 34)) permet de montrer que ces méthodes peuvent être en partie employées pour la recommandation de culture et que l’ajout de contexte, provenant de la modélisation de la première approche, permet d’améliorer les prédictions.

Retour sur les cas d’usage de la séquence Collaborer

Adapter une plateforme participative pour mieux répondre aux défis agroécologiques : entre intelligence artificielle et collective, Odalric-Ambrym Maillard, Inria

L’application Pl@ntNet compte plus de 25 millions d’utilisateurs particuliers ou professionnels. Avec le projet Pl@ntAgroEco, l’objectif est d’aller au-delà de l’identification de plantes individuelles, en permettant l’identification des communautés végétales (niveau espèces et infraspécifiques) et plus largement la biodiversité végétale associée aux cultures.

Il s’agira également de pouvoir caractériser à partir d’une simple photo des symptômes des pathologies visibles des cultures et estimer l’étendue de ces pathologies. Pour constituer des bases de données d’apprentissage et en faciliter les annotations, des algorithmes de recommandations sont développés afin de générer des flux personnalisés d’observations à annoter, orientant les bonnes images aux bons experts. Ils s’appuient sur une pondération des usagers (phylogénie et bandits). En automatisant la reconnaissance des maladies des plantes, l’ambition est de constituer une plateforme citoyenne d’épidémio-surveillance à grande échelle.

Cette approche participative est également suivie dans le cadre d’un projet visant à faciliter la prise de décision en agroécologie (en recourant à l’analyse de retours d’expériences d’agriculteurs, l’annotation collaborative de pratiques et l’apprentissage par renforcement).

Enfin, concernant l’association des cultures, Pl@ntAgroEco vise à comprendre les raisons et les conditions de réussite et d’échec. Un modèle est actuellement développé qui ambitionne, à terme, de faire des recommandations d’associations de cultures.

Produire un score de santé de parcelles réplicable à large échelle pour sécuriser et rendre compte de la durabilité d’approvisionnements en matières premières agricoles, Achille Thin, Genesis

Pour accompagner les stratégies d’achats durables de matières premières agricoles de grandes entreprises de l’agroalimentaire, Genesis produit des indicateurs de santé des sols en comparant la situation rencontrée à des valeurs de référence évaluées dans un même contexte. La contextualisation d’un point de vue climatique (segmentation géographique) et pédologique (texture + taux de carbonates) de la parcelle étudiée est donc primordiale. Genesis a construit un référentiel de clusters pédoclimatiques. Pour chacun, différents paramètres de valeurs seuils pour obtenir les niveaux de fonctionnement sains, dégradés ou critiques ont été définis. Chaque cluster a des valeurs-seuils propres qui définissent les états de santé pour les différents indicateurs. La mesure brute issue des analyses est ensuite transformée en note à partir du référentiel propre à chaque indicateur, et donne un état de santé. Les différents indicateurs sont agrégés pour fournir une note de santé du sol prélevé. Des indicateurs d’impact environnemental peuvent également être agrégés à l’échelle de l’approvisionnement du client.


Autre article