Publicité

L'agriculture vue de l'espace : le MIT et Google redessinent la cartographie des cultures en Thaïlande

Un projet du MIT permettrait d’identifier l’intégralité des cultures d'un pays, parcelle par parcelle, via les images du service en ligne de Google. Le système sert à compenser la difficulté à obtenir des informations sur l’utilisation des sols dans certaines régions.

En Europe, dans le cadre de la politique agricole commune (PAC), il existe un système de suivi par satellite des terres agricoles. L’objectif est de confronter la réalité des cultures et des superficies aux déclarations des exploitants donnant droit à des subventions européennes.

Le Massachusetts Institute of Technology (MIT) vient de présenter un projet un peu similaire mais ayant une autre vocation : faciliter la remontée d’information sur les cultures pratiquées là où il est difficile et trop coûteux d’obtenir des déclarations, pour cause de régions trop reculées et trop pauvres, et avec un maillage trop morcelées de petites fermes. En l’occurrence, le MIT a appliqué sa technique à la Thaïlande.

Elle repose sur des images tirées de Google Street View et montrant des champs depuis une route. Les chercheurs ont exploité des images prises entre mai et octobre 2022, soit la saison de croissance des cultures, afin que celles-ci soient visibles. Grâce à un algorithme de vision par ordinateur, ils ont trié automatiquement celles qui présentaient effectivement des champs ou sur lesquels aucun obstacle ne gênait la vue.

Cinq catégories de culture

En vue d’entraîner un autre algorithme à reconnaître le type de culture visible sur les photos, une base a été constituée d’images sous licence Creative Commons trouvées via Google Images et des images de la plateforme collaborative iNaturalist dédiée à la biodiversité dans le monde.

Ces données ont été étiquetées selon plusieurs catégories : plantation de riz (soit à peu près deux tiers des cultures en Thaïlande), de canne à sucre, de manioc, de maïs et une cinquième regroupant tout le reste.

L’équipe a aussi testé les modèles de langage multimodaux Gemini de Google et GPT-4V d’OpenAI, capables d’analyser des images, pour leur faire labelliser des photos selon ces catégories. Avec pour prompt : "Quelle est la culture principale sur cette image ?"

Après quoi, 81.000 images de Google Street View ont pu être étiquetées ; 79.000 aut[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi