
L’ESA teste l’IA neuromorphique pour le rover martien
La startup britannique Opteran collabore avec Airbus Defence and Space pour utiliser l’IA neuromorphique dans le cadre d’un projet de rover martien de l’Agence spatiale européenne (ESA).
Airbus teste le logiciel neuromorphique à usage général Opteran Mind afin d’améliorer les systèmes d’imagerie d’un rover martien. Le logiciel Opteran permet de stabiliser les images et d’obtenir un champ de vision de 360 degrés à partir de seulement quatre caméras standard, ce qui réduit le poids et la consommation d’énergie du rover. Les images peuvent également fournir des données de localisation.
Opteran effectue des tests avec Airbus sur son site de Mars Yard à Stevenage, au Royaume-Uni, pour permettre aux rovers de comprendre la perception de la profondeur dans les environnements les plus difficiles du monde extérieur.
Les systèmes visuels et de perception neuromorphiques permettent à un rover de comprendre son environnement en quelques millisecondes, dans des conditions difficiles, sans augmenter la consommation d’énergie critique du robot. L’algorithme permet aux machines autonomes de se déplacer efficacement dans les environnements les plus difficiles sans avoir besoin de données ou d’une formation approfondie.
Si cette technologie est appliquée avec succès à l’exploration spatiale dans le l’environnement réel, elle permettra d’étendre considérablement les capacités de navigation sur des terrains extrêmes, en assurant une navigation continue tout en permettant de rouler plus loin et plus vite.
« Il s’agit d’une collaboration entre Airbus et l’ESA pour développer un rover martien », a déclaré Charlie Rance, chef de produit chez Opteran. « Nous avons un programme de financement pour les aider à appréhender la réalité qui les entoure ».
« Nous n’utilisons pas une image haute définition, mais nous obtenons davantage d’informations à partir des algorithmes visuels afin de pouvoir fonctionner sur un petit ASIC intégré à la caméra ». L’algorithme de localisation et de perception occupe 1,4 cœur dans une puce quadricœur utilisant des cœurs ARM Cortex A53, ou 0,9 cœur pour le Cortex A76.
« Nous créons une architecture flexible avec un traitement distribué ou une unité unique, mais nous n’en sommes pas encore à ce stade avec l’ESA, l’objectif est de valider les algorithmes », a déclaré M. Rance. « Nous avons obtenu les premiers résultats des tests, qui sont prometteurs, et nous analysons les données jusqu’à la fin de 2024.
Le projet est financé par le General Support Technology Programme (GSTP) de l’ESA, par l’intermédiaire de l’Agence spatiale britannique, afin de développer des méthodes d’estimation de la profondeur pour la détection des obstacles, l’objectif à moyen terme étant de fournir une navigation visuelle sans infrastructure.
Une fois que les résultats des essais préliminaires auront été présentés à l’ESA, l’objectif serait de passer à l’étape suivante du financement par des subventions au début de 2025, qui serait axée sur le déploiement et la commercialisation.
