
L’EPFL met l’IA au service de la compression d’images
Des chercheurs suisses ont utilisé un jumeau numérique à apprentissage automatique pour compresser des données d’image avec une plus grande précision que les méthodes de calcul sans apprentissage.
La technique de compression d’images AI développée à l’EPFL a des applications pour les implants rétiniens et d’autres produits en électronique médicale.
L’un des principaux défis à relever pour développer de meilleures prothèses neurales est le codage sensoriel : il s’agit de transformer les informations captées dans l’environnement par des capteurs en signaux neuronaux susceptibles d’être interprétés par le système nerveux. Mais comme le nombre d’électrodes d’une prothèse est limité, cet apport environnemental doit être réduit d’une manière ou d’une autre, tout en préservant la qualité des données transmises au cerveau.
Demetri Psaltis du Laboratoire d’optique de l’EPFL et Christophe Moser du Laboratoire des dispositifs photoniques appliqués ont collaboré avec Diego Ghezzi de l’Hôpital ophtalmique Jules-Gonin – Fondation Asile des Aveugles (précédemment titulaire de la chaire Medtronic de neuro-ingénierie à l’EPFL) pour appliquer l’apprentissage automatique au problème de la compression des données d’images à dimensions multiples, telles que la couleur et le contraste.
Dans ce cas, l’objectif de la compression était le sous-échantillonnage, c’est-à-dire la réduction du nombre de pixels d’une image à transmettre par l’intermédiaire d’une prothèse rétinienne.
« Le sous-échantillonnage pour les implants rétiniens se fait actuellement par le biais d’une moyenne de pixels, ce qui est essentiellement ce que font les logiciels graphiques lorsque vous voulez réduire la taille d’un fichier. Mais en fin de compte, il s’agit d’un processus mathématique ; il n’y a pas d’apprentissage en jeu », explique M. Ghezzi.
« Nous avons constaté que si nous appliquions une approche basée sur l’apprentissage, nous obtenions de meilleurs résultats en termes d’encodage sensoriel optimisé. Mais ce qui est plus surprenant, c’est que lorsque nous avons utilisé un réseau neuronal non contraint, il a appris à imiter de lui-même certains aspects du traitement rétinien ».
La technique de compression d’images de l’IA ou « modèle associatif » permet de trouver un point idéal pour le contraste de l’image.
Dans le cadre de l’IA du modèle associatif, deux réseaux neuronaux fonctionnent de manière complémentaire. La partie modèle, ou modèle avant, agit comme un jumeau numérique de la rétine : elle est d’abord entraînée à recevoir une image haute résolution et à produire un code neuronal binaire aussi proche que possible du code neuronal généré par une rétine biologique.
Le modèle associatif est ensuite entraîné à réduire l’échantillonnage d’une image à haute résolution à l’aide du modèle direct qui est aussi proche que possible de celui produit par la rétine biologique en réponse à l’image d’origine.
« La prochaine étape évidente est de voir comment nous pouvons compresser une image de manière plus large, au-delà de la réduction des pixels, afin que le cadre puisse jouer avec plusieurs dimensions visuelles en même temps. Une autre possibilité consiste à transposer ce modèle rétinien à des sorties provenant d’autres régions du cerveau. Il pourrait même être relié à d’autres dispositifs, comme des prothèses auditives ou des prothèses de membres », a déclaré M. Ghezzi.
Suivre ECInews sur Google news
