
La technologie de l’IA générative quantique
Le géant de l’informatique quantique Quantinuum a mis au point un framework d’IA quantique, appelé Gen QAI, qui permet d’utiliser les données générées par l’informatique quantique pour l’IA générative.
« Nous sommes à l’un de ces moments où l’hypothétique devient réel et où les percées rendues possibles par la précision de ces données générées par l’informatique quantique créeront une valeur commerciale transformatrice dans d’innombrables secteurs. Gen QAI est le résultat direct de nos capacités complètes et de notre leadership dans le domaine de l’informatique hybride classique-quantique, offrant une approche entièrement nouvelle qui va révolutionner l’IA », a déclaré le Dr Raj Hazra, Président et CEO de Quantinuum.
Cette initiative fait suite à un accord conclu avec Softbank pour l’utilisation de cette technologie en Asie. Softbank dirige également le projet Stargate aux États-Unis, qui vise à déployer des centres de données pour l’IA générative traditionnelle. Le partenaire IonQ travaille également sur les moyens d’utiliser ses ordinateurs quantiques pour exécuter des modèles d’IA générative sur des systèmes plus petits consommant moins d’énergie.
L’une des principales collaborations concerne le fabricant de moteurs et de systèmes de contrôle HPE Group en Italie, qui utilise la technologie d’IA générative quantique QAI dans des applications automobiles.
« Chez HPE, nous avons une longue tradition d’utilisation des technologies de pointe pour nos clients de l’industrie du sport automobile. Notre collaboration avec Quantinuum permettra d’exploiter les données générées par les systèmes quantiques pour des applications telles que le développement de batteries, l’optimisation aérodynamique et l’innovation en matière de carburant », a déclaré Enzo Ferrari, vice-président exécutif du groupe HPE.
La technologie Quantinuum permet de transposer dans le domaine quantique des innovations clés en matière de traitement du langage naturel, telles que l’intégration de mots, les réseaux neuronaux récurrents et les transformateurs. L’objectif n’est pas seulement de porter les techniques classiques existantes sur des ordinateurs quantiques, mais de développer de nouvelles approches qui tirent parti des ordinateurs quantiques, en particulier pour réduire la consommation d’énergie.
Cela signifie qu’il faut éviter la tentation de prendre les mathématiques d’une version classique et de les mettre en œuvre directement sur un ordinateur quantique en utilisant l’intrication et l’interférence plutôt que des algorithmes classiques.
Le développement de réseaux neuronaux récurrents quantiques (RNN) en est un exemple clé. Les RNN sont couramment utilisés dans le NLP classique pour traiter des tâches telles que la classification de textes et la modélisation du langage.
Ces données seront utilisées par l’ordinateur quantique H2 de Quantinuum pour générer des données permettant d’entraîner les systèmes d’IA, ce qui améliorera considérablement la fidélité des modèles d’IA et permettra de relever des défis jusqu’alors considérés comme insolubles. L’entreprise prévoit d’utiliser son système Helios de nouvelle génération au milieu de l’année 2025 afin d’accroître les performances.
L’équipe de Quantinuum a développé une version quantique du RNN en utilisant des circuits quantiques paramétrés (PQC). Les PQC permettent un calcul hybride quantique-classique, où les circuits quantiques traitent l’information et les ordinateurs classiques optimisent les paramètres contrôlant le système quantique.
Dans une expérience récente, l’équipe a utilisé un RNN quantique pour effectuer une tâche NLP standard : classer les critiques de films de Rotten Tomatoes comme positives ou négatives. Fait remarquable, le RNN quantique a obtenu d’aussi bons résultats que les RNN classiques, les GRU et les LSTM, en n’utilisant que quatre qubits. Cela montre que les modèles quantiques peuvent atteindre des performances compétitives en utilisant un espace vectoriel beaucoup plus petit, et cela démontre le potentiel d’économies d’énergie significatives dans l’avenir de l’IA.
Quantinuum a également développé une version quantique du modèle de transformateur qui est à la base de la plupart des grands modems de langage (LLM) actuels qui fonctionnent sur les GPU de Nvidia.
En utilisant des primitives algorithmiques quantiques, Quixer est optimisé pour le matériel quantique, ce qui le rend très efficace en termes de qubits. Dans une étude récente, Nikhil Khatri et Gabriel Matos ont appliqué Quixer à une tâche réaliste de modélisation linguistique et ont obtenu des résultats compétitifs par rapport aux modèles transformateurs classiques formés sur les mêmes données.
Il s’agit également du premier modèle d’apprentissage automatique quantique appliqué au langage sur un ensemble de données réalistes plutôt que sur un échantillon.
Les réseaux tensoriels sont également une partie essentielle des frameworks d’IA, utilisés pour effectuer des tâches telles que la classification de séquences, où l’objectif est de classer des séquences de mots ou de symboles en fonction de leur signification. Ces réseaux ont été exécutés sur l’ordinateur quantique Quantinuum System Model H1, la première fois qu’un modèle évolutif a été exécuté sur du matériel quantique.
Consommation électrique du QAI
L’entreprise a également comparé la consommation d’énergie de l’IA classique à celle de la version QAI. Dans certains benchmarks, l’ordinateur quantique a utilisé 30 000 fois moins d’énergie pour accomplir une tâche que Frontier, le superordinateur classique du laboratoire national d’Oak Ridge aux États-Unis. Cet avantage s’étend, car Quantinuum considère qu’il est généralement plus efficace d’utiliser environ 100 qubits que d’utiliser 10^18 bits classiques, ce qui correspondrait à environ 30PFLOPS avec une arithmétique à virgule flottante de 32 bits.
Les modèles quantiques ont tendance à nécessiter beaucoup moins de paramètres pour être entraînés que les modèles classiques comportant des milliards de paramètres. Les modèles quantiques peuvent utiliser la superposition pour obtenir des performances comparables avec un nombre de paramètres beaucoup plus faible. Cela pourrait réduire considérablement l’énergie et les ressources informatiques nécessaires pour faire fonctionner ces modèles.
