
L’intelligence artificielle n’est pas seulement une avancée technologique, c’est aussi une évolution dans la manière d’écrire les logiciels et de les exécuter.
Le développement traditionnel de logiciels, fondé sur une logique déterministe et un traitement largement séquentiel, cède la place au nouveau concept de modèles aléatoires, des comportements formés et des calculs fondés sur des données. Il ne s’agit pas d’une tendance éphémère. L’IA représente un changement fondamental et irréversible dans l’informatique – de la programmation basée sur des règles à des dispositifs adaptatifs basés sur l’apprentissage qui sont de plus en plus intégrés dans un ensemble plus large de problèmes et de capacités informatiques.
Cette transformation exige un changement correspondant dans le matériel qui équipe l’IA. L’ancien modèle consistant à construire des puces hautement spécialisées pour des tâches étroitement définies n’est plus adapté dans un monde où les architectures et les algorithmes d’IA sont en constante évolution (comme ils le sont et le seront toujours). Pour répondre aux besoins évolutifs de l’IA – en particulier à la périphérie – nous avons besoin de plateformes de calcul aussi dynamiques et adaptables que les charges de travail qu’elles exécutent.
C’est pourquoi les GPU, processeurs parallèles à usage général, s’imposent comme l’avenir de l’IA, remplaçant les processeurs spécialisés tels que les unités de traitement neuronal (NPU). Il ne s’agit pas seulement d’une question de performance, mais aussi de flexibilité, d’évolutivité et d’alignement sur le devenir du logiciel lui-même.
La vague Makimoto et le retour de la flexibilité
Pour comprendre cette évolution, il suffit de se référer à la vague de Makimoto, un concept proposé par Tsugio Makimoto de Hitachi. Il décrit l’oscillation entre la standardisation et la personnalisation de l’informatique au fil du temps, sous l’effet de l’évolution de la demande du marché, de l’innovation technologique et de la complexité des logiciels.
(La vague de Makimoto montre un modèle historique d’oscillation des priorités dans l’informatique – de la flexibilité à la spécialisation et vice-versa. La trajectoire actuelle de l’IA marque un retour à la flexibilité et aux plateformes polyvalentes).
Ce modèle s’inscrit directement dans l’évolution du matériel d’IA. Dans les premières années de l’IA, lorsque les charges de travail étaient bien définies et stables, les NPU et autres accélérateurs à fonction fixe avaient du sens. Ils étaient hautement optimisés pour des tâches spécifiques telles que la classification d’images ou la détection d’objets à l’aide de CNN.
Mais aujourd’hui, l’IA évolue rapidement. Nous avons dépassé les modèles simples et statiques pour entrer dans une ère de réseaux hybrides, d’architectures basées sur des transformateurs, de modèles de création et d’innovation continue. Le matériel conçu sur mesure pour l’IA de l’année dernière ne peut tout simplement pas suivre le rythme de cette évolution.
Nous nous trouvons une fois de plus à un point d’inflexion de Makimoto, c’est-à-dire que nous passons de la spécialisation à l’informatique à usage général en tant que solution évolutive et adaptable.
L’IA est un problème de calcul parallèle – pas un problème spécialisé
L’IA est fondamentalement un problème de parallélisme. L’apprentissage profond repose fortement sur des opérations simultanées – mathématiques matricielles, multiplications de tenseurs, opérations vectorielles – précisément le type de charge de travail pour lequel les GPU ont été conçus au début. Ce n’est pas une coïncidence si l’architecture développée pour rendre des millions de pixels simultanément est aujourd’hui parfaite pour traiter des millions d’activations de neurones à la fois.
Les GPU à usage général ont aujourd’hui évolué bien au-delà de leurs racines graphiques. Avec des pipelines programmables, des shaders de calcul et une conception de plus en plus centrée sur l’IA, les GPU peuvent désormais accélérer les charges de travail traditionnelles et émergentes, fournissant un moteur puissant et flexible pour l’IA de pointe.
Les processeurs spécialisés tels que les NPU, en revanche, peinent à rester pertinents dans un contexte d’évolution rapide. Ils sont optimisés pour des opérations spécifiques et lorsque le monde de l’IA évolue, comme c’est constamment le cas, ces puces peuvent rapidement devenir obsolètes. Il est clair que ce nouveau type de logiciel continue à se développer et qu’il a besoin d’une plateforme matérielle parallèle flexible et généraliste pour le supporter – un GPU.
Pourquoi le polyvalent l’emporte à la périphérie
L’IA de pointe a besoin de plus que de performances. Elle a besoin d’adaptabilité, de réutilisation et de longévité. Les processeurs parallèles polyvalents tels que les GPU modernes répondent à toutes ces exigences :
- Flexibilité : Peut être programmé pour exécuter de nouveaux types de modèles sans changer de matériel.
- Évolutivité : Convient à une large gamme d’appareils périphériques, des capteurs IoT aux caméras intelligentes et aux véhicules autonomes.
- Écosystème logiciel : Soutenu par des outils et des normes de développement matures et ouverts (par exemple, OpenCL, LiteRT et TVM).
- Durabilité : Prolongez le cycle de vie des produits et réduisez la nécessité de revoir constamment la conception des silicones.
En bref, le calcul parallèle polyvalent – les GPU – est naturellement conçu pour évoluer avec l’ IA.
Regarder vers l’avenir
Malgré des preuves de plus en plus nombreuses, le marché a encore tendance à associer l’accélération de l’IA aux NPU et au silicium personnalisé. Mais tout comme l’industrie graphique a appris que les pipelines à fonctions fixes ne pouvaient pas suivre le rythme de l’innovation dans les jeux, l’industrie de l’IA découvre que le matériel fixe n’est pas à la hauteur des logiciels fluides.
Il est temps de rééduquer l’écosystème. L’avenir de l’IA à la périphérie ne repose pas sur des puces étroitement optimisées. Il s’agit de plateformes de calcul programmables, adaptables et parallèles, capables de croître et de s’adapter aux besoins des logiciels intelligents.
Makimoto l’a vu il y a des décennies. Aujourd’hui, nous vivons son intuition en surfant sur la vague du retour à la flexibilité généralisée. Le GPU n’est pas seulement en train de rattraper son retard, il est déjà en tête.
Dennis Laudick est vice-président de la gestion des produits chez Imagination Technologies. Avant de rejoindre Imagination Technologies, Dennis a occupé pendant plus de 13 ans divers postes de direction en matière de produits et de marketing au sein des divisions automobile, IA et GPU d’Arm. Auparavant, il a occupé des postes de direction dans plusieurs entreprises de semiconducteurs et d’équipements d’origine de premier plan.
