Anthropic mise sur la puce TPU de Google pour stimuler son IA
Anthropic a annoncé une expansion majeure de son partenariat avec Google Cloud, prévoyant de déployer jusqu’à un million de Tensor Processing Units (TPU) pour intensifier son modèle IA et le développement de ses produits. L’accord, évalué à plusieurs dizaines de milliards de dollars, devrait permettre de mettre en ligne plus d’un gigawatt de nouvelle capacité de calcul d’ici 2026.
Pour les lecteurs d’ECInews, cette décision est le signe d’une accélération de la demande d’infrastructures de calcul avancées pour l’IA – et montre l’influence croissante du silicium personnalisé, comme les TPU de Google, pour alimenter les modèles LLM et les services d’IA de la prochaine génération.
Mise à l’échelle de l’infrastructure d’IA avec les TPU
Cette expansion reflète les besoins croissants d’Anthropic en matière de calcul, alors qu’elle continue à faire progresser sa famille de modèles d’IA Claude. Avec plus de 300 000 clients professionnels et une multiplication par sept du nombre de grandes entreprises au cours de l’année écoulée, l’entreprise fait rapidement évoluer son infrastructure pour répondre à la demande.
« Le choix d’Anthropic d’augmenter de manière significative son utilisation des TPU reflète le bon rapport prix-performance et l’efficacité que ses équipes constatent avec les TPU depuis plusieurs années », a déclaré Thomas Kurian, PDG de Google Cloud. « Nous continuons à innover et à améliorer l’efficacité et la capacité de nos TPU, en nous appuyant sur notre portefeuille d’accélérateurs d’IA déjà mature, y compris notre TPU de septième génération, Ironwood. »
La nouvelle capacité TPU permettra à Anthropic de poursuivre ses recherches sur l’alignement, l’entraînement des modèles et le déploiement à grande échelle. Selon l’entreprise, cet investissement est essentiel pour maintenir une croissance responsable et efficace à mesure que la complexité des modèles et les cas d’utilisation des clients continuent de s’étendre.
Stratégie multi-cloud et multi-puces
Malgré l’ampleur de ce nouvel accord, Anthropic a souligné que sa stratégie de calcul restait diversifiée. Outre les TPU de Google, l’entreprise utilise également Trainium d’Amazon et les GPU de NVIDIA pour entraîner et faire fonctionner ses modèles d’IA.
« Anthropic et Google ont un partenariat de longue date et cette dernière expansion nous aidera à continuer à développer le calcul dont nous avons besoin pour définir la frontière de l’IA », a déclaré Krishna Rao, directeur financier d’Anthropic. « Nos clients – des entreprises Fortune 500 aux startups natives de l’IA – dépendent de Claude pour leurs travaux les plus importants, et cette capacité accrue garantit que nous pouvons répondre à notre demande en croissance exponentielle tout en maintenant nos modèles à la pointe de l’industrie. »
Anthropic continue de collaborer avec Amazon, qui reste son principal partenaire de formation et fournisseur de cloud. Les deux entreprises travaillent ensemble sur le projet Rainier, une grappe de calcul à grande échelle couvrant plusieurs centres de données américains avec des centaines de milliers de puces d’intelligence artificielle.
Investir pour la frontière de l’IA
Ce partenariat souligne l’interdépendance croissante entre les fournisseurs d’infrastructure cloud et les principaux développeurs d’IA. Alors que la concurrence s’intensifie sur le marché des modèles de fondation, l’accès élargi d’Anthropic aux systèmes TPU de nouvelle génération de Google pourrait fournir à la fois la capacité et l’efficacité nécessaires pour améliorer les performances des modèles.
Anthropic a déclaré qu’elle prévoyait de continuer à investir dans l’infrastructure informatique de plusieurs partenaires afin de s’assurer que ses modèles Claude restent à la pointe de la capacité et de la fiabilité de l’IA.
Si vous avez apprécié cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à :
ECI sur Google News