MENU

Groq lève $640 millions pour une puce d’IA d’inférence

Groq lève $640 millions pour une puce d’IA d’inférence

Actualités économiques |
Par Nick Flaherty, A Delapalisse



Groq, développeur de puces d’inférence pour l’IA, a levé 640 millions de dollars pour une valorisation de 2,8 milliards de dollars.

Groq utilisera ces fonds pour déployer plus de 108 000 puces de moteur d’inférence LPU (Language Processing Unit), fabriquées par GlobalFoundries, d’ici la fin du premier trimestre 2025.

Groq compte aujourd’hui plus de 360 000 développeurs qui s’appuient sur son GroqCloud, créant des applications d’IA sur des modèles librement accessibles tels que Llama 3.1 de Meta, Whisper Large V3 d’OpenAI, Gemma de Google et Mixtral de Mistral. Groq utilisera le financement pour augmenter la capacité de son offre de jetons en tant que service (TaaS) et pour ajouter de nouveaux modèles et de nouvelles fonctionnalités à GroqCloud.

Les LPU se trouvent dans les centre de données aux côtés des CPU et des processeurs graphiques qui permettent la formation, et les clients peuvent choisir un déploiement sur site ou un accès API. Groq utilise actuellement Llama-2 70B à plus de 300 jetons par seconde et par utilisateur.

La série D a été menée par des fonds et des comptes gérés par BlackRock Private Equity Partners, avec la participation d’investisseurs existants et nouveaux, dont Neuberger Berman, Type One Ventures, et des investisseurs stratégiques comme Cisco Investments, Global Brain’s KDDI Open Innovation Fund III, et Samsung Catalyst Fund.

« Le marché du calcul de l’IA est significatif et la solution verticalement intégrée de Groq est bien positionnée pour répondre à cette opportunité. Nous sommes impatients de soutenir Groq dans sa montée en puissance pour répondre à la demande et accélérer son innovation », a déclaré Samir Menon, directeur général de BlackRock Private Equity Partners.

« Vous ne pouvez pas alimenter l’IA sans calcul d’inférence », a déclaré Jonathan Ross, PDG et fondateur de Groq. « Nous avons l’intention de mettre les ressources à disposition pour que tout le monde puisse créer des produits d’IA de pointe, et pas seulement les plus grandes entreprises technologiques. Ce financement nous permettra de déployer plus de 100 000 LPU supplémentaires dans GroqCloud. La formation de modèles d’IA est résolue, il est maintenant temps de déployer ces modèles pour que le monde entier puisse les utiliser. Ayant obtenu le double du financement recherché, nous prévoyons maintenant d’augmenter considérablement notre densité de talents. Nous sommes l’équipe qui permet à des centaines de milliers de développeurs de construire sur des modèles ouverts et – nous embauchons. »

Groq bénéficie également de l’expertise de son nouveau conseiller technique, Yann LeCun, VP & Chief AI Scientist chez Meta.

www.groq.com

 

Si vous avez apprécié cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à :    ECI sur Google News

Partager:

Articles liés
10s