Groq a lancé une puce d'inférence pour les grands modèles linguistiques (LLM), capable de traiter 500 jetons par seconde, surpassant ainsi les GPU traditionnels et les TPU de Google. L'équipe comprend des membres issus de l'équipe Google TPU, dont le fondateur Jonathan Ross. La puce utilise une architecture LPU conçue en interne et vise à dépasser Nvidia dans les trois prochaines années. Son prix est estimé à environ 20 000 $. Elle se caractérise par une vitesse d'accès API extrêmement rapide et une compatibilité avec de nombreux modèles LLM open source.
Groq lance une puce d'inférence pour les grands modèles, dépassant les GPU à 500 jetons par seconde

站长之家
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.