OpenAI hat kürzlich angekündigt, dass es die Google TPU-Chips nicht in großem Maße einsetzen wird, obwohl sie in der Anfangsphase getestet wurden. TPU (Tensor Processing Units) sind maßgeschneiderte ASIC-Chips von Google, die für maschinelles Lernen entwickelt wurden und darauf abzielen, die Ausbildung und Inferenz neuronaler Netzwerke zu beschleunigen. Die TPU nutzen eine datenstromgesteuerte Architektur, um effiziente Matrix-Multiplikations-Pipelines zu ermöglichen und so die Speicherzugriffsverzögerungen zu reduzieren.

KI-Grafik (1)

Bildquelle: Das Bild wurde von KI generiert, der Bildlizenzgeber ist Midjourney

OpenAI gab an, sich weiterhin auf Grafikkarten (GPU) von NVIDIA und AI-Beschleuniger von AMD zu verlassen, um die Ausbildung und Inferenz ihrer Modelle zu unterstützen. Dies liegt daran, dass die Produkte dieser beiden Unternehmen bereits bewährt sind und OpenAI bereits Lieferverträge mit ihnen abgeschlossen hat. Obwohl Berichte berichteten, dass OpenAI in bestimmten Aufgaben begonnen hat, Google's AI-Chips zu verwenden, betonten Informanten, dass es sich nur um niedrigere Leistungs-TPU handelte, während Google seine neuesten, für das große Sprachmodell Gemini speziell entwickelten Chips weiterhin selbst verwenden wird.

Die Zusammenarbeit zwischen OpenAI und Google Cloud erfüllt ihre breiteren Infrastrukturbedürfnisse, aber das Unternehmen machte klar, dass es im kurzfristigen Zeitraum keine großen Rechenkapazitäten auf die TPU-Plattform verlagern wird. Investoren und Analysten hatten früher potenzielle TPU-Zusammenarbeiten als Zeichen dafür gesehen, dass OpenAI nach einer Alternative zu NVIDIA suchte, und sogar Strategen von Morgan Stanley glaubten, dass diese Maßnahme die Wettbewerbsfähigkeit von Googles Hardware auf dem Markt effektiv bestätigen könnte.

Doch OpenAIs Erklärung zeigt, wie eng das Verhältnis zu bestehenden Chip-Partnern ist und wie komplex die großflächige Einführung neuer Hardware ist. Angesichts der stetig wachsenden Nachfrage nach KI-Rechenleistung scheint OpenAI eher bereit, sich schrittweise auf der Grundlage des bestehenden GPU-TPU-Tests auszudehnen, anstatt vollständig auf die TPU-Architektur zu wechseln. Dieses Chip-Strategie-Plan sendet eine Botschaft an den Markt, die besagt, dass NVIDIA und AMD weiterhin zentrale Lieferanten für OpenAI bleiben werden, was möglicherweise den Wachstumsraum für Google auf dem AI-Hardware-Markt einschränken könnte, obwohl die TPU-Technologie kontinuierlich Fortschritte macht.

In Zukunft werden Investoren auf die nächste Infrastrukturaktualisierung von OpenAI und den Google Cloud-Berichten achten, um Hinweise auf Änderungen der TPU-Nutzung oder neue Lieferantendiversifizierung zu erkennen.

Zusammenfassung:  

🌟 OpenAI verzichtet vorerst auf eine großflächige Nutzung von Google TPU-Chips und setzt weiterhin auf NVIDIA und AMD.  

📈 TPU-Chips wurden zunächst getestet, es gibt jedoch keine Pläne für eine Skalierung.  

🔍 Investoren werden auf die Infrastrukturaktualisierung von OpenAI und den Google Cloud-Berichten achten, um die Nutzung von TPU zu überwachen.