Der CEO von OpenAI, Sam Altman, hat kürzlich angekündigt, dass das Unternehmen etwa 140 Milliarden US-Dollar in Infrastruktur investieren wird. Dies entspricht einer Kapazität von etwa 30 Gigawatt für Rechenzentren. Diese Erklärung dient dazu, die verschiedenen Pläne von OpenAI in Bezug auf Chips, Rechenzentren und Finanzierungspartner zu erläutern.

OpenAI

Bildquelle: Das Bild wurde von der KI generiert, der Lizenzgeber ist Midjourney

Altman sagte, dass OpenAI jährlich bis zu 100 Milliarden US-Dollar an Infrastruktur ausgeben möchte, um seine wachsende künstliche Intelligenz-Kapazität zu unterstützen. Dieses Ziel wird nicht nur die technologische Entwicklung des Unternehmens sichern, sondern auch neue Chancen für die globale Wirtschaft schaffen.

Laut den kürzlich eingereichten Regulierungsunterlagen wird die Investition in die KI-Infrastruktur voraussichtlich in den nächsten Jahren eine erhebliche Steigerung des globalen BIP verursachen. Die Vision von OpenAI geht nicht nur über die Förderung der KI-Entwicklung hinaus, sondern sie möchte auch die KI als neue Gelegenheit zur Wiederbelebung der amerikanischen Industrie betrachten.

Um den wachsenden Anforderungen an Rechenleistung gerecht zu werden, hat OpenAI bereits einen langfristigen Vertrag mit dem Chiphersteller AMD abgeschlossen und plant, mehrere Milliarden Dollar für Chips von AMD auszugeben. Diese Zusammenarbeit könnte OpenAI ermöglichen, bis zu 10 % des US-Halbleitermarktes zu kontrollieren und das Risiko, zu stark von dem Marktführer NVIDIA abhängig zu sein, zu reduzieren.

Hauptpunkte:

🌐 OpenAI hat zugesagt, in der Infrastruktur etwa 140 Milliarden US-Dollar zu investieren, mit dem Ziel, jährlich 100 Milliarden US-Dollar auszugeben.

💡 Diese Investition wird neuen Impuls für das globale Wachstum geben und gleichzeitig die technologische Ausweitung des Unternehmens unterstützen.

🤝 OpenAI hat eine langfristige Zusammenarbeit mit AMD geschlossen, um die Abhängigkeit von NVIDIA zu reduzieren und die wachsenden Anforderungen an Rechenkapazität zu erfüllen.