Ein Start-up namens Reflection AI, das erst ein Jahr alt ist, hat kürzlich eine Finanzierung von 2 Milliarden US-Dollar abgeschlossen und eine Bewertung von 8 Milliarden US-Dollar erreicht. Diese Bewertung stieg um das 15-fache gegenüber den 545 Millionen US-Dollar von vor sieben Monaten. Anfangs konzentrierte sich Reflection AI auf selbstständige Codierungsagenten, hat nun jedoch das Ziel, ein Open-Source-Alternativ zu werden und Labore wie OpenAI und Anthropic, die geschlossen sind, herauszufordern, und möchte auch ein westliches Gegenstück zur chinesischen AI-Firma DeepSeek sein.
Reflection AI wurde im März 2024 von zwei ehemaligen Forschern der Google DeepMind, Misha Laskin und Ioannis Antonoglou, gegründet. Laskin war für das Reward Modeling des Gemini-Projekts bei DeepMind verantwortlich, während Antonoglou einer der Mitentwickler des berühmten Go-AI AlphaGo war. Sie hoffen, mit ihrer reichen Erfahrung in der Entwicklung fortschrittlicher AI-Systeme zu zeigen, dass führende AI-Talente auch außerhalb großer Technologieunternehmen fortschrittliche Modelle entwickeln können.
Bei der Finanzierung gab Reflection AI auch bekannt, eine Reihe von Top-Experten aus DeepMind und OpenAI angezogen zu haben und eine fortschrittliche AI-Trainingsplattform aufgebaut zu haben, die der Öffentlichkeit zugänglich gemacht wird. Noch wichtiger ist, dass Reflection AI angab, einen skalierbaren Geschäftsmodell gefunden zu haben, der mit seiner Strategie der offenen Intelligenz übereinstimmt.
Derzeit besteht das Team von Reflection AI aus etwa 60 Mitarbeitern, die hauptsächlich aus AI-Forschern und Ingenieuren für Infrastruktur, Daten-Training und Algorithmusentwicklung bestehen. Laskin enthüllte, dass Reflection AI bereits einen Rechencluster erhalten hat und plant, im nächsten Jahr ein Vorreiter-Modell zu veröffentlichen, das auf "Trillionen Tokens" trainiert wurde.
Laskin erwähnte, dass „Mixture-of-Experts“ (MoE) eine spezielle Architektur sei, die die Trainierung von Vorreiter-Modellen unterstützen könne. Bisher konnten nur große, geschlossene AI-Laboratorien solche Trainings in dieser Größenordnung durchführen. DeepSeek hat durch seine offene Methode die großflächige Modelltrainierung realisiert und ist somit Vorreiter für andere chinesische Modelle wie Qwen und Kimi.
„Modelle wie DeepSeek und Qwen sind für uns eine Warnung, wenn wir nicht handeln, werden internationale Intelligenzstandards von anderen Ländern festgelegt“, sagte Laskin. Er fügte hinzu, dass dies den USA und ihren Verbündeten einen Nachteil bringe, da Unternehmen und souveräne Staaten oft aus potenziellen rechtlichen Problemen heraus chinesische Modelle nicht verwenden.
Die Definition von „offen“ bei Reflection AI konzentriert sich hauptsächlich auf die Nutzungsberechtigung des Modells. Laskin betonte, dass obwohl die Kernmodelldaten für die Öffentlichkeit zugänglich sein werden, die vollständigen Datensätze und Trainingsprozesse weiterhin geschützt bleiben. Er erklärte, dass Forscher diese Modelle frei nutzen können, während das Unternehmen hauptsächlich Einnahmen aus großen Unternehmen und Regierungen erzielen wird, die „soveräne AI-Systeme“ entwickeln.
Das erste Modell von Reflection AI wird ein textbasiertes Modell sein und in Zukunft multimodale Fähigkeiten besitzen. Das Unternehmen plant, die Rechenressourcen zu nutzen, die es durch die Finanzierung erhält, um neue Modelle zu trainieren, und will im nächsten Jahr seinen ersten Modell veröffentlichen.
Zusammenfassung:
🌟 Reflection AI hat 2 Milliarden US-Dollar Finanzierung erhalten und eine Bewertung von 8 Milliarden US-Dollar erreicht, mit dem Ziel, ein führendes Unternehmen für Open-Source-AI zu werden.
🚀 Gegründet von ehemaligen Forschern der Google DeepMind, strebt Reflection AI danach, einen skalierbaren Geschäftsmodell aufzubauen und Vorreiter-Modell zu veröffentlichen.
🔍 Das Kernmodell von Reflection AI wird der Öffentlichkeit zugänglich sein, aber die vollständigen Datensätze und Trainingsprozesse bleiben geheim. Die Hauptzielgruppe sind große Unternehmen und Regierungen.