Die französische KI-Start-up-Methode Mistral AI hat am Mittwoch den Einstieg in das Gebiet der KI-Infrastruktur angekündigt und positioniert sich damit als eine starke europäische Antwort auf die US-Cloud-Giganten. Gleichzeitig hat die Firma einen neuen Inferenzmodelltyp vorgestellt, der mit dem fortschrittlichsten System von OpenAI vergleichbar ist.
Diese Pariser Firma hat Mistral Compute vorgestellt, eine umfassende KI-Infrastrukturplattform, die in Zusammenarbeit mit Nvidia entwickelt wurde. Ziel ist es, europäischen Unternehmen und Regierungen alternativen Zugang zu verschaffen und sie von einer Abhängigkeit gegenüber US-Cloud-Anbietern wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud zu befreien. Dieser Schritt markiert einen bedeutenden strategischen Wandel für Mistral AI, da die Firma von der bloßen Entwicklung von KI-Modellen zu der Kontrolle des gesamten Technologiestacks wechselt.
Der CEO und Mitbegründer von Mistral AI, Arthur Mensch, sagte: "Der Einstieg in das Gebiet der KI-Infrastruktur markiert einen Wendepunkt für Mistral AI, da er uns ermöglicht, ein entscheidendes Segment der KI-Wertschöpfungskette zu erreichen. Diese Transformation bedeutet, dass wir dafür verantwortlich gemacht werden, sicherzustellen, dass unsere Lösungen nicht nur Innovationen und die Verbreitung von KI vorantreiben, sondern auch die technologische Selbstständigkeit Europas gewährleisten und einen Beitrag zur nachhaltigen Führung in der KI leisten."
Wie Mistral Modelle entwickelt, die in jeder Sprache denken können
Neben der Ankündigung der Infrastruktur hat Mistral seine Inferenzmodelle der Serie Magistral vorgestellt – diese künstlichen Intelligenzen können schrittweise logisches Denken durchführen, ähnlich wie das o1-Modell von OpenAI und das DeepSeek R1 aus China. Doch Guillaume Lample, Chefwissenschaftler von Mistral, betonte, dass die Methode der Firma in wichtigen Aspekten von der Konkurrenz unterscheidet.
Lample sagte bei einer exklusiven Interview: „Wir haben alles von Grund auf neu entwickelt, vor allem, weil wir unser bestehendes Fachwissen lernen wollten, wie Flexibilität im Arbeitsprozess. Tatsächlich haben wir bei der effizienten Implementierung eines stärkeren Online-Reward-Learning-Prozesses sehr gut darin bestanden.“ Anders als viele Konkurrenten, die ihre Denkprozesse oft verstecken, zeigen Mistrals Modelle vollständige Gedankenketten an Nutzer und – was entscheidend ist – verwenden dabei die Muttersprache des Benutzers statt standardmäßig Englisch. Lample erklärte: „Wir zeigen Benutzern die komplette Gedankenkette in ihrer eigenen Sprache, sodass sie wirklich nachlesen können, ob dies sinnvoll ist.“
Die Firma veröffentlichte zwei Versionen: das Open-Source-Modell Magistral Small mit 24 Milliarden Parametern und das mächtigere proprietäre System Magistral Medium, das über die Mistral-API verfügbar ist.
KI-Modell-Fähigkeiten im Trainingsprozess
Diese Modelle zeigen im Trainingsprozess überraschende Fähigkeiten. Besonders bemerkenswert ist, dass obwohl das Training nur textbasierte Mathematik- und Codierungsprobleme abdeckte, das Magistral Medium immer noch Multi-Modalität in der Deduktion behält – also die Fähigkeit, Bilder zu analysieren.
Lample sagte: „Wir haben erkannt, dass dies nicht ganz zufällig geschieht, sondern dass wir es absolut nicht erwartet hatten. Wenn du zum Ende des verstärkten Reward-Learning-Prozesses zurückkehrst und den initialen visuellen Kodierer wieder einsetzt, entdeckst du plötzlich, dass das Modell Bilder deduzieren kann.“
Die Modelle erlangten auch komplexe Funktionen zur Funktionsaufruf-Automatisierung und können mehrstufige Internet-Suchanfragen und Codeausführungen automatisch ausführen, um komplexe Anfragen zu beantworten. Lample erklärte, dass das Modell wie eine Online-Suche vorgeht, dann die Ergebnisse verarbeitet und bei Bedarf noch einmal sucht. Dieses Verhalten bildet sich ohne spezielle Schulung selbständig heraus, was das Team „sehr überraschte“.
Technischer Durchbruch: Trainingsgeschwindigkeit weit über dem Konkurrenten
Die technische Mannschaft von Mistral überwand große technische Herausforderungen und schuf nach Lamples Aussage einen Durchbruch im Bereich der Trainingsinfrastruktur. Die Firma entwickelte ein „Online-Reward-Learnings“-System, das es AI-Modellen ermöglicht, während der Generierung von Antworten kontinuierlich zu verbessern, ohne auf vorhandene Trainingsdaten angewiesen zu sein.
Das Schlüsselinventar war die reale Synchronisierung von Modellupdates zwischen Hunderten von Grafikprozessoren (GPU). Lample erklärte: „Was wir tun, ist eine Methode finden, wie man das Modell mit einer GPU alleine migrieren kann.“ Dadurch kann das System das Modellgewicht innerhalb weniger Sekunden (anstatt normalerweise Stunden) zwischen verschiedenen GPU-Clustern aktualisieren.
Lample bemerkte: „Keine Open-Source-Infrastruktur kann dies so ordnungsgemäß bewerkstelligen. Normalerweise gibt es viele ähnliche Open-Source-Versuche, aber sie sind äußerst langsam. Und hier legen wir großen Wert auf Effizienz.“ Der Trainingsprozess ist schneller und kostengünstiger als traditionelle Vorabtrainings, sagte Lample, und es dauert nicht länger als eine Woche.
Nvidia verspricht 18.000 Chips für Europas KI-Unabhängigkeit
Die Mistral Compute-Plattform wird auf 18.000 der neuesten Grace Blackwell-Chips von Nvidia laufen, die zunächst in einem Rechenzentrum in Essonne, Frankreich, installiert wurden und auf die gesamte europäische Region ausgedehnt werden sollen. Der CEO von Nvidia, Jensen Huang, sagte, dass diese Partnerschaft für Europas technische Unabhängigkeit entscheidend sei.
Huang sagte in einer gemeinsamen Erklärung in Paris: „Jeder Staat sollte in seinem eigenen Land KI bauen und für seine eigene Nation dienen. Mit Mistral AI entwickeln wir Modelle und KI-Fabriken als autonome Plattformen für Unternehmen in ganz Europa, um intelligente Lösungen in allen Branchen zu erweitern.“ Huang prognostizierte, dass sich die KI-Rechenkapazität Europas in den nächsten zwei Jahren verdoppelt haben wird und dass das Kontinent über 20 „KI-Fabriken“ planen wird.
Dieses Engagement umfasst nicht nur Infrastruktur, sondern auch eine Zusammenarbeit von Nvidia mit anderen europäischen KI-Unternehmen und dem Suchdienst Perplexity zur Entwicklung von Inferenzmodellen in diversen europäischen Sprachen, für die normalerweise begrenzte Trainingsdaten vorhanden sind.
Loesung von Umwelt- und Souveraenitaetsproblemen in der KI
Mistral Compute löst zwei grosse Probleme der KI-Entwicklung: Umweltauswirkungen und Datensovereignitaet. Die Plattform gewährleistet, dass europaeische Kunden ihre Informationen innerhalb der EU halten und unter europaeischem Recht bleiben koennen.
Die Firma arbeitet mit der franzoesischen Nationalagentur fuer Oekologische Transformation und der fuelligen Klimakonsultantengesellschaft Carbone4 zusammen, um die Kohlenstofffußabdrucke ihrer KI-Modelle im gesamten Lebenszyklus zu evaluieren und zu minimieren. Mistral plant, ihre Rechenzentren mit entkarbonisierten Energien zu versorgen und sagte: „Durch die Wahl Europas als Standort unserer Fabriken koennen wir von grossen Mengen entkarbonisierter Energie profitieren.”
Geschwindigkeitsvorteil gewaehrt Mistral Inferenzmodellen praktische Vorteile
Fruehere Tests zeigen, dass die Inferenzmodelle von Mistral nicht nur hervorragende Leistung, sondern auch ein allgemeines Problem bestehender Systeme – Geschwindigkeit – loesen. Die aktuell verfuegbaren Inferenzmodelle von OpenAI und anderen brauchen Minuten, um komplexe Anfragen zu beantworten, was ihre praktische Nutzung einschraenkt.
Lample bemerkte: „Eine Sache, die Menschen normalerweise nicht moegen, ist, dass diese Inferenzmodelle zwar intelligent sind, aber manchmal viel Zeit in Anspruch nehmen. Hier sehen Sie jedoch das Ergebnis innerhalb weniger Sekunden, manchmal sogar weniger als fünf Sekunden, manchmal sogar noch schneller. Das veraendert die Erfahrung.“ Der Geschwindigkeitsvorteil ist entscheidend fuer den Einsatz durch Unternehmen, da das Warten auf AI-Antworten von einigen Minuten zu Workflow-Blockaden fuehren kann.
Der tiefgreifende Einfluss von Mistrals Infrastrukturinvestitionen auf die globale KI-Wettbewerbslage
Mistrals Einstieg in das Infrastrukturgebiet setzt es direkt mit den dominierenden Cloud-Konstruktionstechnologiegiganten in Konkurrenz. Die Firma bietet eine vollumfängliche vertikal integrierte Lösung – von der Hardware-Infrastruktur bis hin zu AI-Modellen und Softwarediensten. Dazu gehört Mistral AI Studio für Entwickler, Le Chat zur Produktivitätssteigerung von Unternehmen und Mistral Code zur Programmierunterstützung.
Industrieanalysten betrachten Mistrals Strategie als Teil eines regionalen Trends im Bereich KI-Entwicklung. Huang sagte: „Um weltweit konkurrenzfähig zu bleiben, muss Europa seine KI-Infrastruktur drastisch ausbauen.“ Dies stimmt mit den Sorgen europäischer Politiker überein.
Diese Ankündigung erfolgt gerade, als europäische Regierungen zunehmend besorgt darüber sind, abhängig von US-Technologieunternehmen in Bezug auf kritische KI-Infrastrukturen zu sein. Die EU hat sich dazu verpflichtet, 20 Milliarden Euro in die Errichtung von KI-Superfabriken auf dem europäischen Kontinent zu investieren, und die Zusammenarbeit zwischen Mistral und Nvidia könnte diese Pläne beschleunigen.
Mistrals Ankündigung der Infrastruktur und der Modelfunktionen zeigt an, dass die Firma sich als umfassende KI-Plattform positioniert und nicht nur als Modellanbieter. Mit Unterstützung von Microsoft und anderen Investoren hat die Firma bereits mehr als 1 Milliarde USD aufgebracht und wird weiterhin zusätzliche Mittel suchen, um ihren Geschäftsansatz zu erweitern.
Lample sieht größere Möglichkeiten für Inferenzmodelle in der Zukunft und sagte: „Wenn ich die internen Fortschritte betrachte, denke ich, dass die Präzision des Modells pro Woche um 5 % steigt und dies etwa sechs Wochen lang andauert. Daher verbessert es sich schnell, viele, viele, meine ich, unzählige kleine Ideen, die Performance verbessern könnten. Ob Europas Bestrebungen, die US-KI-Herrschaft herauszufordern, erfolgreich sein werden, hängt möglicherweise davon ab, ob Kunden Souveränität und Nachhaltigkeit stark genug wertschätzen, um bestehende Anbieter zu verlassen. Zumindest jetzt haben sie noch die Wahl.”