Das französische KI-Startup Mistral hat kürzlich eine Reihe neuer generativer KI-Modelle vorgestellt, die speziell für Edge-Geräte wie Laptops und Smartphones entwickelt wurden. Mistral nennt diese Modellreihe „Les Ministraux“ und zielt damit auf den Bedarf des Marktes nach lokaler Verarbeitung und Datenschutz ab.

image.png

Die neu veröffentlichte Les Ministraux-Reihe umfasst zwei Modelle: Ministral3B und Ministral8B. Bemerkenswert ist, dass beide Modelle ein Kontextfenster von 128.000 Tokens haben und damit Textlängen von etwa 50 Buchseiten verarbeiten können. Das bedeutet, dass diese Modelle sowohl für die Textgenerierung, die Geräteübersetzung als auch für die Bereitstellung eines Offline-intelligenten Assistenten bestens geeignet sind.

Mistral erklärt in seinem Blog, dass immer mehr Kunden und Partner nach Lösungen suchen, die lokale Inferenz ermöglichen. Dies betrifft wichtige Anwendungsfälle wie gerätebasierte Übersetzung, lokale Analyse und autonome Robotik. Les Ministraux wurde entwickelt, um in diesen Szenarien recheneffiziente und latenzarme Lösungen bereitzustellen.

Derzeit steht Ministral8B zum Download bereit, jedoch ausschließlich für Forschungszwecke. Entwickler und Unternehmen, die eine kommerzielle Lizenz für Ministral3B oder Ministral8B benötigen, müssen sich direkt an Mistral wenden. Die Modelle können auch über Mistrals Cloud-Plattform La Platforme und in den kommenden Wochen über weitere kooperierende Cloud-Dienste genutzt werden. Die Kosten für Ministral8B betragen 10 Cent pro Million Input-/Output-Tokens, während Ministral3B 4 Cent kostet.

Der Trend zu kleineren Modellen nimmt derzeit zu, da deren Trainings-, Feinabstimmungs- und Betriebskosten niedriger und die Geschwindigkeit höher sind. Google erweitert seine Gemma-Modellreihe für kleine Modelle kontinuierlich, während Microsoft die Phi-Modellreihe vorgestellt hat. Meta hat in der neuesten Aktualisierung der Llama-Reihe ebenfalls mehrere kleine Modelle veröffentlicht, die für Edge-Hardware optimiert sind.

Mistral behauptet, dass Ministral3B und Ministral8B in mehreren KI-Benchmark-Tests, die auf die Bewertung der Befolgung von Anweisungen und der Problemlösungsfähigkeit abzielen, die vergleichbaren Llama- und Gemma-Modelle sowie das eigene Mistral7B-Modell übertreffen. Mistral mit Sitz in Paris hat kürzlich eine Finanzierungsrunde von 640 Millionen US-Dollar erfolgreich abgeschlossen und baut sein KI-Produktportfolio stetig aus. In den letzten Monaten hat das Unternehmen einen kostenlosen Service zum Testen seiner Modelle für Entwickler bereitgestellt, ein SDK zur Feinabstimmung der Modelle veröffentlicht und ein Codegenerierungsmodell namens Codestral vorgestellt.

Die Mitgründer von Mistral kommen von Meta und Googles DeepMind. Das Unternehmen hat sich zum Ziel gesetzt, Flaggschiffmodelle zu entwickeln, die mit Top-Modellen wie OpenAIs GPT-4 und Anthropics Claude konkurrieren können, und dabei profitabel zu sein. Obwohl dieses Ziel für viele generative KI-Startups eine Herausforderung darstellt, soll Mistral bereits im Sommer dieses Jahres Einnahmen erzielt haben.

Wichtigste Punkte:

1. 🚀 Mistrals Les Ministraux-Modellreihe wurde speziell für Edge-Geräte entwickelt und unterstützt die lokale Datenverarbeitung zum Schutz der Privatsphäre.

2. 💡 Die neuen Modelle umfassen Ministral3B und Ministral8B und verfügen über eine außergewöhnliche Kontextverarbeitungsfähigkeit, die für verschiedene Anwendungsfälle geeignet ist.

3. 💰 Mistral ist bereits profitabel und erweitert sein KI-Produktportfolio kontinuierlich, um mit den führenden Modellen der Branche zu konkurrieren.