OpenAI hat zwei neue Open-Source-Modellgewichte eingeführt – gpt-oss-120b und gpt-oss-20b –, was die erste Rückkehr von OpenAI in den Open-Source-Bereich seit der Veröffentlichung von GPT-2 im Jahr 2019 darstellt. Dieser Schritt markiert nicht nur eine bedeutende strategische Wende für OpenAI, sondern bietet auch globalen AI-Entwicklern leistungsstarke Werkzeuge zur Inferenz und beschleunigt damit die Verbreitung und Innovation in der KI-Technologie.

image.png

Offene Modellgewichte, mehr Freiheit für Entwickler

Laut der offiziellen Mitteilung von OpenAI werden gpt-oss-120b und gpt-oss-20b unter der Apache 2.0-Lizenz veröffentlicht, wodurch Entwicklern das freie Herunterladen, Ändern und Einsatz für kommerzielle Zwecke ermöglicht wird. Diese beiden Modelle besitzen jeweils eine Architektur mit gemischten Experten (MoE) und haben 117 Milliarden beziehungsweise 21 Milliarden Parameter. Bei ihrer Nutzung aktivieren sie jeweils 5,1 Milliarden und 3,6 Milliarden Parameter, wodurch Effizienz bei der Inferenz und geringer Ressourcenverbrauch gewährleistet werden.

image.png

  • gpt-oss-120b: Kann auf einem einzelnen NVIDIA H100-GPU (80 GB Speicher) laufen und ist daher für Rechenzentren oder anspruchsvolle Unternehmensszenarien geeignet. Die Leistung ist dem proprietären Modell o4-mini von OpenAI sehr ähnlich und besonders gut in Wettbewerbsprogrammierung (Codeforces), allgemeinem Problemlösen (MMLU, HLE) und Gesundheitsanfragen (HealthBench).
  • gpt-oss-20b: Läuft bereits auf Edge-Geräten mit 16 GB Speicher und ist somit für lokale Inferenz und Geräteanwendungen geeignet. Die Leistung ist vergleichbar mit o3-mini und besonders stark in Bereichen wie Wettbewerbsmathematik (AIME2024 & 2025).

Diese Modelle unterstützen einen Kontext von bis zu 128k Tokens und verwenden abwechselnd dichte und lokal bandförmige seltene Aufmerksamkeit, um die Effizienz der Inferenz zu verbessern. OpenAI hat außerdem den „o200k_harmony“-Tokenizer öffentlich zugänglich gemacht, um den Entwicklungsprozess zu erleichtern.

Sicherheit und Verantwortung im Vordergrund – ein neuer Standard für Open Source

OpenAI betont in seiner Veröffentlichung, dass Sicherheit ein zentraler Grundsatz der gpt-oss-Serie ist. Um das Risiko einer missbräuchlichen Anpassung der Open-Source-Modelle zu reduzieren, hat OpenAI gpt-oss-120b auf gegenständliche Anpassung getestet und durch sein „Preparedness Framework“ überprüft. Es wurde bestätigt, dass selbst nach feindlicher Optimierung das Modell in Bereichen wie Biologie, Chemie und Netzwerksicherheit keine hohen Risikofähigkeiten aufweist. Eine externe Prüfung durch Sicherheitsexperten erhöhte zusätzlich die Sicherheitsstandards des Modells.

Außerdem bittet OpenAI Entwickler, zusätzliche Sicherheitsmaßnahmen zu ergreifen, um potenzielle Risiken in verschiedenen Anwendungsszenarien abzuwenden. In den Modellkarten und Forschungsartikeln sind die Ergebnisse der Sicherheitstests detailliert dokumentiert, was der Open-Source-Community eine transparente Referenz bietet.

image.png

image.png

Strategische Richtungsänderung – Reaktion auf Open-Source-Wettbewerb und Unternehmensbedürfnisse

Dieser Schritt von OpenAI gilt als strategische Anpassung, um den Wettbewerb im Open-Source-Bereich zu meistern. In den letzten Jahren haben Unternehmen wie Meta und DeepSeek durch die Offenlegung von Modellen den Markt erobert und zwangen OpenAI, seine bisherige Closed-Source-Strategie neu zu bewerten. OpenAI-CEO Sam Altman betonte in einem Reddit AMA, dass die frühere Open-Source-Richtung „falsch verlaufen sei“, und dieser Release sei der erste Schritt, um die Versprechen der Rückkehr zum Open-Source-Bereich einzulösen.

Zusätzlich deckt die gpt-oss-Serie die Bedürfnisse von Unternehmen ab, insbesondere hinsichtlich lokaler Deployment und Datenprivatsphäre. Finanz-, Gesundheits- und Rechtsbranchen können die Modelle auf privaten Servern installieren und dadurch das Risiko von Datenlecks vermeiden. OpenAI kooperiert zudem mit Institutionen wie dem schwedischen Nationalen KI-Zentrum AI Sweden, um regionale Anpassungen zu erforschen, um die Leistung des Modells in bestimmten Sprachen und kulturellen Kontexten zu verbessern.

Unterstützung der Entwicklercommunity – neue Möglichkeiten für KI

Die gpt-oss-Serie unterstützt verschiedene Entwicklungsrahmen wie Transformers, vLLM, Ollama und llama.cpp. Entwickler können die Modellgewichte über Plattformen wie Hugging Face und GitHub herunterladen und sich mit den vom OpenAI bereitgestellten Beispielen schnell an die Arbeit machen. Das Modell enthält Ketteninferenz (Chain-of-Thought), Toolaufrufe (einschließlich Ausführung von Python-Code und Web-Suche) sowie strukturierte Ausgaben (JSON, YAML usw.), was es besonders für intelligente Workflows geeignet macht.

Außerdem unterstützt das Modell drei Ebenen der Inferenz (niedrig, mittel, hoch), wodurch Entwickler Geschwindigkeit und Genauigkeit je nach Anforderung balancieren können.

Die Veröffentlichung der gpt-oss-Serie bietet Entwicklern nicht nur leistungsstarke, kostengünstige KI-Werkzeuge, sondern hat auch tiefgreifende Auswirkungen auf die KI-Industrie. Im Vergleich zu Meta's Llama oder DeepSeek's R1 hat gpt-oss klare Vorteile in Bezug auf Inferenzfähigkeit und Werkzeugnutzung, aber der eingeschränkte Textmodus bedeutet, dass Multimodalität über API-Aufrufe ergänzt werden muss.

OpenAI gab bekannt, dass es die gpt-oss-Serie weiter optimieren wird, basierend auf Feedback aus der Community, ohne jedoch konkrete Aktualisierungspläne zu versprechen. Branchenexperten glauben, dass dies dazu führen könnte, dass immer mehr Unternehmen hybride KI-Strategien verfolgen, also Open-Source-Modelle mit Cloud-Diensten kombinieren, um Kosten und Flexibilität zu balancieren.

Offizieller Blog: https://openai.com/zh-Hans-CN/index/introducing-gpt-oss/