Die künstliche Intelligenz-Start-up-Firma Anthropic hat kürzlich angekündigt, dass ihr vielbeachtetes Claude Sonnet4-Modell nun eine Unterstützung von bis zu einer Million Kontext-Worten bietet. Vorher unterstützte die API dieses Modells nur 200.000 Wörter. Diese Erweiterung ermöglicht es Entwicklern, über 75.000 Codezeilen in einem einzigen Antrag zu übertragen und erhöht dadurch die Flexibilität und Bequemlichkeit erheblich.
Der erweiterte langfristige Kontextsupport ist bereits im öffentlichen Test bei der API von Anthropic und Amazon Bedrock verfügbar, und Google Cloud Vertex AI wird diese Funktion in naher Zukunft ebenfalls einführen. Allerdings ist diese lange Kontextfunktion derzeit nur für Entwickler des Tier4-Plans zugänglich und unterliegt bestimmten Rate-Limits. Anthropic kündigte an, in den nächsten Wochen diese Funktion auf mehr Entwickler auszuweiten.
Um den Anforderungen an Rechenkapazität für größere Wortfenster gerecht zu werden, führte Anthropic zudem einen neuen Preisplan ein. Für Eingabewörter unter 200.000 beträgt der Preis 3 Dollar pro Million Eingabewörter und 15 Dollar pro Million Ausgabewörter. Bei Eingabewörtern über 200.000 betragen die Kosten 6 Dollar pro Million Eingabewörter und 22,5 Dollar pro Million Ausgabewörter. Entwickler können auch durch Nutzung von schnellem Cache und Batch-Verarbeitungskosten senken, wobei die Batch-Verarbeitung einen Rabatt von 50 % für Preise mit einem Kontextfenster von 1 Mio. Wörtern bietet.
Bei einer jüngsten Reddit AMA-Veranstaltung diskutierten Führungskräfte von OpenAI die Möglichkeit, ihre Modelle für längere Kontextfenster zu unterstützen. Der CEO von OpenAI, Sam Altman, sagte, dass sie derzeit keine starken Benutzeranfragen für lange Kontexte bemerkt haben, aber wenn genug Benutzerinteresse besteht, würden sie dies in Betracht ziehen. Aufgrund der Einschränkungen der Rechenkapazität möchte das OpenAI-Team sich auf andere Prioritätsprojekte konzentrieren. Michelle Pokrass, Mitglied des OpenAI-Teams, erwähnte außerdem, dass sie ursprünglich geplant hatten, eine Unterstützung von bis zu einer Million Wörtern im Kontext in GPT-5 zu implementieren, insbesondere für Anwendungen im API-Bereich, jedoch nicht realisieren konnten, da die Anforderungen an GPUs zu groß waren.
Die Unterstützung von 1 Mio. Wörtern im Kontext bei Anthropic führt direkt zu einer Konkurrenz mit Google Gemini und stellt damit Druck auf OpenAI dar, seine Produktstrategie neu zu überdenken.
Wichtige Punkte:
🆕 Das Claude Sonnet4-Modell von Anthropic unterstützt nun bis zu einer Million Kontextwörter und erhöht die Entwicklungsflexibilität erheblich.
💰 Ein neuer Preismodell wurde eingeführt, wobei die Kosten je nach Eingabewörtern unter oder über 200.000 variieren. Entwickler können durch Batch-Verarbeitung die Kosten senken.
🤖 OpenAI zeigt Interesse an der Nachfrage nach langen Kontextfenstern und könnte in Zukunft seine Produktstrategie anpassen, um dem Wettbewerb zu begegnen.