Während der Google I/O Developer Conference am 20. Mai 2025 stellte Google DeepMind das neu entwickelte Gemini2.5Pro Deep Think Modus offiziell vor. Dieses experimentelle, erweiterte Inferenzmodell hebt ein neues Maß für die Verarbeitung komplexer Aufgaben durch KI fest. Der Deep Think Modus erreicht auf den Gebieten der Mathematik, Codierung und multimodalen Inferenz durch parallele Inferenztechnologien Spitzenleistungen im Branchenvergleich.

Parallele Inferenztechnologie: Erhebliche Verbesserung der Leistung bei komplexen Aufgaben

Der Deep Think Modus nutzt fortschrittliche parallele Inferenzmethoden, die es dem Modell ermöglichen, mehrere Annahmenpfade zu erforschen, bevor eine Antwort generiert wird. Dadurch wird die Genauigkeit und Tiefe der Antworten signifikant verbessert. Google berichtet, dass dieser Modus bei der USAMO-Mathematikolympiade 2025 herausragende Ergebnisse erzielte, bei der LiveCodeBench-Referenztest für konkurrenzfähige Programmierung hervorragte und in den multimodalen Inferenztests MMU mit einem beeindruckenden 84%-Anteil bestand. Diese Ergebnisse zeigen, dass der Deep Think Modus besonders gut für schwierige mathematische und programmierbare Probleme geeignet ist, die mehrstufige Raisonnement erfordern, und dabei den Wettbewerbern wie OpenAI o1-pro ebenbürtig oder sogar überlegen ist.

image.png

Modulare Steuerung und entwicklerfreundliches Design

Der Deep Think Modus führt die Funktion "Denkbudget (Thinking Budget)" ein, die es Entwicklern ermöglicht, durch Anpassung der Anzahl der Token während des Inferenzprozesses die Balance zwischen Antwortqualität, Latenz und Kosten flexibel zu steuern. Diese Funktion macht Gemini2.5Pro in der Lage, eine Vielzahl von Szenarien von schnellen Prototypen bis hin zu tiefgreifenden Analysen abzudecken. Darüber hinaus hat Google in den APIs von Gemini und Vertex AI die Funktion "Denkschlussfolgerungen (Thought Summaries)" hinzugefügt, um den Inferenzprozess des Modells in einer klaren Form anzuzeigen, was die Fehlerbehebung und Optimierung der Interaktion erleichtert.

Initial für vertrauenswürdige Tester verfügbar, Sicherheit steht im Vordergrund

Bisher ist der Deep Think Modus nur über die Gemini-API für vertrauenswürdige Tester verfügbar. Google betont, dass zusätzliche Sicherheitsprüfungen durchgeführt werden, um die Robustheit des Modells vor breiter Verbreitung sicherzustellen. Diskussionen im Netz zeigen, dass Entwickler das Inferenzvermögen dieses Modells stark erwarten, aber auch darauf hinweisen, dass dessen tatsächliche Performance weiterhin validiert werden muss. Google plant, in den nächsten Wochen die Verfügbarkeit über Google AI Studio und Vertex AI schrittweise auszubauen, wobei eine breitere Bereitstellung im Juni erwartet wird.

Die Einführung des Gemini2.5Pro Deep Think Modus markiert einen bedeutenden Durchbruch für Google im Bereich der AI-Inferenz. Die parallelen Inferenzmethoden und modulare Steuerung bieten Entwicklern effizientere Werkzeuge. Im Vergleich zu traditionellen, einzigen Inferenzpfaden bietet der innovative Ansatz des Deep Think Modus potenziell neue Trends in akademischen Forschung, Softwareentwicklung und Datenanalyse. AIbase wird die tatsächliche Anwendungseffizienz und Nutzerfeedbacks kontinuierlich verfolgen und deren Beitrag zur Grenzerweiterung der AI-Technologie erwartungsvoll verfolgen.