Heute hat Tencent Hunyuan offiziell die umfassende Aktualisierung seiner Modulmatrix bekannt gegeben, darunter die Verbesserung des旗舰-Schnelle-Gedanken-Modells Hunyuan TurboS und des Tiefen-Gedanken-Modells Hunyuan T1. Basierend auf dem TurboS-Basismodell wurde der neue visuelle Tiefenschlusselungsmodell T1-Vision sowie das End-zu-Ende-Sprachgespräcksmodell Hunyuan Voice vorgestellt.

Außerdem wurden mehrere multimodale Modelle, wie das Tencent Hunyuan 2.0, das Tencent Hunyuan 3D v2.5 und das Hunyuan-Spiel-Visionsgenerationsmodell, gleichzeitig "upgedatet". Diese Aktualisierung stärkt nicht nur Hunyuans Wettbewerbsfähigkeit im Bereich KI, sondern markiert auch einen neuen Fortschritt in der multimodalen Technologie bei Tencent.

In der "2025 Tencent Cloud AI Industry Application Summit" erklärte Tang Daosheng, Senior Executive Vice President von Tencent, dass das Hunyuan TurboS-Modell in der weltweit anerkannten Chatbot Arena-Evaluierungsplattform unter den ersten acht Positionen rangierte und somit das beste Modell nach DeepSeek in China ist. TurboS hat sich durch seine herausragenden Fähigkeiten in den Bereichen Code und Mathematik als eines der besten globalen Modelle etabliert. Diese herausragenden Leistungen sind dem innovativen Vorauswahl- und Nachtrainingstechnologien zu verdanken, was die Fähigkeit zur naturwissenschaftlichen Schlussfolgerung um über 10 % erhöht hat.

Eine weitere tiefgehende Gedankenmodelle von Tencent Hunyuan, das T1-Modell, befindet sich kontinuierlich in der Iteration und hat kürzlich eine neue Aktualisierung erfahren. Die Fähigkeiten des T1-Modells in Wettbewerbsmathematik und allgemeiner Wissensfragen haben signifikant zugenommen, wobei die Punktzahl für Wettbewerbsmathematik um 8 % gestiegen ist und die Fähigkeiten von Agents bei komplexen Aufgaben um 13 % verbessert wurden. Dies zeigt das fortlaufende technische Engagement und die Innovationskraft von Tencent im Bereich KI.

Das neu veröffentlichte T1-Vision-Modell verfügt über eine nativ integrierte Chain of Thought-Fähigkeit, unterstützt Mehrfachbilder als Eingabe und macht das Modell beim Verständnis von Bildern effizienter. Das Gesamtverhalten wurde um 5,3 % gegenüber dem vorherigen Kaskadenansatz verbessert und die Verständigungsgeschwindigkeit stieg um 50 %.

image.png

Das Hunyuan Voice-Modell erreichte eine niedrige Latenz bei Sprachgespräcken, wobei die Reaktionsgeschwindigkeit um 30 % gegenüber dem alten Modell gesteigert wurde und die Latenz auf 1,6 Sekunden reduziert wurde.

image.png

In Bezug auf multimodales Generieren führt das Hunyuan Image 2.0 die Branche mit seiner außerordentlich hohen Präzision und seiner schnellen Generierungsfähigkeit an. Außerdem hat das Hunyuan 3D v2.5-Modell in Bezug auf Generierungsfähigkeit und Kontrollierbarkeit Fortschritte erzielt und zeigt exzellente Ergebnisse in verschiedenen Generierungskategorien.

image.png

Zur besseren Bedienung aller Branchen plant Tencent Hunyuan die Einführung eines großen, roamfähigen 3D-Szenen-Generationsmodells, um Innovationen in Spielen und intelligenten Industrien zu unterstützen. Gleichzeitig setzt Hunyuan auf Open-Source-Technologie und hat bereits Bild-, Video- und 3D-Modellen vollständig öffentlich gemacht, wobei kostenlose Modelle und technischer Support für die Partner bereitgestellt werden.

Hauptpunkte:

🔹 Tencent Hunyuan aktualisiert seine Modulmatrix und bringt das visuelle Tiefenschlusselungsmodell T1-Vision und das End-zu-Ende-Sprachgespräcksmodell Hunyuan Voice heraus.

🔹 Das Hunyuan TurboS-Modell rangiert weltweit unter den ersten acht Positionen und zeigt signifikante Verbesserungen in naturwissenschaftlichen Fähigkeiten.

🔹 Tencent Hunyuan setzt sich für Open-Source-Technologie ein und unterstützt die kontinuierliche Iteration und industrielle Anwendung multimodaler Modelle.