Kürzlich kündigte Meituan einen großen Inferenzmodell an, das auf einer Architektur der gemischten Experten basiert – LongCat-Flash-Thinking. Dieser neue Modell hat eine Parameteranzahl von 56 Milliarden und ist beeindruckend! Doch am meisten überraschend ist, dass er je nach Kontextbedarf zwischen 18,6 und 31,3 Milliarden Parameter aktivieren kann, im Durchschnitt etwa 27 Milliarden Parameter. Diese flexible Gestaltung ermöglicht es dem Modell, sich in verschiedenen Aufgaben gut zu schlagen, insbesondere bei logischer Schlussfolgerung, mathematischen Berechnungen und Programmierung.

image.png

Laut offiziellen Daten von Meituan wurde LongCat-Flash-Thinking in einer Reihe von Benchmark-Tests mit anderen führenden Modellen verglichen. Bei der mathematischen Schlussfolgerung, beispielsweise bei den Tests MATH500 und AIME25, zeigte sich dieses Modell bemerkenswert und behauptete sogar, dass mit native Tools die Token-Kosten um 64,5 % reduziert werden können, wobei immer noch eine Top-Genauigkeit erreicht wird. Darüber hinaus zeigte sich auch in Bereichen wie allgemeine Schlussfolgerung (GPQA-Diamond), Code-Generierung (LiveCodeBench, OJBench) und formaler Theorembeweis (MiniF2F-Test) eine Leistung, die nahe am Branchenstandard liegt.

image.png

Die Gewichte des LongCat-Flash-Thinking-Modells wurden unter der MIT-Lizenz geöffnet, sodass Entwickler nun frei damit arbeiten und forschen können. Der offizielle Bereich bietet auch detaillierte Chat-Vorlagen an und hat eine eigene Chat-Website online gestellt, um Nutzern die Interaktion und Praxis zu erleichtern.

LongCat-Flash-Thinking ist nicht nur ein großes AI-Modell, sondern auch ein wichtiger Versuch von Meituan im Bereich der KI-Forschung. Seine herausragende Leistungsfähigkeit und seine flexible Architektur werden neue Möglichkeiten für zukünftige Anwendungsentwicklung und Forschung bieten.

Offizielle Website: https://longcat.chat/