Es wurde berichtet, dass das KI-System von Google im Juni mehr als 980 Billionen Token verarbeitet hat, was mehr als doppelt so viel ist wie im Mai. Laut Logan Kilpatrick, Produktmanager bei Google, und Demis Hassabis, CEO von DeepMind, sind Token kurze Textabschnitte, die von KI-Modellen verwendet werden, um eine Antwort zu verstehen oder zu generieren.
Dieser deutliche Anstieg spiegelt nicht nur eine Steigerung der Nutzung von Googles KI wider, sondern vor allem auch die effiziente Anwendung solcher Inferenzmodelle wie Gemini Flash 2.5. Gemini Flash 2.5 kann mehr Token verarbeiten und liefert dadurch präzisere Antworten.
Laut einem Bericht von Artificial Analysis hat sich die Anzahl der Token, die bei Flash 2.5 verwendet werden, gegenüber der vorherigen Version um etwa 17 Mal erhöht. Obwohl die Kosten für die Ausführung von Inferenzaufgaben um das 150-Fache gestiegen sind, ist die Fähigkeit, große Mengen an Informationen zu verarbeiten, zweifellos der Schlüssel für diesen Datenanstieg.