Bei der Google I/O Developer Conference 2025 präsentierte Google die neuesten Errungenschaften in Bezug auf AI und XR-Technologie, die sich auf drei Kernbereiche konzentrieren: Erstellungswerkzeuge, Entwicklerplattformen und Benutzererlebnisse. Das neue Video-Generator-V2 „Veo3“, der Bild-Generator „Imagen4“, die brandneue XR-Plattform „Android XR“ sowie das hochwertige AI-Abonnement „AI Ultra“ waren die Hauptpunkte der Präsentation.

Als bedeutende Verbesserung von AI-Erstellungswerkzeugen kann Veo3 nativ audiomarkierte Videos erstellen, was sich von aktuellen Produkten wie OpenAI Sora unterscheidet, die derzeit keine Audiounterstützung bieten. Es ist bereits für US-Ultra-Abonnenten und Vertex AI-Unternehmenskunden verfügbar. Imagen4 bietet verbesserte Formatierung und Bilddetails und unterstützt mehrere Ausgabeformate. Beide wurden bereits in den Anwendungen Gemini, Workspace, Whisk und dem neuen AI-Filmemachungs-Plattform „Flow“ integriert.

QQ20250521-090033.png

„Flow“ vereint Szenenerstellung, Kameraverwaltung und Materialverwaltung und ermöglicht es Nutzern, AI-generierte Inhalte mit originalen Inhalten zu mischen, um vollständige Filmprozesse zu erstellen. Gleichzeitig hat Google das Musikgenerierungsmodell „Lyria“ über YouTube Shorts und Vertex AI für Musikschaffende zur Verfügung gestellt.

Für fortgeschrittene Ersteller und Unternehmen hat Google ein monatliches Abonnement „AI Ultra“ mit einem Preis von 249,99 USD eingeführt, das die Top-Dienste wie Veo3, Imagen4, Project Mariner-Agenten-Werkzeug, YouTube Premium und 30 TB Cloud-Speicher inkludiert. Außerdem gibt es eine Pro-Version als alternativen Option.

„Gemini Live“ wird bald in der Gemini-Anwendung erscheinen und ermöglichte durch Webcam und Bildschirmfreigabe realzeitliche Zusammenarbeit für Fehlerbehebung und Veranstaltungsplanung. Die Gemini-Funktionen sind auch in Chrome integriert, um Webinhalte zu analysieren und zusammenzufassen.

In Bezug auf Kommunikation wird „Google Meet“ eine neue Funktion mit künstlicher Intelligenz einführen, die Töne und Mimik imitiert und zunächst Englisch und Spanisch unterstützt. Diese Funktion ist erst für Pro- und Ultra-Nutzer verfügbar. „Gmail“ wird ebenfalls basierend auf historischen E-Mail-Daten individuelle intelligente Antworten einführen, wobei Nutzer die Berechtigung erteilen müssen.

Auf der Entwicklerseite hat der API von „Gemini“ neue Funktionen wie asynchrone Funktionen, native Audiodateien und den Tool-Kontext-Protokoll (MCP) hinzugefügt. Neue Modelle wie „Gemma3n“ (leichtgewichtiges mobiles Modell), „MedGemma“ (medizinische Anwendungen) und „SignGemma“ (Gebärden-Identifikation) erweitern weiter die AI-Modellpalette von Google.

Zur Stärkung der Glaubwürdigkeit von AI-Inhalten hat Google den SynthID-Detektor-Portal vorgestellt, das verborgene Wasserzeichen verwendet, um die AI-Generierung von Bildern, Texten, Audios und Videos zu erkennen. Mehrere Milliarden Projekte verwenden dieses Markiersystem bereits.

Schließlich hat Google einen neuen AR/MR-Plattform „Android XR“ vorgestellt, die Betriebssysteme für zukünftige XR-Geräte wie AR-Brillen und Headsets bereitstellt. In Verbindung mit der Intelligenz von „Gemini“ werden Geräte Funktionen wie Echtzeitübersetzungen, Umgebungsanalysen und Nachrichtenmanagement unterstützen. Google arbeitet bereits mit Marken wie Gentle Monster und Warby Parker zusammen und wird bis Ende des Jahres ein SDK veröffentlichen.

Die Präsentation zeigt, dass Google die AI-Fähigkeiten tief in Produkte, Inhaltserstellung und Endgeräte integriert und einen Schritt weiter geht, um ein AI-native Ökosystem aufzubauen.