Am 9. April 2025 kündigte Google Cloud auf der Google Cloud Next 2025 Konferenz eine bedeutende Partnerschaft an: Die Kombination seines Distributed Cloud Services, Google Distributed Cloud (GDC), mit dem Gemini KI-Modell und der Blackwell-Architektur von NVIDIA, um Unternehmen leistungsstarke, lokalisierte KI-Lösungen zu bieten. Diese Zusammenarbeit zielt darauf ab, die Bedürfnisse von Branchen mit strengen Anforderungen an Datenhoheit und Sicherheit zu erfüllen und die Anwendung der „Agentic AI“-Technologie in lokalen Umgebungen voranzutreiben.
Neuesten Informationen zufolge wird Google Distributed Cloud die Ausführung des Gemini-Modells in unternehmenseigenen Rechenzentren unterstützen. Dies wird durch die Zusammenarbeit mit NVIDIA ermöglicht, insbesondere durch die Nutzung des kürzlich vorgestellten Blackwell GPU-Systems von NVIDIA, das Hochleistungsrechenkapazität bietet. Dell, als wichtiger Partner, wird die Hardware-Unterstützung für diese Lösung bereitstellen und sicherstellen, dass Unternehmen bei der lokalen Bereitstellung sowohl die Flexibilität der Public Cloud genießen als auch die volle Kontrolle über ihre Daten behalten. Bemerkenswert ist, dass die Lösung nicht nur für vernetzte Umgebungen geeignet ist, sondern auch für vollständig isolierte „Air-Gapped“-Szenarien, die besonders für Regierungsbehörden, stark regulierte Branchen und Unternehmen mit besonderen Anforderungen an Latenz und Datenresidenz geeignet sind.
Ein Highlight dieser Zusammenarbeit ist die Integration der Confidential Computing-Technologie von NVIDIA, die sicherstellt, dass Daten und Prompts beim Verarbeiten sensibler Daten mit dem Gemini-Modell durchgängig geschützt sind – selbst für den Cloud-Anbieter nicht zugänglich. Diese Kombination aus Sicherheit und Leistung wird als entscheidender Schritt zur Entfesselung des Potenzials lokaler KI angesehen. Sachin Gupta, Vice President und General Manager für Infrastruktur und Lösungen bei Google Cloud, sagte: „Durch die Kombination des Gemini-Modells mit der bahnbrechenden Leistung und den Confidential Computing-Funktionen von NVIDIA Blackwell ermöglichen wir Unternehmen sichere Innovationen, ohne Kompromisse bei Leistung oder Benutzerfreundlichkeit eingehen zu müssen.“
Darüber hinaus plant Google Distributed Cloud die Einführung von GKE Inference Gateway, einem Tool, das mit NVIDIA Triton Inference Server und NeMo Guardrails integriert ist und die Optimierung von Inferenz-Routing und Lastausgleich unterstützt, um Unternehmen bei der effizienteren Verwaltung und Skalierung von KI-Workloads zu helfen. Diese Funktion soll im dritten Quartal 2025 in die öffentliche Vorschau gehen und mehr Unternehmen die Möglichkeit bieten, sie zu testen.
Branchenexperten sehen in dieser Zusammenarbeit einen bedeutenden Wandel in der Art und Weise, wie KI bereitgestellt wird. Lange Zeit konnten viele Unternehmen aufgrund von Cloud-basierten Bereitstellungen und Sicherheitsbedenken die Vorteile modernster KI-Technologien nicht voll ausschöpfen. Die gemeinsame Lösung von Google und NVIDIA ermöglicht es Unternehmen nun, komplexe KI-Agenten lokal auszuführen, die nicht nur Daten verstehen, sondern auch Schlussfolgerungen ziehen, handeln und sich selbst optimieren können. Dieser Trend wird als wichtiger Schritt für UnternehmenskI-Systeme hin zu „Selbstkorrektur“ und „Selbstverbesserung“ angesehen.
Die Zusammenarbeit zwischen Google Cloud und NVIDIA beschränkt sich nicht nur auf die Technologieebene, sondern spiegelt auch die gemeinsame Vision beider Unternehmen wider, KI für alle zugänglich zu machen. Durch die Bereitstellung des Gemini-Modells in lokalen Umgebungen und die Kombination mit der leistungsstarken Blackwell-Architektur soll diese Lösung neue Wachstumschancen für die Finanz-, Gesundheits- und Fertigungsindustrie schaffen und gleichzeitig strenge Compliance-Anforderungen erfüllen. In Zukunft könnte diese Zusammenarbeit, mit der Veröffentlichung weiterer Details und der Umsetzung praktischer Anwendungen, die Bereitstellung von UnternehmenskI neu gestalten.