Nvidia und Microsoft haben gemeinsam den AI Foundry Service vorgestellt. Dieser bietet Unternehmen maßgeschneiderte Lösungen für generative KI-Modelle.
Die Zusammenarbeit umfasst auch die Einführung von H100 und H200 Tensor Core GPU-Instanzen. Die H100 Instanzen bieten 4P KI-Rechenleistung und 188 GB HBM3-Speicher. Die H200 Instanzen ermöglichen das Inferencing größerer Modelle und zeichnen sich durch deutlich verbesserte Speicherkapazität und Bandbreite aus.
Zusätzlich hat Microsoft die NCC H100 v5 Instanz vorgestellt, die Azure-Kunden beschleunigte Leistung mit Schutz der Vertraulichkeit und Integrität bietet.