Der Unternehmen Meta hat heute offiziell sein VR-Scanning-Tool Meta Horizon Hyperscape Capture (Beta) veröffentlicht, das Quest3-Headsets-Nutzern ermöglicht, die reale Welt zu scannen und diese Räume in der virtuellen Realität mit Fotorealistik wiederzugeben. Die Einführung dieses Tools erfüllt den Versprechen von Meta, das auf der Connect-Messe 2024 gegeben wurde.
Von der Demo zur Realität: Nutzeranwendung der Gauss-Splatting-Technologie
Im letzten Jahr zeigte Meta auf der Connect 2024-Messe mit einer Demo-Anwendung namens „Horizon Hyperscape Demo“ die Stärke der Gauss-Splatting-Technologie, bei der realistische Szenen in der VR wiedergegeben werden. Jetzt ist diese Technologie nicht mehr nur ein Demonstrationsobjekt, sondern wird auch für gewöhnliche Nutzer zugänglich.
Das Erstellen von Horizon Hyperscape-Szenen erfolgt in drei Schritten, wobei die ersten beiden Schritte auf dem Quest3-Headset durchgeführt werden und der dritte Schritt auf Meta's Servern abgeschlossen wird.
Szenengittergenerierung: Zunächst müssen Benutzer das Quest3 oder Quest3S-Headset tragen und den Raum umschauen, um ein Szenengitter zu generieren. Dieser Prozess ähnelt dem Vorgang beim Einrichten der Mixed Reality-Funktion und dauert normalerweise zwischen 10 und 30 Sekunden.
Detaillierte Scans: Danach müssen die Benutzer den Raum durchlaufen und das Headset an alle Oberflächen heranbringen, um 3D-Gitter zu entfernen und Details zu erfassen. Dieser detaillierte Prozess ist derzeit der zeitaufwendigste Teil und kann einige Minuten dauern.
Cloud-Verarbeitung und Übertragung: Nach Abschluss des Scans auf dem Gerät werden die Daten an Meta's Server übertragen. Nach 2 bis 4 Stunden Verarbeitung erhalten die Benutzer eine Benachrichtigung und können dann die endgültige VR-Szene betrachten und erleben.
Cloud-Streaming und Erfahrungsdetails
Der Kern von Horizon Hyperscape ist die Gauss-Splatting-Technologie, die dieselbe Technik ist wie in der Demo-Anwendung „Horizon Hyperscape Demo“ aus dem letzten Jahr. Die gerenderten Szenen werden über Meta’s „Project Avalanche“-Technologie aus der Cloud-Server gestreamt, was bedeutet, dass alle komplexen Berechnungen in der Cloud stattfinden, nicht auf dem Gerät.