Meta hat kürzlich erstmals detaillierte Informationen zu den Hardwaretechnologien seiner Forschungsbrillen Aria Gen2 enthüllt – dies ist die umfassendste technische Analyse des Geräts seit dessen Veröffentlichung im Februar dieses Jahres. Im Vergleich zum ersten Modell aus dem Jahr 2020 hat Aria Gen2 eine umfassende technische Verbesserung erfahren.

Radikale Verbesserungen in der Hardwaregestaltung

Die neue Generation von Brillen wiegt zwischen 74 und 76 Gramm und bietet acht verschiedene Rahmenmodelle, um unterschiedlichen Gesichtsformen gerecht zu werden. Die faltbaren Bügel verbessern die Portabilität, und die Batteriedauer von 6 bis 8 Stunden deckt den Bedarf für einen ganzen Tag ab.

Die herausragendste Verbesserung bei Aria Gen2 ist die Verdopplung der Computer-Vision-Kameras von zwei auf vier. Das neu eingebaute Global-Shutter-Sensor-System ermöglicht es, alle Pixel gleichzeitig zu belichten, wodurch das Problem der Bewegungsunschärfe bei schnellen Bewegungen vollständig gelöst wurde.

Das HDR-Dynamikbereichsspektrum ist von den Anfangswerten von 70 Dezibel auf 120 Dezibel gestiegen, sodass das Gerät gleichzeitig sehr helle und sehr dunkle Bereiche eines Szenens klar erfassen kann. Der Stereowinkel zwischen den Hauptkameras ist von 35 auf 80 Grad gesteigert worden, was die Genauigkeit der Tiefenmessung deutlich erhöht hat.

Innovative Sensortechnologie

Meta hat drei entscheidende Sensoren für Aria Gen2 hinzugefügt. Der kalibrierte Umgebungslichtsensor kann nicht nur unterschiedliche Lichtquellen unterscheiden, sondern auch UV-Modus verwenden, um Sonnenlicht von künstlichem Licht zu erkennen, um intelligente Anpassungen der Kamerasetzung zu ermöglichen.

Der bemerkenswerteste Fortschritt ist der integrierte Berührungs-Mikrofon-Sensor in der Nasenstütze, der Benutzerstimmen über Vibrationen in der Nase aufnimmt. Diese Technologie basiert auf struktureller Schallleitung statt Luftübertragung und funktioniert selbst in lauten Umgebungen problemlos. Windkanaltests haben gezeigt, dass der Berührungs-Mikrofon-Sensor sogar Flüstern erkennen kann, wenn konventionelle Mikrofone völlig ausfallen.

Massiv verstärkte KI-Verarbeitungsfähigkeiten

Aria Gen2 nutzt einen spezialisierten Kopplerprozessor zur maschinellen Lernen am Gerät. Alle Maschinenwahrnehmungsalgorithmen laufen direkt auf den Brillen. Das visuelle Inertiale Odometersystem kombiniert Kamerabilder mit Bewegungssensordaten, um eine genaue Positionierung in sechs Freiheitsgraden zu erreichen.

Das Gerät verfügt außerdem über volle Augenverfolgungsfunktionen, die Aufmerksamkeitspunkte, Konvergenzpunkte, Blinzeln und die Pupillengröße messen können. Die 3D-Fingerverfolgung kann in Echtzeit die Gelenkpositionen der Finger rekonstruieren und legt damit die Grundlage für zukünftige AR-Interaktionen.

Aria Gen2 verwendet SubGHz-Radio-Technologie, um eine Multidevicesynchronisation mit einer Präzision im Millisekundenbereich zu erreichen. Meta behauptet, dass diese hardwarebasierte Synchronisationsmethode gegenüber dem softwarebasierten Vorgehen der Vorversion eine erhebliche Verbesserung in der Präzision bietet.

Forschungsplan für 2025

Meta wird das gesamte Jahr über Anträge für den Zugang zu Aria Gen2 öffnen. Interessierte Forscher können sich registrieren, um Zugang zu erhalten. Das Unternehmen plant, interaktive Demos auf der CVPR2025 Konferenz vom 11. bis 15. Juni vorzustellen.

Seit dem Start des Projekts im Jahr 2020 hat das Aria-Projekt mehrere Computer-Vision- und Roboterdatensätze generiert, darunter Ego-Exo4D. Meta nutzt diese erste-Person-Videodaten zur Ausbildung von AI-Assistenten mit dem Ziel, allgemeine AI-Assistenten zu entwickeln, die alltägliche Aufgaben unterstützen sollen, um sich mit Google und OpenAI in der AI-Assistenten-Branche zu messen.