Recentemente, a Meta divulgou detalhes técnicos completos sobre o hardware de sua segunda geração de óculos de realidade aumentada Aria Gen2, que é a análise técnica mais detalhada do dispositivo desde seu lançamento em fevereiro deste ano. Comparado ao modelo inicial de 2020, o Aria Gen2 apresenta saltos tecnológicos abrangentes.

Design de Hardware Completamente Atualizado

O novo modelo pesa entre 74 e 76 gramas e oferece oito designs diferentes de armações para se adequar a diversos tipos de rosto. O design dobrável das hastes aumenta a portabilidade, e a bateria fornece até 6 a 8 horas de autonomia, suficiente para uso durante todo o dia.

O destaque da atualização do Aria Gen2 são os quatro sensores de visão computacional, em comparação com dois no modelo anterior. Os novos sensores com porta global capturam cada pixel ao mesmo tempo, eliminando completamente distorções de movimento durante movimentos rápidos.

O intervalo dinâmico HDR foi ampliado de 70 decibéis para 120 decibéis, permitindo que o dispositivo capture áreas extremamente claras e escuras com clareza. A sobreposição estereoscópica entre as câmeras principais também aumentou de 35 graus para 80 graus, melhorando significativamente a precisão da medição de profundidade.

Tecnologias de Sensor Inovadoras

A Meta adicionou três sensores críticos ao Aria Gen2. O sensor de luz ambiente calibrado não apenas diferencia diferentes fontes de iluminação, mas também possui um modo ultravioleta para identificar luz solar versus luz artificial, permitindo ajustes inteligentes automáticos nas configurações da câmera.

O destaque é o microfone de contato integrado no apoio nasal, que capta sons do usuário através de vibrações nas cavidades nasais. Esta tecnologia baseada na condução estrutural do som, em vez de transmissão pelo ar, continua funcionando normalmente em ambientes barulhentos. Testes mostraram que, quando os microfones tradicionais falham completamente, o microfone de contato ainda consegue capturar sussurros.

Maior Capacidade de Processamento por IA

O Aria Gen2 utiliza um processador de co-processamento dedicado para aprendizado de máquina local, com todos os algoritmos de percepção de máquinas sendo executados diretamente nas lentes. O sistema de odometria visual-inercial funde imagens da câmera e dados de sensores de movimento, proporcionando rastreamento preciso de seis graus de liberdade da posição exata.

O dispositivo também possui funcionalidade completa de rastreamento ocular, capaz de detectar pontos de visão, calcular pontos de fusão, rastrear piscadas e medir o tamanho das pupilas. A função de rastreamento de mãos em 3D pode reconstruir em tempo real as posições dos nós dos dedos, formando a base para futuras interações de AR.

O Aria Gen2 usa tecnologia de rádio SubGHz, alcançando uma precisão de sincronização em menos de um milissegundo entre múltiplos dispositivos. A Meta afirma que este método de sincronização baseado em hardware tem uma precisão muito maior do que a solução baseada em software da geração anterior.

Plano de Pesquisa de 2025

A Meta abrirá as inscrições para pesquisadores interessados em usar o Aria Gen2 durante todo o ano. A empresa planeja demonstrar uma demonstração interativa na conferência CVPR2025 de 11 a 15 de junho.

Desde o início do projeto em 2020, o projeto Aria gerou vários conjuntos de dados de treinamento para visão computacional e robótica, incluindo o Ego-Exo4D. A Meta está usando esses vídeos em primeira pessoa para treinar assistentes de IA, com o objetivo de criar assistentes de IA universais que possam ajudar em tarefas diárias, competindo com Google e OpenAI no campo dos assistentes de IA.