A Meta anunciou recentemente três novos recursos para seus óculos inteligentes Ray-Ban: IA em tempo real, tradução em tempo real e Shazam. Atualmente, os recursos de IA em tempo real e tradução em tempo real estão disponíveis apenas para membros do programa de acesso antecipado da Meta, enquanto o recurso Shazam está disponível para todos os usuários nos EUA e Canadá.
Os recursos de IA em tempo real e tradução em tempo real foram anunciados pela primeira vez no Meta Connect 2024, no início deste ano. A IA em tempo real permite que os usuários conversem naturalmente com o assistente de IA da Meta enquanto continuam a observar o ambiente ao redor. Por exemplo, enquanto você navega pela seção de produtos frescos de um supermercado, teoricamente, você pode pedir ao IA da Meta para recomendar receitas com base nos ingredientes que você está vendo. A Meta afirma que, com uma carga completa, os usuários podem usar o recurso de IA em tempo real por aproximadamente 30 minutos.

Enquanto isso, o recurso de tradução em tempo real permite que os óculos traduzam a fala em tempo real entre inglês e espanhol, francês ou italiano. Você pode optar por ouvir a tradução pelos próprios óculos ou ver o texto traduzido no seu celular. Você precisa baixar os pares de idiomas antecipadamente e especificar o idioma que você e seu interlocutor estão usando.
O recurso Shazam é mais direto. Quando você ouve uma música, basta avisar a IA da Meta, e ela deve ser capaz de dizer qual música está tocando. O CEO da Meta, Mark Zuckerberg, demonstrou esse recurso em um vídeo no Instagram.
Se esses novos recursos ainda não estão aparecendo em seus óculos, certifique-se de que seus óculos estejam executando o software v11 e que seu aplicativo Meta View esteja executando a versão v196. Se você ainda não se inscreveu no programa de acesso antecipado, pode se inscrever através deste site.
Esta atualização ocorre em um momento em que as grandes empresas de tecnologia estão usando assistentes de IA como um ponto de venda central para óculos inteligentes. Na semana passada, o Google lançou o Android XR, um novo sistema operacional projetado para óculos inteligentes, destacando seu assistente de IA Gemini como um aplicativo essencial. Ao mesmo tempo, o CTO da Meta, Andrew Bosworth, escreveu em um blog que "2024 foi um ano de grande progresso para os óculos com IA". Bosworth também afirmou que os óculos inteligentes podem ser a melhor forma de dispositivos "verdadeiramente nativos de IA" e a primeira categoria de hardware a ser totalmente definida pela IA desde o início.
Em resumo, a atualização de recursos dos óculos inteligentes da Meta demonstra ainda mais o enorme potencial da IA em dispositivos vestíveis, e a competição entre as grandes empresas de tecnologia impulsionará ainda mais o rápido desenvolvimento da tecnologia de óculos inteligentes.