Meta ha anunciado recientemente tres nuevas funciones para sus gafas inteligentes Ray-Ban: IA en tiempo real, traducción en tiempo real y Shazam. Actualmente, las funciones de IA en tiempo real y traducción en tiempo real están disponibles solo para los miembros del programa de acceso anticipado de Meta, mientras que la función Shazam está disponible para todos los usuarios en Estados Unidos y Canadá.
Las funciones de IA en tiempo real y traducción en tiempo real se presentaron por primera vez en la conferencia Meta Connect 2024 a principios de este año. La IA en tiempo real permite a los usuarios mantener una conversación natural con el asistente de IA de Meta mientras las gafas siguen observando el entorno. Por ejemplo, mientras exploras la sección de productos frescos en un supermercado, teóricamente podrías pedirle al asistente de IA de Meta que te recomiende recetas basadas en los ingredientes que estás viendo. Meta indica que con una carga completa, los usuarios pueden usar la función de IA en tiempo real durante aproximadamente 30 minutos.

Por otro lado, la función de traducción en tiempo real permite a las gafas traducir voz en tiempo real entre inglés, español, francés e italiano. Puedes optar por escuchar la traducción a través de las gafas o verla en tu teléfono. Debes descargar previamente los pares de idiomas y especificar el idioma que usas tú y tu interlocutor.
La función Shazam es más directa. Cuando escuchas una canción, solo tienes que indicárselo al asistente de IA de Meta, y debería poder decirte qué canción se está reproduciendo. El CEO de Meta, Mark Zuckerberg, demostró esta función en un video de Instagram.
Si tus gafas aún no muestran estas nuevas funciones, asegúrate de que estén ejecutando el software v11 y que tu aplicación Meta View esté ejecutando la versión v196. Si aún no te has unido al programa de acceso anticipado, puedes solicitarlo a través de este sitio web.
Esta actualización llega en un momento en que los gigantes tecnológicos están presentando los asistentes de IA como el punto central de venta de sus gafas inteligentes. La semana pasada, Google lanzó Android XR, un nuevo sistema operativo diseñado para gafas inteligentes, haciendo hincapié en su asistente Gemini AI como una aplicación estrella. Simultáneamente, el director de tecnología de Meta, Andrew Bosworth, escribió en un blog que "2024 ha sido un año de grandes avances para las gafas con IA". Bosworth también afirmó que las gafas inteligentes podrían ser la mejor forma de dispositivos "verdaderamente nativos de IA", y la primera categoría de hardware definida completamente por la IA desde el principio.
En resumen, la actualización de funciones de las gafas inteligentes de Meta demuestra aún más el enorme potencial de la IA en los dispositivos portátiles, y la competencia entre los gigantes tecnológicos impulsará aún más el rápido desarrollo de la tecnología de gafas inteligentes.