Meta ha anunciado una prueba de acceso anticipado a sus funciones de IA multimodal, que se integrarán en las gafas inteligentes Meta Ray-Ban. Estas funciones permitirán a los usuarios saber qué ven y oyen a través de la cámara y el micrófono de las gafas.

Mark Zuckerberg mostró las funciones de IA multimodal preguntando a las gafas qué pantalones le combinarían, y pidiendo al asistente de IA que tradujera texto y mostrara descripciones de imágenes.

El director de tecnología de Meta demostró otras funciones de las gafas, incluyendo solicitar al asistente que agregue subtítulos, traduzca y resuma fotos.

La prueba estará limitada a un pequeño grupo de personas en Estados Unidos.