Meta annonce le lancement d'un accès anticipé à ses fonctionnalités d'IA multimodale, qui seront intégrées aux lunettes intelligentes Meta Ray-Ban. Ces fonctionnalités permettront aux utilisateurs d'obtenir des informations sur ce qu'ils voient et entendent via la caméra et le microphone des lunettes.

Mark Zuckerberg a présenté les fonctionnalités de l'IA multimodale en demandant aux lunettes de suggérer une tenue vestimentaire pour un pantalon, et en utilisant l'assistant IA pour traduire du texte et afficher des légendes d'images.

Le directeur technique de Meta a également démontré d'autres fonctionnalités des lunettes, telles que la demande d'ajout de légendes, de traduction et de résumé de photos.

Cette phase de test sera limitée à un petit nombre d'utilisateurs aux États-Unis.