Meta anuncia el lanzamiento de Ego-Exo4D, un conjunto de datos multimodales que impulsará la investigación en aprendizaje de video y percepción multimodales. Los colaboradores incluyen Meta FAIR, Project Aria y 15 universidades. El conjunto de datos incluye a más de 800 profesionales de diversos campos, como deportes, música y cocina.

Proporciona datos multimodales ricos que respaldan las futuras aplicaciones de IA. Se incluyen cuatro tareas de referencia que abarcan la autoidentificación, la estimación de habilidades, la relación yo-mundo exterior y la postura propia, lo que fomenta el esfuerzo comunitario.