Meta a publié FACET, un outil de référence pour l'IA visant à évaluer l'équité des modèles d'IA. Cet outil comprend 32 000 images et 50 000 étiquettes humaines, permettant d'évaluer l'équité des modèles dans les tâches de classification, de détection, de segmentation et de localisation sur différents attributs démographiques. L'utilisation de FACET peut aider les chercheurs et les praticiens à mieux comprendre les biais présents dans leurs propres modèles et à surveiller l'impact des mesures d'atténuation mises en place. Des tests effectués sur l'algorithme DINOv2 de Meta à l'aide de FACET ont révélé certains biais, notamment des biais envers certaines représentations de genre et une tendance à identifier les photos de femmes comme des "infirmières". Meta reconnaît que FACET pourrait ne pas saisir pleinement les concepts et les groupes démographiques du monde réel et fournit un outil de navigation de données en ligne à l'intention des développeurs.