Wav2Lip est un projet open source visant à synchroniser avec une grande précision les mouvements de lèvres d'une personne dans une vidéo avec n'importe quelle voix cible, grâce à des techniques d'apprentissage profond. Le projet fournit le code d'apprentissage et d'inférence complet, ainsi que des modèles pré-entraînés. Il prend en charge n'importe quelle identité, voix et langue, y compris les visages CGI et les voix synthétiques. La technologie derrière Wav2Lip repose sur l'article 'A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild', publié à ACM Multimedia 2020. Le projet inclut également une démonstration interactive et un notebook Google Colab pour faciliter la prise en main. De plus, il propose de nouveaux benchmarks et indicateurs d'évaluation fiables, ainsi que des instructions sur leur calcul, comme décrit dans l'article.