Wav2Lipは、深層学習技術を用いて、ビデオ中の人物の唇の動きを任意の目標音声と高精度に同期させることを目指したオープンソースプロジェクトです。本プロジェクトは、完全なトレーニングコード、推論コード、および事前学習済みモデルを提供しており、CGI顔や合成音声を含む、あらゆる人物、音声、言語をサポートしています。Wav2Lipの基盤技術は、ACM Multimedia 2020で発表された論文『A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild』に基づいています。プロジェクトは、インタラクティブなデモとGoogle Colabノートブックも提供しており、ユーザーは簡単に使用を開始できます。さらに、新規かつ信頼性の高い評価基準と指標、論文におけるそれらの算出方法についても提供しています。