Le domaine de la génération vidéo connaît une avancée révolutionnaire. HeyGen, une entreprise d'intelligence artificielle, vient de lancer un système de contrôle des mouvements de personnages numériques qui permet pour la première fois de contrôler les mouvements corporels importants d'un avatar virtuel. Cette percée technologique permet aux personnages numériques non seulement d'exécuter des micro-expressions faciales de base, mais aussi d'effectuer des mouvements corporels complexes tels que jouer d'un instrument de musique ou danser, voire de contrôler précisément les articulations des doigts pour réaliser des gestes spécifiques.

Dans la vidéo de démonstration, le mouvement naturel de la prise d'un bouquet de fleurs par le personnage virtuel a suscité l'intérêt du secteur. Bien que les démonstrations actuelles se concentrent principalement sur la manipulation d'un seul objet, le système sous-jacent possède déjà un cadre d'interaction avec les objets. Les analystes soulignent que cette fonctionnalité a un potentiel d'application pour la présentation de produits, et que les futures itérations pourraient dépasser les limites des formes d'affichage actuelles.
Cette mise à niveau s'inscrit dans la continuité de l'innovation de HeyGen dans le domaine des personnages numériques. La technologie de génération d'avatars virtuels lancée précédemment permet une intégration transparente avec les scènes générées par Sora. La nouvelle version, grâce à l'intégration d'un algorithme de contrôle cinématique, réduit le délai de réponse des mouvements à moins de 12 millisecondes. Les créateurs peuvent désormais utiliser une interface de réglage paramétrique pour contrôler au pixel près l'angle des articulations et la trajectoire des mouvements du personnage numérique, remplaçant ainsi le processus de capture de mouvement fastidieux et coûteux du cinéma traditionnel.
Il est important de noter que la solution de personnage virtuel génératif adoptée par HeyGen se distingue nettement des techniques traditionnelles de clonage numérique. Le système ne dépend pas des données de modélisation de personnes réelles, mais génère de manière autonome des avatars virtuels physiquement plausibles grâce à un réseau neuronal profond. Le livre blanc technique indique que cette architecture permet de générer en temps réel plus de 200 données de points d'articulation, et qu'en combinaison avec un algorithme d'apprentissage par renforcement, les mouvements du personnage numérique présentent des caractéristiques de biomécanique.
Les données du secteur montrent que l'utilisation de ce système améliore l'efficacité de la production vidéo d'environ 47 % et réduit le coût de production de scènes dynamiques à 1/8 de celui des méthodes traditionnelles. L'équipe d'ingénieurs a révélé qu'elle développe actuellement un système de contrôle de troisième génération qui intégrera une simulation de retour tactile, et prévoit de mettre en œuvre la fonctionnalité d'interaction physique entre le personnage numérique et les objets virtuels d'ici fin 2024.
Adresse du site web : https://app.heygen.com/





