O campo da geração de vídeo está testemunhando uma revolução. A HeyGen, uma empresa de inteligência artificial, lançou recentemente um sistema de controle de movimento para avatares digitais que permite, pela primeira vez, a manipulação de movimentos corporais amplos de personagens virtuais. Essa inovação tecnológica permite que os avatares digitais não apenas executem microexpressões faciais básicas, mas também realizem ações complexas como tocar instrumentos musicais, dançar e até mesmo controlar articulações dos dedos para executar gestos específicos.

QQ20250124-142138.jpg

Em um vídeo de demonstração, o movimento natural de um avatar digital segurando uma flor chamou a atenção da indústria. Embora a demonstração atual se concentre principalmente na manipulação de um único objeto, a tecnologia subjacente já possui uma estrutura para interação com objetos. Analistas apontam que esse recurso já tem potencial para aplicações em demonstrações de produtos, e iterações futuras podem superar as limitações das formas de apresentação atuais.

Esta atualização continua o caminho inovador da HeyGen no campo dos avatares digitais. A tecnologia de geração de avatares virtuais lançada anteriormente já permite a integração perfeita com cenários gerados pelo Sora. A nova versão, por meio da introdução de um algoritmo de controle cinemático, reduziu o atraso na resposta de movimento para menos de 12 milissegundos. Os criadores agora podem usar uma interface de ajuste paramétrico para controlar o ângulo das articulações e a trajetória do movimento do avatar digital em nível de pixel, substituindo o processo de captura de movimento demorado e trabalhoso do cinema tradicional.

É importante notar que a solução de avatar virtual generativa usada pela HeyGen se diferencia claramente da tecnologia tradicional de clonagem digital. O sistema não depende de dados de modelagem de pessoas reais, mas sim gera autonomamente avatares virtuais com física realista por meio de uma rede neural profunda. O white paper técnico mostra que essa arquitetura suporta a geração em tempo real de dados de mais de 200 pontos de articulação, e, em conjunto com algoritmos de aprendizado por reforço, permite que os movimentos do avatar digital apresentem características semelhantes à biomecânica.

Dados do setor mostram que o uso deste sistema aumenta a eficiência da produção de vídeo em cerca de 47% e reduz o custo de produção de cenas dinâmicas para 1/8 do método tradicional. A equipe de engenheiros revelou que o terceiro sistema de controle em desenvolvimento integrará a simulação de feedback tátil, com o objetivo de implementar a interação física entre o avatar digital e objetos virtuais até o final de 2024.

Endereço do site: https://app.heygen.com/