Ce produit, basé sur un modèle de diffusion, permet de générer des animations de personnages sur une séquence de mouvements 3D à partir d'une seule image. Ses composants principaux incluent l'apprentissage de connaissances a priori sur les parties invisibles du corps et des vêtements, et le rendu de nouvelles poses corporelles avec des vêtements et des textures appropriés. Nous avons entraîné le modèle dans l'espace des cartes de textures pour le rendre invariant aux poses et aux points de vue, ce qui le rend plus efficace. De plus, nous avons développé un pipeline de rendu basé sur la diffusion, contrôlé par la pose 3D du corps humain, capable de produire des rendus de personnages réalistes. Notre méthode permet de générer des séquences d'images conformes aux objectifs de pose 3D et visuellement similaires à l'image d'entrée. Par ailleurs, le contrôle 3D permet de générer diverses trajectoires de caméra synthétiques pour le rendu des personnages. Les expériences montrent que notre méthode permet de générer des séquences d'images avec des mouvements continus et des poses complexes, surpassant les méthodes précédentes.