ControlMM ist ein Framework zur Generierung von Ganzkörperbewegungen mit einer plug-and-play-fähigen multimodalen Steuerung. Es generiert robuste Bewegungen in verschiedenen Bereichen, darunter Text-zu-Bewegung, Sprache-zu-Geste und Musik-zu-Tanz. Das Modell zeichnet sich durch seine Steuerbarkeit, Sequenzialität und die Plausibilität der Bewegungen aus und bietet eine neue Lösung für die Bewegungsgenerierung im Bereich der künstlichen Intelligenz.