OLMo-2-1124-7B-DPO est un grand modèle linguistique développé par l'Allen Institute for AI. Il a été finement ajusté par supervision sur un ensemble de données spécifique, puis entraîné avec DPO. Ce modèle vise à fournir des performances élevées sur diverses tâches, notamment la conversation, la résolution de problèmes mathématiques et la génération de texte. Il est basé sur la bibliothèque Transformers, prend en charge PyTorch et est publié sous licence Apache 2.0.