Meta Llama 3.1 est une série de modèles linguistiques de grande taille (LLM) pré-entraînés et ajustés par instructions, disponibles en trois tailles (8B, 70B et 405B). Spécialement optimisés pour les cas d'utilisation de conversations multilingues, ils affichent d'excellentes performances sur les benchmarks sectoriels. Le modèle utilise une architecture Transformer optimisée et est encore amélioré par l'ajustement fin supervisé (SFT) et l'apprentissage par renforcement avec rétroaction humaine (RLHF) pour garantir son utilité et sa sécurité.