Meta Llama 3.1 ist eine Reihe von vorab trainierten und anweisungen-feingetunten, mehrsprachigen großen Sprachmodellen (LLMs) in drei Größen (8B, 70B und 405B Parameter). Sie sind speziell für mehrsprachige Dialoganwendungen optimiert und zeigen hervorragende Ergebnisse in branchenüblichen Benchmarks. Das Modell verwendet eine optimierte Transformer-Architektur und wurde durch überwachtes Feintuning (SFT) und Reinforcement Learning from Human Feedback (RLHF) weiter an menschliche Präferenzen angepasst, um Nützlichkeit und Sicherheit zu gewährleisten.