Llama 4启动训练 Meta科学家揭秘Llama 3.1训练背后的故事
Meta的科学家Thomas Scialom揭示了Llama3.1的开发秘诀,其405B的参数规模是为了对抗GPT-4。通过增加训练的token数而非架构,Llama3.1实现了模型规模与训练数据总量的优化平衡,达到了知识深度与广度的飞跃。数据选择上,Scialom更倾向于合成数据而非公开互联网文本。Llama3.1的评估与改进采用奖励模型和多样化基准,同时引入了Toolformer等agent工具的开发,标志着AI领域的创新探索。Llama3.1的开源是Meta对未来AI的一次大胆尝试。Llama4的启动将重点放在agent技术上,预示着Meta在AI领域的持续领导地位和未来AI的重新定义。