Meta AI推出思维偏好优化技术,提升AI模型回应质量
近日,Meta AI 的研究团队与加州大学伯克利分校及纽约大学的研究人员合作,推出了一种名为思维偏好优化(Thought Preference Optimization, TPO)的方法,旨在提升经过指令微调的大型语言模型(LLM)的回应质量。与传统模型仅关注最终答案不同,TPO 方法允许模型在生成回应前进行内部思考,从而产生更加准确和连贯的回答。这种新技术结合了改进版的思维链(Chain-of-Thought, CoT)推理方法。在训练过程中,该方法鼓励模型在回应前先进行 “思考”,帮助其构建更为系统的内部思维过程。以往的直