Hugging Face 发布了经过优化的 Zephyr-7B 迷你语言模型,使用蒸馏直接偏好优化方法,缩短了训练时间。在基准测试中,Zephyr-7B 表现出色,甚至可以媲美具有 70 亿参数的 Llama-2。这标志着 Hugging Face 在迷你语言模型领域的技术进步,为未来的人工智能发展奠定了坚实基础。