近日,谷歌对其 Gemini 系列大型语言模型(LLM)进行了重要更新,尤其是 Gemini2.5Flash 和 Flash Lite,强调了速度和效率的提升。这些改进是在大版本发布之间持续进行的,充分展示了谷歌在 AI 领域不断进步的决心。
根据第三方分析机构 Artificial Analysis 的评估,Gemini2.5Flash Lite 已经成为其网站上 “最快的专有模型”,输出速度达到每秒887个输出 token,比上一版本提升了40%。尽管与 MBZUAI 和 G42AI 推出的新 K2Think 开源模型(每秒输出2,000个 token)相比仍有差距,但 Gemini2.5Flash Lite 的速度依然令人瞩目。
这两款新模型在输出质量和成本效率上都有显著提升,尤其是在 token 使用和响应速度方面。Gemini2.5Flash 在多步骤和自主工作流程处理能力上表现出色,其在 SWE-Bench Verified 基准测试中的得分提高到了54%。而 Flash Lite 则在遵循指令和多模态能力上也有改进,输出 token 减少了50%,这在高通量应用中降低了部署成本。
在独立基准测试中,Gemini2.5Flash 和 Flash Lite 的表现得到了进一步确认,前者在多个测试中的得分都有明显提升。为了便于开发者使用,谷歌还推出了新别名,便于整合最新版本的模型。
除了 LLM 的更新,谷歌还对 Gemini Live 进行了增强,这是一款专为语音应用设计的实时音频模型。新版本提高了函数调用的可靠性和自然对话的处理能力,开发者能够构建更响应迅速的语音助手,能够在动态环境中更好地与用户互动。用户可以通过新的预览版本直接使用更新后的 Gemini Live 模型。
谷歌的这次更新不仅提高了模型的性能和可用性,也为开发者提供了更多灵活性。未来,谷歌计划在 Gemini 系列中推出更多更新,以满足开发者不断变化的需求。
划重点:
🌟 Gemini2.5Flash Lite 成为最快的专有模型,输出速度达每秒887个 token。
🚀 新模型在输出质量和成本效率上显著提升,尤其是 Flash Lite 减少了50% 的输出 token。
🗣️ Gemini Live 的更新增强了语音助手的功能,提高了函数调用的准确性和自然对话的能力。