OpenAI发布GPT-5.2-Codex,这是其最先进的智能体编程模型。它专为处理复杂、长期的现实编码任务设计,在基准测试中创下新纪录,并能自主完成从代码理解、环境搭建到漏洞挖掘和提交Pull Request的全流程。该模型融合了GPT-5.2的通用推理能力和GPT-5.1-Codex-Max的终端操作功能,标志着AI在软件工程实战能力上的重大突破。
2025光明科学城论坛在深圳举行,聚焦智能算力与大模型智能体。鹏城实验室等机构发布四项重要成果:鹏城脑海2.1开源多模态模型及配套数据集与工具链;国产万卡推理引擎FenixCOS首次亮相,支持大规模并行与高效切换;气象智能体“阿福”接入鹏城云脑Ⅲ,将服务第十五届全国运动会。
阶跃星辰发布首个开源GUI智能体“GELab-Zero”,包含即插即用推理基础设施和4B GUI Agent模型。其轻量级设计支持消费级硬件本地运行,实现低延迟响应并保护用户隐私,提供高效便捷的智能体体验。
Google DeepMind发布Gemini 3 Pro专属系统指令,在三大智能体基准测试中平均成功率提升5%,多步骤任务错误率降低8%。新指令强调模型需作为“强推理规划者”,在行动前必须结构化制定计划,推动大模型从黑箱调参转向工程化指令新阶段。
多智能体任务规划与推理的基准测试
自动化科学研究的多智能体图推理系统。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
-
Anthropic
$7
$35
200
$21
$105
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
Moonshot
Bytedance
$0.8
32
Xai
$1.4
$10.5
Tencent
$54
$163
Deepseek
$12
$1.6
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
EssentialAI
Rnj-1 是由 Essential AI 从头训练的一系列 80 亿参数、开放权重的密集模型。该模型针对代码和 STEM 领域进行了优化,在编程、数学推理、智能体任务和工具调用方面表现出色,能力与最先进的开放权重模型相当。
cyankiwi
MiniMax-M2 AWQ - INT4是基于MiniMax-M2模型进行量化后的版本,采用INT4量化技术,在保证性能的前提下显著减少内存使用并提高推理效率。该模型在编码和智能体任务方面表现出色,具有卓越的综合性能。
redponike
Qwen3-VL-4B-Instruct 是通义千问系列最新的视觉语言模型,在4B参数规模下实现了卓越的视觉感知、文本理解与生成、空间推理和智能体交互能力。它支持长上下文和视频理解,具备强大的OCR和多语言处理能力。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文处理、空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,实现了全方位的综合升级,包括卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、增强的空间和视频动态理解能力,以及更强的智能体交互能力。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本为2B参数的思考增强版,专门优化了推理能力。
Qwen
Qwen3-VL-30B-A3B-Thinking是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型之一,采用GGUF格式权重,支持在CPU、NVIDIA GPU、Apple Silicon等设备上进行高效推理。该模型具备出色的多模态理解和推理能力,特别增强了视觉感知、空间理解和智能体交互功能。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备增强推理能力的8B参数版本。该模型在文本理解、视觉感知、空间理解、长上下文处理等方面全面升级,支持多模态推理和智能体交互。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。本仓库提供GGUF格式权重,支持在CPU、GPU等设备上高效推理。
Qwen3-VL-32B-Instruct是通义系列中最强大的视觉语言模型,具备出色的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
MiniRAG-MCP是一个MCP服务器包装器,围绕MiniRAG项目构建,旨在通过客户端管理的LLM推理采样,为本地设备上的智能体流程提供高效、可靠的检索增强生成(RAG)服务。