普渡机器人推出两项具身智能技术成果:PuduFM 1.0 和 PuduAgent。前者作为具身智能大模型,实现三维空间深度推理等三大突破,展示公司在AI和机器人领域的领先实力,推动行业商业化进程。
AMD发布vLLM-ATOM插件,旨在不改变现有工作流的前提下,充分挖掘硬件潜力,为DeepSeek-R1、Kimi-K2等主流大语言模型推理显著提速。vLLM本身是优化高并发场景吞吐量与显存利用率的开源框架,专注请求调度和缓存管理,ATOM插件则进一步强化了这一能力。
国内大模型与算力底座协同发展关键期,海光信息宣布深算3号DCU完成与腾讯混元Hy3preview大模型深度适配,标志着国产高性能算力在支撑超大规模复杂逻辑推理模型上取得重要突破。
英伟达发布开放式多模态大模型Nemotron3Nano Omni,整合视频、音频、图像和文本的深度推理能力,采用30B-A3B混合专家架构,内置视觉与音频编码器,旨在为开发者提供更快速、更智能的交互响应方案。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
mlx-community
基于智谱AI GLM-4.5-Air模型转换的3位深度量化权重(Deep Weight Quantization)版本,专为MLX框架优化,在保持较高性能的同时显著减少模型大小和推理资源需求
基于GLM-4.5-Air模型使用mlx-lm 0.26.1版本转换的3位深度权重量化版本,专为Apple Silicon芯片优化,提供高效的大语言模型推理能力
Qwen
Qwen3-235B-A22B-Thinking-2507是一款强大的大语言模型,在推理任务、通用能力和长上下文理解等方面有显著提升,适用于高度复杂的推理场景。该模型在过去三个月里持续扩展了思维能力,提升了推理的质量和深度。
Vijayendra
DeepThinkerv2是一个具备深度数学推理能力的大语言模型,通过递归思考模式和多重验证机制提升解题准确性。
future-technologies
DeepSeek-V3-0324是深度求索公司推出的大语言模型,相比前身DeepSeek-V3在推理能力、中文写作和前端开发等方面有显著提升。
DavidAU
这是一个实验性构建的大型语言模型,结合了Dolphin3.0-R1-Mistral-24B与Brainstorm 40x技术,参数量达45B,具备强大的深度推理和思考能力。模型支持32k上下文长度,采用CHATML模板格式,特别优化了推理过程的详细输出。
基于TeeZee/DarkSapling-7B-v1.1全面重制的32k上下文大语言模型,在指令遵循、推理深度和情感表达方面表现优异
LeroyDyer
基于Mixtral架构的多功能大语言模型,融合深度心智与自我优化能力,支持多语言文本生成与复杂推理任务