11月6日,科大讯飞在第八届世界声博会暨全球1024开发者节上发布“讯飞星火X1.5”大模型及系列AI产品,主题为“更懂你的AI”。董事长刘庆峰通过数据强调AI技术的行业价值。该模型在国内算力平台完成全链路训练,效率显著提升,支持130种语言处理。
科大讯飞发布星飞星火X1.5深度推理大模型,基于国产算力,采用MoE架构,总参数量达293亿,激活参数30亿。单台昇腾服务器即可部署,推理效率较X1提升100%,端到端性能达国际水平。
科大讯飞发布星火X1.5深度推理大模型,基于国产算力平台,技术突破显著,效率达国际对手93%以上。其亮点在于MoE模型全链路训练效率提升,增强了语言理解与文本处理能力,助力国内开发者提升全球竞争力。
火山引擎发布豆包大模型1.6-vision,这是该家族首个具备工具调用能力的视觉深度思考模型。它增强了多模态理解和推理能力,支持Responses API,核心优势包括通过工具调用实现精准视觉理解,能将图像融入思维链,支持定位、剪裁、点选等图像操作功能。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
alibaba
$0.72
Input tokens/M
$2.16
Output tokens/M
128k
Context Length
openai
$0.36
$2.88
400k
sensetime
$4
$16
200k
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
mlx-community
基于智谱AI GLM-4.5-Air模型转换的3位深度量化权重(Deep Weight Quantization)版本,专为MLX框架优化,在保持较高性能的同时显著减少模型大小和推理资源需求
基于GLM-4.5-Air模型使用mlx-lm 0.26.1版本转换的3位深度权重量化版本,专为Apple Silicon芯片优化,提供高效的大语言模型推理能力
Qwen
Qwen3-235B-A22B-Thinking-2507是一款强大的大语言模型,在推理任务、通用能力和长上下文理解等方面有显著提升,适用于高度复杂的推理场景。该模型在过去三个月里持续扩展了思维能力,提升了推理的质量和深度。
Vijayendra
DeepThinkerv2是一个具备深度数学推理能力的大语言模型,通过递归思考模式和多重验证机制提升解题准确性。
future-technologies
DeepSeek-V3-0324是深度求索公司推出的大语言模型,相比前身DeepSeek-V3在推理能力、中文写作和前端开发等方面有显著提升。
DavidAU
这是一个实验性构建的大型语言模型,结合了Dolphin3.0-R1-Mistral-24B与Brainstorm 40x技术,参数量达45B,具备强大的深度推理和思考能力。模型支持32k上下文长度,采用CHATML模板格式,特别优化了推理过程的详细输出。
基于TeeZee/DarkSapling-7B-v1.1全面重制的32k上下文大语言模型,在指令遵循、推理深度和情感表达方面表现优异
LeroyDyer
基于Mixtral架构的多功能大语言模型,融合深度心智与自我优化能力,支持多语言文本生成与复杂推理任务