11月6日,科大讯飞在第八届世界声博会暨全球1024开发者节上发布“讯飞星火X1.5”大模型及系列AI产品,主题为“更懂你的AI”。董事长刘庆峰通过数据强调AI技术的行业价值。该模型在国内算力平台完成全链路训练,效率显著提升,支持130种语言处理。
科大讯飞发布星飞星火X1.5深度推理大模型,基于国产算力,采用MoE架构,总参数量达293亿,激活参数30亿。单台昇腾服务器即可部署,推理效率较X1提升100%,端到端性能达国际水平。
我国发布全球首个端到端AI海洋大模型“瞰海”,实现卫星观测到三维预测全链路闭环,可实时重构海况并精准预演未来10天海洋环境变化,为科研与防灾提供“数字海洋镜像”。
美团LongCat团队推出UNO-Bench基准测试,系统评估多模态模型能力。该基准覆盖44种任务类型和5种模态组合,包含1250个全模态样本(跨模态可解性98%)及2480个增强单模态样本,全面测试模型在单模态与全模态场景下的性能表现。
SQLBot 是一款基于大模型和 RAG 的智能问数系统。
企业级 LLM 平台,提供统一 API 和智能路由。
使用Scorecard简单构建和测试LLM应用,提供可预测且不断改进的AI体验。
提供高质量 AI 接口服务,支持多种 AI 模型,安全稳定。
alibaba
$0.72
Input tokens/M
Output tokens/M
128k
Context Length
$2.16
moonshotai
$4.1
$16.56
nvidia
-
tencent
$18
32k
openai
$0.36
$2.88
400k
google
1M
$3
$9
8k
智谱ai
$4.5
$22.5
$72
2M
sensetime
$2.8
$8.4
256k
$4
$16
200k
$0.8
131.1k
baidu
$15
meta
$1.44
baichuan
192k
$6.48
deepseek
$1.94
$7.92
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
Mungert
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
shorecode
这是一个高效的文本摘要模型,专门设计用于压缩大语言模型提示中的文本内容,能够实现7倍以上的压缩率,显著降低API调用成本。
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
OPPOer
基于Qwen-Image-Edit进行模型剪枝的版本,移除了20层,保留40层权重,最终模型大小为13.6B参数。这是一个图像编辑模型,支持多图像输入和文本引导的图像合成与编辑。
unsloth
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
mradermacher
Hebrew_Nemo是一款专注于希伯来语处理的大语言模型,经过指令微调,支持文本生成和对话交互。本版本是原模型的GGUF量化版本,提供多种量化级别选择。
这是基于SicariusSicariiStuff/Hebrew_Nemo模型的量化版本,专门针对希伯来语优化的Mistral架构大语言模型,支持希伯来语和英语的文本生成和对话任务。
DevQuasar
本项目是基于MiniMaxAI/MiniMax-M2模型的量化版本,致力于让知识为大众所用。提供了多个不同量化级别的模型版本,并展示了各版本的困惑度性能指标。
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
GPT-OSS-Safeguard-20B是基于GPT-OSS构建的210亿参数安全推理模型,专门针对安全相关的文本内容分类和过滤任务进行优化。该模型支持自定义安全策略,提供透明的推理过程,适用于大语言模型输入输出过滤、在线内容标注等安全用例。
hasanbasbunar
Lodos-24B-Instruct-2510是基于Mistral-Small-3.2-24B-Instruct-2506微调的土耳其语大语言模型,使用TRL框架进行全监督微调,专门针对土耳其语指令遵循任务优化,支持长文本生成和复杂推理。
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
Lamapi/next-12b 是一个120亿参数的多语言大语言模型,提供了多种量化版本,支持文本生成、问答、聊天等多种自然语言处理任务。该模型在多个领域数据集上训练,具有高效、轻量级的特点。
mlx-community
这是MiniMax-M2模型的MLX格式转换版本,使用mlx-lm 0.28.1从原始模型转换而来,支持8位量化和分组大小为32的优化配置,专为Apple Silicon设备优化运行。
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
GatorBarbarian
TRELLIS Text XL是一个大型3D生成模型,是TRELLIS的文本条件版本,模型大小为XL。该模型基于论文《Structured 3D Latents for Scalable and Versatile 3D Generation》提出,能够根据文本描述生成高质量的3D内容。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
为大模型提供A股数据的MCP服务
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
一个提供与ClickUp工作空间无缝集成的MCP服务器,允许大型语言模型通过多种工具管理任务、文档和自定义字段。
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
基于Spring AI MCP框架的Excel文件读写服务,支持与大语言模型集成实现动态交互
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。