11月6日,科大讯飞在第八届世界声博会暨全球1024开发者节上发布“讯飞星火X1.5”大模型及系列AI产品,主题为“更懂你的AI”。董事长刘庆峰通过数据强调AI技术的行业价值。该模型在国内算力平台完成全链路训练,效率显著提升,支持130种语言处理。
Anthropic与冰岛合作,将在全国学校引入Claude大语言模型,助力教师课程准备与教学。该计划覆盖城乡,旨在探索AI教育应用,或成全球范例。
苹果因自研Siri大模型遇阻,转向与谷歌合作,采用Gemini定制语言模型以提升AI处理能力。新策略将采用“端云协同”混合模式,结合云端大模型优势与本地数据隐私保护,旨在优化用户体验并解决复杂任务短板。
蚂蚁数科在香港金融科技节推出“多语种多模态大模型训练框架”,旨在解决大模型在多语言环境的应用瓶颈。传统英文大模型在小语种中易出现语言错乱和推理混乱,限制全球化发展。该框架通过优化多语种处理能力,提升模型在多样化语言环境下的表现,推动AI技术更广泛高效地服务于全球各行业。
使用Scorecard简单构建和测试LLM应用,提供可预测且不断改进的AI体验。
提供高质量 AI 接口服务,支持多种 AI 模型,安全稳定。
Kat Dev是专为软件工程和编码任务打造的大语言模型,助力AI编码。
LLM Pulse是您在生成式AI世界中的雷达。跟踪您的关键提示,了解AI来源如何引用您的品牌。
moonshotai
$4.1
Input tokens/M
$16.56
Output tokens/M
128k
Context Length
智谱ai
$4.5
$22.5
01-ai
-
32k
mistral
32.8k
google
8k
moonshot
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
nineninesix
KaniTTS是一款专为实时对话式人工智能应用优化的高速、高保真阿拉伯语文本转语音模型。它采用两阶段流水线架构,结合大语言模型与高效音频编解码器,实现卓越的速度和音频质量,能够满足对话式AI、无障碍辅助、研究等多领域的语音合成需求。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,通过独特的两阶段架构结合大语言模型与高效音频编解码器,实现低延迟与高质量语音合成,实时因子低至0.2,比实时速度快5倍。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型。它采用两阶段流水线架构,结合大语言模型和高效音频编解码器,实现了卓越的速度和音频质量,支持多种语言并适用于边缘/服务器部署。
Sunbird
Sunflower-14B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达语言设计。该模型基于Qwen 3-14B架构构建,支持31种乌干达语言以及英语的翻译和文本生成任务,在多项评估中表现出色。
neuphonic
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、端侧文本转语音(TTS)语言模型。基于0.5B参数的大语言模型骨干构建,能为本地设备带来自然的语音、实时性能、内置安全性和说话人克隆功能。
NeuTTS Air是全球首个具有即时语音克隆功能的超逼真设备端文本转语音模型,基于0.5B参数的大语言模型骨干构建,能在本地设备上实现自然语音生成、实时性能和说话人克隆功能。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、设备端文本转语音(TTS)语言模型。基于0.5B大语言模型骨干网络构建,能为本地设备带来自然的语音、实时性能、内置安全功能和说话人克隆能力。
DevQuasar
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
ducklingcodehouse
这是一个专注于芬兰语牙科医学的对话式AI助手,经过LoRA微调的大语言模型,能够针对牙科咨询问题生成结构化的临床回复,分为背景、评估和建议三个部分。
nvidia
NVIDIA-Nemotron-Nano-9B-v2是NVIDIA从头训练的大语言模型,专为推理和非推理任务设计。采用Mamba2-Transformer混合架构,支持多语言处理,具备可控推理能力,允许用户指定思考预算,在商业应用和AI代理系统中表现出色。
mlx-community
GLM-4.5-Air-6bit是基于智谱AI的GLM-4.5-Air模型转换而来的6位量化版本,专为MLX框架优化,提供高效的大语言模型推理能力。
基于Meta Llama-3.3-70B-Instruct的大语言模型,经过多阶段训练优化,在推理、聊天等任务上表现出色,支持多种语言,适用于多种AI应用场景。采用神经架构搜索技术优化,能够在单个H100-80GB GPU上高效运行。
stelterlab
Devstral是一款专为软件工程任务打造的大语言模型,由Mistral AI和All Hands AI合作开发,擅长代码探索、多文件编辑和工具调用。
brittlewis12
Devstral Small 1.1 GGUF是专为软件工程任务打造的大语言模型,结合Mistral AI和All Hands AI技术优势,在代码处理和软件工程代理方面表现出色。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
基于Spring AI MCP框架的Excel文件读写服务,支持与大语言模型集成实现动态交互
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。
OLS MCP服务器是一个为大型语言模型提供本体查询服务的工具,通过连接EBI本体查询服务API,帮助AI助手准确获取生物医学领域的本体术语、概念和层次结构。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
Wanaku MCP路由器是一个基于模型上下文协议(MCP)的AI应用路由器,旨在标准化应用程序向大型语言模型(LLM)提供上下文的方式。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
该项目实现了一个ClickHouse的MCP服务器,用于将ClickHouse数据库与大型语言模型(LLMs)等AI应用无缝集成,支持查询数据库、获取表结构等功能。
OmniLLM是一个MCP服务器,作为Claude与其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)之间的桥梁,提供统一的AI访问接口。
Clockify MCP服务是一个与AI工具集成的服务器,用于管理Clockify中的时间记录,用户可以通过向大型语言模型发送提示来记录时间条目。
MCP Crew AI Server是一个基于Python的轻量级服务器,用于运行和管理CrewAI工作流,支持通过MCP协议与大型语言模型通信。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。
BeeMCP是一个非官方的MCP服务器,用于连接Bee可穿戴设备的数据与大型语言模型(如Claude),让AI助手能够访问和操作用户的对话、事实记录、待办事项和位置历史等个人数据。
MetaMask MCP是一个模型上下文协议服务器,允许大型语言模型通过MetaMask与区块链交互,确保私钥安全存储在用户钱包中,不与AI代理共享。