腾讯2025年第三季度财报显示,总收入1928.7亿元,同比增长15%。ToB业务表现突出,营收582亿元,增长10%。AI技术需求推动云服务和微信小店技术服务成为增长关键。混元大模型在权威榜单中保持领先,彰显腾讯AI战略成效。
摩尔线程团队在AAAI2026会议上发布URPO框架,重塑大语言模型训练方法。该技术通过统一奖励与策略优化,简化训练流程并突破性能瓶颈,为AI发展提供新路径。
阿里云百炼宣布自2025年11月13日起,通义千问3-Max模型核心调用费用减半,并优化缓存计费策略,大幅降低企业AI应用成本。此举旨在降低大模型使用门槛,加速中小企业数字化转型。
在2025年百度世界大会上,李彦宏以《效果涌现》为主题演讲,强调AI能力内化后,智能不再是成本,而是推动生产力的关键。他指出,AI产业结构正从“正金字塔”向“倒金字塔”转变,这将大幅提升模型和应用的价值,改变传统模式中底层芯片占据主要价值的局面。
提供语音AI的ASR、TTS和LLM模型,可测试部署用于实时应用。
AI大模型解析简历,解决HR简历处理难题,实现自动化招聘流程。
使用Scorecard简单构建和测试LLM应用,提供可预测且不断改进的AI体验。
提供高质量 AI 接口服务,支持多种 AI 模型,安全稳定。
moonshotai
$4.1
Input tokens/M
$16.56
Output tokens/M
128k
Context Length
google
$0.72
$2.88
1M
智谱ai
$4.5
$22.5
ai2
$6.48
snowflake
$1.44
mistral
$2.16
256k
ai21-labs
-
01-ai
32k
32.8k
65.4k
8k
cohere
moonshot
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
KaniTTS是一款专为实时对话式人工智能应用优化的高速、高保真阿拉伯语文本转语音模型。它采用两阶段流水线架构,结合大语言模型与高效音频编解码器,实现卓越的速度和音频质量,能够满足对话式AI、无障碍辅助、研究等多领域的语音合成需求。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,通过独特的两阶段架构结合大语言模型与高效音频编解码器,实现低延迟与高质量语音合成,实时因子低至0.2,比实时速度快5倍。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型。它采用两阶段流水线架构,结合大语言模型和高效音频编解码器,实现了卓越的速度和音频质量,支持多种语言并适用于边缘/服务器部署。
Sunbird
Sunflower-32B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达地区语言优化。基于Qwen 3-32B架构构建,支持31种乌干达语言及英语的翻译和文本生成任务,在乌干达语言翻译准确率方面表现优异。
Sunflower-14B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达语言设计。该模型基于Qwen 3-14B架构构建,支持31种乌干达语言以及英语的翻译和文本生成任务,在多项评估中表现出色。
neuphonic
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、端侧文本转语音(TTS)语言模型。基于0.5B参数的大语言模型骨干构建,能为本地设备带来自然的语音、实时性能、内置安全性和说话人克隆功能。
NeuTTS Air是全球首个具有即时语音克隆功能的超逼真设备端文本转语音模型,基于0.5B参数的大语言模型骨干构建,能在本地设备上实现自然语音生成、实时性能和说话人克隆功能。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、设备端文本转语音(TTS)语言模型。基于0.5B大语言模型骨干网络构建,能为本地设备带来自然的语音、实时性能、内置安全功能和说话人克隆能力。
DevQuasar
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
LiquidAI
LFM2-Audio-1.5B是Liquid AI推出的首个端到端音频基础模型,专为低延迟和实时对话设计。该模型仅15亿参数,能够实现无缝的对话交互,其能力可与参数规模大得多的模型相媲美。
ducklingcodehouse
这是一个专注于芬兰语牙科医学的对话式AI助手,经过LoRA微调的大语言模型,能够针对牙科咨询问题生成结构化的临床回复,分为背景、评估和建议三个部分。
mlx-community
基于智谱AI GLM-4.5-Air模型转换的3位深度量化权重(Deep Weight Quantization)版本,专为MLX框架优化,在保持较高性能的同时显著减少模型大小和推理资源需求
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
基于Spring AI MCP框架的Excel文件读写服务,支持与大语言模型集成实现动态交互
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
基于mcp-server的项目,支持AI大模型高效调用spinq的量子计算硬件资源,提供Windows和macOS的一键安装脚本,自动检测Python环境并安装依赖。
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
Qwen MCP工具是一个基于模型上下文协议的服务器,可将Qwen CLI与AI助手集成,提供大上下文窗口分析、文件处理、沙箱执行和多模型支持等功能
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。
OLS MCP服务器是一个为大型语言模型提供本体查询服务的工具,通过连接EBI本体查询服务API,帮助AI助手准确获取生物医学领域的本体术语、概念和层次结构。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
mcp2mqtt是一个连接物联网设备与AI大模型的桥梁项目,通过MCP和MQTT协议实现自然语言控制硬件设备。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
Wanaku MCP路由器是一个基于模型上下文协议(MCP)的AI应用路由器,旨在标准化应用程序向大型语言模型(LLM)提供上下文的方式。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
OmniLLM是一个MCP服务器,作为Claude与其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)之间的桥梁,提供统一的AI访问接口。