QuestMobile报告显示,2025年三季度移动AI应用用户超7亿,原生APP、In-APP AI和手机AI助手月活用户分别为2.87亿、7.06亿和5.35亿,复合增长率达3.4%、9.3%和1.2%。增长主要受益于厂商模型升级和生态协同,互联网公司大模型更新活跃。
Adobe在MAX大会上推出基于聊天的AI助手,覆盖Photoshop、Express和Firefly应用。用户可通过对话委派创意任务并获取分步指导。同时扩大对Google、OpenAI等第三方AI模型的支持,推动内容创作向开放智能化发展。
人工智能竞争进入新阶段,Mistral推出AI Studio平台,让用户快速部署AI应用。该平台基于其强大模型,帮助企业大规模构建、观察和操作AI,实现从原型到企业级生产的战略升级。
金域医学推出AI癌症病理基因大模型DeepGEM,已投入临床应用。该模型融合组织切片、基因测序和临床数据,显著提升基因突变识别效率与准确率,推动AI从实验室走向癌症诊疗一线,加速精准医疗发展。
使用Scorecard简单构建和测试LLM应用,提供可预测且不断改进的AI体验。
Snowglobe帮助AI团队在规模上测试LLM应用。在推出之前模拟真实对话,发现风险并提高模型性能。
MemU是一款AI记忆的智能层,为LLM应用设计,提供更高的准确性、更快的检索速度和更低的成本。
无缝集成LLM应用程序,如OpenAI助手和Anthropic Claude,与Slack、Teams和HubSpot,轻松几步实现。
openai
$0.36
Input tokens/M
$2.88
Output tokens/M
400k
Context Length
google
$0.72
1M
meta
$1.44
128k
snowflake
-
8.2k
ai21-labs
256k
01-ai
32k
mistral
32.8k
65.4k
liquidai
8k
cohere
databricks
2k
moonshot
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型。它采用两阶段流水线架构,结合大语言模型和高效音频编解码器,实现了卓越的速度和音频质量,支持多种语言并适用于边缘/服务器部署。
KaniTTS是一款高速、高保真的文本转语音模型,专为实时对话式人工智能应用而优化。该模型采用两阶段处理流程,结合大语言模型和高效音频编解码器,在Nvidia RTX 5080上生成15秒音频的延迟仅需约1秒,MOS自然度评分达4.3/5,支持英语、中文、日语等多种语言。
Guilherme34
Qwen2.5-14B-Instruct是一个140亿参数的大语言模型,专为聊天和文本生成场景设计。该模型基于transformers库构建,适用于内部测试和轻量级应用部署。
merve
Isaac 0.1是感知器公司推出的首个感知语言模型,拥有20亿参数,专为现实世界应用设计。该模型在效率方面树立了新标准,性能达到甚至超越了比它大50倍以上的模型,具备强大的视觉理解和空间推理能力。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
Kwai-Klear
Klear是由快手Kwai-Klear团队开发的稀疏混合专家(MoE)大语言模型,具备高性能和推理效率的特点。总参数460亿,激活参数仅25亿,在多个能力基准测试中表现出色,为实际应用提供了高效且强大的解决方案。
nvidia
NVIDIA-Nemotron-Nano-9B-v2是NVIDIA从头训练的大语言模型,专为推理和非推理任务设计。采用Mamba2-Transformer混合架构,支持多语言处理,具备可控推理能力,允许用户指定思考预算,在商业应用和AI代理系统中表现出色。
DavidAU
基于OpenAI的gpt-oss-120b模型优化的大型语言模型,使用NEO数据集进行性能提升,支持多场景应用,可在CPU、GPU或部分卸载模式下运行,具有128k上下文长度和最多128个专家的混合专家架构。
Mungert
基于Meta Llama-3.3-70B-Instruct的大语言模型,经过多阶段训练优化,在推理、聊天等任务上表现出色,支持多种语言,适用于多种AI应用场景。采用神经架构搜索技术优化,能够在单个H100-80GB GPU上高效运行。
BruhzWater
Lilith's-Whisper-L3.3-70b-0.1是一个基于Llama 3.3架构的70B参数大型语言模型,专门针对角色扮演(RP)场景优化。该模型采用2/3阶段合并方式,融合了多个顶级RP模型的优势,为角色扮演应用提供了强大的对话生成能力。
NVIDIA Qwen3-30B-A3B FP4是阿里巴巴Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,通过FP4量化技术将模型大小减少约3.3倍,同时保持较好的性能表现。该模型支持商业和非商业用途,适用于AI代理系统、聊天机器人、RAG系统等应用场景。
Arch-Agent-3B GGUF是一款专为高级函数调用和基于代理的应用程序设计的大语言模型,擅长处理复杂多步任务,支持智能工具选择和自适应规划。
Arch-Agent-1.5B GGUF 模型是专为高级函数调用和基于代理的应用程序设计的最先进大语言模型集合,能出色处理复杂的多步骤任务,在复杂场景中表现卓越。
QuantFactory
Apollo2-7B-GGUF 是 FreedomIntelligence/Apollo2-7B 的量化版本,支持多种语言的医学大语言模型应用。
MesTruck
多语言e5大指令模型支持多种语言,在分类、检索、聚类等多项任务中表现出色,可广泛应用于各类自然语言处理场景。
unsloth
InternVL3-14B是一个先进的多模态大语言模型,在InternVL 2.5基础上显著提升了多模态感知和推理能力,并拓展了工具使用、GUI代理、工业图像分析、3D视觉感知等领域的应用。
InternVL3-2B是一款先进的多模态大语言模型,具备强大的多模态感知、推理及语言处理能力,广泛应用于图像分析、工具使用等多个领域。
bartowski
Remnant-GLM4-32B 是一个基于 GLM4 架构的 32B 参数大语言模型,支持角色扮演和对话式交互,特别适合蝾螈相关的应用场景。
Foundation-Sec-8B是一款专为网络安全应用设计的语言模型,基于Llama-3.1架构,经过大量网络安全相关文本数据的预训练,能够理解和处理多种网络安全领域的概念、术语和实践。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Wanaku MCP路由器是一个基于模型上下文协议(MCP)的AI应用路由器,旨在标准化应用程序向大型语言模型(LLM)提供上下文的方式。
GUARDRAIL是一个专为大型语言模型(LLM)应用生态系统设计的安全框架,特别针对模型上下文协议(MCP)提供全面保护。它采用多层架构,包括信息网关层、上下文验证层、请求控制层、执行隔离层和审计监控层,旨在防止数据泄露、未授权访问和资源滥用。该框架强调渐进式采用,允许开发者逐步增强安全性,同时保持高性能和易用性。
MCP Palette是一款用于管理Model Context Protocol服务器配置的桌面应用程序,提供集中式界面来配置、管理和部署用于大型语言模型的MCP服务器。
File Context MCP是一个基于TypeScript的应用程序,提供API通过本地文件内容查询大型语言模型(LLMs),支持多种LLM提供商(Ollama和Together.ai),可处理多种文件类型生成上下文感知的响应。
该项目实现了一个ClickHouse的MCP服务器,用于将ClickHouse数据库与大型语言模型(LLMs)等AI应用无缝集成,支持查询数据库、获取表结构等功能。
OtterBridge是一个轻量级的MCP服务器,用于连接应用程序与多种大型语言模型提供商,支持Ollama等模型,设计简洁灵活。
百度云向量数据库MCP Server是一个提供对百度云向量数据库功能访问的服务器,支持与多种大语言模型应用程序配合使用。
基于MCP与QWEN大模型的自然语言MySQL数据库查询系统,提供GUI界面支持
一个为Claude桌面应用设计的MCP服务器实现,提供大语言模型的持久化记忆功能,包含分层记忆架构、多种记忆类型和语义搜索等特性。
Model Context Protocol (MCP) .NET示例库,展示如何在.NET应用中利用MCP协议标准化大型语言模型(LLM)的上下文交互。包含YouTube字幕提取器等示例,支持灵活切换LLM供应商并构建AI工作流。
该项目实现了一个MCP服务器,用于与Wolfram Alpha API交互,使聊天应用能执行计算查询并获取结构化知识。包含基于Gemini的MCP客户端示例,展示如何将大语言模型连接到MCP服务器,实现与Wolfram Alpha知识引擎的实时交互。
MCP-Memos是一款基于MCP协议的备忘录工具,专为开发者设计,支持快速记录和检索文本信息,无需切换应用。它利用大型语言模型提供强大的模糊搜索能力,包括语义理解、上下文感知和自然语言查询等功能。
Tome是一款由Runebook团队开发的MacOS应用(即将支持Windows和Linux),旨在简化本地大型语言模型(LLM)与MCP服务器的使用。它通过集成Ollama和管理MCP服务器,使用户无需处理复杂的配置即可快速开始与MCP驱动的模型对话。
一个基于Electron的跨平台桌面应用,通过MCP协议连接多种大语言模型,提供简洁高效的交互界面。
该项目提供了一系列基于Quarkus框架的Model Context Protocol (MCP)服务器实现,用于扩展支持MCP的大型语言模型(LLM)应用功能。包含JDBC数据库、文件系统、JavaFX绘图、Kubernetes和容器等多种服务。
基于大模型的智能对话机器人项目,支持多平台接入和多种AI模型,具备文本、语音、图像处理及插件扩展能力,可定制企业AI应用。
该项目是一个基于Model Context Protocol (MCP)的服务端,为Brandfetch API提供桥梁,使大型语言模型(LLM)应用能够搜索品牌并获取详细信息。
Squad MCP服务器是一个连接Squad产品发现平台与大型语言模型应用的协议服务,提供丰富的工具集用于直接从AI助手创建、查询和更新产品战略工件。