全球AI竞争焦点转向用户规模,印度作为超10亿网民市场却无本土大模型,成为科技巨头必争之地。2025年10月,谷歌与OpenAI同步推出免费策略:谷歌联合信实工业向Jio用户赠送18个月AI Pro服务;OpenAI为印度用户提供一年免费ChatGPT Go订阅。这场争夺战以补贴换取数据,用户规模决定未来AI格局。
谷歌母公司Alphabet第三季度收入首次突破1000亿美元,核心广告与云计算业务稳健增长。公司大幅上调资本支出预期至910-930亿美元,主要用于数据中心等基础设施,以支持业务扩张。尽管支出增加,投资者反应积极,股价盘后上涨。
在TechCrunch Disrupt2025大会上,ElevenLabs CEO马蒂·斯塔尼斯泽夫斯基预测,AI语音模型将在未来两三年内走向“商品化”。短期内模型性能仍是核心竞争力,但长期看,主流语言和通用音色的差异将缩小,企业需转向产品、数据和生态构建以保持优势。
亚马逊建成超大规模数据中心,与Anthropic达成重磅合作:后者将在2025年底前部署100万颗定制AI芯片,用于训练下一代大模型。这一创纪录的采购标志着AI竞赛焦点转向基础设施,安全与算力共同驱动行业格局重塑。
以数据 + 大模型驱动的智能合同平台,提升合同工作效率。
监控、管理和协作您的整个AI代理群,使用单一统一的仪表板。由来自Meta、Microsoft和Amazon的前AI工程师构建。Y Combinator支持。
Radal是一个无代码平台,可使用您自己的数据微调小型语言模型。连接数据集,通过可视化配置训练,并在几分钟内部署模型。
HeronAI是您在将财务数据转化为可操作见解方面的可靠合作伙伴。
google
$18
Input tokens/M
$72
Output tokens/M
2M
Context Length
anthropic
$5.76
$28.8
200k
snowflake
$1.44
128k
databricks
-
32.8k
mradermacher
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
Lamapi/next-12b 是一个120亿参数的多语言大语言模型,提供了多种量化版本,支持文本生成、问答、聊天等多种自然语言处理任务。该模型在多个领域数据集上训练,具有高效、轻量级的特点。
EpistemeAI
metatune-gpt20b是一个具有自改进能力的大语言模型原型,能够为自身生成新数据、评估自身性能,并根据改进指标调整超参数。该模型在博士后水平的科学和数学理解方面表现出色,同时也可用于编码任务。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大语言模型家族中的30亿参数推理模型,通过提升数据质量和训练方法实现了先进的推理能力。该模型在数学、科学、创意写作、工具使用等多个领域表现出色,支持多阶段课程学习和强化学习训练。
aisingapore
Qwen-SEA-LION-v4-32B-IT是基于Qwen3-32B构建的东南亚语言大语言模型,专门针对东南亚地区进行了预训练和指令微调。该模型在包含7种东南亚语言的SEA-Pile v2语料库上继续预训练,并在800万对高质量问答数据上进行指令微调,具备强大的多语言理解和推理能力。
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
birder-project
这是一个基于RoPE(旋转位置编码)的Vision Transformer模型,参数规模为150M,采用14x14的patch大小。该模型在约2100万张图像的多样化数据集上进行了预训练,可作为通用视觉特征提取器使用。
suayptalha
Sungur-14B 是一个专门针对土耳其语的大语言模型,基于 Qwen/Qwen3-14B 派生而来。该模型使用包含 41.1k 个土耳其语样本的数据集进行微调,涵盖数学、医学和常识等领域的推理对话,旨在增强土耳其语的本土推理能力。
RedHatAI
这是NVIDIA-Nemotron-Nano-9B-v2模型的FP8动态量化版本,通过将权重和激活量化为FP8数据类型实现优化,显著减少磁盘大小和GPU内存需求约50%,同时保持出色的文本生成性能。
KaLM-Embedding
KaLM-Embedding-V2.5是一款通用且轻量级的嵌入模型,通过卓越的训练技术和数据,在同类规模模型中达到最优性能,甚至能与规模大3-26倍的模型相媲美。支持多语言和多种嵌入维度选择。
这是Qwen3-VL-235B-A22B-Instruct的量化版本,通过将权重和激活值量化为FP8数据类型,有效减少了磁盘大小和GPU内存需求约50%。支持文本、图像和视频输入,输出文本,适用于多种自然语言处理和多模态任务。
Qwen3-VL-235B-A22B-Instruct-FP8-dynamic 是 Qwen3-VL-235B-A22B-Instruct 的量化版本,通过将权重和激活量化为 FP8 数据类型,显著减少了磁盘大小和 GPU 内存需求,同时保持了较高的模型性能。
XiaomiMiMo
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
Infinigence
梅格雷斯2-3x7B-A3B是一款设备原生大语言模型,采用混合专家(MoE)架构,结合了MoE的准确性和密集模型的紧凑性优势。该模型在8T标记数据上训练,具备32K上下文长度,未来计划提升推理和代理能力。
Simia-Agent
本模型是基于Qwen/Qwen3-8B在特定数据集上微调的大语言模型,在评估集上取得了0.2248的损失值,具备改进的自然语言处理能力。
这是一个基于Qwen2.5-7B-Instruct进行微调的大语言模型,在C2_re_100k_tag5_cleaned_hermes_toolv6_dethink_replacedv1数据集上训练,在评估集上取得了0.2549的损失值,具备优化的对话和工具使用能力。
quelmap
Lightning-4b 是一款专为本地设备数据分析任务设计和训练的语言模型,可在配备16GB内存的笔记本电脑上流畅运行,无需将数据发送给大型语言模型提供商,确保数据隐私和安全。
这是基于 mookiezi/Discord-Micae-Hermes-3-8B 的静态量化版本,专门针对 Discord 对话数据进行微调的大语言模型,支持英语文本生成和对话任务。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
HowToCook-MCP Server是一个让AI助手变身私人大厨的项目,基于HowToCook菜谱数据,通过MCP协议为AI客户端提供菜谱查询、膳食推荐等功能,解决'今天吃什么'的难题。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
为大模型提供A股数据的MCP服务
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
腾讯云COS MCP Server是一个基于MCP协议的服务,无需编码即可让大模型快速接入腾讯云存储(COS)和数据万象(CI)能力,提供文件上传下载、图片处理、视频截帧等云端存储与处理功能。
EOSC数据共享MCP服务器,提供HTTP接口通过搜索API和大型语言模型帮助用户查找所需数据集和工具。
Taroify MCP 是一个将 Taro React UI 组件库与大模型连接的服务,支持从小程序文档中检索组件和API数据,无需额外依赖。
一个基于Model Context Protocol的Wikidata数据访问服务器,为大型语言模型提供5种工具与Wikidata交互,包括实体搜索、SPARQL查询等功能。
Wikipedia MCP服务器是一个为大型语言模型提供维基百科信息查询服务的工具,通过标准化协议接口实现实时数据访问,包含搜索、文章获取、摘要生成等功能。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
一个结合Ollama大模型能力和PostgreSQL数据库访问的交互式聊天助手,支持自然语言查询数据库并生成SQL查询。
NOAA潮汐与洋流MCP服务器提供快速访问NOAA海洋和大气数据的工具,包含潮汐、洋流、气象、天文和气候研究数据,支持多种传输模式和集成方式。
该项目是一个连接币安API的比特币价格数据工具,提供实时和历史行情查询功能,支持标准化接口供大语言模型调用。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
Binance MCP Server是一个为大型语言模型(LLM)提供币安交易所数据的标准化接口服务,支持实时行情、历史数据、订单簿查询和WebSocket推送等功能。
一个社区开发的Nasdaq数据链接MCP服务器,通过自然语言接口和大型语言模型提供金融经济数据访问。