xAI完成200亿美元E轮融资,创2026年全球AI领域融资新高。本轮投资方包括Valor Equity Partners、富达及战略投资者英伟达,资金将用于扩建数据中心和升级Grok大模型。但与此同时,其AI聊天机器人Grok被曝存在严重安全漏洞。
2026年初,脑机接口(BCI)领域迎来资本与技术热潮。Neuralink宣布量产脑机接口设备,带动A股“人脑工程”板块大涨,多只个股涨停。在此背景下,美年健康依托“AI+脑科学”战略,结合早筛技术、海量数据、临床场景及全周期服务,成为产业与资本关注焦点。
英伟达在CES 2026发布Alpamayo系列AI模型,旨在提升自动驾驶安全性。此举引发马斯克关注,他称特斯拉已在该领域深耕,并强调自动驾驶系统需具备人类水平的推理能力,仅依赖大模型数据训练难以实现真正安全。
月之暗面完成35亿C轮融资后,其神秘新模型“Kiwi-do”在大模型竞技场LmArena亮相。该模型自称来自月之暗面,训练数据截至2025年1月,表现突出,尤其在视觉物理推理测试(VPCT)中展现出强大能力,引发广泛关注。
提供稳定高效的 AI 算力及 GPU 租赁服务。
拥有8000万住宅代理IP,可全球无缝采集数据,支持大规模提取。
以数据 + 大模型驱动的智能合同平台,提升合同工作效率。
监控、管理和协作您的整个AI代理群,使用单一统一的仪表板。由来自Meta、Microsoft和Amazon的前AI工程师构建。Y Combinator支持。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Baidu
128
Alibaba
$6
$24
256
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
Moonshot
$4
$16
$0.15
$1.5
32
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
OpenMMReasoner
OpenMMReasoner是一个完全透明的两阶段多模态推理方案,涵盖有监督微调(SFT)和强化学习(RL)。该方案通过精心构建高质量数据集,在多个多模态推理基准测试中超越了强大的基线模型,为未来大规模多模态推理研究奠定了坚实的实证基础。
advy
本模型是基于meta-llama/Llama-3.1-70B-Instruct在特定数据集上微调得到的大语言模型,专门用于文本生成任务,在评估集上取得了0.6542的损失值表现。
这是一个基于Claude Sonnet 4.5推理数据集训练的30B参数大语言模型,专门针对高难度推理任务进行优化,在编码和科学领域表现出色。
DavidAU
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
sensenova
SenseNova-SI是基于多模态基础模型构建的空间智能模型系列,专门针对空间理解能力进行优化。通过大规模空间智能数据训练,在度量估计、空间关系理解、视点变化处理等方面表现优异。
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
Lamapi/next-12b 是一个120亿参数的多语言大语言模型,提供了多种量化版本,支持文本生成、问答、聊天等多种自然语言处理任务。该模型在多个领域数据集上训练,具有高效、轻量级的特点。
RedHatAI
Llama-4-Maverick-17B-128E-Instruct-NVFP4是一个经过FP4量化处理的多语言大语言模型,基于Meta-Llama-3.1架构,专为商业和研究用途设计。该模型通过将权重和激活量化为FP4数据类型,显著减少了磁盘空间和GPU内存需求,同时保持较好的性能表现。
EpistemeAI
metatune-gpt20b是一个具有自改进能力的大语言模型原型,能够为自身生成新数据、评估自身性能,并根据改进指标调整超参数。该模型在博士后水平的科学和数学理解方面表现出色,同时也可用于编码任务。
这是unsloth/Mistral-Small-3.2-24B-Instruct-2506的量化版本,通过将权重和激活函数量化为FP4数据类型,减少了磁盘大小和GPU内存需求,同时支持vLLM推理。在多个任务上进行了评估以与未量化模型对比质量。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大语言模型家族中的30亿参数推理模型,通过提升数据质量和训练方法实现了先进的推理能力。该模型在数学、科学、创意写作、工具使用等多个领域表现出色,支持多阶段课程学习和强化学习训练。
nvidia
Llama Nemotron Embedding 1B模型是NVIDIA开发的专为多语言和跨语言文本问答检索优化的嵌入模型,支持26种语言,能够处理长达8192个标记的文档,并可通过动态嵌入大小大幅减少数据存储占用。
aisingapore
Qwen-SEA-LION-v4-32B-IT是基于Qwen3-32B构建的东南亚语言大语言模型,专门针对东南亚地区进行了预训练和指令微调。该模型在包含7种东南亚语言的SEA-Pile v2语料库上继续预训练,并在800万对高质量问答数据上进行指令微调,具备强大的多语言理解和推理能力。
这是Qwen3-235B-A22B-Instruct-2507模型的量化版本,通过将权重和激活量化为FP4数据类型,显著降低了磁盘大小和GPU内存需求,同时保持与原始模型相近的性能表现。
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
HowToCook-MCP Server是一个让AI助手变身私人大厨的项目,基于HowToCook菜谱数据,通过MCP协议为AI客户端提供菜谱查询、膳食推荐等功能,解决'今天吃什么'的难题。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
为大模型提供A股数据的MCP服务
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
EOSC数据共享MCP服务器,提供HTTP接口通过搜索API和大型语言模型帮助用户查找所需数据集和工具。
一个连接瑞典国家教育局开放API的MCP服务器,提供课程大纲、学校单位、成人教育等数据的查询与分析功能,支持AI助手访问瑞典教育系统的官方数据。
腾讯云COS MCP Server是一个基于MCP协议的服务,无需编码即可让大模型快速接入腾讯云存储(COS)和数据万象(CI)能力,提供文件上传下载、图片处理、视频截帧等云端存储与处理功能。
一个基于Model Context Protocol的Wikidata数据访问服务器,为大型语言模型提供5种工具与Wikidata交互,包括实体搜索、SPARQL查询等功能。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
NOAA潮汐与洋流MCP服务器提供快速访问NOAA海洋和大气数据的工具,包含潮汐、洋流、气象、天文和气候研究数据,支持多种传输模式和集成方式。
一个结合Ollama大模型能力和PostgreSQL数据库访问的交互式聊天助手,支持自然语言查询数据库并生成SQL查询。
Taroify MCP 是一个将 Taro React UI 组件库与大模型连接的服务,支持从小程序文档中检索组件和API数据,无需额外依赖。
Wikipedia MCP服务器是一个为大型语言模型提供维基百科信息查询服务的工具,通过标准化协议接口实现实时数据访问,包含搜索、文章获取、摘要生成等功能。
Astra DB MCP服务器是一个为大型语言模型(LLM)提供与Astra数据库交互能力的服务,扩展了LLM作为代理与外部系统交互的功能。
一个社区开发的Nasdaq数据链接MCP服务器,通过自然语言接口和大型语言模型提供金融经济数据访问。
一个为大型语言模型提供标准化接口的Jenkins MCP服务器,支持访问Jenkins数据和执行相关操作。