Generalist公司发布GEN-0基础模型,揭示机器人缩放定律,推动技术从任务定制迈向通用智能。该模型基于27万小时真实世界数据训练,实现跨硬件平台“边想边做”能力,被喻为机器人领域的“ChatGPT时刻”,强调真实数据优于模拟环境。
银河通用团队联合多所高校发布全球首个跨本体全域环视导航基础大模型NavFoM,实现无需预先建图和环境适配的零样本全域导航能力,突破传统机器人“换个地方就迷路”的技术瓶颈。该模型具备全场景泛化能力,适用于嘈杂商场、复杂结构等环境。
AI基础模型主导地位受挑战,行业转向定制化、专业化。初创公司更关注特定任务模型,视基础模型为可替换商品,告别通用AI追逐,进入分散化新时代。
PPIO在2025世界人工智能大会上发布国内首个Agentic AI基础设施服务平台,推出通用版和企业版双产品矩阵。平台核心亮点包括:首款兼容E2B接口的Agent沙箱,具备强隔离、毫秒级启动和高并发特性;支持百款主流AI模型,覆盖规划、记忆、执行等需求;已在智慧教育场景落地应用。该平台通过提供从底层算力到上层应用的全方位支持,降低开发门槛,推动智能体技术从探索迈向价值创造新阶段。
首款通用型机器人基础模型
用于人形机器人学习的通用基础模型
图片和视频的通用对象基础模型
anthropic
$21.6
输入tokens/百万
$108
输出tokens/百万
200k
上下文长度
openai
$3.6
$10.8
4.1k
arunimas1107
这是一个基于openai/gpt-oss-20b进行医疗领域微调的LoRA适配器模型,专门针对医疗问答、摘要生成和知识检索等任务进行了优化。该模型通过高效的参数微调技术保留了基础200亿参数模型的通用推理能力,同时增强了在医疗领域的表现。
ertghiu256
这是一个基于Qwen3-4B-Thinking-2507基础模型,通过TIES方法合并多个微调模型得到的增强型语言模型,专注于提升代码生成和数学推理能力,同时保持优秀的通用语言理解能力。
facebook
DINOv3是一系列通用的视觉基础模型,无需微调就能在广泛的视觉任务中超越专门的先进技术。该模型能生成高质量的密集特征,在各种视觉任务中表现出色,显著超越了之前的自监督和弱监督基础模型。
DINOv3是Meta AI开发的一系列通用视觉基础模型,无需微调即可在广泛的视觉任务中超越专门的先进模型。该模型采用自监督学习方式,生成高质量的密集特征,在图像分类、分割、深度估计等多种任务中表现出色。
DINOv3是Meta AI开发的一系列通用视觉基础模型,无需微调就能在多种视觉任务中超越专门的先进模型。该模型采用Vision Transformer架构,在16.89亿张网络图像上预训练,能生成高质量的密集特征,在图像分类、分割、检索等任务中表现出色。
DINOv3是一系列通用的视觉基础模型,无需微调就能在广泛的视觉任务中超越专门的先进模型。该模型采用自监督学习方式,生成高质量的密集特征,在各种视觉任务中表现出色,显著超越了以往的自监督和弱监督基础模型。
DINOv3是一系列通用的视觉基础模型,无需微调就能在广泛的视觉任务中超越专门的先进技术。该模型通过自监督学习生成高质量的密集特征,在各种视觉任务中表现出色,显著超越了以往的自监督和弱监督基础模型。
QuantTrio
Qwen3-30B-A3B-Thinking-2507-AWQ是基于Qwen/Qwen3-30B-A3B-Thinking-2507基础模型进行量化的高效推理模型。该模型在推理任务、通用能力和长上下文理解方面有显著提升,专门针对高度复杂的推理任务进行了优化,支持262,144 tokens的长上下文处理。
Qwen3-235B-A22B-Thinking-2507-AWQ是基于Qwen/Qwen3-235B-A22B-Thinking-2507基础模型的量化版本,在推理任务上表现出色,具有更好的通用能力和长上下文理解能力。该模型采用混合专家架构,总参数量235B,激活22B,支持256K上下文长度。
spiral-rl
Spiral-Qwen3-4B是基于自博弈强化学习框架SPIRAL在多游戏场景下对Qwen3基础模型进行训练得到的模型,在双人零和文本游戏中展现高级推理策略,并在数学和通用推理基准测试中表现优异。
cl-nagoya
这是一个日语通用重排序模型的预览版本,基于cl-nagoya/ruri-v3-pt-310m基础模型训练,专门用于日语文本相关性排序任务。
nvidia
英伟达Isaac GR00T N1是全球首个面向通用人形机器人推理与技能的开源基础模型,具有20亿参数规模。
瑠璃是一个日语通用文本嵌入模型,专注于句子相似度计算和特征提取,基于cl-nagoya/ruri-pt-small-v2基础模型训练。
bwittmann
VesselFM 是一个基础模型,用于在任意成像领域中实现通用的 3D 血管分割。
AutonLab
MOMENT是一系列通用时序分析基础模型,支持多种时序分析任务如预测、分类、异常检测等,具备开箱即用和可微调的特性。
MOMENT是一系列通用时间序列分析的基础模型,支持多种时间序列任务,具备开箱即用的有效性,并可通过微调提升性能。
Locutusque
基于Qwen2.5-7B基础模型,融合了代码、数学和通用指令能力的多语言大语言模型
SAM 2是FAIR研发的面向图像与视频可提示视觉分割的基础模型,支持通过提示进行通用分割任务。
wi-lab
LWM是首个无线通信领域的基础模型,作为通用特征提取器开发,能够从无线信道数据中提取精细表征。
BeaverAI
Dory 12b (v2) 是基于 Mistral Nemo 12b 基础模型的重新指令微调版本,专注于通用指令跟随任务而非角色扮演。该模型采用 QDoRA 方法在高质量指令数据集上进行训练,具备优秀的对话和指令理解能力。