小鹏汽车在2026年全球新品发布会上宣布,其新款车型将搭载自研的第二代VLA大模型,这是行业首个具备L4初阶能力的物理世界大模型。该模型标志着智能驾驶系统从“感知-决策”向“理解-推演-生成”新范式的转变,突破了传统依赖规则或有限场景的限制。
小鹏汽车在2026全球新品发布会上宣布,将“物理AI”与“全球化”定为年度核心战略,标志着公司从技术探索转向实践应用。物理AI技术将全面落地并实现规模化量产,同时公布了跨时代的产品交付计划。
原力灵机团队针对现有视觉-语言-行动模型在复杂环境中因依赖2D图像导致空间感知不足的问题,提出了一种新方案,旨在提升机器人对三维空间深度和位置的判断能力。
优必选旗下优奇与火山引擎合作,整合机器人本体与云端AI技术,加速大模型在工业物流领域的应用。双方将围绕多模态大模型、VLA模型、世界模型及豆包生态展开合作,推动技术规模化落地。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
Hume-vla
Hume-System2是一个双系统视觉-语言-行动(VLA)模型的系统2预训练权重,用于加速系统2的训练,为机器人领域的相关研究和应用提供支持。
UCSC-VLAA
VLAA-Thinker是一个创新的视觉语言模型,能够同时处理图像和文本输入,并生成高质量的文本输出。该模型基于论文《SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models》的研究成果开发,专注于类似R1的推理能力。
VLAA-Thinker-Qwen2.5-3B是一个类似R1的推理大视觉语言模型,专注于多模态推理任务。该模型在OpenCompass多模态推理排行榜上达到了SOTA性能,支持图像理解和复杂推理能力。
CogACT
CogACT是一种基于视觉语言模型(VLM)衍生的新型高级视觉语言动作(VLA)架构,专为机器人操作设计。
CogACT是一种新型视觉语言动作(VLA)架构,结合视觉语言模型与专用动作模块,用于机器人操作任务。