北京人形机器人创新中心开源国内首个符合具身智能国家标准的VLA大模型XR-1,并配套发布RoboMIND2.0数据底座和ArtVIP高保真数字资产数据集,旨在推动机器人技术发展,为开发者提供强大支持。
国内首个通过国家标准测试的具身智能VLA大模型XR-1正式开源,配套发布数据底座RoboMIND2.0与数据集ArtVIP,推动人形机器人从实验走向实际应用。
理想汽车OTA8.1版本更新,核心亮点是VLA司机大模型在语言智能方面的重要迭代。此次升级通过强化学习技术,使辅助驾驶更具人性化,提升了出行安全、舒适感和驾驶便捷性,为用户带来更直观的安心体验。
长城汽车在2025广州车展发布VLA辅助驾驶大模型与CP Master系统,具备听懂指令、识别潜在危险、推理思考和可靠信任四大能力。首搭魏牌高山/蓝山车型,2026年Q2交付。技术采用4D毫米波雷达、8MP视觉和激光雷达融合,提升暗光雨雾下250米识别距离,能检测轮胎碎片、小动物等异形障碍物。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
UCSC-VLAA
VLAA-Thinker-Qwen2.5-3B是一个类似R1的推理大视觉语言模型,专注于多模态推理任务。该模型在OpenCompass多模态推理排行榜上达到了SOTA性能,支持图像理解和复杂推理能力。