自动驾驶汽车依赖路标识别,但加州大学研究揭示其致命弱点:攻击者通过打印特定文本的标识,就能利用视觉语言模型漏洞,诱导车辆做出危险决策,甚至驶向行人。这种“CHAI”攻击暴露了AI系统对视觉指令的过度依赖风险。
英伟达在NeurIPS大会上推出新AI基础设施和模型,推动物理AI发展,助力机器人和自动驾驶车辆感知真实世界。重点发布Alpamayo-R1,首个专为自动驾驶设计的开放推理视觉语言模型,能处理文本与图像,提升车辆环境感知能力。
英伟达在NeurIPS2025发布L4级自动驾驶推理模型Alpamayo-R1,基于Cosmos-Reason系列,可同时处理摄像头、激光雷达和文本指令,通过内部推理输出驾驶决策。模型采用视觉、语言、动作三模态端到端统一架构,避免模块误差叠加,旨在为车辆赋予“人类常识”。
萝卜快跑与瑞士邮政巴士合作,将于2025年12月在瑞士东部三州推出自动驾驶服务AmiGo。乘客可通过手机应用预约最多容纳四人的车辆,旨在提升当地出行体验。
Xai
-
Input tokens/M
Output tokens/M
Context Length