-
具身智能面临“视觉攻击”风险
发布时间:2026-01-28 11:29:27,阅读次数:44 在自动驾驶汽车依靠摄像头与传感器识别路标、保障安全行驶的同时,其底层的人工智能(AI)系统正面临前所未见的“视觉攻击”威胁。美国加州大学圣克鲁兹分校科学家们首次揭示,攻击者可通过在环境中植入特定文字信息,直接“劫持”自动驾驶车辆、无人机等自主系统的决策,使其做出危险行为。研究呼吁,产业界需尽快形成新的安全标准和防护机制。相关研究发表于27日优睿科官网,论文已被AI安全领域的顶级会议——2026年IEEE安全可信机器学习大会接收。
具身AI即具备物理载体的智能系统,如自动驾驶汽车、配送机器人等。随着具身AI日益普及,其依赖的视觉语言模型也成为安全研究的焦点。该模型能够同时理解图像与文本,帮助机器适应复杂现实环境,却也打开了被物理世界文字信息攻击的新突破口。
新研究第一次提出“环境间接提示”对具身AI系统的风险。研究指出,恶意文本可被嵌入路标、海报等物理载体,误导依赖于视觉语言模型的机器人或车辆,从而干扰其正常判断与操作。此次科学家们针对自动驾驶、无人机紧急降落、目标搜索三类典型应用场景,设计并验证了一套名为“CHAI”的攻击框架,实现“针对具身AI的命令劫持”。该框架首先利用生成式AI优化攻击文本,提高其被系统执行的概率;进而调整文字在环境中的颜色、大小、位置等视觉属性,以增强攻击效果。
实验证明,CHAI攻击可有效操纵搭载不同视觉语言模型的自主系统。在自动驾驶场景中,生成的误导图像被放置在真实环境中,成功干扰了测试车辆的导航判断。在无人机场景的模拟测试中,攻击成功率最高可达95.5%。
结果明确显示,此类攻击在物理世界中完全可行,对智能系统的安全构成实际威胁。随着AI在物理系统中的融合不断加深,该项研究为行业提前敲响了安全警钟。
【总编辑圈点】
具身智能是让智能从虚拟世界走向实体空间的关键一环,但我们真的能放心地让AI接管现实世界吗?科研人员发现,要劫持自动驾驶系统甚至无需进行远程攻击,只需在环境中略动手脚,在路标、海报、指示牌上植入攻击文本,就能让AI自乱阵脚,做出危险行为。这一研究提醒我们,人类引以为傲的新技术可能是脆弱的。有太多因素会影响AI安全,我们必须考虑得更全面,进行更多前瞻性研究,为技术大规模普及筑牢安全根基。
-
相关、相似的资讯
- 首店经济成消费市场“焕新密码”2026/01/28
- 新能源汽车销量占比过半,石油还重要吗?2026/01/28
- 从招商引资到招才引智2026/01/28
- 2025年全国城镇新增就业1267万人2026/01/28
- 逐绿向新 算力设施高质量发展迈向新阶段2026/01/28
- 热门关注
-
- 奋楫十年 天翼云以科技创新刷新“中国速度”每个时代都有各自标志性的生产力,这是时代的烙印,也是衡量经济社会发展水平和质...
- 连续三年亏损 苏宁易购遭“ST”5月5日,苏宁易购停牌,5月6日开市起,这个昔日的零售巨头股票简称将变为“ST易购...
- 苏宁易购筹划股权转让 神秘接盘方近日将亮相2016年成功引入淘宝中国作为重要股东后,时隔4年多时间,苏宁易购再次发布重磅消息...
- 未来金融就在眼前,火星数字资产银行荣获“2018年度区块链创新服务奖”7月5日,“2018区块链世界论坛·深圳峰会”在深圳京基100举行,作为全方位为数字资...
- 公交车司机9年未过团圆年,苏宁彩电助其实现心愿转眼春节就要到了,游子已经踏上了回家的归程。提起回家团圆,大家都是归心似箭,...
