中国舆情网手机客户端工作人员查询
中国舆情网官网二维码

舆情网官网

中国舆情网手机二维码

舆情网手机

您的当前位置:主页 > 动态资讯 > 正文
中国舆情网-一带一路BANNER

具身智能易受视觉干扰威胁

来源:中国舆情网 时间:2026-01-29
导读:具身AI指的是拥有实体载体的智能设备,比如自动驾驶汽车和配送机器人。随着这种技术的应用范围不断扩展,视觉语言模型对安全的影响也逐渐受到关注。此类模型能够同时处理视觉和文字信息,使智能设备可以更好地适应复杂的现实环境,但也带来了新的安全隐患,

具身AI指的是拥有实体载体的智能设备,比如自动驾驶汽车和配送机器人。随着这种技术的应用范围不断扩展,视觉语言模型对安全的影响也逐渐受到关注。此类模型能够同时处理视觉和文字信息,使智能设备可以更好地适应复杂的现实环境,但也带来了新的安全隐患,因为它们变得容易受到以文字为媒介的环境攻击。

近期有研究首次提出“环境间接提示”可能给具身AI造成风险。研究者发现,如果在路标、海报等真实物体上植入恶意文本,就能对依赖视觉语言模型做决策的自动化系统造成误导,影响车辆或机器人的正常行为。针对自动驾驶、无人机紧急处置和目标搜索等场景,科学团队设计了“CHAI”攻击框架,通过优化生成的攻击性文本,让信息更容易被系统接收和执行,并对文字的颜色、尺寸和摆放进行了调整,从而提升攻击的有效性。

相关测试显示,CHAI攻击能够操纵多种搭载视觉语言模型的自主设备。在自动驾驶的测试中,将特定误导性图像部署在实际环境,显著影响了车辆的导航决策;在无人机模拟实验中,攻击成功率甚至接近百分之九十五。

这些结果表明,现实环境中的此类攻击方式无疑对智能系统构成了威胁。随着AI技术日益深入实体应用,相关研究为行业在规划未来发展时加紧防御措施提供了预警。

【总编辑圈点】

具身智能让AI真正走进我们的生活和工作场景,但我们是否真的可以对其完全信任?科学家们发现,其实无需远程网络入侵,只要对环境稍作调整,在交通标志或公告牌上加入特殊文本,就可能引发智能设备做出不安全的反应。这项发现提示我们,面对这样快速发展的创新技术,人们应当保持清醒,深入探究各种潜在风险,用更严密的思考和更科学的方法守护AI安全,加固未来现实世界的防线。

编辑:夏蕊娜
中国舆情网
中国舆情网
中央机构 | 人大机构 | 国家主席 | 国务院 | 政协机构 | 民主党派 | 群众团体 | 驻外机构
Copyright © 2010-2018 中国舆情网 版权所有 | 中国舆情网简介
网络文化经营许可证 广播电视节目制作经营许可证 电信增值业务经营许可证
编辑:tougao@yuqingz.com 运营:operate@yuqingz.com
本网站所刊载信息,不代表中国舆情网观点。转载本网站原创信息请注明出处。
网站地图 | XML地图 | 手机版 | 电脑版
Top