更安全的自动驾驶车辆意味着要向他们提出正确的问题

更安全的自动驾驶车辆意味着要向他们提出正确的问题
2025年11月24日 16:08 电子产品世界

自动驾驶汽车需实现零失误运行,这无疑承载着巨大压力 —— 每一次失误都会削弱公众信任,并迫使行业进一步提升安全性。如何帮助自动驾驶汽车克服这些挑战?

在发表于 IEEE Transactions on Intelligent Transportation Systems 10月刊的一项研究中,研究人员概述了可解释人工智能——即向AI模型提出问题以理解其决策过程——如何准确定位自动化车辆模型在过程中犯错的具体时间。这种方法不仅能帮助乘客知道何时需要控制车辆,增强他们对自动驾驶车辆的信任,还能帮助行业专家开发更安全的自动驾驶车辆。

Shahin Atakishiyev 是一名深度学习研究员,这项研究是他在加拿大阿尔伯塔大学从事博士后工作期间完成的。他指出,自动驾驶架构通常是一个 “黑箱”。“乘客、路人等普通民众无法知晓自动驾驶汽车如何做出实时驾驶决策。” 他表示。

但随着 AI 技术飞速发展,如今已能向模型追问决策背后的原因。这为深入探究模型内部运作机制开辟了广阔空间。例如,车辆突发制动时,它关注的是视觉传感数据中的哪些部分?时间限制对其决策影响程度如何?

自动驾驶汽车的实时反馈机制

Shahin Atakishiyev 及其团队在论文中举例说明,实时反馈如何帮助乘客识别自动驾驶汽车的错误决策。他们提及另一研究团队的案例:研究人员在限速 35 英里 / 小时(56 公里 / 小时)的标志上贴贴纸,将数字 “3” 的中间部分拉长,随后测试特斯拉 Model S 的抬头显示系统对修改后标志的识别情况。结果显示,车辆将 35 英里 / 小时的限速标志识别为 85 英里 / 小时(137 公里 / 小时),并在接近和驶过标志时加速。

Shahin Atakishiyev 的团队认为,若车辆在接近限速标志时,能通过仪表盘或用户界面实时给出决策依据 —— 例如显示 “当前限速 85 英里 / 小时,正在加速”,乘客便可及时干预,确保车辆遵守实际限速规则。

Shahin Atakishiyev 表示,此处的挑战在于如何平衡向乘客提供的信息深度,毕竟每个人的偏好各不相同。“解释可通过音频、可视化图像、文本或振动等形式传递,人们会根据自身技术知识、认知能力和年龄选择不同模式,” 他说。

Shahin Atakishiyev 指出,向用户提供实时反馈能即时避免事故发生,而在自动驾驶汽车失误后分析其决策过程,同样有助于科研人员研发更安全的车型。

在研究中,Shahin Atakishiyev 团队开展了多项模拟实验:让自动驾驶深度学习模型在行驶中做出各类决策,随后就这些决策向模型提问。他们特意设计 “陷阱问题”,发现模型在某些情况下无法解释自身行为。这种方式能帮助识别解释模块中需改进的关键缺陷。

研究人员还提到一种现有机器学习分析技术 —— 沙普利可加解释(SHAP),科研人员可借助该技术评估自动驾驶汽车的决策过程。自动驾驶汽车完成行驶后,SHAP 分析会对其决策所用的所有特征进行评分,明确哪些特征对驾驶决策有用且具影响力。“这种分析有助于剔除影响较小的特征,重点关注最关键的特征。”Shahin Atakishiyev 说。

研究人员还探讨了如何通过解释厘清自动驾驶汽车撞人事故的法律责任。核心问题包括:车辆是否遵守交通规则?事故发生后,车辆是否 “意识到” 撞到人并按规定完全停车?是否立即启动应急功能(如向当局和应急服务报告事故)?这类问题能帮助科研人员定位模型中需修正的缺陷。

这些用于理解深度学习模型决策过程的策略在自动驾驶领域正逐渐受到重视,有望推动道路安全水平提升。

“我认为解释正成为视听技术的重要组成部分,”Shahin Atakishiyev说,强调解释可以通过调试现有系统来评估驾驶的作安全性。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片