欢迎关注“新浪科技”的微信订阅号:techsina
文/米其林
来源:GeekCar极客汽车(ID:GeekCar)
最近,「辅助驾驶」「自动驾驶」成了一对儿敏感词。
不论是因为名字是否准确、功能是否可靠、宣传是否合适……这些争议的出现,本身都是因为我们处在这个「人机共驾」的时代。
什么是人机共驾呢?
在传统汽车时代,人驾驶着车辆,拥有 100%的驾驶控制权。随着智能技术的提升,系统开始在部分场景接管驾驶,此时人负责观察环境、以防危险情况触发后人为接管车辆。在这个时期,人和系统就像一对儿开着同一个机甲的搭档,共同完成驾驶这件事儿。直到完全自动驾驶技术来临,我们把驾驶权彻底交给系统这个「司机」之前,都要不得不面临人机共驾。
在《环太平洋》中,每辆机甲由两个人共同驾驶,一对儿搭档需要通过相处、训练慢慢培养一样默契,动作契合,甚至心意相通。
汽车从冷冰冰的工具,慢慢变得智能化,成为驾驶员的合作伙伴。就像人类遇到了一个新的搭档,也要经历刚开始的陌生,逐渐熟悉,慢慢磨合,直到培养出默契的过程。
在这个过程中,我们有各种情况要磨合:当机器遇到处理不了的情况时,需要驾驶员及时接管,这种驾驶权的切换当然是越流畅、越无缝,驾驶的体验感就越高,毕竟在高速行驶的复杂道路上,一秒钟的迟疑和延误,可能造成很严重的后果。
不过,人类间的默契可以通过长时间的相处与磨合解决,人与系统的默契并不是单纯开车时间长就能解决,更多的是需要技术为系统和人建立沟通的一座桥梁,让它们能彼此感知对方。
而提供这座桥梁的,就是与人和系统都密切接触的座舱。
人机共驾也有自己的「马斯洛需求」
人与人之间通过语言、文字、动作、表情来沟通,来传达信息;人与系统的沟通也一样。在座舱内,人通过眼睛看指示灯、仪表盘、中控屏幕的提示,通过耳朵听指示音,通过车内的预警系统提示那些驾驶员视角下不易察觉的信息;同时,驾驶员也通过座舱内的按键、触屏、方向盘和刹车踏板,指挥辅助驾驶系统启动或是终止。
面对复杂繁多的数据和信息,哪些信息是关键的?是最重要的呢?
在聊人类的需求时,我们常常会提到马斯洛需求层次模型:
人类的需求就像金字塔一样,从生理需求到对自我实现的需求,在底层需求被满足的情况下,不同层次的需求也应运而生。吃饱穿暖,生命没有危险,会开始渴望社会需求,需要爱情、友情和亲情的情感需求;当情感得到满足后,会需要被人承认和尊重的需要……
人机共驾也一样,有着「马斯洛需求」相似的不同需求。
人机共驾最基本的「生理」 需求,就是「驾」,也就是人和系统如何配合把车开起来。当然,如果这个需求满足不了,也就不叫「人机共驾」了,那不就是人在自己开车么?
当车开起来后,就面临了人、车、系统都最重要的一个需求——安全。
当安全的需求得到满足后,人类懒惰的本能就开始起作用了,我们希望辅助驾驶的汽车能够有更高的效率,帮我们节省更多时间、力气,直到最终完全替我们开车。同时,被系统解放了的双手和双眼也开始「找乐子」,开始期待座舱能带给我们愉悦的出行体验,这就是情绪的需求了。
这些不同阶段的需求,都反应在了座舱的功能上。
不以安全为前提的共驾,都是耍流氓
安全作为人、车、系统共同的基础需求,贯穿了人机共驾的全过程,不论是我们追求的速度与激情,还是周到的服务与体验,都建立在安全的基础上。
作为人机共驾的搭档,当我们在担心「辅助驾驶功能是否可靠?」时,如果汽车系统会思考,可能也在担心同样的问题:「驾驶员可靠么?他做好准备随时接手开车了么?」
因此,人和系统间复杂的数据传输中,与安全有关的交互信息被排在的第一位,也成了目前车企们的重头戏。
01
初级版:
管住驾驶员的双手
先来看看现在的车企是怎么解决这些问题的。
在第一次打开小鹏 NPG 系统时,系统会强制播放 4 分钟的「教学视频」,视频结束后还有个类似科目一的考试环节。通过视频教学和这个小考试,来确保用户学会使用 NPG 功能。除了用法教学小视频,车企更多采用的强制性措施就是方向盘预警。通过方向盘上的传感器,来确保驾驶员开启「辅助驾驶」功能的时候,双手不离开方向盘。
当然同样的方向盘预警系统,也能反应出不同车企的策略。广汽埃安 ADiGO 3.0 的 HOD(方向盘脱离预警),在方向盘安装了电容式传感器,非常灵敏,因此双手只要轻轻搭载方向盘上即可。系统也支持短暂的脱手功能,传感器会在双手离开方向盘几秒钟后在发出警报。
(ADiGO3.0中HOD带有短暂的脱手功能)
相比之下,小鹏 NGP 的方向盘脱离预警就更「保守」,方向盘上使用扭矩感应式传感器,驾驶员必须给方向盘一个转向力,才能有存在感。这样驾驶员就算使用辅助驾驶功能时,也要时刻保持在开车状态,方便随时接管车辆。当然,从用户感受上来说,这种模式会有点「累」。
02
进阶版:
是谁的小眼睛,没有看路况?
方向盘预警的方式,只能保证驾驶员的双手握在方向盘上,至于他有没有低头看手机、有没有注意到前方并线的车辆,就无能为力了。这时候,就需要借助座舱的「核心之眼」,让自动驾驶与座舱的融合更进一步。
2020 年 CES 上,宝马发布的 BMW i Interation EASE 智能座舱。利用视线追踪系统,监测乘客视线,识别视线所聚焦的物体,这样用户的目光所及之处,智能汽车的系统都能读懂了。
作为一款概念版座舱,这个视线追踪的功能听起来也许炫酷又遥远,但是它所利用的技术们:传感器、AI、5G、云计算等等,目前已经应用在座舱里了,这几项技术集大成的功能,就是座舱的 DMS(驾驶员监测系统)功能。
通过座舱内摄像头、近红外线等传感器,来收集驾驶员的表情、动作、仪态等信息,判断驾驶员是否处于走神、疲劳、打瞌睡,甚至无法驾驶等情况。DMS 最初是用来应对疲劳驾驶等情况,所以国内强制疲劳驾驶的「重灾区」——商用车必须标配 DMS。不过让 DMS 与 ADAS/AD 配合,显然能达到 1+1>2 的效果。
开启辅助驾驶功能后,得到适当放松的驾驶员要么会被手机、风景吸引,注意力分散;要么干脆疲惫来袭,开始困倦。当出现突发状况、需要驾驶员来接管车辆的时候,可能无法及时察觉。这时候 DMS 就能通过对视觉的监管,来保证驾驶员处在专注的状态。
驾驶员也许会用个矿泉水瓶代替双手,来骗过方向盘传感器,但是眼神和表情是很难隐瞒。
比如,星越在车速大于 50km/h 时,就会开启 DMS,通过摄像头采集面部表情特征,在驾驶员打哈欠、闭眼打盹时给出预警的声音、方向盘震动等提醒;广汽埃安 S 通过方向盘上的摄像头捕捉驾驶员行为,在吸烟、打盹儿时,发出警报提醒。蔚来 ES6 和 ES8 也同样在后视镜上集成了 DMS 摄像头。
但是,目前 DMS 摄像头更多的应用是 FACE ID 和疲劳监测,在闭眼、低头、打哈欠时给出声音和震动预警,想精准识别微小的表情和视线,还是有难度的。
03
终极版:
独立思考,防患于未然
不论是初级版对方向盘的脱手监测,还是在进阶版中,通过对用户眼睛、动作的捕捉,来提醒疲劳犯困的驾驶员,都是在危险行为发生后,把危险信号警告给用户,让用户清醒、处理危险,有点「头疼医头、脚疼医脚」的意思。
如何在危险发生前,就防患于未然呢?
这就需要座舱有点「独立思考」的能力。
不少初创科技公司,就在驾驶员微表情上下功夫。比如,以色列传感器公司 Cipia 通过计算机视觉与 AI 技术的测试和研究,发现人类在睡意来袭的早期,表情会发生微妙的变化,当人在大脑放空发呆时,表情也有产生变化。也就是当你还没打哈欠、没开始瞌睡时,系统已经知道你困了。
试想一下,这时候系统调用座舱的香氛,来个「风油精」香调的香氛;打开音乐,来段动感的摇滚;再配合一下方向盘的震动和闪灯,提神醒脑效果拉满。
即使你带上墨镜,也很难逃过红外感应器 + 摄像头双管齐下的「法眼」。
当然,这种察言观色的能力背后,是座舱主动性的提升。它不仅能获取用户表情、动作和车外路况的信息,也能将数据前融合,将数据间的逻辑梳理清楚,自己推理出可能发生的危险,甚至系统自己做出判断,帮你打开「提神醒脑」模式。
别看是小小的进步,这可需要系统的「智商」增加不止一点点。从遇到不会处理的信息,就丢给驾驶员的「baby」模式,进化到开始自己处理信息、做出决策的模式,系统开始学会独立思考。也是从这一步开始,人机共驾系统从工具,转变为助手,甚至慢慢进化成用户的朋友。
也许你会问:就算安全预警做到万无一失,遇到那种打开特斯拉 AP 系统,自己跑去后排睡觉的人怎么办?
遇到不按常理出牌的人,那就像通用 SuperCruise 一样,三次警告无效后,直接退出系统,自动刹车,「红牌罚下」。
人机共驾:是工具,是助手,也是朋友
人们常说,「懒惰推动了科技进步」,在人机共驾这件事儿上也一样。
当安全的基本需求满足后,就像人吃饱穿暖后,「饱暖思淫欲」的本能开始唤醒:能躺着就不坐着;能动口就不想动手;指令能一步到位,就不想多说一句话……
这两年,车企的语音系统慢慢变成了智能语音助手,不仅智能,而且像助手一样,提供「拟人」般周到的服务,就有点这个趋势。
宝马曾在发布 BMW Natural Interaction 的时候,给出过这样的场景:
座舱内配置的红外光信号感知器可以精确捕捉手指动作,当食指指向车窗的时候,车窗可以根据手指的滑动方向开关;这种隔空指物的能力还可以扩展到车外,当你用手指只想车外的参观时,问「这家餐馆打分如何?」,系统也能给出餐馆的信息。有点武侠小说中「隔空取物」、「六脉神剑」的意思。
为了迎合人类的语言交互需求,语音交互从单轮交互,进化到了多轮交互,可以连续的理解上下文做出回答。也许在系统可以融合更多信息、记住用户日常习惯的时候,交互的需求又会变得返璞归真:你只要说一句饿了,它就会把你喜欢吃的餐馆准备好列出来,你选择了某一家餐馆,系统就直接帮你规划好导航路线,查好停车位,甚至帮你打了电话订座位了。
甚至有一天,系统可以主动获取、判断用户的需求,将服务自动推到用户面前。当你进入座舱的时候,系统已经根据过往的使用习惯和数据,得到几种推荐的驾驶模式,你只要点击一个按钮,选择「睡眠座舱」还是「公务座舱」,一键就可以搞定了。
或者,马斯克干脆派TeslaBot来帮你开车?
最后
当我们听到「自动驾驶」时,常常会自动带入变形金刚一般智慧、强大的形象。可是正在进化中的自动驾驶,远没有那么强大。
在它的进化中,我们需要经历漫长的「人机共驾」阶段,这时的系统就像我们在游戏中养成的一个账号,从零技能开始,慢慢积累、修炼技能,我们也要慢慢适应与它的相处:从最初人类的包容、适应、遵守使用习惯;到系统逐渐强大后,为人类提供更多的驾驶辅助功能,越来越多地解放人类驾驶的时间和空间,提供更周到的服务和情感陪伴。直到有一天,系统可以完全自己驾驶车辆,我们就摆脱「人机共驾」的阶段了么?
不一定哦,毕竟人类还是习惯把决策权,掌握在自己手中。
(声明:本文仅代表作者观点,不代表新浪网立场。)