ZKX's LAB

为什么2020年了,自动驾驶还会毫不犹豫直接撞向大货车?

2020-11-24新闻12

今天想跟大家聊聊正处在舆论风口的自动驾驶。

现阶段各个厂家所传播的自动驾驶或者ADAS驾驶辅助功能其实一直是存有争议的,到底能替代人的能力有多少?替代到什么程度?好像谁也无法给出明确的回答。更要命的是,很多时候自动驾驶出的事故,都是一些我们看起来非常智障的问题。例如今年6月1日发生的事故,在台湾嘉义县,一辆特斯拉在高速行驶,而前方可以清楚的看见有一辆大货车侧翻后横在高速公路左侧,差不多占据了左侧两条车道。而当其他车辆都在做减速变道时,唯独这辆特斯拉一直沿着事故道路高速行驶,直愣愣地撞了上去。

除了特斯拉以外,网红理想ONE在更改产品逻辑之前,也发生过不止一次。就在今年9月22日山东青岛高速,以及10月20日京港澳高速湖南郴州段,这两件事故里的理想ONE汽车,都是在开启自动驾驶辅助系统的时候,遇到前方大货车变道,也都是直愣愣地撞了上去。

而在第一次事故后,理想汽车就发布声明解释说是:

而同时,他们也同样在官网上做了调整,删掉了之前传播的“自动辅助驾驶”里的“自动”二字,也就变成了官方说明里一直在说的“辅助驾驶”。“自动”两个字总是会让大多数人产生误解,以为现阶段就已经可以完全交给车来操作。特斯拉和理想ONE的这些起事故,发生得让很多人难以理解。虽然就像马斯克所说的那样,自动辅助驾驶可以在一定程度上帮助驾驶员避免发生交通事故,但一直也没有说就能够完全避免发生交通事故。我们也有很多读者朋友提出过质疑,他们认为这不过就是一个“加塞”问题,问题明明很简单,明明就可以避免,那为什么就不行呢?我们今天就来探讨这个“为什么智障”的问题。

以理想ONE面对大货车“加塞儿”这样的事情为例:官方说,没法在旁边车道车辆并入1/5车身的时候识别成主要目标。大多数人会简单理解为,旁边车道车辆并入主车道小于1/5车身的时候,无法判定这辆旁边车道的车辆正在做“加塞儿”的动作。这么理解基本是对的。于是,很多人就会设定这样的一个判断逻辑:

若是这辆旁边车道的车辆在横向移动持续一段时间,那么在跨过车道线时就判断为有加塞儿的可能性,这样不好吗?

这都做不到?辣鸡!

甚至很多人会设定这样的一个判断逻辑:

如果当相邻车辆的车头以一定角度从相邻车道进入本车道,且在横向存在持续移动状态,就判定其有加塞儿的可能性不好吗? 这都做不到?辣鸡!

但其实问题并没有大家想象的那么简单。

主要有两个原因:1、即取决于技术发展,也取决于成本的硬件搭载方案,也就是自动驾驶或者辅助驾驶层面;2、更重要的在于,其他交通参与者的行为过于复杂。

这两个因素加起来就导致在我们人类看来再普通不过的加塞儿这件事,对于机器来说就变得无比复杂。

自动驾驶系统目前仍然需要大量的数据学习,而且目前的自动驾驶本质上就是一个教条、只会按部就班地根据设定开车的程序,并不能像大家想的那样根据路况自己随机应变。

——尤其是当交通里的其他的参与者还以人驾驶为主的时期,机器更是难以解读马路上开电瓶车的大妈、骑三轮车的大爷、开跑车左右窜的小伙子、翘头压弯的鬼火少年们的行为动作下的真实意图,并随之做出合适的相应的判断和执行。

举个具体的例子:我们在现实驾驶中,会分为高速段和低速段,就假设场景分别在高速上和市区里。

高速上,相邻车辆越过车道线的场景也分为好多种,比如说有些相邻车辆想要变道,但是突然发现自己车道的前车提速了,不需要自己变道了;再比如说,有些相邻车辆开着开着就骑线开了,但是他并没有想变道等等。

在市区里其实也一样,会有多种可能“真加塞儿”,但你都来不及反应相邻车辆就进入到你前面了。

也有“假加塞儿”,你以为他想加塞儿,踩一脚油门跟上去不想让他插队,但实际上人家只是手抖了一下,心情好的时候你可能会猜测,他是不是有急事,自己也没那么着急就让他进来吧等等情况——看看,你自己心情好坏,做出来的行为是不一样的,机器绝对预测不出来,更别说马路上那么多其他的车了。

但这些我们说的还都只是针对“真&假加塞儿”这件事。那如果回归到自己车辆在开启巡航功能时,将判断交给了机器,他们又是如何来理解这些复杂的“真&假加塞儿”呢?

说到这里,需要提及下自动驾驶的三层系统:感知系统、决策系统和执行系统:

· 感知系统:也称为“中层控制系统”,负责感知周围的环境,并进行识别和分析;· 决策系统:也称为“上层控制系统”,负责路径规划和导航;· 执行系统:又称为“底层控制系统”,负责汽车的加速、刹车和转向。

这三个系统,其实说的简单接地气一点,就和人一样,

l 感官相当于感知系统,比如说用眼睛去看前方的车辆、相邻道路的车辆,要做到“眼观六路”;

l 决策系统其实就是自己的大脑,去判断相邻车辆是不是要“加塞儿”,那自己是要减速呢?还是加速跟上去不让他加塞儿进来?等等

l 执行系统,就是自己的四肢去根据大脑的决策去做动作,比如说用手去按喇叭鸣笛,示意相邻车辆自己车速也很快,不要加塞儿,很危险,又或者用脚去踩刹车踏板减速,让相邻车辆加塞加进来,也可能会用脚踩刹车踏板的同时,用手去打转向稍微避开一些等等。

那么对于机器来说,情况是这样的:

首先决策系统,也就是怎么去判断相邻车辆是不是真的有加塞儿意图的系统.

就像前文讲的一样,做不到灵活判断,也猜测领悟不了相邻车辆里的人的真实意图,只能根据相邻车辆的一些明确的反应来进行判断,而这里的“明确的反应”在工程里就叫“阀值”,也就是触发条件的临界值。

就像理想在秋季媒体沟通会上所说的“没法在旁边车道车辆并入1/5车身的时候识别成主要目标”,这里的“旁边车道车辆并入1/5”就是阀值,

当进入本车道大于1/5之一时,理想ONE的决策系统才会判断为这个旁边车道车辆有加塞儿意图,从而采取动作。

而这个1/5的数字,其实取决于不同车企,或者不同自动驾驶技术方案的不同标定。

有些会设定为1/3,也有些会设定为1/2。

比如我之前就听说特斯拉的逻辑是,当相邻车辆并入本车道1/3时,自己的车辆会向一侧让一让,但仍然会按照设定的目标速度行驶,而当相邻车辆并入本车道1/2时,就会判断为其有“加塞儿”意图从而采取动作。(这部分有待确认,大家就当看小道消息)

那么为什么不同的车企,或者不同的供应商的技术方案,会有不同的阀值?那其实就是不同的人,对于相邻车辆的动作到什么程度,才会判断为“加塞儿”。

当然,我相信你们心里一定很不理解,那既然这个值是我们自己设定的,而不是机器的能力边界,为什么不把他们设定的再激进一点?

——比如说只要越过相邻车道线,就判断其有加塞儿意图不好吗?

我的工程师朋友是这样解释的:

在我们自己认为驾驶过程中,尤其是高速上,都不会轻易采取动作,尤其是刹车,甚至急刹,因为如果因为前车一点点动作就频繁减速,很容易造成后面车追尾甚至连环追尾的情况。所以在机器标定的时候,也不能太激进,因为若相邻车辆真的只是个“假动作”,而我们的车辆就被“蒙骗了”从而立即做了刹车动作,那就很容易造成刚才说的车追尾的情况,甚至连环追尾,那么就很有可能让整个交通工况都变得非常复杂了。

那么如果说轻易判断相邻车辆有加塞儿意图,事情会变得很复杂。那么同样,轻易不判断相邻车辆有加塞儿意图,也容易造成危险事故。

当然,这还只是其中的一种工况。(即前方没有车辆,仅仅是我们自己的车辆按照我们设定的速度巡航的情况下)

而如果前方有车辆,我们的巡航功能不仅是定速巡航,而是跟车巡航,那事情就会有你绝对意想不到的发展——工况会受到前方车辆的变化而影响。

比如说,在我们跟车巡航时,设定的跟车速度是120km/h,而前车的速度在100km/h时,我们当时的实际跟车速度也是在100km/h。假若恰好此时前车加速了,且相邻车辆打算加塞儿,而我们自己车辆会因为前车提速也会跟着提速,好的,一个提速一个加塞,那么结果就是你眼睁睁开着自己的车把对方加塞的车直接撞飞。

所以说在这些情况下,都很难说在决策系统层面,是做的激进好还是保守好。

而且,这还只是自动驾驶的三层系统里的决策系统,另外还有感知系统,在这个过程中也同样承担着重要的角色。

感知系统讲究的是能够看的到、认得出,从而让自动驾驶的大脑——决策系统根据感知系统看到认出的内容,依据逻辑去进行判断决策。

那么看得到要如何理解呢?

一方面是指我们能看得到相邻车道的车辆,而这个车道的数量越多越好;另外一方面是指我们能够看的远,远处的事物我们也能够一览无余。

比如说说对于Mobileye EyeQ4智能前视摄像头来说,就有两种水平视角,为52°和100°,对于不同的水平视角,所能看到的车道范围是不一样。也当然,看到的车道范围越广,就越能够注意到更多相邻车道的车辆,从而更安全。

所以对于理想ONE来说,理想ONE采用的是Mobileye的自动驾驶方案,整套硬件由Mobileye提供的单目摄像头,配合Eye Q4视觉芯片,1个77GHZ毫米波雷达、4个摄像头和12个超声波雷达构成。

客观来说,对于主打智能科技的理想ONE来说,大家期待值也会更高,希望至少是4个24GHZ的角雷达。当然,有可能在下一代车型上会做升级,也有可能因为技术路线不同,而选择了不同的硬件。

但是基于Eye Q4视觉芯片的单目摄像头,内参彩色150W像素左右,测量距离大于150m,以及上面提到的两个版本的水平视角,52°和100°,垂直视角为43°,车道线识别长度大于60m。基于这套硬件,难以保证在以驾驶员的位置为基准线,面向车头方向的180°平面里没有盲区。

这也是为什么特斯拉会选择三个前视摄像头的原因:

即鱼眼、正常和长焦。而且除此之外,再加上两个安装在B柱上的侧前视摄像头,以及两个安装在翼子板上的侧后视摄像头,至少以驾驶员的位置为基准面,特斯拉向前的180°平面的视线里是无盲区死角的。

所以从感知系统来说,特斯拉的问题不在于看不到,而是没有“认得出”。因为特斯拉的视觉方案问题在于需要有大量的数据来进行深度学习,就像之前所发生的事故,当大货车侧翻在道路正前方时,Model 3依然直愣愣的撞上去。

不过马斯克之前说他们彻底重写了FSD的代码,新的系统已经可以让马斯克全自动驾驶从公司到家,我很期待看的见的特斯拉在重写代码后,“认得出”水平提高了多少。

写 在 最 后

忘记在哪里看到的信息,大概说是当交通至少40%以上为自动驾驶车辆时,才能有效提升交通运载效率。

毕竟机器可以follow设定好的标准逻辑,比如说当速度大于设定的80km/h时就要限速,但人的意图确实最难猜测。

就比如说上面提到的阀值设定问题,就是用来通过简单的方式来认定相邻车道有“加塞儿”意图,但实际上交通非常复杂。有可能相邻车辆打算加塞儿的,但是放弃了;也可能本来没想加塞儿的,但突然决定要加塞儿并打算一点一点蹭进去等等。

如果再将我们不愿意去说但却真实存在的“恶意加塞儿”考虑进来,确实就更加难以判断了。

而现阶段的自动驾驶或者辅助驾驶,以及交通上搭载并且开启相应功能的车辆比例下,想要真正解决这个问题,虽然我知道假以时日一定可以,但确实也需要时间,也确实存在难处。

但不管怎么样,自动驾驶的未来已经展现在我们面前了。

最后,在我前两天半夜敲完这些字的时候,马斯克确诊了,有点沮丧。

不过这壮如牛的兄弟,自己发明了疫苗打印机,应该不会有事吧。快点好起来,还要推动能源可持续、还要发火箭、还要去火星呢。

#用车#智能汽车#中型车

qrcode
访问手机版