招商加盟热线:

2

业精于勤荒于嬉 行成于思毁于随

请永远对辅助驾驶系统(Level-2)保持谨慎!

作者:admin发布时间:2024-01-13 01:14

  本期焦点是台湾Model X车祸现象分析,注意,仅仅是根据现象所做的分析,一切细节以将来公布的事故报告为准。

  从事自动驾驶行业的朋友们大概应该都还记得黑色的2018年度,以及在那个年度中最黑色的三月份。在一个月之内,彼时完全自动驾驶技术的行业翘楚之一,Uber autonomous driving测试车辆在夜间测试中发生致死事故——将一位推着自行车横穿公路的亚利桑那妇女(Elaine Herzberg)撞死。虽然事后在针对本起致死事故的审判中,Uber被裁定不对这起事故负有刑事责任,但毫无疑问,其开创自动驾驶技术测试和试商用过程中残忍且不光彩的第一幕。

  随后仅仅一周之后,另一起致死交通事故降临在大规模将辅助驾驶技术商用化的新贵Tesla身上。在2018年3月23日,一辆开启Autopilot辅助系统的全新Model X,在硅谷核心地带的101号高速公路上以120Kmph的速度撞上高速公路中的隔离带衰减器,38岁的Apple华人工程师当场死亡。

  我们日复一日在这个极度复杂的工业和科技领域中努力,所涉及的技术林林总总,所以需要面对和处理的问题也就是方方面面。近期发生的公众人物林志颖先生Model X座驾莫名其妙地撞击道路分隔带和信号杆事件依然在提醒我们,自动驾驶技术非但在脱离人力管理的完全自动化Level4-5高阶系统上远未成熟,就是在已经大规模商用的辅助驾驶Level-2的范畴内,也依然谈不上成熟可靠(小编:前提是Model X在事发时开启了Autopilot,一切以事故调查报告为准,本文只提供一种技术上的猜测)。

  林志颖车祸事故发生在7月22日,过去已经有3周多时间,已经不属于热门新闻之列。小编翻看最近的娱乐消息(小编:自动驾驶行业新闻热点已经被小鹏致死事故所取代,没人关注林志颖了已经),林志颖本人已经从ICU病房转移到普通病房看护,除了复杂的面部修复手术待执行,肩膀、胸部和胳膊的手术进行顺利。且其本人意识清楚,已完全脱离危险。此外,还有非正式的消息说林志颖本人在互联网社区中开始回复粉丝的留言,一切都在向好的方向发展。但子弹飞了这么久,我们依然还看不到任何来自官方(小编:包含警方和Tesla车辆制造商)对于车祸的调查结果or线索流出……悬念重重下,徒增我们对事故的惊惧和技术执念的动摇。无法回避的事实是,2021和2022年度已过去的半年内,执国内造车牛耳的三家王者:蔚来、小鹏和理想,再算上Tesla,相继行车事故频繁曝光(蔚来还涉及一起内部测试车辆事故),前二者甚至还是致死事故!小编自己有时候也会被怀疑的气氛所裹挟,陷入想说服别人却很难说服自己的境地。

  回顾在林志颖车祸的当天和第二天(7月22日和23日),互联网上先后有一些不同角度的影像和图像资料曝光,小编整理和罗列如下:

  图一【linzhiying-3.mp4】来自的文章《林志颖车祸时监控曝光,经纪人报平安》,取自URL:

  以上图1中,Model X完成一个标准的掉头操作,稍作调整后即平滑驶入三车道的中间车道,推测应该是林志颖本人操作。根据公开信息,林志颖驾驶的这辆Model X是2021的新款,是去年和Model S plaid版本一同发布并带有Yoke矩形方向盘的新版本,林志颖本人投放在社交媒体上的新车驾驶视频信息也印证了这一点。因Tesla FSD beta测试计划目前只在北美大陆开展,所以台湾版Model X with EAP/autopilot不应该具备自动掉头功能(U-turn)。销售中的商业版本的Autopilot在地面没有完整、清晰车道线时是需要人工接管的(小编:如果我这里表述错了,请读者指出),而车辆掉头的路口区域,往往存在大面积的道路标识线空缺。

  在长期跟踪FSD beta测试项目时,我们不难发现FSD系统的设计初衷是要和人类的基本驾驶能力对齐,从而尽可能降低对外部环境的依赖。这种依赖关系具体表现为:依赖提前测量和绘制的高精度道路地图HDmap、依赖外部定位信号源综合提供实时且高精度位置信息和航向信息、依赖Lidar/Radar/Camera等传感器实时获取车身四周的道路结构及障碍物信息等等。但这些依赖关系,长期以来都算是人类工程实践的基本思路:将具体的“技术命题”或者“技术挑战”规则化、边界化地局限在某个预定义场景下,从而提供解决问题的可能性。这样的实践比比皆是。在自动驾驶领域,目前我们实际可以看到各主流厂家的自动驾驶系统解决方案基本都是这个思路,相当于给技术难题做减法,直到进入一个稳定的、相对不那么难的技术领域,从而实现产品化。从这点上看,Tesla算是个异类。不过Elon Musk本来就是个异类,不是吗?

  Tesla目前所能提供的两个自动驾驶系统实现,Autopilot(商用中)和FSD beta(测试中)的自动化设计级别差异明显。其中在售状态的Autopilot自动辅助驾驶系统属于Level-2产品实践,当车辆检测到自己并非处于结构化和标准化都更好的高速封闭路段Highway场景下时,或当车辆视觉系统检测不出连续有效的车道线时(小编:清晰的、高置信度的车道线识别是Autopilot系统激活的前提条件,这意味着自动驾驶系统所面临的场景结构化强且相对安全),实际上Autopilot或无法激活,或如果已经在激活状态中则会通过声音警告人类驾驶员接管。尤其在典型的City road条件下(小编:City road道路环境是相对于高速路段更复杂的道路环境),相信允许人类驾驶员可脱手监管的外部道路条件是大概率不具备的。目前处于测试状态中的FSD beta则是另一个命题,本篇内就不展开讨论了。

  这是为什么我们说从图1视频中那个毫不拖泥带水的U-turn操作上看,基本可以确定是人类驾驶而非机器。往细节里说,当车辆进入十字路口区域执行U-turn操作时,不管是否有交通灯的保护期,车辆掉头都是一个非常困难的操作。Tesla车辆的视觉系统在U-turn过程中,需要通过实时在标清地图(预制信息)和视觉信号(实时计算)的比对中,来判断自己车身和路口道路结构之间的相互关系,从而可以规划出安全、舒适和高效的掉头路线(小编:我们在此忽略了掉头的行为规划,这不属于讨论范畴)。目前商用的Autopilot EAP系统显然并不具备这个能力,根据大量的路测视频显示,即便FSD beta系统,做掉头U-turn操作都很费劲。表现为对动态外部场景响应缓慢、动作犹豫。

  视频中另一个关键点在于,当Model X完成掉头操作并进入直道行驶之后,此时Model X车辆是否开启了Autopilot的LKA-Lane Keeping Assist system功能?这是个典型的L2辅助驾驶功能,市面上进入商用阶段的Level-2系统一定都包含车道保持功能。从画面上看,车辆在完成掉头之后确实平滑地进入中间车道,但无法判断这个操作是人为驾驶回正还是系统LKA激活后的自动操作。

  图二【linzhiying-2.mp4】来自星岛网的文章《意外现场正面CCTV画面曝光》,取自URL:

  上图2视频中,清晰地展示出了Model X在进入直行之后,进入一种“奇怪的”行驶状态。如果以地面的车道线和导流槽交接处为分界点(下图3中黄色箭头指示位置),在分界点未到的前半段Model X可以在车道中居中行驶,但在过点并进入后半段后,Model X开始逐步向右偏转,直到Model X的右前轮几乎压着车道导流槽的斜线撞上隔离带上的交通标识杆。

  图三【linzhiying-6.png】来自星岛网的文章《意外现场正面CCTV画面曝光》视频截图,取自URL:

  整个过程既没有激烈的加减速,也没有明显的打方向盘的操作。唯一的变化,也是几乎难以发现的变化,就是车辆进入道路导流范围内时的逐渐右偏。仅此而已。

  令小编不解的是,关于这次具备轰动效应的Tesla车祸的技术分析如此之少,而非技术的公众关注却又如此之多,当然这和林志颖先生本人从业娱乐圈的属性相关。但同时也要看到,主观上林志颖先生本人在过去的半个月的时间内一直没有透露车祸的主观行为,和客观上事故Model X行车记录信息披露又迟迟没有公布,也是造成外界没有做充分技术分析的可能性的原因之一。

  所以,所谓的技术分析,包括本篇,也真就都是猜。猜测的目的不是为了搏个口彩和注意力,而是职业习惯使然,仅供参考。

  从上图4这个角度看过去,这是一个普通路面桥结构。两根行车道+一根非机动车道+一根自行车道构成。大陆这边不太常见将非机动车和自行车再做区分,可能是台湾地区的非机动车(电瓶车和小型摩托车)成熟期比较早且流量占比较高,故再次做了区隔。这样做直接的后果就是上图4中所呈现的,专车专道但每个车道都十分狭窄。

  如果我们像在图5内那样强化导流带的一侧线条,就会产生各车道在导流带起始位置开始向右倾斜的效果。车道越窄导致导流槽越密集,也就导致视觉上的某种“错觉”。当然这仅仅是个人感觉,并不确定在Autopilot的视觉识别系统下,车道线是否会出现类似“错觉”?

  以下图6是事发当地路面桥在事故后的修缮,交通标识杆被临时取消,新增的是更长距离的黄色车道线警示标识杆。从这个角度读者可以更好地感受路面桥的三分结构,道路结构狭窄且车道线密集的真实状态并没有得到改善。

  实际在Tesla Autopilot的商用历史上,也确实发生过车道线误识别所引发的事故,甚至致命事故。早在2018年3月23日,一辆开启Autopilot辅助系统的全新Model X,在硅谷核心地带的101号高速公路上以120Kmph的速度撞上高速公路中的隔离带衰减器,38岁的Apple华人工程师当场死亡。

  图七【linzhiying-8.png】来自谷歌地图的街景截图和自主编辑,取自URL:

  结合上图7所示(橙色箭头为撞击位置,黄色线路为Model X的走位),在的故障报告中,有如下描述:(小编翻译整理)

  驾驶2017年款特斯拉Model X P100D电动MPV的38岁司机,在他的汽车进入US-101和85号国道出口坡道的隔离带区域时,以每小时120Kmph以上的速度撞击到损坏的碰撞衰减器。Model X随后被另外两辆避让不及的汽车先后撞倒,导致另一人受伤。特斯拉的高压电池在碰撞中被破坏,随后发生碰撞后火灾。目击者在车辆被火焰吞没之前将特斯拉司机从车辆上移走。

  NTSB从特斯拉的“Carlog”数据(存储在媒体控制单元中的非易失性内存SD卡上的数据)中获悉,

  1在撞击前的最后10秒内,特斯拉的“Autopilot”系统被交通感知巡航控制子系统激活,并设定为75英里/小时(120Kmph)。

  2在撞击前6到10秒之间,Model X以64到66英里/小时(106Kmph)的速度跟随另一辆前车,距离约83英尺(25m)。

  3特斯拉的车道保持辅助系统(“Autosteer”)在距离隔离带上的碰撞衰减器约5.9秒和约560英尺时(170m),启动了向隔离区域的左转向输入(致命错误)。在这个转向运动时,Autosteer并没有检测到驾驶员施加的方向盘扭矩,并且这种手动转向指示(告警信号)一直持续到撞击点。

  4当Model X距离衰减器约3.9秒和375英尺(114m)时,特斯拉的巡航控制系统不再检测到前方的领先车辆(小编:因为Model X此时已经跑偏了,自然就看不到或者不认为自己当前车道上的身前还有前车存在了),因此Model X开始从61.9英里/小时加速到预设的75英里/小时(120Kmph)的巡航速度。

  5随后在撞击前的最后时刻,特斯拉的前方碰撞警告系统没有提供警报,自动紧急制动也没有启动。SUV司机因为注意力问题根本也没有踩刹车,也没有启动任何转向动作来避免撞车……

  上图7中的隔离带场景,以及最后的Model X的故障模式,和发生在台湾的Model X车祸有一定的相似程度。但请注意一个客观事实是:我们并不知道台湾车祸中那辆Model X是否激活了Autopilot还是林志颖先生本人的操作失误所导致。一切应以调查结果为准。技术推测只负责分析各种可能性而并不制造谣言。

  硅谷车祸和台湾车祸场景中有一个显著的差异需要读者清楚,图7显示路面导流槽的表面涂装还是非常清晰的状态,但这张来自谷歌地图的街景截图是发生在2020年而不是车祸发生时的2018年。实际上2018年车祸时,当时的影像资料表明,那个位置的地面导流槽涂装至少在一侧是模糊和不清晰的……从技术可能性上分析,这应该是导致Autopilot的车道保持功能偏转航向的主要原因。参见以下视频,可以看到车祸发生后那一个时期的导流槽状态:

  图八【linzhiying-9.mp4】来自一个工程师的自测视频,来源已经不可考,大概是youtube.com,向作者致敬:

  上图8视频中,一位来自硅谷的工程师,也是一辆Tesla车辆的车主,因为在自己的驾驶经验中,曾经遇到过这次致死事故相同的故障类型。故此在事发之后(时间不确定),特意尝试开着自己的Tesla,在激活Autopilot的前提下,在US-101高速路的相同地段试图复现故障。结果,致命偏转的故障真的复现了…..

  图8视频中可以清晰看到整个过程中Autopilot的车道保持功能的状态,在地面导流槽模糊区域将导流槽的另外一个较为清晰的车道边线识别成“低置信度”的车道线。“低置信度”是因为可以注意看此时车载中控屏幕上本来显示稳定的、高亮的车道线消失了,但“低置信度”车道线依然导致车辆偏转,且车速并未随之下降,直到驾驶员干预。在这个错误的场景下,如果Autopilot再对于千奇百怪、形态各异的隔离带、标志杆、各种减速路障等等识别不清楚、不稳定,就会发生意外撞击事故。

  图九【linzhiying-10.mp4】来自另一个Tesla车主的自测视频,来源已经不可考,大概是youtube.com,向作者致敬:

  图9视频中的故障模式一模一样,在封闭高速道路的分岔口,地面导流槽识别错误导致车辆偏转,直接驶向隔离带。考虑到Tesla Autopilot商业版本在百万级别的运行车辆舰队上得到实际安装和运行,以及较早地采用了数据驱动的自动驾驶系统训练方法。尤其在视觉领域,如果autopilot无法处理所有情况下的所有极限corner case,类似误识别车道线、对于明显障碍物的识别也存在明显的误检和漏检现象,那么其他自动驾驶系统和主机供货商呢?

  你还真别说,这真不是Tesla的Autopilot所独有的问题。最近半年内,我们看了太多的武装到牙齿的自动驾驶车辆问世,但也确实看到层出不穷的商用级别的Level-2辅助自动驾驶事故发生,在人类驾驶员无法及时介入接管的前提下,包括蔚来、小鹏和理想等一众自动驾驶先锋企业……可以撞上封闭高速道路上的任何尺寸和级别的障碍物,匪夷所思但概末例外。

  为了解决这些致命且影响非常恶劣的自动驾驶安全问题,我们可以参考美国NTSB在2020年针对硅谷致死事故所提出的安全建议:

  2对配备Level-2“自动驾驶仪”的车辆进行评估,以确定系统的操作限制、误用的可预见性以及在预期操作设计范围之外操作车辆的能力是否对安全构成不合理的风险;

  3开发驾驶员监控系统标准,以最大限度地减少驾驶员脱离接触,防止并解决可预见的自动化滥用问题;

  4审查和修订“分心驾驶”计划,以提高雇主对禁止在驾驶时使用便携式电子设备的强有力的手机政策的必要性的认识;

  6制定政策,禁止在所有员工和承包商在驾驶公司车辆时,使用便携式电子设备。

  虽然NTSB的政策分头覆盖了车端和手机端在驾驶场景下的严格限定,但实际上,完全限定人类驾驶员,确保其不犯错误依旧是不可能完成的任务。问题的核心还是Level-2自动驾驶系统较为孱弱的自动化能力和人类无法保持一贯的警觉心,这个组合无法处理千奇百怪的道路场景。而寄希望于人类和车辆融为一体,形成完美的互补——该放手时放手、该接手时接手,也不应该是技术进步的核心目标。所以从业人员全力以赴推动自动驾驶系统向Level-4迈进,尽早降低车辆安全故障和事故,才是王道。

  综上,我们可以扣题——如果您的车辆有Level-2自动驾驶系统,请您对其保持一贯的戒心,切记。

  声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。