【汽车人】我们如何信任自动驾驶_东方汽车头条【汽车人】我们如何信任自动驾驶_东方汽车头条

【汽车人】我们如何信任自动驾驶

微信扫一扫
分享给好友

  如果要求法律对技术宽容,蜕变为对无良商业团体的纵容,那就不配以技术之名,更不值得冒公众安全利益的风险。  文/《汽车人》黄耀鹏  目前距离优步自动驾驶路测撞人致死一案,已经过去31个月。本月晚些时候,该案将进行初审。即便该案自动驾驶系统“参与”之下变得复杂,舆论也未能预料到,审理过程如此旷日持久。  让我们再次回溯

影视投资电影投资影投天眼影视投资新闻电影投资项目电影投资收益计算器上海龙凤网419龙凤网上海夜网

【汽车人】我们如何信任自动驾驶

  

如果要求法律对技术宽容,蜕变为对无良商业团体的纵容,那就不配以技术之名,更不值得冒公众安全利益的风险。

  

文/《汽车人》黄耀鹏

  

目前距离优步自动驾驶路测撞人致死一案,已经过去31个月。本月晚些时候,该案将进行初审。即便该案自动驾驶系统“参与”之下变得复杂,舆论也未能预料到,审理过程如此旷日持久。

  

让我们再次回溯一下发生于2018年3月的该案。优步公司在加州路测时被认定为没有取得“完整资质”,优步被迫移师亚利桑那州,致命交通事故就发生在该州坦帕市。

  

【汽车人】我们如何信任自动驾驶

  

后备安全员拉菲拉·瓦斯奎斯(Rafaela Vasquez)乘坐优步自动驾驶汽车(沃尔沃XC90改造而成),撞到一位推着自行车横穿道路的女性,致其死亡。优步公司规定,安全员必须随时准备接管车辆,但瓦斯奎斯不时低头看手机(手机上正播放“美国好声音”节目),直到事故前半秒才抬头,为时已晚。

  

检方不起诉优步

  

此案复杂就复杂在,初看似法律问题,再看似技术问题,又看似科学伦理问题,也许是社会问题。牺牲者可能成了多重嵌套难题无解的祭品。

  

早在2019年3月,美国亚利桑那州马里科帕县的检察官,已经将优步公司排除在刑事调查范围之外,认为其无须承担刑责。这并非源于事实判定,而是根据亚利桑那州的法律,企业过失杀人的概念仅仅存在于理论上。既然必须有“过失责任方”为这起伤人致死案负责,那么起诉人,比起诉公司要容易得多。

  

【汽车人】我们如何信任自动驾驶

  

无论在哪个法律体系下,检方都很难证明高等级自动驾驶(哪怕只是路测)事故中,自动系统及背后的公司,应该负多少责任。

  

2019年11月,美国国家安全运输委员会(NTSB)发布一份报告,其中附有涉案自动驾驶系统的“运行日志”。为了让人们认识到该系统有多么不靠谱,甚至根本不应该上路,有必要将其中的关键时刻罗列于此。

  

自动驾驶系统都干了些啥

  

如果将事故发生时定为零时刻,在此前10秒系统内发生的事情,如果从一个人类驾驶员的角度看上去,简直匪夷所思。

  

-10秒,车辆一直处于自动驾驶状态;

  

-9.9~-5.8秒,车辆从时速56公里加速到时速70公里;

  

-5.6秒,毫米波雷达第一次检测到前方目标(就是受害者),计算机将其识别为汽车,并估算了其速度;

  

-5.2秒,激光雷达再次检测到受害者,计算机将其识别为“未知”,并认为其静止不动;

  

-4.2秒,计算机更改目标类别为“汽车”;

  

-3.8~-2.7秒,计算机对目标分类,再次在“汽车”和“未知”之间来回摇摆。而且每次更改时,都莫名其妙地忽略前一时刻的跟踪记录,以至于不断将其行为预测为“继续静止”;

  

-2.6秒,计算机终于正确地将目标识别为自行车,但预测其行驶状态仍为静止;

  

-1.5秒:计算机动摇,将人+自行车识别为“未知”,并规划出躲避目标的路线;

  

-1.2秒,计算机再次认定目标为自行车,并算出规避已不可行,准备制动,此刻时速64公里;

  

-0.2秒,经过1秒的延时,终于开始全力制动;

  

-0.02秒,安全员控制方向盘,汽车脱离自动驾驶状态;

  

0秒,发生致命碰撞;

  

0.7秒,安全员瓦斯奎斯刹停车辆。

  

【汽车人】我们如何信任自动驾驶

  

显然,在来得及实施所有措施的时候,自动驾驶系统既无法正确识别,也无法正确预测轨迹和速度。等到终于采取正确措施的时候,距离碰撞只有0.2秒,事故已经无法避免。

  

在终于正确识别的时刻(此时已经来不及了),自动驾驶系统又设定了1秒延时。算法编制人员认为,紧急制动会造成车辆不稳定,因此关闭了XC90自带的预碰撞+自动刹车系统,改为用车机软件控制刹车。

  

技术无罪?

  

日志显示,和成熟的人类驾驶员相比,优步自动驾驶系统表现完全不合格。软件工程师非常清楚,如果采用保守策略,系统将首鼠两端、一惊一乍,让乘坐者非常不舒服;如果采取激进策略,系统将变得迟钝而自大。系统要么刻意忽略“次要干扰因素”,要么在目标认定上反复横跳,直至浪费了所有处置机会。

  

如果深入一点,优步自动驾驶系统的传感器协同、模式识别算法、决策系统、预设的介入条件,都出了大问题,是事故发生的真正诱因。而瓦斯奎斯玩忽职守,没有起到“安全闸”作用,导致事故未能被阻止。这种“自动驾驶”,比人类驾驶要危险得多。

  

【汽车人】我们如何信任自动驾驶

  

任何稍具专业知识和良知的“码农”,都可能被这个算法惊呆了。决策算法和训练系统(主要是用数据填喂,训练感知系统的目标能力),尤其粗糙和不专业。

  

即便没有任何专业知识的普通公众,了解到所谓自动驾驶系统,如此不知所云,绝不会赞成它们在开放道路上行驶。哪怕只是测试,也可能以其他人的生命作为代价。系统成熟度非常低,根本不应该脱离封闭场地。

  

而NTSB则轻描淡写地认为,优步的“安全文化”不足,是导致事故的原因。可这种做法,明明是不专业、不走心和胆大妄为。优步没有担责,可能是钻了法律空子。

  

【汽车人】我们如何信任自动驾驶

  

其技术水准也的确如此。在优步“自愿”终止试验前,根据加州交管局的报告,优步自动驾驶测试车,每隔37公里就需要一次人工干预,而Waymo同期每1000英里的人工干预次数是0.09。从这个角度,优步作为技术背后的企业应该为安全事故担责(未必是刑责)。

  

背锅侠与软柿子

  

然而实际上发生的是,公司什么都不必做。不但摆脱了法律责任,经济赔偿责任则由保险公司负责。至于安全员瓦斯奎斯,检方要求判她入狱2.5年,她拒绝认罪,也拒绝做控辩交易。

  

技术公司只因为不是自然人,就不用承担疏忽导致的事故后果。技术团队和决策人员,不能用“技术无罪”,规避自己失察责任。更何况他们强行加速试验进程,很可能出于商业动机,而非简单的技术能力不行。

  

【汽车人】我们如何信任自动驾驶

  

公司要求安全员随时介入,并用合同条款框死了后者的责任。后者因为不在驾驶状态,事实上很难像普通驾驶员那样随时保持警惕和防御驾驶状态。安全员必须为技术缺陷背锅。这样看来,事后被解雇的100多个安全员,焉知非福。

  

值得一提的是,受害人家属选择起诉坦帕市政府,索赔1000万美元,因为后者不合理的交通设施“鼓励”横穿马路。这和检方选择只起诉涉案安全员瓦斯奎斯的做法很相似,柿子捡软的捏,猪捡肥的宰。

  

如果要求法律对技术宽容,蜕变为对无良商业团体的纵容,那就不配以技术之名,更不值得冒公众安全利益的风险。(文/《汽车人》黄耀鹏,部分图片来源网络)【版权声明】本文系《汽车人》独家原创稿件,版权为《汽车人》所有。

842

评论列表
共0条评论
  • 没有评论,赶紧来抢沙发吧~