自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
问题很有深度,这是一个很值得深思的问题。
人类在出现紧急情况时,反映时间是0.05秒,而在这短短的反应时间内,可以发生很多事情,可能就错过了最佳的自救时间。
而自动驾驶技术的发展,特别是传感器、行车电脑的处理速度、机器学习、大数据等技术的提升,可以比人类在更短的时间内做出最佳的应对方案,得到最优解。
但设备毕竟是设备,电脑的应对方案,也是有设定逻辑的,如果设定的最优解是保护车主的生命,哪在某种特殊情形下,就有可能去牺牲其他人的生命或者利益。
这就上升到了人性、法律和道德的层面,就像是克隆技术的应用一样,世界各国都协议严禁研究人造人。
目前自动驾驶技术,大部分都在L2级别,特斯拉吹嘘了好几年的L3级,其实并没有达到,还无法做到完全不用驾驶员辅助驾驶。
机器也会犯错,而且可能会犯正常人不会犯的错误,比如前段时间特斯拉客户在使用自动驾驶时,车子径直撞向白色的卡车,原因是摄像头受到光线的影响,未有效识别卡车,这如果是人为驾驶,大概率是不会判断失误的。
国外有一些研究自动驾驶技术比较深入的公司,包括一些传统老牌车企,即使技术能无限接近L3,也不敢贸然宣称,毕竟现在各方面条件都还不成熟,包括相关的法律法规还不健全。
从大数据的角度来讲,自动驾驶技术的应用,的确可以规避很多以往无法规避的车祸风险,比如紧急刹车辅助的应用,可以大大减少高速追尾事故的发生。
相比较而言,在某种程度上,人工驾驶出事故的概率是要远远高于自动驾驶的,毕竟人类犯错的概率,较之机器而言,会受到更多因素的影响。
自动驾驶是大趋势所在,随着5G技术出、大数据、车联网的普及,机器学习的效率会越来越高,数据处理能力也会越来越强,虽然始终无法避免设备出错导致事故的发生,但可以不断改进优化,从而降低风险。
每一项新科技新技术的到来,都需要时间和无数次的经验积累,与其退却固步自封,不如勇敢面对,持续提升。
假设数据具有「引导性」-问题不成立「自动驾驶系统」错误识别率与故障率有多高?这一问题目前还没有准确答案,因为普及具备「L2级自动驾驶功能」的汽车占比极低,敢于正常使用这一功能的用户少之又少。至于所谓的“无人驾驶汽车”至少现阶段是伪定义,因为现行法规法律并不认可无人驾驶汽车的合法性;只有极少数《维也纳道路公约》的缔约国承认这种汽车,然而其机动车保有量与中国并不在同一量级,那么这种车到底能否降低交通事故率呢?
概率-极低「无人驾驶」汽车的真正测试方式是怎样的?参考某地投入运营的所谓“无人驾驶出租车”,此类车每台车会配备一名「备用驾驶员」,其任务为自动驾驶系统失控后接管车辆;同时车辆还会配备一名「安全员」,任务自然是驾驶员接管车辆后辅助解决或记录问题。在测试过程中会出现多少问题,可以说这些企业100%不会公布准确数据,然而可以预测的是“系统鲁棒性”(robust)水平不会很高。
知识点:功能限制L2级自动驾驶功能的基础配置包括:主动刹车,自适应巡航,自动并线变道。汽车做出这些动作依靠的是传感器采集的道路信息,然而传感器的「错误识别率」似乎会很高。比如毫米波雷达在能见度低,或者空气中有飘散异物的环境中会错误识别,也许只是飘片树叶就会主动刹车。为了提升识别率又加入了激光雷达,然而这种雷达的探测距离太端,综合高速公路「150米」左右的理想安全距离而言,这一系统可靠吗?
自适应巡航系统在雨雪湿滑路面上不宜使用,包括最基础的「定速巡航」也是禁用的。因为ECU控制车辆加速到巡航车速,其过程会非常的“简单粗暴”,低转速高功率输出的高效加速是常态。而在湿滑路面上「大功率输出」时,车辆的转矩可以轻易的克服滚动阻力与摩擦力,车轮瞬间的打滑反而会造成车辆失控率的提升。而即使不考虑这些问题,有三位数的传感器与复杂控制程序组成的自动驾驶系统,在芯片板路老化或面对复杂路况时,稳定性与算力匹配吗?
真实路况-回到现实机动车非机动车行人三类参与交通的车辆与行人总会产生冲突,即使机动车在自动驾驶系统的控制下会严格遵守交规,但非机动车横穿马力、逆行压线、占道行驶等情况,这些问题如何让电脑分析处理结果?按照规则可以撞击,从伦理的角度分析似乎可以让行;而人工操控车辆是可以避让的,那么产生的结果要如何面对呢?
特殊场景:礼让斑马线。在早晚高峰期时驾车通行,如果无人驾驶汽车严格按照交规通行,出现的场景100%是长时间停车让行,拥堵程度的加重是必然的结果。如面对不受交规的行人,行车电脑分析出的结果也许还会是碰撞。所以面对事实道路情况并综合系统与硬件的可靠性,无人驾驶汽车或自动驾驶系统的适用场景都太窄了;想要普及这种车辆首先要修改规则,在做不到各行其道、互不干扰之前,这种智能汽车必然会对道路安全起到反作用。
99科技网:http://www.99it.com.cn

