如果驾驶智能汽车发生交通事故,该如何归责?
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
如果驾驶智能汽车发生交通事故,该如何归责?如果是智能的,就是不是人所能掌控的,保险如果承担不了,技术方不可能负责,所以车辆所有人还是负责的主体,归根结底还是车主负责,单纯的划分责任也不好界定,但是一旦发生事故维权的成本太高。
电子撞在一起会发生什么?
在“核物理”或“量子电动力学”的教科书里有“电子碰撞”的内容,当然,这称为“电子散射”。
对于“低能电子”(例如能量小于几兆电子伏)来说,电子散射只是像“弹性小球”一样发生“碰撞”,互相交换动量而已,没有什么特别的情况发生。它们之间,只有“弹性散射”,连“非弹性散射”都没有,因为自由电子不存在激发态。
如果是高能电子碰撞或“对撞”,碰撞的产物,是三个电子加上一个正电子。这是“能量转换为物质”的典型例子。但要遵守“轻子数守恒”的规律。
在特别高能(GeV量级)的电子-正电子对撞的情况下,会产生一些极其稀少的反应,例如生成“希格斯波色子”之类的。
有哪些人工智能安全风险?
在分析之前,简要介绍一下人工智能的应用。人工智能因其在数据分析、知识提取和自主学习方面的突出优势,被广泛应用于网络保护、数据管理、信息审查、智能安全、金融风险控制和舆情监测等领域。在这些领域,往往会出现一些安全风险,常见风险如下:
1、人工智能安全风险――框架的安全风险
近年来,著名的深度学习框架TensorFlow和Caffe及其依赖库多次被发现存在安全漏洞,被攻击者利用,导致系统安全问题。以生成模型[3]为例。原始工作原理是:将输入X映射到低维表示的Z编码器,再映射回高维重构的X解码器。
如果输入是7,攻击后的输出可能是8。
此外,人工智能可以用来编写计算机病毒和木马。原始的恶意脚本是手动编写的。人工智能技术可以通过插入拮抗样本[4],绕过安全检测,实现这些过程的自动化。同样,人工智能技术也可以自动生成智能僵尸网络[5],它可以在不等待僵尸网络控制命令的情况下对其他系统进行大规模、自动的攻击,大大提高了网络攻击的破坏程度。
2、人工智能安全风险――数据安全风险
攻击者可以通过网络的内部参数得到网络训练的数据集。人工智能技术还将增强数据挖掘能力,提高隐私泄露风险,比如2018年3月的Facebook数据泄露事件。
3、人工智能安全风险――算法的安全风险
深度学习网络目标函数的定义不准确、不合理或不正确,可能会导致错误甚至有害的结果。错误的目标函数、代价过高的目标函数以及表达能力有限的网络都可能导致网络产生错误的结果。例如,2018年3月,一辆优步自动驾驶汽车发生事故,机器人视觉系统未能及时识别突然出现在道路上的行人,导致行人发生碰撞并死亡。算法的偏差和人工智能的不可解释性也是主要问题。在美国,人工智能算法被用来预测罪犯,一些列表显示许多无辜的人受到了伤害,其中大部分是黑人,甚至系统的开发者也没有合理的解释这个决定。拮抗样本的存在也会导致算法的误判。通过给下面的图片添加一点噪声,人工智能将很有信心地确认熊猫是长臂猿。
4、人工智能安全风险――信息安全风险
有了足够的训练数据,人工智能可以产生用于非法活动的虚假信息。比如人工智能面部修饰DeepFakes,以及最近推出的DeepNude。一些罪犯使用假声音和假视频进行诈骗。现在谷歌已经发明了一种聊天机器人,它可以完全愚弄人们在电话上聊天。
99科技网:http://www.99it.com.cn

