AI亲手裁掉人类,谁赋予了它“非人化”的权利?(4)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
曾经一工厂的机器人误把一名员工当作其执行任务的威胁,并计算得出消除威胁的最有效方法是把其推向附近一台正在运行的机器,从而立刻杀死他。那么关键问题就在于,设计机器的程序员及工厂是否知晓其使用过程会导致这一结果,如果知晓则共同承担责任,若不知晓,仍要共同承担,同时销毁机器罢了。
就比如无人驾驶的汽车在其行驶车道上超速,深圳曾规定若出了事故,则由车辆所有人、管理人承担责任,但不对车主进行扣分处理。
目前为止,关于人工智能为何有或没有法律地位,为何以及如何承担法律责任,学界一直争论不休,导致AI法学的研究出现“泡沫化”倾向,人工智能领域的研究院称:“机器人有道德和法律上的义务,甚至权利吗?人工智能的行为和决策的自主空间越大,谁对其决策和行为承担责任这个问题的提出就越紧迫。”
因此到底谁对AI负责的问题,从不同视角出发有着不同的处理结果,而人类的法律是否适用于AI?只有在了解过程全貌才能找到准确的适用办法,这对于还在成长期,持续高速变化的AI来说很难实现。
自2013年和人工智能有关的34万项专利中,有53%都已被发表,其中中国一骑绝尘,是发表成果最多的国家。AI的精神成果到底会不会被人类认可,取决于人类是否认可AI发明者的身份,以及AI是否具有保护自己知识产权的权利。
也就是说如果我们要认可AI的一切决策及成果,首先我们必须要求AI知道自己在做什么。
在西班牙工会UGT一份名为《劳资关系中的算法关系》文件中称,如果使用AI算法解雇员工,其标准必须透明,算法与人工智能的任何一款产品一样都会出错,甚至AI根本不用担心自己的决定会对“人民的安全或基本权利”产生什么样的影响。
如果AI在不具有“明确道德含义”的领域做出了侵权或是损害人民的行为,那一定是由算法决策的失误导致。算法决策所依据的或系统所训练的数据集一旦受到来自外部干扰或新型介质的出现,其几秒钟就能完成的演算并非人工智能的设计者利用规范过程模型就能解决的。
因此,AI的处理结果完全不可控,它的行为不具有可解释性,人类设计出的人工智能的行为不能完全按照人的意志去发展,是个黑洞。
尽管在未来的某一天AI会取代我们的工作,也会代替部分人类做出绝对正确的决策,但要记住最后的胜者永远都是人类,就如柯洁在战败后,科学家仍得出“人类是赢家”的结论。
99科技网:http://www.99it.com.cn
