《人工智能治理与可持续发展实践白皮书》:直面六个热点争议问题!(3)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
当前,以深度学习为代表的人工智能技术在产业界广泛应用,取得了一系列突破,但其在可解释性、鲁棒性、偏见歧视等方面尚存在局限。 1) 可解释性不足
深度学习算法的一个的显著特点是训练过程中自动提取特征,通常比人工挑选的特征效果更好,但这一过程目前尚不可控,在不恰当的数据集上算法可能选择错误的特征。例如,部分模型会把猫识别为狗,可能的原因是算法在自动提取特征时将背景作为了识别的依据,而不是动物本身的形态和细节。当待识别图像出现相似的背景时,会出现错误识别的情况。可解释性不足让人们不能理解算法的决策机理,同时也难以预测算法的行为。
2)鲁棒性不足
深度学习算法在训练过程中会对数据的鲁棒特征和非鲁棒特征进行学习,并依据这些特征进行识别。以图像为例,鲁棒特征可以理解为人类能够理解的语义特征,例如形状、纹理等。而非鲁棒特征为模型能够理解的用于对训练数据进行拟合的特征。非鲁棒特征给模型的安全性带来了极大的挑战。通常的,可以在输入数据中加入人无法感知到的轻微扰动,激活模型的非鲁棒特征,从而导致模型给出错误的结论。人工智能算法具有脆弱的一面,可能因为外部的恶意攻击行为,或者无恶意的非平常情况而失灵。 3)偏见与歧视 深度学习算法会挖掘训练数据集中不同因素的相关性,拟合数据分布特性,训练数据集本身的偏见与歧视,会被引入到训练出的模型之中。当模型应用于业务,尤其是用于自动化决策时,可能会暴露出偏见与歧视。当前在自然语言处理等领域,算法的开发普遍采用基础模型加精调的模式,基础模型本身存在的偏见与歧视还会传递到多个下游模型里,影响范围持续扩大。 3. 企业人工智能管理体系不完善
人工智能等新技术特有的应用特征对企业的管理措施提出了极大挑战。一方面,过去为了鼓励创新和效率优先,通常让基层拥有较大的自主权;另一方面,人工智能新技术的负面影响通常不会立即显现,也难以全面评估。这就使得原有的体系并不能适应当前人工智能治理原则。 1)算法需要人为干预 由于人工智能算法固有的缺陷,需要对可能出现的错误结果进行干预纠偏。 人工智能算法应用于自动化决策时,如果决策由机器单向做出,缺少相应的人类干预手段,会带来很多问题。比如,在商品检索应用中出现大量重复或相似商品,如果不做去重、打散等干预操作,会导致用户难以快速找到自己喜欢的商品。如果决策的对象是人,在客观上不应该仅由人工智能做决定,还应辅以制度、人情、环境和文化等人文因素。再如,外卖平台可能对骑手分配的单量过大,如果没有给骑手提供干预的渠道,会导致骑手劳动量过大,甚至引发安全事件。 2)用户权益保障不足 人工智能算法用于自动化决策,对用户带来明显影响,并不能做到完全技术中立,需要注意保障用户权益。人工智能应用对用户具有较强的支配能力,且具有信息不对称的特点。用户难免担忧这种支配可能伴随着偏见、歧视等不公平的对待,引发用户面对人工智能时的无力感:不知道人工智能使用了自己的哪些个人信息,不知道人工智能决策的逻辑,决策的结果自己也无法反对。这些问题的原因在于用户权益保障不足,包括知情权、反馈权与选择权、平等权等,导致用户失去对人工智能应用的信任感。 3)主体责任落实不到位 由于人工智能技术门槛高,且在企业中的运用往往呈现出高动态性、高复杂度等特点,使得外部难以理解其运行机制。而企业作为人工智能系统的设计者和服务提供者,最了解其中的技术细节和可能蕴含的风险,需要主动承担起相关责任,做好人工智能服务目的与运行机理的解释说明,充分评估潜在的风险并做出相应的防范。例如,人工智能合成内容已经非常逼真,在缺乏足够信息时,人眼和技术手段都很难分辨真伪。这就需要企业在提供生成合成服务的源头做好各项风险管控措施,包括认真履行用户身份验证、内容审核、添加标识等责任,避免新技术被恶意使用或滥用。
99科技网:http://www.99it.com.cn
