专访锘崴科技董事长王爽教授:隐私计算,可信AI的技术底座和安全基石 | 爱分析访谈(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
01
隐私计算在算法歧视、算法安全、隐私泄露、算法应用四方面帮助实现AI可信
爱分析:您认为可信 AI 落地的主要挑战有哪些?隐私计算相关技术在整个可信 AI 技术体系里发挥什么样的作用?
王爽教授: 模型的鲁棒性、隐私安全、算法公平以及算法的可解释性,都是可信 AI 落地中遇到的问题。在解决问题的过程当中,隐私计算在算法歧视、算法安全、隐私泄露、算法应用四个方面帮助实现AI可信。
第一,算法歧视。 算法歧视又包括非主观性歧视和人为算法歧视。非主观性歧视是由于数据源偏差造成的,比如AI 算法认为皮肤颜色深的人更有暴力倾向,是因为训练样本里有很多皮肤颜色比较深的样本。这种情况需要更多样本才能训练出公平的模型。
但如果要获取更多样本就涉及到数据源间的合作,需要打通或获取更多数据源。在遵守《数据安全法》、《个人信息保护法》前提下,传统中心化搜集数据的模式中,脱敏等方法越来越受到挑战,而且存在很多风险,这时就需要隐私计算帮助算法打通或找到更多数据源。
另一种歧视是人为的算法偏见,比如大数据杀熟,故意在参数里面加了参数,对高净值客户提高价格,这是算法使用不当。这也可以运用隐私计算,通过TEE 等技术实现对远程环境的验证,对人为修改算法建立事前防御、事后追溯机制,抬高大数据杀熟的成本。
第二,算法不安全 ,比如在自动驾驶场景下给目标加补丁,可能造成识别错误,比如AI在医疗辅助诊断过程,如果篡改算法或篡改病人信息,可能导致最终临床辅助诊断结果出现错误,危害病人健康。
99科技网:http://www.99it.com.cn
