专访锘崴科技董事长王爽教授:隐私计算,可信AI的技术底座和安全基石 | 爱分析访谈(3)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
针对算法不安全的情况,一方面可以通过隐私计算联合多中心获取更多测试样本发现算法中存在的问题,实现提前预防。另一方面,也可在模型部署阶段,通过可信执行环境保证算法安全。在可信环境中,输入模型的信息都需要加密,且信息的完整性、新鲜性都可以通过密码学来验证,保证整个临床辅助诊断系统在执行过程中是不可篡改的,如果篡改使用方可以拒绝。
第三,隐私泄露。 如很多模型需要原始数据,比如人工识别的深度学习模型里会有模糊人像,通过一定方法可以恢复出模糊人像的具体身份信息。通过隐私计算做模型部署时,可以不传输原始数据仅传输参数,且对参数加密后完成部署,可以避免数据泄露且保证输出的只是最终决策的结果,使 AI 更可信。
第四,AI应用不安全。 Deepfake合成人像和声音的功能可能被非法用于诈骗。这种情况可通过隐私计算对模型加密,仅在授权情况下才可以使用。
02
隐私计算可通过提升底层技术性能和上层应用效率,实现数据安全共享
爱分析:隐私计算落地过程中面临什么挑战?
王爽教授: 隐私计算是新兴行业,所以在落地的过程中也面临着诸多挑战:
第一,大多数的数据源还是用比较传统的数据共享模式,比如脱敏、沙箱的模式。
第二,隐私计算数据节点网络搭建以及形成网络效应还需要时间。当有很多的节点数据源都有隐私计算能力时,隐私计算通过网络效应可以进行赋能。但是目前只有头部企业或机构会尝试用隐私计算,数据节点网络搭建需要整个隐私计算行业教育客户推动构建。
99科技网:http://www.99it.com.cn
