NLP,能辅助法官判案吗? | CCF C³(5)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
前文提到,模型的 可解释性 在一些特定场景下非常重要,而且打破砂锅问到底是一众科研人的求知态度。 所以尽管前路渺茫,许多人仍在虔诚地探索着,希望有朝一日能解释清楚超大模型运行过程中的各种原理。 不过, “深度学习大模型天然就不具有可解释性。” 哈工大 车万翔 教授分享了他之前看到的这种观点。他提到,机器并不像人的思维那样运行。 想追求可解释性,在浅层模型上更容易找到。当然,浅层模型的精度一般比深度学习模型差远了。 车教授认为,高精度和可解释性本身就是矛盾的。所以根据具体场景和需要选择不同模型就好了。 比如,让机器给学生作文打分,总得说清楚为什么得出这个分数吧。也就是要讲明白为模型设置了多少feature,如:典故、排比、修辞方式、逻辑性等。这里浅层模型就更适用。 刘康 研究员也认为,要去搞清楚深度学习模型黑盒部分的原理,宛如走进一条死胡同。 现在的研究者主要采用两种手段试图解释深度学习模型黑盒内发生了什么: 一种是观察分析输入哪些内容或获得更多权重;另一种是用可解释的浅层模型无限逼近黑盒模型,然后用浅层模型的结果来近似解释黑盒模型。 然而这两种方法本本质上也只是模拟,还是没解释黑盒模型的机制到底是怎么样的。此外还有个重大问题:即使做了解释,也几乎是不可验证的,这样就没法判断解释是否真的靠谱。 也有人对此观点持不同态度——清华 刘知远 教授就认为,深度学习模型还是具有可解释性的,只不过别之前的浅层模型复杂多了,需要用到更复杂的模型和机制。这些东西还需探索,但非完全不可逾越的。 从产业角看来看大模型的可解释性问题,京东 吴友政 和科大讯飞 刘聪 都表示: 要结合各行业场景的需求来分层看待可解释性,部分简单场景其实不太需要深度可解释性,而教育、医疗等用户关切过程的重大社会场景则会对可解释性提出更高的要求。 对于那些对可解释性有特别需求之处,先弄清楚到底 需要对哪些点进行 “ 解释 ” , 除了 用大模型 之外 , 还 可以 结合 其 他知识运用 类 的技术 。 刘聪还补充道,人机协同也是很重要的一种方式。当机器不能独立Perfect时,那就先与人合作呗,用户的行为或许也能为模型可解释性提供一定帮助。
关于CCF C³以上的内容,全部出自CCF C 3 的第14期活动,主题为“自然语言处理”,由科大讯飞股份有限公司承办。 2020年,中国计算机学会CCF成立了一个专为企业技术领军人物打造的交流平台:CCF CTO Club,简称C³。 C 3 活动旨在联结企业CTO和高级技术人才以及资深学者,每次以一个技术话题为核心,走进一家技术领先企业。 目前为止,CCF C 3 的活动已经举办了14期,先后已经走过京东、小米、搜狗、百度、亚马逊、阿里巴巴等企业。
99科技网:http://www.99it.com.cn
