DeepMind又放大招!用大型语言模型实现可信推理,距离模型可解释性又近了一步(2)
2022-09-08 14:06来源:未知编辑:admin
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
实际效果
在这次实证研究中,该团队将自己的选择推理系统与 Proof Writer(PW)和 EntailmentBankQA(EB)数据集上的基准模型进行了比较。他们提出的模型在 PW 和 EB 上分别实现了 88.1% 和 78.1% 的最终答案准确率,大大优于基准模型。 这项工作表明 DeepMind 提出的新方法确实能在不牺牲模型性能的前提下,通过多步推理对问题做出忠实回答。虽然该研究目前只侧重于给定上下文中的多步骤推理,但该团队已经计划在未来的工作中利用检索进一步充实上下文信息。 从实际性能来看,尽管存在“只能执行可信推理”的限制,该模型的实际表现仍然非常出色。考虑到如果一项技术要想安全普及、为大众所接受,就必须能够通过审计检验,此次研究可能代表语言模型正向着可解释性迈出重要一步。
99科技网:http://www.99it.com.cn
相关推荐

钱满仓 钱满仓官方发布统一兑付登记网址【www.xzdf15.xyz】,兑付登记Q群【731-
快资讯2022-09-05

这两天,DeepMind研究工程师小哥Aleksa Gordić的个人经验贴在Twitter上火了一把。
快资讯2022-08-30
