机器学习前沿:为什么上下文是一切(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
所以怎样才能在机器学习中大规模地整合并利用迟绑定呢? 一种方法是创造提供相关上下文信息的重叠层的元知识的“选择掩蔽”或“叠加”从而有效缩小基于特定使用实例的检索参数的范畴。在正确处方的医疗检索的实例中,比如,医生可能会考虑病人的诊断情况,其他并发症,年龄,既往不良反应史和过敏等问题,将检索空间限制到特定的药物。为了解决上下文的迟绑定,此类叠加必须是动态的,以捕捉最新信息,基于实例特定知识优化范围,理解交互目的等。 图3:正确的医疗决策需要大量基于患者的上下文考虑。图片版权:Intel Labs 源归因是另外一个重要的元知识维度,对被用于启动迟绑定上下文的选择掩码尤其有用。这就是一个模型如何使一个特定来源比另一个来源更可靠的方式-比如新英格兰医学杂志与匿名帖子。源归因的另一个应用是选择被应用于给定上下文(例如,当地司法管辖区的法律、或特定州的交通规则)的决策规则和限制的正确集合。源归因也是通过在资源创造的上下文而非通过统计发生率来假定正确性上下文信息以减少偏差的关键。 本文并未涉及到一个非常重要的方面——人类或未来的AI系统到底是怎样选择相关信息并作为特定查询的上下文考虑的呢?为了找到上下文相关的数据,个体必须搜索的数据结构是什么,以及该结构是如何被学习的?关于这些问题的更多内容将会在未来的推文中提到。
避免脱离上下文考虑智能AI领域在整合条件、组合性和上下文的方向上正取得长足进步。然而,升级版的机器智能要能够在整合动态理解并应用迟绑定的多方面能力上取得显著的进展。当在高度感知、在实时交互AI的范畴内考虑时,上下文就是一切。
转载须知
如需转载,请在开篇显著位置注明作者和出处(转自:数据派),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。
发布后请将链接反馈至联系邮箱(见下方)。未经许可的转载以及改编者,我们将依法追究其法律责任。
99科技网:http://www.99it.com.cn
