DeepMind 发了篇论文,把我看笑了(4)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
在已有明确规则下不断计算、试错,最终有类人,甚至超越人类的表现,这正是计算机的强项,但我们也不能将这种机械的运算归为人类的智能。
另有一些文章,认为在一些问题上,fRMI 扫描到人类神经激活的现象,和神经网络有相似性,则更像是一种预先假定结论而去有目的性的倒推现象,且实验中的问题本身也是大量归纳即可学到的,笔者认为更不存在什么证明价值。
如果,大模型真的具备了文章所主张的那种智能,那么它应该知道 什么是“不合理”,以及什么是“不知道” 。
例如我们如果问一个大模型,一个完全不合理的问题(比如,我的脚有几只眼睛),它应该能够分辨出这个问题无法回答,但如果小伙伴们感兴趣,可以去尝试一下现在已有的大模型,看它们会给你什么样的答案。
我们当然也可以去训练大模型,去回答这种问题,但是,我们总归是能够从各种刁钻的角度找出来不同的问题,去让大模型失败的。
原因就在于,我们知道什么是“不合理”,什么时候是“不知道”。对于广阔的不合理、不知道,我们是有明确的认知的,但是统计模型是没有这种推断能力的。
多说一句,如果统计模型真的具备这种能力,科学计算也不会使用半逻辑半统计的方式了
而我们能够“凭空”拓展我们的理论,能够通过一次的修正信号去修改整个行为,也正是得益于这种 演绎 能力。
很遗憾的是,在初始状态下,人类的学习条件似乎还比不上模型,但人类获得了这种能力,而统计模型没能得到这种能力。
或许当我们告诉模型,它的行为是错误的时候,不够“斩钉截铁”(梯度下降只能“逐步”地修正模型的行为),但哪怕我们能够去精准更新参数,统计模型的推断方式,也不允许它去推断“没有”(即统计模型仍旧不知道 分布外的问题是存在于分布外的 ,毕竟仍旧是连接的)。
何况, 统计模型的结构与其训练算法,本就是一体的 。人类或许有什么机制能够精准更新自己的大脑,但现有统计模型框架之下,我们并没有办法完成这一点。
哪怕我们真的去描述“知识”(实际上,这也是个几乎不可能的任务),也难以将之传授给统计模型,毕竟, 不合理的泛化,几乎没有办法去规避掉 ,最终的表现,也一定和大数据训练一样,数据丰富的地方,相对合理一些,数据稀疏的地方,它就开始胡乱泛化了。
99科技网:http://www.99it.com.cn
