万字长文:ChatGPT能否成为互联网后下一个系统性机会?(6)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
对此,也有两派观点, 一派是觉得极致的模拟就可以实现逻辑 ,虽然只是基于统计学,但看起来有逻辑其实就等于逻辑本身; 另一派觉得所有模拟都只能得到大概的正确 ,最后还是要建立在极其精准的规则之上,两派的分歧可能就是统计和规则的区别。
此外还有第三种观点, 借鉴了生物组织的复杂性来解释这个问题 ,比如蚁群,单独一只蚂蚁可能不知道自己在干什么,但是一个蚁群就可以做很多复杂的事情,这两者也类似于神经元和大脑的关系,对这个问题也想听听几位的思考。
黄东旭: 先说一个外部视角,我最近一直在用ChatGPT写代码,可能是玩的确实太多了,基本没有遇到AI胡说八道的情况;个人观点,很多人觉得它不准有两种情况,一种是问题没问对,如果问题本身是模糊的,它给出的答案也会是模糊的,比如一些开放式的问题。
第二是它有些回答不一定是假的,只是中间跳过了很多步骤,比如一个问题,需要从A到B再到C依次推理,其实每一步都会有一些假设,但如果某个假设错了,答案也会出问题。
所以我们内部在使用时,会不停地教ChatGPT如何思考,跟教小朋友一样,他回答错了就跟他说,你要不再读一遍题目?或者直接问他——那你觉得这个问题应该如何提问?最后你会发现,只要你把你想要的思考方法教给他,他回答的准确率会非常高。
注意,在这个过程里,我们并没有向它提供任何的信息增量 ,所以我觉得ChatGPT已经超越了一个传统意义上的语言统计模型,绝对不是单纯的鹦鹉学舌,但我也不知道它为什么会有这个能力。
陶芳波: 我也简单说一下我的看法。我观察到一个现象,在GPT3出来之后,特别是今年ChatGPT出来之后,很多AI领域非常资深的人都在激烈地反对大模型。
我曾经也有这样的心态,觉得这个东西也许就只是一个统计模型,解决不了人类的终极问题。但是现在我认为, 这样的思想说严重点,就属于是“旧时代的余孽”,当然这句话是自嘲的,因为我曾经就是旧时代的余孽,但今天我选择去拥抱他。
因为对于人工智能,我们永远都可以从 「它在某某事情上做得还不够好」 来批评它。但是如果我们回过头来想一下,一个人如果只有大脑,我们的逻辑能力又有多强?
99科技网:http://www.99it.com.cn
