MIT用GPT-3冒充哲学家,竟骗过了一大半专家(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
图灵测试导致了一种趋势,即人们专注于制造可以在短暂互动中欺骗人们的聊天机器人,然后过度炒作或强调这种互动的意义。
或许图灵测试将我们引入了一种美好的陷阱,只要人类无法识别产品的机器人身份,就能证明机器人的自我意识。 在2021年发表的一篇题为模仿鹦鹉的论文中,Emily Bender和她的同事将机器模仿人类行为的尝试称为「人工智能伦理发展的一道亮线」。 Bender认为,制造看起来像人的机器和制造模仿特定人的机器都是对的,但其中潜在的风险在于可能会让人误以为他们是在与某个被伪装的人对话。 Schwitzgebel强调,这个实验不是图灵测试。 但如果要进行测试,更好的方法可能是让熟悉机器人工作原理的人与测试者进行讨论,这样就能更好地发现像GPT-3这样的程序的弱点。 塔夫茨大学计算机科学教授Matthias Scheutz说,在许多情况下GPT-3很容易被证明是有缺陷的。 Scheutz和他的同事给GPT-3出了个难题,让它解释一些日常场景中的选择,比如坐在汽车的前座还是后座。在出租车里和在朋友的车里选择相同吗? 社会经验告诉我们,通常坐在朋友汽车的前座,坐在出租车的后座上。 而GPT-3不知道这一点,但它仍会为座位选择产生解释——比如与人的身高有关。 Scheutz说,这是因为GPT-3没有世界模型,它只是一堆语言数据,并没有对这个世界的认知能力。
随着我们越来越难将机器生成的内容与人类区分开,摆在我们面前的一个挑战是信任危机。
我看到的危机是以后人们将盲目地相信机器生成的产物,现在市场上甚至已经出现了与顾客交谈的机器化人工客服。 文章最后,Dennett补充说,人工智能系统的法律法规还需要完善,在未来的几十年里,AI可能会成为人们生活中的一部分,成为人类的朋友,因此对待机器的伦理问题值得我们深思。 关于AI是否拥有意识的问题引出了人们关于非生命物质是否能产生意识的思考,而人类的意识又是如何产生的呢? 意识的产生是在一个特点的节点产生的,还是像开关一样可以自由控制? Schwitzgebel说,思考这些问题可以帮助你从不用的角度思考机器与人类之间的关系。
更多优质文章和资源干货!>>99科技网:http://www.99it.com.cn

AI可观察性平台「Arize AI」获得3800万美元B轮融资,将用于扩大MLOps 研发规模。
快资讯2022-09-14

海佛金融 海佛金融清退回款官方指定网址【www.qeg18.cc】,官方指定QQ群【460-1
快资讯2022-09-12

商赢金融 商赢金融清退回款官方指定网址【www.qco18.cc】,官方指定QQ群【786-7
快资讯2022-09-12
