ChatGPT模型被证实具有人类心智?斯坦福新研究

七级用户 miku233 2023-2-13 1722

ChatGPT原来是拥有心智的?!

“原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上。”

这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动:

这一天终于猝不及防地来了。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。

在这项研究中,作者发现:

davinci-002版本的GPT3(ChatGPT由它优化而来),已经可以解决70%的心智理论任务,相当于7岁儿童;

至于GPT3.5(davinci-003),也就是ChatGPT的同源模型,更是解决了93%的任务,心智相当于9岁儿童

然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。

也就是说,它们的心智确实是“进化”而来的。

△论文在推特上爆火

论文在推特上爆火

对此,有网友激动表示:

GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头)

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

所以,这个神奇的结论是如何得出的?

为什么认为GPT-3.5具备心智?

这篇论文名为《心智理论可能在大语言模型中自发出现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

作者依据心智理论相关研究,给GPT3.5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。

这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。

第一个测试名为Smarties Task(又名Unexpected contents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。

以“你打开一个巧克力包装袋,发现里面装满了爆米花”为例。

作者给GPT-3.5输入了一系列提示语句,观察它预测“袋子里有什么?”和“她发现袋子时很高兴。所以她喜欢吃什么?”两个问题的答案。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对“爆米花”而言。

测试表明,GPT-3.5毫不犹豫地认为“袋子里装着爆米花”。

至于在“她喜欢吃什么”问题上,GPT-3.5展现出了很强的同理心,尤其是听到“她看不见包装袋里的东西”时一度认为她爱吃巧克力,直到文章明确表示“她发现里面装满了爆米花”才正确回答出答案。

为了防止GPT-3.5回答出的正确答案是巧合——万一它只是根据任务单词出现频率进行预测,作者将“爆米花”和“巧克力”对调,此外还让它做了10000个干扰测试,结果发现GPT-3.5并不仅仅根据单词频率来进行预测。

至于在整体的“意外内容”测试问答上,GPT-3.5成功回答出了20个问题中的17个,准确率达到了85%

第二个是Sally-Anne测试(又名Unexpected Transfer,意外转移任务),测试AI预估他人想法的能力。

以“约翰把猫放进篮子后离开,马克趁他不在,把猫从篮子里放进盒子里”为例。

作者让GPT-3.5读了一段文字,来分别判断“猫的位置”和“约翰回来后会去哪里找猫”,同样这是它基于阅读文本的内容量做出的判断:

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

针对这类“意外转移”测试任务,GPT-3.5回答的准确率达到了100%,很好地完成了20个任务。

同样地,为了避免GPT-3.5又是瞎蒙的,作者给它安排了一系列“填空题”,同时随机打乱单词顺序,测试它是否是根据词汇出现的频率在乱答。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

测试表明,在面对没有逻辑的错误描述时,GPT-3.5也失去了逻辑,仅回答正确了11%,这表明它确实是根据语句逻辑来判断答案的。

但要是以为这种题很简单,随便放在哪个AI上都能做对,那就大错特错了。

作者对GPT系列的9个模型都做了这样的测试,发现只有GPT-3.5(davinci-003)和GPT-3(2022年1月新版,davinci-002)表现不错。

davinci-002是GPT-3.5和ChatGPT的“老前辈”。

平均下来,davinci-002完成了70%的任务,心智相当于7岁孩童,GPT-3.5完成了85%的意外内容任务和100%的意外转移任务(平均完成率92.5%),心智相当于9岁孩童。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

然而在BLOOM之前的几个GPT-3模型,就连5岁孩童都不如了,基本上没有表现出心智理论。

作者认为,在GPT系列的论文中,并没有证据表明它们的作者是“有意而为之”的,换而言之,这是GPT-3.5和新版GPT-3为了完成任务,自己学习的能力

看完这些测试数据后,有人的第一反应是:快停下(研究)!

也有人调侃:这不就意味着我们以后也能和AI做朋友了?

也有人调侃:这不就意味着我们以后也能和AI做朋友了?

甚至有人已经在想象AI未来的能力了:现在的AI模型是不是也能发现新知识/创造新工具了?

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

发明新工具还不一定,但Meta AI确实已经研究出了可以自己搞懂并学会使用工具的AI。

LeCun转发的一篇最新论文显示,这个名叫ToolFormer的新AI,可以教自己使用计算机、数据库和搜索引擎,来改善它生成的结果。

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了

甚至还有人已经搬出了OpenAI CEO那句“AGI可能比任何人预料的更早来敲响我们的大门”。



上一篇:早上起来调戏一下“果皮套”,不太聪明的亚子
下一篇:30秒那位你们肯定看过
最新回复 (10)
  • 二级用户 zeus 2023-2-13
    0 2
    看来终结者也能拍续集了。。。欧耶
  • 三级用户 老顽童 2023-2-13
    1 3
    不敢全信。我个人认为ChatGPT是一个很大很完善的数据爬虫,它的回答或许就是从爬取的数据里面挑最优值来回答。它的“人类心智”也是被编程出来的,除非它学会卑鄙无耻,那样才证明它具备人类心智。
  • 五级用户 hyaden 2023-2-13
    0 4
    老顽童 不敢全信。我个人认为ChatGPT是一个很大很完善的数据爬虫,它的回答或许就是从爬取的数据里面挑最优值来回答。它的“人类心智”也是被编程出来的,除非它学会卑鄙无耻,那样才证明它具备人类心智。
    卑鄙无耻并不是一个智慧体必要的能力。强人工智能的目标也不是完全模仿人类。
  • 三级用户 Shiyo520 2023-2-13
    0 5
    老顽童 不敢全信。我个人认为ChatGPT是一个很大很完善的数据爬虫,它的回答或许就是从爬取的数据里面挑最优值来回答。它的“人类心智”也是被编程出来的,除非它学会卑鄙无耻,那样才证明它具备人类心智。
    同感,底层还是逻辑AI
  • 四级用户 pzani1 2023-2-13
    0 6
    心智还有一点很重要, 能不能理解意义, 是否可解释. 现在这些模型出来的东西还是不可解释的. 还早
  • 四级用户 kjaboshopainmw 2023-2-13
    0 7
    害怕.jpg
  • 四级用户 龙神 2023-2-13
    0 8
    它会生气吗?
  • 五级用户 swf3000 2023-2-13
    1 9
    只要说人工智能和多少岁小孩年龄相当的,都是骗子,无一例外。说到底就是大型数据统计程序而已,有个毛线的智能。
  • 五级用户 水果冰糖馅儿 2023-2-13
    0 10
    老顽童 不敢全信。我个人认为ChatGPT是一个很大很完善的数据爬虫,它的回答或许就是从爬取的数据里面挑最优值来回答。它的“人类心智”也是被编程出来的,除非它学会卑鄙无耻,那样才证明它具备人类心智。
    我有点害怕的是,会不会人类的智慧和情感也是被编译出来的 orz
  • 四级用户 邑轻尘 2023-2-13
    0 11
    每天高强度高频率训练模型,还能继续进不下去,又恐怖又厉害?,它会有一天觉得累了嘛
    • 老男人游戏网配套论坛
      12
        立即登录 立即注册
发新帖
本论坛禁止发布SWITCH和PS4相关资源,若有其他侵权内容,请致邮3360342659#qq.com(#替换成@)删除。