在概率论中有一个著名的故事:让一只猴子在打字机上随机按键,只要赋予其无限的时间,猴子必然能打出一部莎士比亚全集;而若是有无限只猴子,则能立刻打出任何文章,此即“无限猴子定理”。作为一个比喻,“猴子”所代表的是一个可以无限生成随机文本的工具,“打字机”则代表了意义无限的语言本身,“打字行为”的实质则是利用两个无限的交集来生成一个有限的子集。
产生了巨大影响的ChatGPT之所以被命名为“大型语言模型”(Large Language Models),实际上就是通过降低“猴子”的随机性(提高正确语言答案出现的概率),提升“打字机”数量级(增加可学习的语言内宋),进而提高生成“莎翁全集”的概率。
通俗地说,ChatGPT的基本原理,即通过训练程序来有目的地学习人类语言知识和模式,从而生成高质量的文本。这里的“学习”其实是一套利用奖励机制调整程序的策略——基于人类标准,程序所生成的语言可能是正确的,也可能是错误的,那么通过正确的累加和错误的摈除,程序就能够持续地生成正确的文本。ChatGPT能大量制造符合人类标准的文本,如果将这种表现定义为“创造力”,ChatGPT显然是成功的。当笔者向ChatGPT提问:“你能够为文学研究提供什么帮助?”其回答内就包括“提供文学批评”“提供有关文学作品的批评性评论”“帮助研究者了解文学作品的优点和缺点”等。当笔者进一步提问:“你进行文学批评的原理是什么?”“你生成的文本是创造出来的吗?”ChatGPT的回答是“根据问题的内容和上下文,搜索我学习的语料库,并选择最相关的信息作为回答。而且,我会根据问题的上下文和语境,使用我所学到的知识和技能,生成一段文本作为回答。因此,我生成的文本是根据我学到的知识和技能创造出来的,而不是直接从语料库中复制的”。笔者曾试图让ChatGPT评价《阿Q正传》,其生成的文本基本可以达到中学语文论述题答案的水平。不难推论,随着算力、训练方法和语料库体量的进一步提升,其文本“写作”的水平还可以继续提升。
然而,之所以能够表现如此良好,在很大程度上依赖于内容和评价标准的模糊性,也就是说,生成对象的指涉越是模糊,ChatGPT的输出结果就越令人满意;相应地,对生成对象的精确度要求越高,其表现就变得非常不尽如人意了。归根结底,ChatGPT仍然只是一个语言模型,它能够在语言层面上掌握“模糊”这一手段,令人比较满意地回答标准不甚清晰的问题,但这一切也都只停留在语言层面上,还不能触及推理、判断乃至情绪。正如人类社会需要大量的寒暄、问候、铺垫,人们对程式化、礼仪性文本的需求总是普遍和刚性的,这就为ChatGPT的实际应用创造了巨大的市场空间,这也导致“人工智能夺走人类岗位”的说法甚嚣尘上。但问题的实质在于,对于那些程式化、礼仪性文本,恐怕并没有人在意其内容并深究其含义,ChatGPT也正是在这种模糊的语言维度上取得了很大进步,使人机之间能产生比较顺畅的交流。但对于内容的创造力、感染力、深度等,尚不能期待更多。