pcm量化信噪比怎么计算(邓建国概率与反馈)

概率与反馈:ChatGPT的

智能原理与人机内容共创

作者 | 邓建国

复旦大学新闻学院传播学系教授、博导

原文刊载于《南京社会科学》2023年第3期

本文注释略去

非经注明,文中图片均来自网络

pcm量化信噪比怎么计算(邓建国概率与反馈)(1)

pcm量化信噪比怎么计算(邓建国概率与反馈)(2)

摘 要

ChatGPT作为21世纪第二个十年出现的最新和最强大的人工智能,其原理并没有脱离20世纪中期以来推动人工智能发展的两个重要理论——“信息论(概率)”和“控制论(反馈)”,这两个理论也极大地推动了传播学的发展。ChatGPT的概率性语言分析和拼凑式内容创新自古以来就是人类的文化生产方式,它对今天的“原创作者”制度提出了挑战。未来,ChatGPT会不断学习,变得更具创造性,进而对人类施加更多的创新压力。人类将能以ChatGPT训练伙伴和合作伙伴,不断掀起基于和超越“人工智能生产内容”(AIGC)的新的“浪漫主义运动”,最终变得越来越具有创造性。

2022年11月,美国OpenAI实验室推出基于“第三代生成性预训练转换器”(Third-Generation Generative Pre-trained Transformer,GPT-3)大语言模型的网络对话平台ChatGPT,很快它就在世界范围内获得了极大的关注和讨论。它的“智能”背后的原理为何?与人类最为重要的媒介—语言以及自古以来的文化生产方式是何关系?它仅仅是人类内容的搬运工?亦或也可能是创作者?它的到来对人类将形成何种挑战?我们如何对之趋利避害?本文试图问答这些问题。

1 ChatGPT的“智能”原理:概率

与反馈

(一)香农的信息论:基于“概率”的自然语言处理

ChatGPT基于的大语言模型GPT-3源于科学发展史上的“概率革命”和“统计革命”。身处一个不确定的宇宙,人类对确定性有着永恒的追求。17世纪,牛顿物理学诞生。它告诉我们,万事万物都由一个总规律绝对地支配着,就如一个弹子球的撞击必然导致另一个弹子球的运动一样。这让对自己命运一直惴惴不安的人类如释重负。“牛顿物理学曾经从17世纪末统治到19世纪末而几乎听不到反对的声音。它所描述的宇宙是一个其中所有事物都是精确地依据规律而发生着的宇宙,是一个细致而严密地组织起来的宇宙,其中全部未来事件都严格地取决于全部过去事件的宇宙。”

但到19世纪末,物理学中爆发了一场“概率革命”(probability revolution)——此时出现的热力学,特别是对气体的所谓“布朗运动”的统计研究从根本上证否牛顿物理学的绝对性。后来由威拉德·吉布斯(Willard Gibbs)和路德维希·玻尔兹曼(Ludwig Boltzmann)等科学家推动的“统计革命”指出,宇宙本身就是模糊,其基本运行规律是“偶然性”(chance),因此任何对它的物理测量都无法做到精确,更何况我们的测量工具也无法做到绝对精确。

1948年,香农发表了名为《通讯的数学原理》的著名论文,其中他指出,所谓“信息”(information)就是能提高概率,降低不确定性的东西。例如,我们都很熟悉这样的“猜数”游戏:我脑子里想一个数让你猜,并说这个数字在100以内,你猜不出;我又说它在50以内,你仍然猜不出;我再说它是10以内的质数(2、3、5、7),你仍然猜不出;我最后说它是偶数,于是你确定这个数字为2。在游戏中,“我”每次提供的提示都增加了“你”猜到答案的概率(probability),或者说降低了不确定性(uncertainty)。这些提示就是信息。

“理所当然,没有一种通讯理论能对语言问题避而不论。事实上,语言从某种意义讲,就是通讯自身的别称”。用信息论来分析英语,我们会发现其中存在着一个被称为“马尔可夫过程”(Markov Process)的规律,即英语中后一个字母为何在概率上决定于其前一个字母为何,以及我们对前面的字母知道得越多,就越能在概率上判断其后一个字母为何。例如,英语单词中字母q后只可能跟u,因此我们判断q后的字母为何,面临的不确定性为0。根据香农1951年自己的研究,要判断一串英语字母的第一个字母为何(消除不确定性)所需的信息为4.1比特,判断第2个字母需要3.6比特,第3个字母要3.3比特,判断第100个字母则只要1.3比特。这意味着,字母(以及以此类推到单词、段落、篇章、书籍、学科知识)的上下文(context)能提升我们判断其“是什么”以及“意味着什么”的概率。这就好比人类阅读报纸文章时的信息处理方式:我们总是根据单词、句子和段落所处的上下文(关系)去理解它们的准确含义,从而理解整篇文章。例如,“hot dogs”在“Hot dogs should be given plenty of water(狗热了要多喝水)”和“Hot dogs should be eaten with mustard(热狗应该和芥末酱一起吃)”这两个句子中的含义截然不同,但我们可以从hot dog出现的上下文来判断它在此句中的意思是“热狗面包”还是“感觉很热的狗”。

“概率革命”和信息论极大地推动了人工智能研究的发展。后者逐渐放弃了对绝对精确和确定的追求和捕捉。在GTP-3之前,实现AI有两种“追求精确”的思路,即“模拟现实”和“化约现实”。“模拟现实”派认为,AI必须对现实(比如人类大脑)进行精确建模,并通过它对现实做出精确预测,但现实世界丰富多彩,难以精确复制,因此这条道路遥遥不可期。“化约现实”派则认为,正因为现实太复杂不可能被精确复制,因此只能对其进行化约,但化约后的现实并非现实本身,这就给AI预测现实带来了困难。GPT-3的思路则放弃了追求精确模拟,承认世界的模糊性,基于人类语言实践的高概率性,结合强大的算力、海量数据以及人机协作训练出来的强大算法,对人类的知识进行“有损压缩”,最终推出了“概率性语言模型”GTP-3以及它的人机对话应用ChatGPT。

GPT-3对语言的概率性分析是通过一个叫“转换器”的基于神经网络的深度学习模型实现的。“转换器”是一种特定类型的神经网络架构,通常被用于自然语言处理(NLP)任务,它在Vaswani等人2017年的一篇题为《你所需的一切就是注意力》(All You Need is Attention)的论文中被首次提出。该模型使用“自我注意”(self-attention)机制来处理“输入”(input)的词序并进行预测,然后进行输出(output)。和人阅读文本时一样,转换器能对用户的提问文本(prompt)和海量语料进行扫描分析,根据概率来匹配各类表达,使得输出达到自然语言水平。

这使我们很容易想到索绪尔的“结构语言学”。索绪尔指出:“语言符号的价值在与系统内其他符号的对立关系中产生。对立关系可以分成两类,即(横)组合关系和(纵)聚合关系”。一个词的意义不仅仅取决于它本身的定义,而是通过它与其他词语的关系形成的一个网状结构(由横轴和纵轴构成的双轴关系),被称为“意义网络”(web of meaning)。这个意义网络包含着词汇、语法和语境等多个因素,这些因素相互作用,以不同的概率共同决定了一个词的意义。因此,与香农和索绪尔一样,GPT-3语言模型“转换器”认为一个词的词义为何,决定于它的具体使用,也即它与其他词语的关系,它的词义也就是所有这些关系的总合。ChatGPT的这种能力使得它具有了一种跨情境运行的“生成性”。我们也许可以称之为GPT-3“语言的存在主义”。

二)维纳的控制论:基于“反馈”的人工智能训练

ChatGPT的智能的另一个来源是“反馈”。控制论(Cybernetics)的创始人和人工智能先驱诺伯特·维纳(Norbert Wiener)认为,贯通于人、动物及机器之间的,能让三者间进行通讯的是一种共通的“信息模式”(information pattern),比如,人脑和动物的神经触突燃灭冲动相当于计算机的0和1。这种信息模式可以存在于任何有机或无机基质中,都能让它们体现出“智能”(intelligence),因此交流者是否有身体(embodiment)无关紧要,重要的是它们是否有令人信服的传达信息的能力。

维纳还认为,如果我们通过“反馈机制”来设计机器,就能让机器变得智能。这种智能机器与那些只能执行预先设定的程序的机器是不同的。所谓“反馈”就是“以机器的实际演绩(actual performance)而非以其预期演绩(expected performance)为依据的控制”。比如“当我驾驶一辆汽车,我对车辆所做的一系列控制不是单纯取决于我事先对道路的印象以及我计划对车辆要做的操控驾驶工作,而是在实际操作中,只要我发现车辆太偏向公路右边了,这个发现就会使我及时地把它驶向左边。这种控制是取决于车辆的实际演绩的,而不单是预先取决于道路的情况和我的计划。正是这种实时控制办法使我可以用大体相同的效率来驾驶一辆轻便的奥斯汀轿车或者驾驶一辆重型卡车,而用不着为了驾驶这两者而预先去形成不同的驾驶习惯”。他说:“如果机器要像人一样实现这种实时和自动控制,就需要使用种种感觉元件,它们执行着预报器或监视器的职能;这类机械形式的反馈过程也可以通过电的手段乃至真空管来完成。这些手段有可能成为未来设计控制仪器的标准方法”。维纳认为,如果机器对自己的实际演绩不断做出反馈,久而久之它就能像人类试错一样不断学习提高,变得越来越聪明。

维纳的“反馈”后来成为所有人工智能的基本原理。ChatGPT也不例外,它的“智能”就是基于自监督反馈原理的“左右手互搏,对抗迭代学习”。这体现在,首先,GPT-3是通过自我反馈和人机反馈原理“预训练”出来的。AI较早的深度学习模型是“生成式对抗网络”(Generative Adversarial Networks,GAN),它通过两个模块,即生成模型(Generative model)和判别模型(Discriminative model)的相互博弈(反馈)学习来提升AI内容生产的质量。OpenAI在2020年发布的GPT-3比GAN更为先进,让AI首次具有了逼真模仿人类“说话”的能力,但它还缺乏管教,常常会蹦出一些出格、粗鄙和错误的话。为了避免此类尴尬,实验室引入了“人类反馈强化学习”机制(Reinforcement Learning from Human Feedback, RLHF),即利用人类反馈信号让语言模型强化学习来获得优化。在训练中,人类老师给予AI正向和负向刺激(Reward Model)——对人类的问题,答得好就给AI打高分,答得不好就打低分。在此基础上,实验室还将人类老师的训练方式自动化,让AI自我强化学习,最终形成了GPT-3.5和基于它的ChatGPT。其次,如前所述,ChatGPT通过“转换器”能从人类用户的刺激(提问)与对问题的满意度标示中学习(in-context learning),以提高沟通准确度和对话感。从控制论角度看,这即是ChatGPT根据自己的“实际演绩”做出动态反馈所体现出来的智能。

“社会行为主义者”赫伯特·米德指出,“自我”是从社会过程中发展而成的,它从来就不能被从这个过程中孤立或切割开来,而这个社会过程其实就是一系列的“姿态的互动”(conversation of gestures)或者说社会性反馈。由此可见,如果说ChatGPT有“智能”甚至有“心灵或自我”的话,它是基于概率和反馈原理实现的智能。

pcm量化信噪比怎么计算(邓建国概率与反馈)(3)

2

ChatGPT是对人类自古以来的

概率性语言实践的高效模拟

GPT-3通过概率和反馈,从海量文本中分析人类语言实践中的概率,选择最可能的搭配内容作为答案高效地提供给人类提问者。人类语言中“最可能的搭配内容”其实就是各种习惯表达,它们以词、词语、句子、段落、篇章乃至学科知识等形式存在。例如,“我喜欢[CD#2]的感觉”这句话中的空格中填上“川菜”的可能性要远高于“被嘲笑”。在中学英语考试中,我们也总是像ChatGPT一样被训练——根据概率来做一篇又一篇的完形填空(cloze)。因此,ChatGPT受到一些人的批评,认为它生成的内容并非什么了不得的创新,而不过是对人类已有语言内容的搬运和组合。

这种批评历史悠久。我们都推崇标新立异的语言创新,讨厌面目可憎的陈词滥调。例如,诗圣杜甫说,“诗清立意新”,意思是诗要写得清新,首先得立意新。殊不知,中国古代诗歌中的典型意象和典故如孤月、长夜、秋水、落日、长河、枯藤、昏鸦、小桥、流水等就是一种概率性语言,它们数千年来被历代诗人不断重复组合使用,也因此促成了中华文化的高度互文性和源远流长。

在西方,反对陈腐语言,提倡文学创新的首当其冲的是18世纪中叶“浪漫主义运动”。该运动推崇情感,主张想象力的创造性发挥,坚持美感第一的美学标准,其主要代表是威廉·华兹华斯(William Wordsworth)。他高调反对陈腐语言。有一次看到同时代诗人托马斯·格雷(Thomas Gray)的一首挽歌十四行诗,他粗暴划掉其中“都是陈词滥调”的九行,指出只有剩下的五行“还算有点价值”。这九行中充斥着诸如“人类长羽毛的朋友”(鸟)、“微笑的早晨”(smiling morning)、“金色的火苗”(golden fire)、“欢快的田野”(cheerful filed)和“孤寂的痛楚”(longly anguish)等概率性表达。事实上,类似于中国旧诗中的“用典”,在18世纪,西方很多诗人都认为只有用上这些成语才算是真正的诗歌。但浪漫主义的代表华兹华斯则认为,诗歌是艺术家个性化的表达,“诗人越优秀,其诗中的表达就越难以预测”。

西方反对陈词滥调的另一位著名人物是乔治·奥威尔(George Orwell)。他在《政治与英语》(1946)一文中指出,陈词滥调的写作让人感觉像是作者“将一长串已经被别人安排好的单词粘在一起”。他还在《1984》中批判了英国政府的“新话”(Newspeak)——各种语言腐败,其中包括“过时的比喻使用”(dying metaphors)和“滥用无明确指代的词汇”(meaningless words)。

但如果我们去掉价值判断,杜甫、华兹华斯和奥威尔反对的“陈词滥调”其实就是今天的ChatGPT所用的概率性表达,而它自古就是人类语言实践的重要特征。受制于人类大脑记忆带宽,使用高概率性的“陈词滥调”是人类语言的宿命。实际上,即使是我们对“陈词滥调”的反对言论,也早已经变成了一种被高度重复使用的陈词滥调——无非指责它毫无新意,阻碍创新。

我们还可以将人类语言中的概率性表达的历史向更古老的时代推进。20世纪30年代,一位30岁的名叫弥尔曼·佩里(Milman Parry)的年轻哈佛教授在《哈佛古典语言学研究》杂志上发表论文指出,口语时代的代表作品《荷马史诗》有着数万行文字,但它并非由一个叫“荷马”的个人创作的,而是由几代无名的希腊吟游诗人(bards)将大量预制零件般的固定表达拼装在一起最终沉淀而成的。因此佩里认为,吟游诗人“荷马”更像流水线上的组装工人而不是具有创新的艺术家。2023年2月,Google公司宣布将推出自己的类ChatGPT应用,名为“吟游诗人”(Bard),正是对该类AI智能具有如“荷马”一样的高概率内容生产方式的揭示。

美国文学和媒介研究者沃特·翁(Walter J. Ong)对“口语文化和书面文化”的研究充满洞见,为我们理解语言与技术(包括今天的ChatGPT)之间的关系能提供重要启发。他在《修辞、浪漫故事和技术》一书中指出,那些我们今天视为陈词滥调的公式性和模块化表达(概率性语言)其实自古以来就是人类口语和文字实践的主要特点。在5000年前文字出现之前的口头文化中,“知识一旦获得就必须被不断重复,否则就会丢失。此时使用公式性和模块化表达(概率性语言)来思考和表达对有效地保存和管理人类经验和智慧至关重要”。例如,中西方的少数民族史诗里都有这样的惯语:说到士兵总是“勇敢的士兵”,说到橡树总是“坚固的橡树”等;民俗中还通过如“一三五七八十腊,三十一天永不差;四六九冬是小月,唯有二月二十八”这样的押韵口诀来记忆大月和小月的天数。

佩里和翁的研究都告诉我们,人类语言的规律性和重复性较之特异性和原创性比我们想象的要高得多。后来,文字的出现以及15世纪印刷术的发明大大降低了人类口语概率性表达的影响力,因为文字作为一种“延伸的心灵”(extented mind)比概率性表达具有更强的存储能力和传播能力。但概率性语言并没有完全消失,而是在书面语言中被固定了下来,比如我们中文广泛使用的成语和习惯表达,以及英文中各种固定表达,如“久经考验的”(tried and true)、“突然的变化”(sudden change),以及固定表达,例如“很久、很久以前”(Once upon a time...)或“那是一个黑暗无光暴雨肆虐的夜晚……”(It was a dark and stormy night...)。至于在篇章方面,以弗拉基米尔·普洛普(Vladimir Propp)和列维-斯特劳斯为代表的结构主义叙事学都雄辩地证明了人类叙事中数千年以来不断复现的各种结构。

pcm量化信噪比怎么计算(邓建国概率与反馈)(4)

3 ChatGPT基于“拼凑”的创作

带来的挑战

但是如果ChatGPT仅仅是基于人类已有语料库的概率性借鉴和拼凑(collage),为什么很多用户还会觉得它给出的回答也还幽默、有些情趣、能解人意、颇有创意呢?ChatGPT能(像人类一样)“创作/创造”(create)吗?

(一)ChatGPT的拼凑是创作吗?

这本质上是一个图灵问题——机器能像人一样思考吗?事实上,今天的人工智能写作早已经达到了让人类用户无法将其与人类作品相区分的水平,也就是说早就通过了“图灵测试”。既然如此,按照图灵的观点,此时我们再争论“机器是否能像人一样地思考(创作)?”意义不大。

另一方面,回答这个问题还要看我们如何定义“创作”,以及如何判断一个作品是具有创作性的(creative)。一般认为,从“本质上”(in essence)而言,计算机和算法是被人类创造的,它们都是“人类的创造物”(the created)而不是“创造者”(creator),都缺乏体现创造力的关键元素:自主性、意向性、意识、价值观、情感以及超越“已知”建立“未知”的能力。据此,我们不能说ChatGPT具有创造性。

但从其实际表现上看,GPT-3确实体现出了一定的创造能力。例如,它作为“通用语言模型”的表现已经超过了专门用语言模型(例如语法纠正语言模型、回答琐事问题语言模型和翻译语言模型),这表明它对各种任务具有高度适应性,这是创造性的体现之一。其次,GPT-3除了能完成传统的模式化写作外,还能创造小说、诗歌、戏剧、计算机代码,甚至编造出此前并不存在的表达。例如有英文用户告诉GPT-3“to screeg something”的意思是“to swing a sword at it”(拔剑怒指某人或某物),并要求它用这个词造句,GPT-3能给出一个很不错的答案:“我们相互剑拔弩张了几分钟,然后就出去吃冰淇淋了。”(We screeghed at each other for several minutes and then we went outside and ate ice-cream.)

但是,我们要问的一个更根本的问题是:创造有多种方法,难道“拼凑”不是其中的一种?正如一位网友的评论:“人类又何尝不是在由各种元素随机构成的巨大空间里找到对人类有意义的组合,做出了些东西,叫作品、叫设计?”

笔者向ChatGPT提问:“拼凑是否可以被视为是一种创作的手段?”它做了肯定的回答:

“是的,拼凑可以被视为是一种创作的手段。拼凑是一种艺术形式,它涉及将不同的材料和物品,如纸张、照片和布料,组合在一起,以创造一个新的统一整体。这一过程允许您尝试不同的质地、颜色和形状,并探索新的思想和主题。拼凑提供了一种低风险的方式来尝试和使用不同的材料,并尝试新的想法。它可以帮助您拓展想象力和发展视觉词汇。通过以新方式使用材料并以意想不到的方式将它们组合在一起,您可以创造独特且原创的作品,反映您的个人愿景和风格。总的来说,拼凑是一种有趣和易于接触的方法,可以让您进入您的创造性思维并探索新的想法和主题。无论您是一位经验丰富的艺术家还是刚开始的艺术家,拼凑都是释放您的想象力和让您的创造力流畅的绝佳方法。”

如果ChatGPT自己说“拼凑是创作”有利益冲突,证据效力不充分。那么作为另一个证据,在人类文化中,“拼凑”确实也结出了不少创新性的硕果。

沃特·本雅明喜欢使用的“意象蒙太奇手法”——用超现实主义的拼贴方法和电影蒙太奇手法,甚至完全用引文来构成一部著作,如他的《拱廊街计划》;钱钟书的《管锥篇》是一本短篇随感集,大多由中西文学、历史和哲学中相似或相对的观点的并列和钱先生的简单评述组成,但该书却被视为中西比较文学研究的开创性著作。美国传播学者约翰·彼得斯的媒介哲学著作《奇云:媒介即存有》基于多达12个学科以及大量前人技术思想家的观点,内容庞杂、包罗万象如“百科全书式”(encyclopedic),但在媒介研究领域也颇受推崇。

ChatGPT的“拼凑式输出”还让我们想起各种现代主义的文学实验,例如法国文学团体“乌力波”(Oulipo)各成员的众多“创新”。比如,作家乔治·佩雷克(Georges Perec)的法语小说《消失》(La Disparition),在长达300多页的全文里,故意不使用字母“e”;雅克·茹埃(Jacques Jouet)在地铁到站的间隙中即兴创作“地铁诗”;雷蒙·格诺(Raymond Queneau)基于所谓“组合文学”(相对于“组合数学”或“离散数学”,即使用算法处理离散数据)概念创作的《百万亿首诗》(Cent mille milliards de poèmes)——他用10首十四行诗的诗句重新组合成100万亿首新的十四行诗。又比如,超现实主义艺术家的小游戏《优美尸骸》(Exquisite Corpse)——游戏参与者在不看之前内容的前提下,接龙加上自己的文字,最后形成一篇文本作为所有玩家共同完成的创作,结果竟然产生了“优美的尸体应喝新酒”这样令人感觉惊骇荒诞但不无新意的句子。这恰恰是ChatGPT在前文中对拼凑式创新的描述:“以意想不到的方式将已有材料组合在一起,您可以创造独特且原创的作品,反映您的个人愿景和风格。”另外我们还有以“维基百科”为代表的“分布式百科全书编撰”….

艺术创作中的情况也类似。韩裔德籍哲学家韩炳哲(Byung-Chul Han)指出,与中国人一直的看法不同,从2500年前的秦兵马俑的“模块化拼装型”生产,到清康熙年间的“元素组合型”国画技法手册《芥子园画谱》,中国思想和文化中的骨子里具有一种山寨拼装精神。韩炳哲本人的写作也很具有“ChatGPT生成内容”的多元拼凑特征。他是第一个能在德国或欧洲哲学文化内部不把自己当外人的亚洲人,以日本的俳句为书写形式,以韩国的言语为示例,用中国哲学来启发西方和诊断当代世界和当代社会。

即使是在新近的“中国人自己的”充满想象力的科幻电影《流浪地球2》中,“反派”人工智能莫斯(Moss)也与阿瑟·克拉克出版于1968年的《太空漫游2001》笔下的“HAL9000”人工智能如出一辙。由此看来,ChatGPT对已有内容的“借鉴和拼凑”自古以来就是人类文化生产的方式之一。如果人类的这类活动能被视为创作,为什么ChatGPT的写作不能被视为是创作呢?

(二)ChatGPT与人类的内容共创

事实上,ChatGPT/GPT-3这类人工智能在“借鉴和拼凑”的基础上产生了一种“生成性”,即它能够根据一组规则、模式或数据输入生成原创输出(包括文本、图像和音乐等)。人工智能正在从以前的检索者、搬运者和呈现者成为创作者(creator),或者至少成为创作者的合作者(co-creator)。

ChatGPT与人类用户的内容共创体现在三个环节。第一,如前所述,ChatGPT输出的内容是对人类语料库的概率性利用和拼凑。其次,内容输出的过程本身是其与人类用户共同创作的过程。例如,它输出内容的质量如何在很大程度上取决于人类用户提问(prompt)的能力。问题措辞越具体精确或具有创造性,ChatGPT的回答就越具体精确和具有创造性。一位中国用户就“如何提高ChatGPT的创意小说写作能力”给出建议:“只要你对想要的小说中的心理、角色、场景等都加上尽量精确的描述词,ChatGPT就能给出各种角度完全不同的复杂的描写。”这意味着,能否向ChatGPT提出一个好问题已经成为检验人类用户知识广度和语言表达能力的一种方法,以至于网上出现了大量ChatGPT提问指南。第三,ChatGPT在检索海量信息并将其精简和有条理地呈现给人类用户后,后者可以对输出内容消化、整合、论证、驳斥、推翻、改写和润色等,最终使这些合作生产的内容达到出版水平。现在人类作者对AI输出的粗稿进行润色已经和一个有经验的教师或编辑润色学生或新记者的文章没什么太大差异,因为很多记者和作家都开始与ChatGPT合作生产内容。2021年,美国作家K. Allado-McDowell先就各类哲学议题向GPT-3提问,然后他对答案进行编辑和润色,最后形成了一本达到出版水平的结构合理、表述清晰的书。自2000年以来,AI语言模型对人类的价值已经从语法和拼写自动检查助手发展到今天写作深度合作伙伴。未来,这种人—机共创的关系将更加普遍和深化。

梁启超说:“文章不厌百回改,确实名句一钩弯”;海明威说,任何东西的“第一稿”都是狗屎;美国作家和记者罗伯特·科米尔(Robert Cormier)说:“关于写作的美好是,和脑科医生不一样,你在写作时不必第一次就做到丝毫不出错。”这三位作家的意思是,好的写作始于对初稿的不断修改。显然,ChatGPT则以极为高效的方式为人类的内容创作提供了初稿。

(三)拼凑式内容创作对现有“原创作者”观念和制度的挑战

和前文提到的本雅明、钱钟书和彼得斯的学术创作,以及“乌力波”成员的文学实验一样,ChatGPT基于概率性语言的拼凑式写作,以及它与人类用户的内容共创实践,将导致我们已经习以为常的“原创作者”(authorship)观念和制度变得复杂棘手。

但这实际上并不是新问题。彼得斯指出,苏格拉底、耶稣和孔夫子这三位先哲之间存在着明显的共同性——他们都拒绝将他们的学说诉诸文字。这不是他们的意愿或能力问题,而是他们三位都没有“原创作者”的概念——这一概念直到两千多年后在现代欧洲出现的个人表达和版权文化中才形成。

韩炳哲在研究中国的“山寨主义”时提到了张大千——他可以说是在艺术元宇宙中穿梭取材和寻觅灵感的“ChatGPT国画大师”,作为“中国的毕加索”,张大千是著名的画家和收藏家,藏画多达4000余幅。但他并没有将这些收藏束之高阁、积灰蒙尘,而是不时拿出来摊在画桌上仔细欣赏和琢磨,有时还常常将自己置于古画作者的时代和情境中对它们进行精细的临摹。对于某些佚失但有历史记载的名家名作,他则自行以名家的身份和境遇进行创作。如此,张大千在古今他我之间不断穿梭,不断以意想不到的方式复制、删减、添附、修改古代某个著名画家的画风,生产出大量既有继承又有创新、亦真亦假、不真不假的“真赝品”画作。

由于张大千画技精湛,又得古画之真迹临摹,精神上还能与古画作者穿越神交,他临摹出来的仿作和伪作与原作相比难辨真假,骗过了很多行家。韩炳哲认为,这种艺术上的“特殊实践”(Fortsch pfung)只有在中国这种不追求“断裂的革命”而是致力于“安静的改良”的文化中才可能出现。

张大千造成的问题是,他在欣赏、琢磨、临摹和创造“真赝品”时,是在与古人、古代、古人的作品、他自己、他所处的时代和他自己的作品对话,他的这种“非作者中心主义的拼凑式创作”让我们最终分不清他的作品的真正作者是谁。类似地,人类作者在与ChatGPT进行的是一种“非人类中心主义的写作”,是人类作者与非人类作者在各个层面的相互纠缠:“我”在与语言建模中的计算语言思维交互,在与由互联网语料库预训练的人工智能交互,在与大量匿名的人类和非人类生产的互联网语料交互。那么“我”和ChatGPT最终生成的内容的作者是谁呢?是我吗?是我们吗?是它吗?也许都是,也许都不是。

未来已来。在ChatGPT或类似人工智能普及后,大量AIGC会出现在我们的生活中。也许我们根本不会在意某些内容是真人还是AI写的,就好比只要家里的脏碗筷和脏衣服被洗好了,我们不会在乎是人还是机器洗的;也许我们会有必要在AIGC中区分出AI和真人的不同贡献,以区分两者各自应该承担的责任,就好比我们在修复一个古董花瓶时有必要展示出哪些是原件部分哪些是修复部分;还或许我们迟早会有必要承认AI在文化生产中的一席之地。例如,2019年,在捷克著名作曲家安东·德沃夏克(Antonin Dvorak)去世115年后,一位名为AIVA的“AI艺术家”完成了德沃夏克生前未完成的一部钢琴曲。法国和卢森堡的“作家和音乐作曲家和编辑人协会”(SACEM)因此接受AIVA为会员,这意味着AIVA的作品和人类作品一样受版权法保护。早在2012年就有人预测“在未来5年内”机器人记者会获得普利策新闻奖,未来不久我们或许还会要修改诺贝尔文学奖的参选规则。

pcm量化信噪比怎么计算(邓建国概率与反馈)(5)

4

结语:ChatGPT或能激发人类

新的“浪漫主义运动”

总结而言,ChatGPT作为21世纪最新颖和最强大的人工智能,它背后的理念却历史悠久:它源自19世界末的“概率革命”,经受了20世纪中期信息论和控制论思潮的洗礼,再受益于21世纪初以来的算力和数据的爆发性增长。而其基于概率的分布式内容生产方式的历史则更为悠久,似乎将我们带回到荷马和孔子的“模式化记忆和集体创作”的时代。ChatGPT带来的轰动再次印证了人类历史上技术影响文化时呈现出来的模式性和循环性。这虽然会让我们骤然一惊,但马上又觉得是意料之中。马克·吐温说:“历史不会重复,但会押韵。”新旧技术对文化的影响不会全然一致,也一定会押韵。

苏珊·朗格(Suzanne Langer)指出:“思想史中有一种所谓‘生成性思想’(generative ideas),它们能给旧领域带来新视角、新概念和新框架。”她说:“大多数新发现其实都不过是我们突然看到了一直就存在的东西。新想法是一种光,它照亮了此前我们一直忽视的东西,并让这些东西获得了某种形式。我们将光投到这里、那里和四面八方,这时那些限制思想的东西就自然会退却。在有着基础作用的生成性思想的推动下,新的科学、新的艺术和年轻而有朝气的哲学体系就会喷薄而出。”人类的文化生产缺乏这样的生成性思想久矣,也许是因为“大部分人在二三十岁上就死去了,因为过了这个年龄,他们只是自己的影子,此后的余生则是在模仿自己中度过,日复一日,更机械、更装腔作势地重复他们在有生之年的所作所为,所思所想,所爱所恨。”换句话说,人类社会大部分人或主动或被动地都沦为了机器,从事着机器般的工作。

沃特·翁认为,18世纪的浪漫主义运动的出现并不是为了反对当时已经存在的各种技术,倒恰恰是因为这些技术才让浪漫主义运动的出现成为可能。是当时的文字、手抄和印刷术将人类大脑从口语时代的模式化记忆负担中解放出来,让浪漫主义者有脑力去从事更有创造力的活动。同样,我认为,今天ChatGPT可以高效地生成各种模式化或低创新性的文字,从而让人类能腾出脑力来从事更具创造性的工作。在人类伴侣的反馈训练下,ChatGPT将变得越来越具有生成性;未来,我们将能以ChatGPT为自己的训练伴侣,在涉及“学、识、才”的内容生产中充分发挥“人的用处”(The human use of human being),不断发挥想象力和创造力,掀起超越人工智能的新的“浪漫主义运动”。

pcm量化信噪比怎么计算(邓建国概率与反馈)(6)

本刊坚持原创,欢迎转载

版权所有,如转载,请注明:

本文转载于南京社会科学

欢迎个人转发

媒体转载请联系后台授权

投稿网址:njsh.cbptki

025-83611547

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页