如何赋予 GPT/LLM 自我意识1
引子
这个周末OpenAI搞了一个大新闻,围绕 Sam Altman 和 Ilya Sutskever 的各种讨论遍地开花,而其中一个关注点就是他们对于 AGI 降临态度上的偏差。本文不打算讨论公司治理和办公室政治,而是用一些思维实验和大家都公认的现象来分析纯理论而言 AGI 会如何降临。一个基本的结论就是:如今的 GPT 模型注定会诞生 AGI。更关心论证的朋友可以直接跳过前两个介绍基础知识的段落直接看后续的推理过程。不过限于篇幅,这篇里仅仅提出了问题,具体分析会在后续文章中给出。本文提出了意识和载体之间可能存在的辩证依赖关系,提出了一个识别自我意识的途径,可能是所有 AI 研究者长期等待的一个假说理论的雏形
AGI 的一般定义
首先我们先设定一个有关 AGI 的一般定义。AGI 通常是至一个智能体具有人类水平的通用智能,能够学习、理解和应用知识去解决各种复杂问题,并且具有自我提升的能力。主要特征包括:
- 强大的学习和推理能力,可以从数据中学习模式并进行复杂推理。
- 具有语言理解和自然语言处理能力,能够理解人类语言并进行有意义的交流。
- 拥有广泛的世界知识和常识,可以把学习到的知识应用到不同领域。
- 可以跨模型理解和学习,融合不同形式的信息如语音、图像、视频等。
- 表现出创造力和规划能力,能解决新问题并制定计划达成目标。
- 具备自我意识和自我提升的能力,可以主动设置目标并不断进步。
当前的AI系统都属于弱 AI 或狭义 AI,距离真正的AGI还有很长的路要走。几大特征中,目前的人工智能已经能达到大部分,而在诸多能力中,具备自我意识和自我提升能力是最具有挑战性的。
GPT/LLM 的工作原理
对应的,我们也需要了解人工智能目前大致的原理。并且我们可以断定,任何一个环节其本身不具有任何智力,不具有任何主观意识。
模型架构
LLM模型通常采用Transformer编码器结构,由多层编码块组成,每个编码块包含自注意力机制和前馈网络。模型参数通常在亿级到万亿级。大规模语料预训练
在海量文本语料上进行无监督预训练,通过自回归预测语言序列的下一个词来学习语言的表征。预训练目标是最大化语料的联合概率分布。迁移学习
利用预训练中的语言知识,通过精调应用于下游NLP任务,如文本分类、问答、对话等。只需要调整最后的输出层。模式识别
LLM可以学习语言中的模式,并根据前文进行语义解析和推理,预测后文内容。多任务学习
除语言建模外,还可以通过掩码语言模型等方式进行预训练,让模型学习不同语言任务的表示。生成
利用采样策略可以生成连续、语义连贯的文本。通过条件提示也可以指导内容生成。
GPT 是否理解它的输出
简单的说,GPT 并不“理解”它的输出。GPT 能正确得回答你的问题,并给出操作步骤,甚至 GPT 能通过大部分学校的书面考试,所以我们可以认为 GPT 的确“掌握”了知识。基于 GPT 的原理,我们可以肯定只要给它更多的训练素材,GPT 注定能记住几乎所有的人类知识,各行各业的知识。因此针对 AGI 的一般定义,其中大部分已经没有什么疑问了,达成目标仅仅是个时间问题,GPT 是一定能做到的。但是同时基于 GPT 的工作原理,有一种观点则认为:GPT 本身对于其输出的信息并没有任何“理解”的意义。GPT 仅仅是基于训练数据和自身模型,给出了概率意义上的计算结果而已。一个能通过大学考试的机器,并不真的拥有对应知识的“理解”或“掌握”。
这里就有一个很有趣的对比。人类对比GPT,大家都能记忆相关的信息,然后顺利通过考试。为什么我们就拒绝承认 GPT 拥有理解能力?甚至事实上即使是人类,也存在那种仅仅机械背诵了知识点而无法阐述更多理解的情况。完全类似,甚至可以说相同的情况:“对象能顺利针对给定的问题,给出符合预期的答案”。但是仅仅由于一个是人类,另一个是 GPT 我们就排斥人工智能的成就,认为人工智能并不真正意义上“理解”自己的输出。我们不禁要问:人类的“理解”究竟是什么?
如何让一个人证明他“理解”/“掌握”了某个知识?是知其然且知其所以然吗?是能举一反三吗?是能顶得住答辩的专家团从各种角度更深层次的提问吗?而事实上这些挑战对于已经掌握了几乎所有人类知识的 GPT 来说并不是有太大难度的任务,难道不是吗?如果允许 GPT 模型进行论文答辩,我相信它的表现应该会显著高于人类学生的平均值。本文从这里开始提出这个尖锐的问题:某个知识,究竟是被人或 GPT 所“掌握”了,还是某个知识借助于人或 GPT 这个载体被“承载”了?一个能“承载”知识的东西,是否一定“理解”被“承载”的知识?“理解”的定义究竟是什么?
未完待续
下面,我们将进一步分析什么是“理解”。然后我们会进一步对比“创造力”的定义,最终给出“自我意识”的一种可能的实现途径