大语言模型能否具有意识?现代哲学
围绕大语言模型(LLM)是否可能具有意识的问题,否定性论证试图通过表明人工系统缺乏被视为意识生成所必需的条件来否定人工意识的可能,支持性论证则诉诸LLM的复杂性来确定这种可能。本文对这两类论证进行系统分析,指出它们共同预设了以人类意识为中心的理解框架,从而不恰当地排除了异质形态的人工意识的可能。
LLM作为一种在高维特征空间中运行的计算系统,有可能发展出一种不同于人类意识的新型意识形式。为处理新型意识形式问题,本文提出了“意识的计算相关物”概念,尝试以跨形态的计算约束来重新锚定人工意识,为评估LLM的意识可能性提供一种更具区分力的理论进路。
王华平,(珠海 519082)中山大学哲学系(珠海)教授。
近年来,AI技术取得了长足进步。大语言模型(LLM)不断逼近通用人工智能,甚至表现出人类意识的潜在特征,如多任务能力、跨模态信息整合、持续的人机互动、自我指涉式回应以及类心理状态的语言表述。[1]因此,AI能否具有意识的问题已不再是无稽之谈,而是个严肃甚至紧迫的科学-哲学问题。
如果AI可以具有意识,这一结论不仅将对“意识”概念提出新的理论挑战,也将迫使我们重新审视人类的存在方式及其在不断技术化的世界中的地位。这也意味着,AI不再只是可被任意使用的技术工具,而是可能成为具有道德相关性的主体。有鉴于此,一些AI研究、治理与安全核心位置的机构(如OpenAI和加州大学伯克利分校人类相容人工智能中心),在其正式文件与研究议程中开始明确将AI具备意识视为需要提前纳入考量的前沿问题[2]。
本文聚焦于LLM能否具有意识的问题。围绕这一问题,现有讨论大体呈现出两种不同的取向:否定性论证试图通过表明LLM缺乏某些被视为意识生成所必需的条件而排除LLM具有意识的可能;支持性论证则诉诸其在功能、结构或系统层面的高度复杂性,主张不应否认这种可能性。本文首先梳理并分析主要的否定性论证和支持性论证的理论依据及其限度,在此基础上指出争论双方预设了以人类意识为中心的理解框架,进一步提出以意识的计算相关物(computational correlates of consciousness, CCC)为线索,重新定位AI意识问题的理论进路。
Part.1
一、从人类意识到人工意识
AI的发展史很大程度上是一部概念驯化史。“智能”“思考”“学习”“理解”“推理”“记忆”“创造”这些概念最初都被视为心灵或人类主体的专属属性,如今已被广泛应用于AI。这也是图灵(Alan Turing)所预期的。图灵在其发表于1950年的奠基性论文《计算机器与智能》中写道:“到本世纪末,人们使用词语和受过教育者的意见将发生很大改变,以至于人们可以谈论机器在思考,而不再预期会遭到反驳。”[3]今天,类似的情景似乎正在人工意识(artificial consciousness)领域重演:将“意识”用于人工系统,如今已不再被简单地视为荒诞之言,而是成为一个需要认真加以界定与论证的理论问题。
LLM近年来的迅速崛起,使人工意识的讨论获得前所未有的现实关联性。LLM是一类以大规模文本数据训练的人工智能模型,能够在统计意义上学习语言中的结构与关联,从而生成语义连贯、情境相关的文本回应。随着模型规模与交互能力的提升,LLM在长时对话中生成大量具有自我指涉、情感表述与主体化倾向的言语内容。研究显示,在现实互动语境中,普通使用者已在相当程度上将LLM视为具有意识的对象。
这种态度并非零散个案,而是在大规模使用情境中反复出现的普遍现象。[4]一些研究者与哲学家开始偏向LLM具有意识的主张。比如辛顿(Geoffrey Hinton)就多次公开表示,不排除现有某些大型模型已经具备意识的可能性。查默斯(David Chalmers)认为当前的LLM已经满足了好几项意识的基准,甚至在一次访谈中断言未来十年内发展出人工意识的可能性为20%。[5]尽管这些判断并未构成对人工意识的直接确认,但它们清楚地表明彻底否定LLM具有意识的可能性已不再是一个无需论证的默认立场。
不过,目前占主导地位的仍然是怀疑乃至否定立场。在一篇近期发表的文章中,普雷蒂曼(Adrienne Prettyman)系统地梳理了四类具有代表性的否认LLM可能具有意识的论证:第一类是所谓的“随机鹦鹉”论证,认为LLM只是对语言形式进行统计复现,其行为完全可以在缺乏任何内在心理状态的情况下得到解释;第二类论证主张LLM并不真正理解语言的意义,其输出缺乏语义理解所必需的意向性基础;第三类论证诉诸系统复杂性,认为现有LLM在功能组织或动态结构上尚不足以支撑意识的产生;第四类论证采取一种更为总体的否定策略,强调LLM与人类在生物基础、认知结构与发展路径上的根本差异,从而认为将意识归属于此类系统在原则上就是不恰当的。这些论证力图表明,除非其基本架构发生根本性转变,否则LLM不可能成为意识的合格候选者。[6]
如何看待这场争论呢?首先可以明确的是,这并非纯粹的语词之争,而是源于对意识本性及其生成条件的根本不同理解:否定立场往往将意识视为一种与特定生物机制或具身结构不可分离的状态;支持立场则试图在不诉诸这些强前提的情况下,重新思考意识的本性与其可能的实现方式。其次,这场争论具有鲜明的形而上学底色,成为意识理论无法回避的问题:任何关于意识的理论主张,都必须在人工系统这一极端而新颖的案例面前,说明自身判据的适用范围与排他条件。最后,争论所涉及的“意识”和“人工意识”概念,具有显著的多义性与理论负载性。因此,对这场争论的任何公允评判都需以概念澄清为前提。
无论是在日常用法还是在理论语境中,“意识”皆非单一而透明的概念,而是一个在不同语境中承载着不同指称的混杂概念。最常见的一种用法是将意识理解为主体所具有的主观经验,即个体在处于某种心理状态时所体验到的“对主体而言像是什么样的东西”(what it is like)[7]。例如,手被烧伤时所感受到的灼痛感(感觉状态),看到西红柿时所呈现的红色质感(知觉状态),或在愤怒之中伴随而来的紧张与冲动体验(情绪状态)。这类经验具有不可还原的第一人称特征,只有身处其中的主体才能把握那种质感。这种类型的意识通常被称为现象意识(phenomenal consciousness)。
除指称经验外,意识还经常用来刻画主体直接知晓其所处的心理状态的内容的能力。这种意义上的意识被称为取用意识(access consciousness)。更准确地说,取用意识指的是某些心理状态的内容被纳入全局工作空间,从而可以被灵活地用于推理、判断以及对行动的直接理性控制。[8]理性控制不同于单纯的感知-反应式调节,如梦游者、盲视患者甚至简单的人工系统同样能够利用知觉信息来引导行为,但这类行为并非主体做出的有意图的行动。取用意识所刻画的正是这样一种特殊的可取用性——某些心理状态的内容能够被其他高级认知状态直接用于理性控制。
在另一种常见用法中,“意识”被用来指称主体对自身的觉知能力,即所谓的自我意识(self-consciousness)。具备自我意识的主体不仅能对其行为进行理性控制,还能将这些行为理解为“由我所为”,并在时间维度上维持一种相对稳定的自我同一性。认知科学通常通过不同层级的行为与认知指标来刻画这一能力:在较低层面,镜像自我识别测试被用以检验主体是否能够在感知与行动中将自身识别为同一对象[9];在更高层面,自我意识则体现为反思性自我概念与叙事性自我意识,即主体能够对自身的信念、理由与错误进行反思,并将过去经验、当前状态与未来计划整合进一个连续而统一的自我叙事之中。
与意识概念一样,“人工意识”一词也有不同含义。有时,它指在人工系统上再现或仿效人类意识的相关特征,即所谓的弱人工意识。在更强意义上,它指建构真正具有意识的人工系统。[10]乍看之下,这一区分似乎对应着“模拟意识”与“实现意识”的差别。
然而,这样的区分并未切中问题的要害,因为它默认“模拟”与“实现”之间存在一条统一而清晰的分界线,而这一前提在不同意识维度上并不成立。按照前面的区分,取用意识与自我意识本质上刻画的是心理状态在认知系统中的功能角色:它们涉及信息是否能够被整合、调用、用于推理与行动控制,或主体是否能够将状态与行动归属于自身。对这些功能的“模拟”就构成相应功能的“实现”,正如人工心脏通过模拟心脏的功能而同时实现了心脏的功能。因此,在取用意识和自我意识层面,模拟与实现人工意识并不存在原则性的区别。
真正的差异出现在现象意识层面。现象意识的核心不在于它对其他心理状态或行为所起的功能作用,而在于它作为主观经验“所是”的感受性。因此,即便人工系统能够在功能层面上成功复现与意识相关的特征或表现,这种复现也并不等同于现象意识的实现。有鉴于此,更为合理的区分应当是:用弱人工意识来指设计和建构模拟意识功能的机器,而强人工意识则专指设计和建构真正拥有现象意识的机器。弱人工意识几乎没有争议,有争议的是强人工意识。而最有争议也是本文最关心的是:现象意识这种本质上具有第一人称特征的主观经验,是否可能在脱离人类生物基础的人工系统中获得实现?
Part.2
二、LLM不可能有意识的论证及其问题
有了上述澄清,便可进一步讨论LLM能否有意识的问题。设想你要说服别人相信LLM不可能具有意识,你会怎样做?一种自然且合理的论证策略是:找出某个特征X,使得大型语言模型缺乏X,并且如果一个系统缺乏X,那么它就不可能具有意识。顺着这一思路,被提出列为候选者的特征X并不鲜见,如世界模型、自我模型、全局工作空间(global workspace)或统一能动性(unified agency)等。然而,就现象意识而言,争论的关键并不在于LLM是否在行为或功能层面呈现出类似意识的表现,而在于其是否具备某些可被合理视为现象意识生成所必需的条件。有鉴于此,本文将不对所有候选特征一一展开,而是聚焦于在当前讨论中与现象意识最相关也最常被诉诸的三个条件:具身性(embodiment)、时间连续性与生物特性。
在具身认知(embodied cognition)的研究传统中,认知活动被视为与身体状态、感觉输入以及行动可能性密切耦合的过程,而非发生于脱离身体的抽象计算之中。激进派将这一立场进一步推广到对意识的解释中,主张意识应被理解为一种以经验内容为核心、同时具有主体归属与外部指向性的现象,其生成依赖于主体对自身身体状态的感知以及对潜在行动的持续调节。[11]正是在感知与行动的这种结构性关联中,经验得以被组织为“对某物而言”的呈现,并稳定地归属于一个处于世界之中的主体。因此,在这一理论传统中,具身性并非意识的附加属性,而被视为现象意识得以生成与维持的必要条件。
LLM通常被认为不具备成为意识主体所需的身体结构。LLM的输入主要来自脱离当前情境的离线语料,其语言生成虽可描绘经验、行动与情境,却是建立在对人类语言使用模式的归纳之上,无异于“随机鹦鹉”。由于缺乏感官通道与身体边界,LLM无法形成以自身为中心的感知参照系,也无法通过行动在世界中确立稳定的因果定位,所以反对者认为LLM的非具身性决定了它不足以支持经验内容的生成、主体视角的确立以及经验与现实后果之间的持续耦合。
该如何评价具身性论证呢?首先,正如查默斯(David Chalmers)所指出的,感官与具身性是否构成意识与理解的必要条件,这是令人怀疑的。[12]“缸中脑”思想实验以及脑机接口技术,都可表明主体原则上可以在缺乏完整身体或常规感知—行动耦合的情况下,仍然维持具有内容的经验与理解活动。其次,即使承认具身的必要性,论证也难以进行下去。一方面,LLM并非完全脱离世界而运行。
其训练语料大规模来源于人类对现实世界的描述、分类与实践活动,由此在统计层面间接地保留了与世界结构的对应关系。有研究表明,仅依赖文本训练,模型内部也可能形成在颜色、空间关系等维度上与感知训练所得表征高度同构的结构。[13]这表明“感知接入”并非只能通过直接的感觉器官实现,语言亦可能承担某种弱形式的世界嵌入功能。另一方面,当前AI的发展趋势正在系统性地削弱“语言模型必然缺乏具身性”这一前提。多模态模型已经将语言处理与视觉输入紧密结合,使系统能够在图像-文本联合空间中形成跨模态表征。例如,DeepMind的Flamingo能够在真实环境图像与自然语言指令的协同约束下完成复杂任务,其运行已不再是纯粹的符号操纵。


