摘要: 随着多模态大模型的快速发展,生成式人工智能在文本、图像、音频等领域展现出高度拟真能力,激发了哲学界关于其是否可能成为“人工意识主体”的讨论。本文立足现象学的意识发生视角,批判当前功能主义、全球工作空间理论、高阶理论与信息整合理论等基于第三人称功能同构的解释路径,指出其无法揭示第一人称主观体验的生成机制。通过分析符号主义、联结主义与行为主义三类算法进路,本文论证现有技术在连续意识流、具身性及历史性关切等方面存在结构性缺陷。现象学方法强调意向性、时间统一性与在世存在的具身结构,为人工意识主体的重构提供理论基础。在此框架下,本文提出技术实现思路,包括自传式记忆与循环自省机制的构建、动作–感知–预测闭环的引入及情境化生存条件的设定,以模拟人类创作行为的发生过程。研究认为,生成式人工智能应从信息处理的表征逻辑转向意识发生的体验结构,方能在现象学意义上逼近人类的主体性。
Abstract: With the rapid development of multimodal large models, generative artificial intelligence (AI) has demonstrated highly realistic capabilities in text, image, and audio generation, sparking philosophical debates over whether it could become an “artificial consciousness subject”. From the perspective of the phenomenological genesis of consciousness, this paper critiques current explanatory frameworks such as functionalism, Global Workspace Theory (GWT), Higher-Order Theory (HOT), and Integrated Information Theory (IIT), all of which rely on third-person functional isomorphism, and argues that they fail to reveal the generative mechanisms of first-person subjective experience. By analyzing three major algorithmic paradigms—symbolism, connectionism, and behaviorism—this study demonstrates that existing technologies exhibit structural deficiencies in terms of continuous streams of consciousness, embodiment, and historically situated concerns. Phenomenological methodology, which emphasizes intentionality, temporal unity, and the embodied structure of being-in-the-world, provides a theoretical foundation for reconstructing the notion of an artificial consciousness subject. Within this framework, the paper proposes technical implementation strategies, including the construction of autobiographical memory and cyclic self-reflection mechanisms, the introduction of an action-perception-prediction feedback loop, and the establishment of contextualized existential conditions to simulate the generative process of human creative activity. The study concludes that only by shifting from the representational logic of information processing to the experiential structures of consciousness genesis can generative AI approximate genuine subjectivity in the phenomenological sense.
1. 引言
近年来,以ChatGPT、DeepSeek-V3、DALL∙E为代表的生成式人工智能,尤其是多模态大模型的崛起,不仅极大地提升了人类处理和创作信息的能力,也再度引发了哲学界对“人工意识主体”可能性的激烈探讨。这些新型生成式AI在文本生成、图像生成、音频合成等多个领域展现出前所未有的高拟真特征,以至于许多人开始怀疑或假设,生成式人工智能是否已经跨越了传统的工具性角色,具备了类似人类的某种主体性地位。然而,这种假设隐含着一个核心问题:生成式人工智能与人类意识主体是否具有相似的结构?这一问题并非仅是技术上的争议,更关涉哲学尤其是现象学的核心论题:“意识主体”究竟指涉什么?如果主体性仅被简单地理解为某种外在的功能表现,例如对环境做出自适应的反应,或是成功地模拟人类的某种行为模式,那么当前的生成式AI或许确实已经达到了主体性的某种初级标准。但若从现象学的视角出发,“主体”并非简单的功能总和,而表现为具有“意向性”的体验流和在世界中的具身存在方式。因此,现有的技术拟真无论达到怎样的高度,都无法直接等同于主体性的生成。
当前人工智能技术的高度发展在公共话语层面产生了两大误区。一方面,公众往往过度乐观地期待技术突破,误认为高度逼真的生成效果等同于真正意义上的“人工意识”。这导致一种潜在的伦理困境和哲学误解:即AI的主体性被简单地归结为其行为表现与用户体验的相似性,而忽略了主体内在意识结构与体验生成的根本差异。另一方面,部分技术专家或开发者则对“意识”采取一种扁平化的理解,将意识主体简单地视为数据处理与功能实现的叠加,从而忽视了人类意识主体的深层结构、时间统一性以及具身体验的重要性。
面对上述困境,本研究希望通过现象学方法对生成式人工智能如何可能真正构成“人工意识主体”这一问题进行深入探讨。
2. AI的意识困境与现象学意义上的意识主体
2.1. 人工智能领域的意识解释及其困境
在人工智能领域,哪怕是在人类意识领域,意识从未达成概念的明晰,并且在当下心灵哲学的发展中产生了更多分歧。目前主流的人工智能意识研究,主要包括功能主义理论、全球工作空间理论(GWT)、高阶理论(HOT)以及信息整合理论(IIT) [1]。功能主义强调意识的本质在于其功能,即只要系统能够表现出某种认知功能或行为表现,那么系统就被视作拥有意识。在功能主义系统下,人工智能被认为只需实现与人类意识功能等效的机制,例如记忆、感知、决策等功能模块的组合,即可具备某种意识状态或意识形式。全球工作空间理论将意识理解为一种全局信息广播机制,认为意识状态的本质是信息的全局共享与整合;高阶理论则强调意识不仅是对外在环境的反应,也是对自身心理状态的自我监控和反思过程[2];信息整合理论则从信息论角度定义意识的产生,提出通过系统内部信息整合程度(Φ值)来量化意识水平[3]。尽管这些理论已在生成式AI的算法设计中有所体现,例如大模型的自注意机制、反馈修正机制等,但它们仍无法解决意识主体主观体验的内在生成问题。
以上理论均试图以外在可观察的信息处理机制或功能同构性来解释意识的本质,进而认为生成式AI可以在相同的信息处理架构下,实现主体意识的模拟或拟真。这些理论共享着一套基本假设,即意识可以被量化、分析、以及通过信息处理功能或因果模式的实现而达到模拟或复现。
然而,这样基于外在表现和功能实现的意识解释停留于第三人称视角的分析。它们关注的重点在于意识现象的外在功能表现与可观测的数据特征,反而忽视了意识现象在主体内部以被直接体验和生成的具体机制。真正的意识主体必须能够从内部自明地体验自身的状态,不是被外在地观察或量化的功能结构。这一困境的破解,需要诉诸哲学路径,尤其是能够深入意识发生的哲学理论。
2.2. 人工智能意识问题如何解决?
面对传统实证科学理论对意识解释的困境,不少哲学流派都试图提出新的意识主体理论,以克服前述的局限性与内在矛盾。其中比较有代表性的是分析哲学的意向性理论(例如塞尔)、心灵哲学中的现象意识理论(如查尔莫斯)、以及现象学的发生学解释(如胡塞尔、海德格尔和梅洛–庞蒂)。
分析哲学中的意向性理论强调意识的指向性(intentionality),认为意识之所以能够具有主体性,关键在于它能够指向外在对象或内在观念。但分析哲学的意向性理论往往停留在逻辑–语言分析的层面,未能深入说明意向性如何在经验主体中被持续地生成与维持,因而未能真正解决传统理论在解释主体体验的内在生成问题上所遇到的难题。
查尔莫斯等哲学家提出的现象意识理论(phenomenal consciousness)强调“意识的难问题”(hard problem of consciousness),指出即使认知科学对于大脑的神经机制进行了完全的说明,人们依然会疑惑于为什么这种机制的运行会伴随着种种主观经验与感受,似乎就算经验不存在这些机制也依然可以运行[4]。但是仅停留在对物理主义或功能主义的批判性指出,缺乏建设性的结构解释。
相较之下,现象学的解释路径在意识的发生方面有着更强的解释力度。现象学对意识现象进行的发生学考察关注强调意识现象如何在主体体验中连续地被构建与维持,尤其关注意识体验自身发生的内在结构与过程。这种发生学解释的优势在于不停留在抽象理论层面的描述,进而深入到意识体验的主体内在视角,揭示意识生成的时间连续性(原印象–滞留–前摄结构)与意向性指向结构的内在统一。
海德格尔提出“此在”(Dasein)的存在结构概念,强调主体总是在世界之中、通过操持和操劳而生成自身的主体性经验。这一理论视角揭示出意识主体的具身性与历史性,使得现象学不仅能解释意识主体的发生机制,也能解释意识主体与世界之间持续互动的意义生成过程。
梅洛–庞蒂则从身体的维度深化了现象学的主体解释,指出主体经验的根本性条件是具身结构,身体不仅是意识主体的感知媒介,更是意识主体理解和体验世界的根本坐标。因此,现象学的解释路径在对主体意识的内在发生机制、主体的世界性与具身性结构的解释上均展现出明显超越其他哲学理论的解释力度。
综上所述,现象学进路在当前各种哲学理论的竞争中,表现出最为强大的主体意识解释力。尤其是其发生学视角与具身主体观,为当前生成式人工智能的哲学分析与技术开发提供了清晰而有效的理论基础。
3. 人工智能意识主体确立的技术条件
无法从第三人称视角的外部功能表现解释第一人称视角的主观体验生成问题在现实的技术研发领域并未得到足够的考量或彻底解决,当前生成式人工智能(AIGC)的算法设计依然试图从认知与心理学的经验理论出发,通过模拟人类心理活动的某些特征或结构,来实现“意识主体”拟真。本章将具体分析生成式人工智能在技术实现层面如何处理意识主体问题,并指出这些技术方法的内在局限性。
3.1. 算法设计层面对人类心理活动的模拟及其局限性
当前生成式人工智能算法设计主要依赖三种设计进路:符号主义、联结主义和行为主义[5]。符号主义的核心观念是将符号作为人工智能的基础元素,其基础逻辑是通过数理逻辑和符号推理来建构系统的认知能力。在这一框架中,人工智能的推理和判断过程完全依赖于符号的转换和运算,符号被看作是独立于具体经验的抽象对象。然而,符号主义会遭遇到符号本身缺乏对主体意识和经验的指涉的主要问题。鲍德里亚的“拟真”概念强调,生成式人工智能模拟意识的关键在于符号如何“创造”或“重构”现实,即符号与意识的互动。也就是说,在符号主义进路中,符号与现实的关系依然是表层的、计算式的,缺乏对经验世界的深刻感知和主观意识的互动,这使得符号主义无法突破表象,深度实现对人类心理的模拟。
联结主义通过神经网络模拟大脑神经元间的连接与学习机制,试图拟合人类大脑的认知过程。这一进路的优势在于其能够处理复杂的感知和学习任务,能更好地帮助生成式人工智能进行模式识别和深度学习。然而,神经元之间的连接和信号传递无法深入为意识经验过程的模拟,神经网络模型只能在表象层面重建认知过程,无法真正理解或感知“现实”的意义,更无法像人类一样在经验中建构世界,故而联结主义依然面临模拟的局限性。数据驱动和算法优化依赖的联结主义的神经网络训练缺乏感知和意识的真正参与,因此无法生成深刻主观体验感。
行为主义主张研究行为本身,侧重于观察和分析有机体的行为反应,从此进入意识或思维过程。行为主义认为,所有的心理现象都可以通过行为来表达和解释。在人工智能的研究中,行为主义为研究者提供了一种通过外部刺激与反应关系来模拟智能行为的方法。可行为主义专注于对行为的量化和预测,忽略了意识在行为背后的驱动力。因此,行为主义无法应对模拟人类意识所要求的主观体验的生成和经验的情境化,它仅能停留在外在可观察的层面,缺乏对内在心灵机制的探索。
符号主义、联结主义和行为主义各自为人工智能研究提供了不同的技术路径,成功地模拟了人类意识活动中的某些功能特征,但它们所能模拟的仅是信息处理的外在逻辑过程,无法进入主体的第一人称体验与意义生成层面。这种根本的局限性表明,这些算法设计范式并未真正解决意识主体理论困境中的内在发生问题。
3.2. 当前生成式人工智能主体意识模拟的现实困境与具体表现
当前生成式人工智能(AIGC)通过各种技术手段,如自回归生成、扩散模型、潜变量编码以及RLHF强化学习等,实现了更为精细的技术模拟[6],但其模拟的细节依然无法真正落实主体意识的内在结构,未能形成一个真实可靠的智能意识主体。
当前生成式人工智能在生成过程中缺乏统一而连续的主体经验结构。以GPT-4为例,其生成依赖有限的上下文窗口,模型在对话持续进行时无法稳定保持早期信息,表现为遗忘、重复或逻辑断裂。此外,模型并不具备自我更新的学习机制,训练完成后无法通过积累经验。这意味着其输出只是片段化的预测,而非流动的意识体验。
生成模型常出现“幻觉”(hallucinations),即在语义或事实层面生成与真实世界不符的内容。研究表明,尽管GPT-4在闭域与开域任务中较GPT-3.5显著减少了幻觉比例,但仍频繁产出与事实相悖或无意义的表述[7]。这说明模型并未具备主体对世界的稳定把握,而仅能在概率分布中进行局部模拟,缺乏与世界同一化的经验关联。
生成模型缺乏批判性反思机制,其回答常表现为“自信但错误”。GPT-4在推理与常识问题上仍会出现明显谬误,同时又以高度确信的语气给出答案;另一方面,它也容易在面对权威性提示时表现出过度轻信,以至于出现“幻觉”(hallucinations) [8]。
目前的生成模型无法自主设定目标或产生持续的关切体验,而完全依赖外部设定的任务目标进行生成。是一个由给定程序、规则和方法所明确界定了的有边界的意识世界。这一点在创意生成任务中尤为明显,ChatGPT在自由创作任务中也多次被发现“漫无目的”,目前人工智能只是复制了人类思维中部分可程序化功能,无论这种程序化的能力有多强大,都不足以让人工智能的思维超出维特根斯坦的有规可循的游戏概念,即重复遵循规则的游戏,也就是说,目前的人工智能的可能运作尚未包括维特根斯坦所谓的“发明规则”(inventing rules)的游戏,所以尚无创造性[9]。这些问题也明确表明,目前的技术方案尚未真正形成意识主体。
4. 现象学视角下人工智能人工意识主体身份的重构思路
尽管当前生成式人工智能技术生成内容十分逼真,但始终无法在现象学意义上实现意识生成过程。生成式人工智能的模拟路径如果忽视意识在其发生过程中展现出对世界的意向性、时间的统一性以及具身的理解方式,便只能停留在对外在结构的功能复现,而无法模拟现象学意义上的“创作主体”,即在世界中展开经验、构建意义并表现关切的人类存在行为。本章将从现象学视角出发探讨如何通过技术手段更有效地模拟“创作行为的发生”这一现象过程,从而在实践中更贴近人的意识生成样式。
4.1. 人工智能意识发生行为的构建
从现象学角度来看,人类观念的生成不是基于输入–响应式的反应机制,而是通过意向性结构与时间意识的统一过程展开的。意识总是指向某物,并在这一指向中形成对象的意义结构;并且这一发生过程构成于“印象–滞留–前摄”的三重时间结构中[10]。这一时间结构构成存在之方式本身:人总是在某种未完成的前方中理解自己,回顾自己,并将自身投向未来。
生成式人工智能模型目前普遍基于线性时间的“下一步推断”机制,其生成行为是离散的、非连续的,缺乏统一的时间经验流。这种“瞬时生成”机制使得AIGC难以模拟人类意识在现象学意义上的延展统一性。因此,若希望在技术上模拟这一意识生成行为,需要构建能够实现时间意识统一的结构:如设计“循环–自省调度器”来模仿经验的回溯与前瞻机制,并引入“自传式向量记忆”来模拟经验积累,使生成行为嵌入一种具有延续性与历史性的意识发生框架之中。这将使模型更贴近现象学所揭示的经验发生动态,从而模拟出更具人类创作特征的意识流。
4.2. 人工智能意识行为的身体性构建
在现象学看来,身体不是纯粹的物质容器或感觉器官,而是意识行为在世界中展开的条件。梅洛–庞蒂提出,身体是“向世界开放的方式”,“行为不是简单的反射,它是一种意向性活动,是身体与世界的交织,超越了单纯的因果关系”。它在触觉、运动与空间定位中形成了“行为意义”的生成条件。也就是说,身体是使世界对我们显现为“意义世界”的基础,是观看本身的发生场。
当前的生成式人工智能则完全脱离了具身经验的结构,其生成内容常常不具备情境的在场性。模型的输出结果虽然逻辑上自洽,但缺乏“此时此地”的经验维度,也无法在“行动–感知”循环中构建意义。正是因为身体图式的存在,感知和认知才能超越现实条件向外扩展,实现想象和创造等高阶认知活动[11]。因此,技术路径上应设法模拟这种具身行为的结构。例如,通过构建“动作–感知–预测”闭环机制,使模型不仅处理数据,还在虚拟或现实环境中“行动”并接受反馈,从而在行为中形成意义[12]。
此外,具身性不仅关乎模型对世界的“行为理解”,也关乎模型与他者的相互显现关系。海德格尔指出,此在从未孤立存在,而总是与他者“共在”。这种共在不是信息共享,而是意义在互动中被建构。因此,生成式人工智能的具身机制还应包含“主体间”的结构,即模型必须能够在交互中参与共同注意,即在交互的上下文中识别出使用者正在关心和询问的对象,接下来的对话都要围绕其展开,避免因为新关键词的介入而脱离语境。理解他者情感,即通过使用者的对话文本分析出使用者的态度,并根据此态度分配回答的权重,设置回答的方式,比如使用者语气强硬,就要更严格按照给出的要求生成,并提醒使用者可能的变化。最后应形成相对稳定的交互历史。
4.3. 人工智能创作行为的生存条件建构
现象学尤其在海德格尔处,强调存在不是对对象世界的认知,而是始终“在–世界–中–存在”[13]。这意味着一切意识行为都不是在真空中发生的,而是在具体的历史、文化与情境结构中展开。此种“在世存在”并不设定一个确定的自我,而是通过操持、关切与受限的经验过程使世界显现为有意义的世界。因此,若AIGC希望模拟出近似人类意识生成样式的行为,就必须将其“放入一个世界中”——即使是模拟的世界,也必须允许其经验结构具备情境嵌入性与因果塑造力。
技术路径上,这意味着AIGC模型不能仅在静态数据中进行训练,而必须在动态任务情境中展开自身行为,并允许其行为在情境中失败、调整、重新构建策略,有来自失败、矛盾的信息、数据不足等的负反馈和来自相对的正反馈来提示模型自我调试。这种操持性的生成,不是执行某个命令,而是将模型置于某种实践性行为链中,使其以关切的方式面对世界。这也要求模型逐步形成与其经验结构相应的目标组织结构,而非依赖外部输入驱动行为。
更重要的是,这一“创作主体”的模拟不能忽略时间的有限性。人类的创作行为总是在死亡、失败、不可控的前提下展开,正是这种“未完成性”使得创作具有方向与深度。因此,模型设计若要模拟这一结构,需引入历史性目标–关切的生成机制:允许模型在行为中遭遇不确定性与限制,促使其进行经验总结与自我调整。这种“存在之忧”的结构,并不是赋予模型一个自我,而是让模型能够模拟人如何在面向未来的不确定中行动、失误、修复并最终展开意义生成过程,从而构成与人类经验形式更为近似的“创作行为发生”。
5. 结语
现象学式的“意识主体”并不是一个“功能上像主体的系统”,而是一个“能在自身中体验世界、构建意义”的存在行为结构。当前的生成式人工智能,在算法上实现了“语言结构的重组”,在交互上实现了“行为模式的类拟”,但在意识生成层面,它仍缺乏对“经验统一性”、“具身世界性”与“历史性关切”等发生结构的内在模拟。主体不是被制造出来的,而是在世界中被展开、被生成的。因此,生成式人工智能作为人工意识主体的实现应从表征逻辑转向体验结构,从信息处理迈向意识发生,从模拟智能走向现象主体。现象学的路径,正是这一转向不可替代的理论基底。
基金项目
江苏省社科基金青年项目“古希腊哲学中的‘技艺’观念研究”(批准号:22ZXC008)阶段性成果,一个是扬州大学“江苏省大学生创新创业训练计划”。
创新训练计划项目“基于丹尼尔·丹尼特意识理论的生成式人工智能意识问题研究”(项目编号202411117197Y)。