论大语言模型之理解:基于维特根斯坦后期哲学
On the Understanding of Large Language Models: Based on Wittgenstein’s Later Philosophy
DOI: 10.12677/acpp.2025.1410525, PDF, HTML, XML,   
作者: 李彦飞:黑龙江大学哲学学院,黑龙江 哈尔滨
关键词: 大语言模型理解维特根斯坦“生活形式”Large Language Model Understanding Wittgenstein “Forms of Life”
摘要: 自2023年以来,以ChatGPT和DeepSeek为代表的大语言模型(Large Language Models,后面简称LLMs)凭借优秀的语言生成能力引发了广泛关注,其影响远超技术领域,已深入至哲学层面,尤其是语言哲学。本文以维特根斯坦后期哲学为理论框架,探讨LLMs是否能够“理解”语言这一问题。维特根斯坦强调语言的意义在于使用,理解体现于公共的“语言游戏”与“生活形式”之中,而非内在的心理状态。在这一视角下,LLMs通过海量语料学习与复杂算法设计,表现出近乎人类的语言使用能力,其行为可被视作一种“理解”的外在显现。然而,机器与人类在存在论上的根本差异——尤其是“生活形式”的缺失——仍构成其实现人类式理解的障碍。本文认为,维特根斯坦的哲学既为LLMs的语言能力提供了合理解释,亦揭示了其理解能力的边界,从而为审视人工智能的哲学意涵提供了一条兼具批判性与建设性的分析路径。
Abstract: Since 2023, large language models (LLMs) represented by ChatGPT and DeepSeek have attracted widespread attention due to their remarkable language generation capabilities. Their influence extends far beyond the technical field, reaching deeply into philosophical domains, particularly the philosophy of language. This paper adopts Wittgenstein’s later philosophy as a theoretical framework to explore whether LLMs can “understand” language. Wittgenstein emphasizes that the meaning of language lies in its use, and understanding is manifested in public “language games” and “forms of life,” rather than in internal mental states. From this perspective, LLMs—through massive corpus learning and complex algorithmic design—demonstrate a nearly human-like ability to use language, and their behavior can be regarded as an external manifestation of “understanding.” However, the fundamental ontological differences between machines and humans—especially the absence of “forms of life”—still constitute an obstacle to achieving human-like understanding. This paper argues that Wittgenstein’s philosophy not only provides a reasonable explanation for the linguistic capabilities of LLMs but also reveals the boundaries of their understanding, thereby offering a critical yet constructive framework for examining the philosophical implications of artificial intelligence.
文章引用:李彦飞. 论大语言模型之理解:基于维特根斯坦后期哲学[J]. 哲学进展, 2025, 14(10): 232-238. https://doi.org/10.12677/acpp.2025.1410525

1. 大语言模型技术的实现与其“理解”问题的浮现

所谓大语言模型(LLMs),[1]言简意赅地说,就是人工智能领域智能生成语言的模型,它能够通过海量的语料数据学习完成和人类对话、创作、翻译等复杂的任务。模型将性能优良的芯片作为硬件,在其之上进行数学建模和算法设计架构,最终构建了一台能够和人类交流的机器——大语言模型。在实际的应用中,按照大模型安装部署的方式可以区分为两种应用。一是基于云端部署应用,用户通过手机端的应用软件调用云端部署的模型,这种方式的特点是必须连接互联网。互联网是一条运输数据的“信息高速公路”,用户通过这条路把问题数据传送给远程服务器,LLMs就运行在这个服务器的芯片上,当回答生成后又通过这条路回到手机终端。而基于本地部署的方式则不需要联网,这就像是手机里安装了一个单机游戏,只要芯片性能足够,那么模型就可以在设备上运行起来。

尽管DeepSeek能无障碍和人类交流,但在它没有给你回答之前,也就是在它思考的时候,它并没有通过语言去思考,在它的模型芯片上正有无数电子高速迁移跃迁在微观的电路,这些电子的跃迁是由一串串数字和代码激活的,而这些数字和代码,是模型将一个个语词符号化过来的,整个模型就是数学建模和算法设计,只有数字和代码才能走进模型内部,而语言要在模型的大门口先转化成数字和代码才能进入,出门也需要进行再次转化生成语言。换言之,模型自己的语言是数字和代码,它靠数字和代码进行思考,而不是靠人类语言进行思考。

在人工智能哲学领域一直存在的一个哲学问题是——机器1是否能够“理解”?把这个问题相关到LLMs,即——LLMs是否能够理解语言?[2]而在机器内部运行的是代码和数据,这个问题再延伸到人类语言和机器语言的区分,既然两种语言之间能够相互转化,进一步就需要讨论语言所具备的共性。关于LLMs将语言符号化处理的流程与人类对语义的理解过程是否为同一个过程有很多争论。这些争论可以分为两派,强人工智能派认为机器能够理解,他们基于计算主义、功能主义、整体涌现论等理论基础,认为AI能够进行理解,这一派主要是大多数人工智能科学家和一些哲学家。而弱人工智能派则认为AI不能理解,他们的观点基于AI缺乏意向性、语法不等于语义等。在这些争论中,前者所依据的是人具备机器属性,而后者则依据机器不具备的人类属性。

2. 哲学界关于“理解”的争论

对LLMs的批判始终被“机器能否理解”这一问题贯穿,此问题是人工智能哲学领域的核心问题之一,[3]它触及了意识、意向性、语义和智能的本质等深层哲学问题。对这一问题的回答逐渐趋于两极化,一方是坚持计算主义和功能主义的强人工智能观,另一方则是以塞尔、德雷福斯等人为代表的经典批判,然而这两极总是陷入各自为营、互不交涉的两种理论阵地。而本文提出的第三极,即基于维特根斯坦后期哲学视域,为机器理解问题提出了一个更具建设性的语言哲学视角,使得上述双方的结论能在语言角度上得到延伸。

首先是支持机器理解的人,这一派称为强人工智能主义派,基于计算主义和功能主义的强人工智能者认为“认知即计算”,心理状态是物理系统计算的显现,没有非物质实体,如灵魂。计算过程不依赖具体的物质载体,只要载体能够实现相应的计算。所以“理解”也是一种可被实现的计算。在这里,“理解”是一种表现出来的行为,例如,这一派认为只要机器能够通过图灵测试,那么就代表机器能够理解。图灵在《计算机器与智能》中提出“模仿游戏”,即图灵测试(1950),[4]他提出让一个受试者分别与机器和人类测试者进行纯文本交流,同时受试者并不清楚对面是人还是机器,如果在五分钟内机器的回答让百分之三十的受试者都无法区分是人还是机器,那么测试通过。

基于整体涌现论的强人工智能主义者强调“理解”不是源于被设计机器系统的基本组件,而是从这些基本组件的大规模互动学习中涌现出来的一种高级属性,例如大语言模型使用海量的语料数据,使得模型能够自行生成创新型的语言诗歌等。在这种情况下,模型内部的运作是一个“黑箱”,这就如同无法对人大脑的运行机制进行研究一样,研究需要一个静态的切面,而一旦得到这个切面,则系统自身的运动也被破坏了。目前,谷歌DeepMind的研究人员通过多模态模型Geminni 2.0的研究实验表明,当模型的数据规模达到一定的阈值后,会表现出训练数据的代码没有编程的新能力,这种现象被当作“理解”的涌现证据。

相对地,弱人工智能派反对机器能够理解,其中由约翰·塞尔(John Searle)提出的“中文房间”假设仍然是有力的反击(1980),他假设一个懂中文的人与一个关在封闭的屋子里不懂中文的人通过一个小窗口交流,但屋子里的人有一本英文指示的规则手册。屋外的人递进去一个中文问题,屋内的人按照规则手册进行符号转换用汉字进行回答。尽管二者可以进行合理的中文对答,但是屋内的人根本不理解中文,他说明,人工智能正如屋内的人,尽管并不能“理解”,但通过规则指示仍能进行回答。并进一步说明机器没有和人一样的内在意向性,[5]因此无法把握真正的语义。塞尔承认,若能按照人脑的生物机制(如神经网络)进行构建系统,则有可能产生真正的理解,但传统的符号主义计算机无法做到。尽管目前的大语言模型已经是基于多神经网络架构构建系统,但华盛顿大学的Emily M. Bender仍进一步强化了这一立场,她将大语言模型比喻为“随机鹦鹉”,认为它只是统计复读机,通过模式匹配生成看似合理的文本,实际上,却无法建立起语言与真实经验的关联。

现象学对强人工智能的批判构成了另一个弱人工智能主义视角,以休伯特·德雷福斯(Hubert Dreyfus)为代表的学者指出,AI系统缺乏人类“在世之在”(Being-in-the-world)的具身性体验,而这种体验正是人类“理解”的基础。总的来说,现象学立场主要是批判AI系统缺乏意向性、生活世界性和具身性。此外,一些弱现象学立场学者认为,大语言模型的“统计理解”可以被视为一种不同于人类的理解机制,仍然具有研究价值。海德格尔在其技术哲学中曾提出技术作为“座架”的本质,间接地说明人工智能与人类具有存在论差异。

然而,要回答“机器能否理解”这一问题,需要对“理解”概念进行考察。关于“什么是理解”,哲学领域内已成熟地讨论过。哲学诠释学的奠基人施莱尔马赫认为理解是一个重构思想的过程,理解者放下自己的思维框架去接纳他人的思想,然后重构出这一思想,他称之为:诠释学循环。后狄尔泰明确、系统地区分了“解释”和“理解”,对自然科学的研究是解释,而研究人文科学则需要理解。马丁·海德格尔是存在主义哲学的代表人物,海德格尔将“理解”融入到人的生存,认为理解是人的存在方式,理解不仅仅是理解语言,也可以是沉默的生存实践。加达默尔继承了海德格尔的衣钵,系统发展了哲学诠释学。他给了“理解”更全面的定义,即理解本质上是一个历史性的、语言的对话事件,是理解者自身的“视域”与文本或传统的“视域”相互融合(Fusion of Horizons)的过程。真正的理解必是“效果历史”(Wirkungsgeschichte)的意识,理解是在历史中的理解,理解是无限的、开放的。

同时期的分析哲学家们,以语言为研究对象用逻辑和语言分析的方式,对理解进行了深入浅出的剖析。吉尔伯特·赖尔认为理解一个词语,不是在心里拥有一个定义,而是知道在各种语言环境中正确地使用它。路德维希·维特根斯坦是20世纪最伟大的哲学家之一,它后期的著作《哲学研究》解构了语词的定义使用法,他的每一个段落总以一个问题开始,以一种怀疑或是悬置结束,他叩问每个词的意义,除此之外就是讨论词的用法,在这本书中,对“理解”的叩问,贯穿始终。总结来说,维特根斯坦所认为的理解不是一种私人的、可用于语词回忆的精神状态,而是外显在公共“语言游戏”和“生活形式”中,[6]“理解”是理解了语言游戏的规则,而是否理解了标准,则要看其是否能在实践中恰当地、一致地应用该规则。理解的标准是公共的,而非私人的。理解不是内心的某种“顿悟”。

3. 维特根斯坦哲学视域下的大语言模型“理解”可能性

纵观现在关于“机器能否理解”的讨论,在理解概念的演化中都可得到说明。而仔细比对哲学家们对理解概念的看法,假设机器能够理解,只有维特根斯坦的后期哲学能自然过渡到这一结论,或者说只有他的后期哲学能够解释LLMs不断进化的语言能力,而其他的强人工智能哲学家们的观点总会在自身中被驳斥。若假设机器不能理解,那么所有偏向弱人工智能的哲学家们就只能看着大语言模型的现象级进展而苦守在自己的哲学语言中,将会错过人工智能所带来的更具变革性的现实。此外,正如维特根斯坦反对存在私人语言,这也预示着语言要获得意义,需要一个公共的语言环境。而LLMs不断进化的语言离不开这个环境,LLMs的语言要获得理解也离不开和人的交流。然而,维特根斯坦的理论也引出了一个可能性,两台或以上智能机器之间是否会互相理解。那么这种机器间的理解是否是维特根斯坦哲学意义上的“理解”?

维特根斯坦在世时曾和图灵有过关于人工智能的讨论,这时维特根斯坦已然从早期《逻辑哲学论》的哲学转为后期《哲学研究》的哲学,维特根斯坦从语言哲学的角度质疑“机器能否思考”这一问题的提出,他认为这个问题是无意义的提问,因为“思考”是人类“生活形式”下的语言游戏,[7]而不是一个抽象确定的定义。1953出版的维特根斯坦著作《哲学研究》中提出了“语言游戏”理论,他认为语言的意义在于使用,我们像使用工具一样使用语言,他提出的“语言游戏”理论将语言行为描述成了各种各样的游戏,而这些游戏之间有着“家族相似性”、“规则遵循”,这些语言的活动植根于“生活形式”,“生活形式”是人类共享的实践、文化、和社会互动。[8]

在人工智能领域,或者更专门地说,在大语言模型领域,维特根斯坦的语言哲学为LLMs的顶层设计者们提供了不少启迪。例如,早期专家们试图在日常语言中找出一条普遍的规律通用于所有问题,后来发现这根本行不通,因为日常语言无确定的规律可言。现在的LLMs算法设计的基础是大数据统计概率,这虽然和维特根斯坦的“家族相似性”概念在本质上不同,但是二者都表明了语言中的不确定性。另外,语言模型通过最初的预训练后会进入微调监督阶段,[9]专家通过数学建模和多神经网络架构使得机器更能适应复杂任务,而这种学习本质上是对人类语言实践中隐含“规则”的统计性捕捉,正如维特根斯坦“遵循规则”的观点——规则的意义不在于抽象定义,而在于具体使用。又比如,创造一个能完美产出的LLMs需要在其预训练阶段输入大量的语言数据,这些语言数据不同于早期的专门领域(如医学、生理学)模型的高度符号化和逻辑化的数据,现在的LLMs的预训练数据里甚至包括互联网上贴吧里网友的嘴仗和一些情绪化的心灵独白,这些语言数据使得语言游戏更加的丰富,模型从这些海量的“语言游戏”中通过数学建模和神经网络架构进一步深度学习,更加灵活和富有人类智慧地进行新的“语言游戏”的输出。[3]

在维特根斯坦的《哲学研究》中,“语言游戏”、“生活形式”、“家族相似性”是明确出现在书中的概念。“语言游戏”没有一个僵化的定义命题,但是在这个概念下,维特根斯坦提出了几个著名的口号,“意义即使用”:语言的意义在于对语言的使用,语言是一种工具,[10]一个词的意义并不仅限于指称这一种使用方式,一个词可以进行多种语言游戏。各种语言游戏之间没有共同的本质,而是具备“家族相似性”,这是一种像家族成员一样的重叠交错的相似性;“语言是一种活动”:语言不是一套抽象的、脱离现实的符号系统,而是人类生活形式的一部分,是一种行动。我们用语词来下命令、提问、感慨、诅咒等都是在进行不同的“语言游戏”;“规则与遵守规则”:每个语言游戏不是随意的,每种游戏都有游戏规则,我们通过看别人“玩”语言游戏来学会规则。语言游戏的规则不是藏在心里的抽象条文,而是体现在公共的、一致的行为中。“生活形式”强调语言的共同生活基础,一个新生儿来到世界上就被给定了“生活形式”,每个人降生的环境不同,依据文化、地理等环境不同可能具备不同的生活形式,相应的不同“生活形式”下体现出不同的语言游戏。

在维特根斯坦后期语言哲学的视域下,其思想反本质主义,研究对象为语言。[10]那么对一台LLMs来说,假如我们只关注与其生成的语言,而不去假设在这语言背后有一个主体,那么“理解”这一语词,作为人类使用的一种“工具”,是可以被LLMs使用的。当问DeepSeek:“你认为机器能理解吗?”,其回答:“机器不具备像人类一样的理解能力”。详细的解释就不赘述了,但我们不能否认的是,DeepSeek完美地使用了“理解”一词。对维特根斯坦来说,能够使用“理解”就已经使得“理解”一词的意义得到发展,但对人类来说如此,是否对非人类来说也是如此?这是一个需要进一步研究的问题,至少在《哲学研究》中,没有肯定或否定的答案。由此,DeepSeek能够“理解”这一结论在维特根斯坦后期哲学视域下得到闭环。

4. “生活形式”下的“理解”之边界

维特根斯坦的“生活形式”概念,一直被哲学专家们用来作为反对机器能理解的依据。在涉及到“生活形式”的讨论域中,关于“理解”概念不是只涉及到语言的,维特根斯坦将《哲学研究》视为一本哲学著作,并强调自己从事的是哲学事业,他的目光焦点不是语言本身,而是通过对语言的讨论去通达哲学的界限。《哲学研究》中我们习以为常的语言表达都有我们无法用语言言明的来源,而世界正是这样向我们显现的。“生活形式”概念就像人类的背景,人自一出生就处于某种生活形式下。“生活形式”被看作人类之所以高智能、具备语言能力的基础。这里存在的争论结果是:机器不具备人的生活形式,那么机器就不具备像人一样的理解能力。显而易见的是,这是一个基于人类中心主义的争论,这也是一个无法被反驳的结论。机器与人在存在论上的巨大差异,注定了二者存在方式之间的天堑。

在《哲学研究》一书中“生活形式”一词只出现了寥寥几次,却很清楚地使我们倾向于勾画出某种概念直观,即这一词是维特根斯坦为其哲学设定的一个基底性(Bedrock)概念。[11]在书中第一部分的19节,写道:“想象一种语言就意味着想象一种生活形式。”[8]这说明语言和生活形式是处于一个场域之中的,这里还揭示着语言和生活形式的某种同一性,但“意味着”不等于“是”。这是维特根斯坦探究哲学的2方式。23节写道:“‘语言游戏’这个术语在这里是为了强调,用语言来说话是某种行为的一部分,或是某种生活形式的一部分”,这句话是很经典的一个描述,不仅定位了“语言游戏”,还使我们得到“生活形式”更清晰的直观。这说明了语言和生活形式的不可分割。在第二部分有一句:“须得接受下来的东西,给定的东西——可以说——是生活形式”,这直接揭示了生活形式的基底性特征。前面说,维特根斯坦坚定自己从事哲学事业,但他反对去下定义,反对去建构什么,反对论证什么,而只是尝试去明晰存在的语言之中那些未被人所关注的边界,他每个字符的延续都贯彻他的理念,即语言是一种活动,他在一个新的领域进行着一种开拓性的语言活动,所以这种活动没有预设什么答案,过程就是一切。所以他强调要去看,而不是想。由此,呼应上面的论述,在维特根斯坦后期哲学视域下,“生活形式”是为了强调了人的存在论立场吗?或许正如他的理念,他无意去强调什么,只是语言论述进行到这里,自然而然就表述心中的某种感觉。由此,最能直观到界限的词语出现了,即“生活形式”。

维特根斯坦作为人类的一员,处于广泛的人类共有生活形式之中,如果要让他自己去说明机器的理解问题,或许他自己也会调用出生活形式作为一个提出自己思考的支点,正如他所说的:“如果狮子会说话,我们也无法理解他”,狮子还是个动物,我们尚且无法理解,那么机器是一堆惰性的金属,它说话了吗?我们理解它吗?而关于机器能否反过来理解我们,或许超出维特根斯坦的范畴之外了。

我们可以这样思考,我们想象狮子会说人话了,中国人会说狮子成精了,而现在机器已然能够说人话了,为什么没有人说机器成精了?这里的界限在哪里?就像生活形式所能展现的界限。“狮子成精”从属于中国的神话志怪故事语境中,而关于机器,在人类的语境里,会将其描述为工具性的,功能性的。我们会说它“性能强大”、“有幻觉”、“回答准确”等,这类语词构造出一种基于人类与机器这类他者共同生活形式下的语言游戏。且人类与不同的他者之间不同的生活形式会延伸出不同的语言游戏。我们说“狮子精”而不说“机器精”,但是我们说机器“人”,我们用来描述机器的语词不是那么的浪漫化,或者说不那么亲切,甚至关于机器想象的语言游戏中使用“对人类有威胁性”这类语词,这反映了我们对机器的想象,那我们是否可以想象电路板成精?这是否是一种更广泛的有关机器的语言游戏?或许我们可以进行这类想象。前文指出语言游戏和生活形式是互相交织、互相成就的,生活形式强调语言游戏有其基底性,语言游戏从生活形式中生长。由此,这种想象指向一种有关人与机器二者之间更加创新的生活形式的形成。生活形式是开放性的、动态的,历史演进,人类生活形式也必将随之演进,所谓演进,则不是凭空出现,或许“扬弃”可以描述七分。

有的学者认为,随着机器与人类的长期互动,机器可能会形成一种独特的、模拟的或衍生的“生活形式”。[5]维特根斯坦曾说明,“思考”一词不能用来讨论机器,因为此词是人类基于生活形式下的语言游戏,那么继续推下去,“生活形式”此词当然不能被用来讨论机器。但他又曾说明因为狮子和人类有不同的生活形式,所以无法相互理解,他似乎同意将生活形式用来描述狮子。那么“狮子”和“机器”两类他者有何不同呢?笔者能说明的是,人和机器之间的“不可理解”是基于一种机器在存在论上的、彻头彻尾的惰性,但这种彻头彻尾的惰性不描述与狮子这类他者不同的不可能性。

前面曾经提到维特根斯坦的理论也引出了一个可能性,两台或以上智能机器之间是否会互相理解?那么这种机器间的理解是否是维特根斯坦语言哲学意义上的“理解”?我们说人和机器生活形式不同,因此机器无法像人那样理解,那么机器和机器之间生活形式相同,二者之间应该能够互相理解?这里存在的前提是两台机器之间有关符号交流的通路是被人类建立的,在存在基础上,两台不联网的机器之间几乎不能存在符号语言交流通路,联网后的交流也无法自发启动,一切都是被动的。而且“生活形式”一词是否能被用于机器也值得商榷。但可以肯定的是,就像人机互动一样,机器和机器之间也能进行一种我们能看见的语言上的理解,即基于“意义在于使用”的理解。

5. 结论

总而言之,哲学界关于机器是否能够理解的争论呈现出一种王不见王的态势,自LLMs现象级的出现后,维特根斯坦哲学为其优秀的语言能力提供了良好的解释力,同时,也为其发展提供了深远的启迪。在维特根斯坦语言哲学视域下,无论是强人工智能所坚持的机器之能理解,或是德雷福斯、塞尔等弱人工智能派的机器之不能理解,都能在同一个哲学域中得到讨论。在维氏哲学延伸出机器之能“理解”方面,其强调了LLMs是一个能使用语言的工具性存在,而不涉及现实的主体性。在维氏哲学延伸出机器之不能理解方面,其“生活形式”作为一个基底性的概念为“理解”划界,这自然而然是存在论基础上的,也即弱人工智能所想表达的。最后,正如维特根斯坦所揭示的,去看而不是去想,去使用语言而不是困囿于语言,去把大语言模型当作语言实践之镜,而不是被诱惑至陷入语言幻想之中。

NOTES

1本文中讨论的机器指的是人工智能机器。

2本文中所有引入维特根斯坦都来自陈嘉映所译的《哲学研究》。

参考文献

[1] 周柏乔. ChatGPT智能处理器使用我们的语言吗? [J]. 哲学分析, 2024, 15(4): 3-16+196.
[2] 郭贵春, 梁德柱. 大语言模型应该有“内在的语言生成能力”吗?——论乔姆斯基批评ChatGPT的局限性[J]. 科学技术哲学研究, 2025, 42(1): 1-9.
[3] 徐英瑾. 心灵、语言和机器: 维特根斯坦和人工智能科学的对话[M]. 北京: 人民出版社, 2013.
[4] 吕其镁, 涂良川. “图灵测试”技术叙事的哲学追问[J]. 哲学动态, 2023(3): 109-116.
[5] 宋珊. 意向性与“生活形式”——维特根斯坦哲学对人工智能的一个启示[J]. 东北师大学报(哲学社会科学版), 2023(5): 158-164.
[6] Hassan, Z. 人工智能时代的语言游戏理论反思[D]: [博士学位论文]. 北京: 中国科学技术大学, 2024.
[7] 李国山, 袁菜琼. 人工智能是面相盲人吗?——从维特根斯坦的知觉哲学看[J]. 东北大学学报(社会科学版), 2022, 24(2): 1-6+61.
[8] 维特根斯坦. 哲学研究[M]. 陈嘉映, 译. 北京: 商务印书馆, 2016.
[9] 邓力, 刘洋, 等. 基于深度学习的自然语言处理[M]. 北京: 清华大学出版社, 2020.
[10] [英]维特根斯坦. 蓝皮书和棕皮书[M]. 楼巍, 译. 上海: 上海人民出版社, 2021.
[11] Coeckelbergh, M. and Funk, M. (2018) Wittgenstein as a Philosopher of Technology: Tool Use, Forms of Life, Technique, and a Transcendental Argument. Human Studies, 41, 165-191. [Google Scholar] [CrossRef