生成语法发展综述
An Overview of Generative Grammar Development
DOI: 10.12677/ml.2025.13111180, PDF, HTML, XML,    科研立项经费支持
作者: 高璐璐, 汪彬娴:东北大学外国语学院,辽宁 沈阳
关键词: 乔姆斯基生成语法句法学Chomsky Generative Grammar Syntax
摘要: 生成语法自20世纪50年代由乔姆斯基提出以来,大致经历了四个发展阶段:产生和初步发展时期、修正期、快速发展时期和发展新时期,并先后出现了:早期理论、标准理论、扩展标准理论、管辖和约束理论以及最简方案。在发展过程中,语法受到来自各个领域的质疑,但也被运用于语音、语义、语言习得等多个方面,同时还和心理学、哲学、计算机、人工智能等多领域融合。在大语言模型崛起的背景下,厘清生成语法的发展脉络,反思面临的机遇和挑战,能够推动生成语法在更广泛领域的创新与发展。
Abstract: Since its inception by Chomsky in the 1950s, generative grammar has evolved through four developmental stages: emergence and initial development, revision, rapid development, and new development, and has successively emerged early theories, Standard Theory, Extended Standard Theory, Government and Binding Theory, and Minimalist Program. In the process of development, grammar has been questioned from various fields, but it has also been applied to multiple aspects such as phonetics, semantics, and language acquisition. At the same time, it has integrated with psychology, philosophy, computer science, artificial intelligence, and other fields. Against the backdrop of the rise of large language models, clarifying the development trajectory of generative grammar and reflecting on the opportunities and challenges it faces can promote innovation and development of generative grammar in a wider range of fields.
文章引用:高璐璐, 汪彬娴. 生成语法发展综述[J]. 现代语言学, 2025, 13(11): 423-431. https://doi.org/10.12677/ml.2025.13111180

1. 引言

生成语法作为现代语言学理论的核心框架,自20世纪50年代由乔姆斯基(Chomsky)提出以来,极大地改变了语言学研究的方向和方法。生成语法的核心观点认为,人类语言能力是一种内在的、普遍的能力,由一系列抽象规则构成。通过研究这些规则,生成语法试图解释人类如何能够生成和理解无限多的句子。

自诞生以来,生成语法理论经历了多次重大发展,主要经历了早期理论、标准理论(Standard Theory)、扩展标准理论(Extended Standard Theory)、管辖和约束理论(Government and Binding Theory,后称“管约论”)、最简方案(Minimalist Program)这几个阶段,不断在理论和实践上进行创新,以更好地解释语言的本质和运作机制。这一理论框架不仅推动了语言学领域的研究,还对心理学、认知科学、计算机科学等多个学科产生了深远影响。但与此同时,在每一阶段,生成语法都受到了来自理论内部和外部的质疑和挑战。

2. 生成语法的产生和初步发展时期:20世纪50~60年代

2.1. 内涵阐释

20世纪50~60年代是生成语法的产生和初步发展时期。1957年,乔姆斯基发表《句法结构》(Syntactic Structures),标志着生成语法的诞生。早期理论提出了语言的形式化生成过程,主要包括短语结构规则、转换规则和形态音位规则,同时区分了语言能力(language competence)和语言使用(language performance),语法的核心思想认为语言是一个有限的规则系统,但能够生成无穷多的句子。短语结构规则用于生成句子的基础结构,即句子的基本语法框架[1]。形态音位规则充当起句法结构和语音生成之间的桥梁,帮助将句法结构映射到实际的语音表现,以确保符合语言的实际发音规律(Chomsky & Halle, 1968) [2]

1965年,乔姆斯基在早期理论的基础上出版了《句法理论的若干问题》(Aspects of the Theory of Syntax),提出标准理论。核心内容是将语言生成过程分为深层结构和表层结构,并通过转换规则将两者联系起来。深层结构是句子的抽象语法表征,反映了句子的语义和句法关系。它是语言生成过程的起点,直接反映了句子的语义和句法关系。表层结构则展现了句子的实际表现形式,通过语音规则生成具体的语音表达(Chomsky, 2014) [3]

在这一时期,语音成了许多语言学家研究生成语法的重点。标准理论中提出语音规则,认为在表层结构的基础上,语音规则需要根据语言的语音系统和规则对表层中的句法信息和词汇信息等进行处理,例如音素的选择和组合,重音语调的分配,语音的连读、省略和同化等(Halle, 1962) [4]。在语义方面,在早期理论中,乔姆斯基将语义排除在外,主张句法自治(the autonomy of syntax),语法不应当建立在语义的基础上,而是要以句法为基础,探究人类语言生成的规律[1]。但从1957年到1965年,仍有许多语言学家在生成语法的框架下研究语义。1963年,卡茨(Katz)和福德(Fodor)延续了生成语法的理论框架,认为语义是句法的一部分,进一步探讨了如何通过形式化的规则来生成句子的语义结构,提出了“投影规则”(projection rule),解释了语义特征是如何组合成句子意义[5]

2.2. 早期理论扩展

作为一种全新的语法理论,生成语法吸引了许多语言学家对其进行解释补充。研究者对其框架下语言的深层和表层结构展开了详细探讨,同时涉及语言生成规则与语义解释,着重强调了语言的无限性与规则的有限性,以此对生成语法予以补充。格语法(case grammar)的提出,把格的概念引入语法范畴,重新界定了句子的深层结构和词汇规则,极大地丰富了生成语法的理论架构(Fillmore, 1967) [6]。还有观点指出生成语法中的规则存在“不规则性”,并提议将此类描述从传统句法规则中分离出来,置于词汇表内,借助词汇表中的标记加以处理(Lakoff, 1966) [7]

随着语义的加入,在六十年代后期,生成语义学逐渐出现,主张语义是语法生成的起点,句法规则服务于语义表达,同时质疑深层结构的合理性。1963年,莱考夫(Lakoff)提出生成语义学(generative semantics)这一构想,认为句法和语义不能被分开处理,语法规则必须能够处理语义信息,而传统的生成语法过于依赖句法结构,而忽视了语义的作用[8]。同样,莱考夫还指出转换生成语法中的指代理论无法充分解释句子重点复杂指代关系,在处理从句的形成和代词化上也有不足之处,认为指出许多在表层结构中看起来不同的句子在深层结构上是相同的,因此深层结构应该更加抽象(Lakoff & Ross, 1976) [9]。麦考利(McCawley)对基础部分重新构思,对其中的重写规则、词汇规则、选择限制、转换规则和普遍语法等方面等假设提出了质疑,认为传统的规则有冗余性、复杂性和不合理性(McCawley, 1968) [10]

3. 生成语法的修正期:20世纪70年代

20世纪70年代是生成语法的修正期,扩展标准理论在标准理论的基础上进一步发展和修正,弥补了标准理论中的一些不足,其核心思想是深层结构仍然决定句子的语义,但表层结构也会对语义产生一定的影响。

3.1. 创新与推进

扩展标准理论对标准理论的创新主要表现在以下几个方面:首先是采用更抽象通用的转换规则:移动α规则,该规则指:在句法派生过程中,任何成分(α)都可以移动到任何位置。该规则将具体转换规则统一为一个通用规则,减少了语法规则的复杂性和数量。其次是引入了痕迹理论(Trace Theory),该理论认为当一个句法成分,如名词短语、疑问词等,通过移动α规则(Move α)移动到另一个位置时,它会在原来的位置留下一个痕迹(trace)。这个痕迹是一个看不见但句法上存在的成分,用以标记移动成分的来源位置,同时保留了句子成分的原始位置信息并解释了某些句法现象。最后是鉴别式(Filter)。鉴别式用于排除那些在句法或语义上不合法的表层结构,可以分为句法鉴别式、形态鉴别式、语义鉴别式,鉴别式的加入进一步提升了生成语法的解释力和理论完整性[11]

受Katz-Postal假说的影响,在这一时期,生成语法理论将语义纳入研究范围,深层结构的地位有所削弱,并和表层结构一起处理语义解释,同时更加注重对转换规则的限制,关注规则约束和解释,例如要禁止从嵌套的同类结构中提取内层结构,提出用指定主语条件(Specified Subject Condition)、命题岛条件(Propositional Island Condition)、循环岛条件(Cyclic Island Condition)等来限制转换规则的“无限自由”[12]。同时还提出词汇主义假说(The Lexicalist Hypothesis),即某些名词性结构是词汇派生,而不是转换生成的,从词库层面来限制句法的生成能力[11]。这一时期的研究还包括从语义解释角度对具体机制进行分析,提出题元角色、词汇语义、焦点和预设等对语义的影响,表明语义解释必须紧密结合词汇的语义信息,而非仅依赖句法规则,并提出了一种词汇驱动的语义生成模型,其中动词的语义框架决定了句法结构的可能性(Jackendoff, 1975) [13]。到七十年代中后期,扩展的标准理论逐步构建,提出了许多新的概念,极大地丰富了生成语法的内容。

3.2. 挑战与冲击

60年代末生成语义学派从生成语法中分化出来,到了70年代又有了更进一步的发展,形成了以乔姆斯基为代表的解释语义学和以莱考夫为代表的生成语义学对峙的局面。两种理论都是生成语法理论发展的产物,其中最根本的分歧在于句法和语义的地位问题。解释语义学延续了生成语法一向重视句法的传统,坚持句法自治。但生成语义学的核心主张是语法和语义是不可分割的句子的表层结构直接由其语义结构生成,而不是通过深层结构进行转换,并提出了一套复杂的生成规则,试图通过语义成分和逻辑形式来解释句子的意义和句法之间的关系。生成语义学还对词汇语法进行了深入研究,主张词汇项本身不仅包含语法信息,还包含丰富的语义信息,语法规则与词汇语义是相互作用的[14]

与此同时,功能主义语言学家对生成语法进行的批判,认为生成语法过于形式化,只关注语言的内部结构,忽视了语言的社会功能和交际目的(Halliday, 1978) [15]。计算语言学家认为生成的规则系统过于复杂,很难在实际的自然语言处理系统中有效实现,也无法处理有关语境的问题,主张语言处理需要结合统计和概率方法而不是纯粹的形式规则(Schank, 1972) [16]。哲学家和逻辑学家则认为生成语法所提出的语义理论并不严谨,不能很好地解释语义与逻辑的关系、语言与思维的关系以及在处理语义问题上存在的不足,例如量化、指称、名称等语义问题[17]-[19]

4. 生成语法的快速发展时期:20世纪80~90年代

4.1. 管约论的主要内容

20世纪80~90年代是生成语法的快速发展时期,进入八十年代后,乔姆斯基提出了管约论,将原则和参数理论引入生成语法,这一思想也延续至后期的最简方案中,认为所有人类语言都共享一套深层句法原则,但通过不同的参数设置体现表面差异。在管约论中,乔姆斯基提出一些语法的普遍原则:

1) X-杠理论(X-bar Theory):定义短语结构的普遍规则。

2) 管辖理论(Government Theory):研究成分之间的管辖关系。

3) 题元理论(Theta Theory):研究动词的论元结构及其语义角色分配。

4) 约束理论(Binding Theory):照应词、代词、专名词和变项等四种语类与可能的先行词之间的关系。

5) 界限理论(Bounding Theory):主要用于限制句法成分的移动范围。

6) 格原则(Case Theory):解释名词短语的格标记及其分布。

7) 控制理论(Control Theory):解释非限定性动词的主语控制现象。

8) 空语类条件:限制空语类,例如痕迹和PRO的分布。

这些普遍规则成为这一时期生成语法的研究热点,但在广泛讨论的同时也受到了很多质疑。X-杠理论的研究焦点在于是否所有语言都遵循X-杠结构的普遍层级,例如中心语–补足语–限定语的固定顺序,以及是否存在跨语言差异的句法投射限制,并针对这一理论提出“线性对应公理”(Linear Correspondence Axiom),主张所有语言均为中心语前置[20]。题元理论则关注题元角色是句法层面分配还是语义层面的属性,一方面有研究者认为题元角色通过句法配置,例如动词与补足语的位置,直接分配[21],另一方面有研究者提出题元角色是语义概念,需通过词汇语义规则映射到句法之中[22]。关于约束理论,黄正德提出跨语言修正,指出汉语反身代词允许长距离约束,需引入逻辑式移位解释[23]。针对控制理论,乔姆斯基的强制控制也遭到了质疑——认为在有些语境的情况下PRO可以自由指代[24]

4.2. 最简方案的提出

管约论发展到后期参数变异出现问题,参数数量和设定方式过多,缺乏理论依据,参数的过度使用导致生成能力过强,可能生成不合格的句子,数量繁多的参数与儿童语言习得的现象不符(程工,1998) [25]。在各种缺陷的基础上,乔姆斯基提出了最简方案,追求句法解释的简洁性,试图回答“为什么语言结构如此设计”,即句法规则是否和人类认知以及人类语言习得相符合。

最简方案以经济性和最简设计为核心,主要通过合并和移动两个基本操作生成句子结构,合并,即通过基本句法操作,将两个句法单元组合成新结构;以及移动,即受经济性原则限制的移位。整个过程遵循经济性原则,以最简、高效的方式生成合法句子,同时满足语言的语音和语义条件,最简方案标志着生成语法从“规则描写”转向“解释驱动”,以最简化的语言描述语言的生成机制[26]

在此基础之上,词汇功能语法(Lexical-Functional Grammar)和中心语驱动短语结构语法(Head-Driven Phrase Structure Grammar)也有所发展。这两种语法减少了对转换规则的依赖,强调词汇信息和约束条件在句法生成中的作用,挑战了生成语法中过度依赖转换规则的观点(Pollard & Sag, 1994) [27]

4.3. 跨领域影响

生成语法的不断发展,对其他语言学方向的影响也越来越大,例如在心理语言学、神经语言学、认知语言学、计算语言学、语言习得等领域的应用。生成语法强调儿童语言习得是一个基于普遍语法的创造性过程,而非简单的模仿和强化,其句法理论为研究人类如何理解和生成句子提供了模型,推动了句子解析、语义整合等心理语言学实验研究,为失语症、发展性语言障碍等研究提供了新的解决思路,为研究语言能力的大脑神经基础提供了理论假设(Pinker, 2009; Gleitma, 1982; Bates & MacWhinney, 1982; Caplan, 1987) [28]-[31]。在自然语言处理和人工智能方面,研究者们尝试将生成语法的形式化表达运用在广义短语结构将生成语法的形式化规则应用在自然语言处理之中,例如霍不斯(Hobbs)和希伯(Shieber)探讨了生成语法在语义表示中的应用,特别是如何处理量化词的辖域问题[32];基于类比原则的机器翻译框架,生成语法的句法规则被用于处理日语和英语之间的句法转换问题(Nagao, 2003) [33]

到了90年代,生成语法的研究方向有了很大的变化,主动和生物学、心理学、认知科学等融合,在此基础上形成了生物语言学。生物语言学将语言视为“生物器官”,其设计需符合进化与认知效率,例如合并操作的递归性可能源于基因突变(Chomsky, 1995) [34]。在语言习得方面,生成语法的运用在这一时期也取得了一定突破,例如生成语法理论为一些语言习得理论,特别是“刺激贫乏论”(The Poverty of Stimulus)提供了理论支持,同时实验心理学也开始验证句法原则的心理限制性[35] [36]。在与其他学科融合的同时,生成语法也受到了来自功能学派和认知语言学派的反对。认知语言学对生成语法的形式主义表示质疑,认为形式规则无法解决语言的多样性,主张语言基于认知隐喻与意象图式(Lakoff, 1990) [37]。功能学派则批评生成语法忽视了语用和交际功能,无法进行话语分析[38]

5. 生成语法发展新阶段:21世纪至今

5.1. 理论延展

二十一世纪以来,在最简方案的基础上,生成语法进一步追求理论的简洁性,强调经济性原则。合并操作得到优化,被视为句法生成的核心操作,能够递归地将词汇项组合成更大的句法结构,探讨语言设计的最小化原则及其生物语言学基础(Chomsky, 2002) [39],进一步明确合并操作及其在句法生成中的作用(Boeckx, 2014) [40]。在语义接口方面,深入探讨句法与语义的关系,特别是句法形式如何映射到逻辑形式,一方面是语义解释的句法基础,研究句法结构是如何为语义解释提供基础,例如量化、辖域和主题–述题(topic-comment)关系;另一方面,探讨语义特征,例如时态、语气等是如何在句法结构中实现的(Hornstein et al., 2005) [41]。在语音接口上,延续了之前的句法结构与语音实现的关系以及对语音实现约束的研究,例如省略和连读(Oostendorp & Weijer, 2005) [42]

跨语言分析和应用方面,在这一时期的研究者们用生成语法来研究语言之间的共性并在不同的语言中得以运用,例如句法移位在不同语言中的表现及其与语言顺序的关系(Kayne, 2005) [43];形容词的句法位置及其与名词的关系(Cinque, 2010) [44];生成语法框架下,汉语的句法结构(Huang et al., 2009) [45]

5.2. 跨学科发展与挑战

二十一世纪以来,生成语法与认知科学、神经科学等进一步结合,极大促进了生物语言学的发展。生物语言学的主旨是从生物学角度探讨语言的形成和发展机制,主要探讨语言处理的神经机制,验证生成语法的认知和生物学基础,提出语言官能有狭义和广义之分,且递归性是语言的核心特征(Hauser et al., 2002) [46],并从生成语法角度探讨语言的演化路径及其独特性(Berwick & Chomsky, 2016) [47]。在此基础上,进一步探讨了动物认知与人类语言的差异(Hauser, 2001) [48],通过比较人类语言与其他动物的语言交流系统,分析人类语言的演化路径,揭示语言的独特性(Fitch, 2010) [49]。在现代科技快速发展的背景下,生成语法也融入了人工智能、自然语言处理、机器翻译等领域之中。在自然语言处理方面,生成语法被用于句法分析与生成以及语义解析等方面,例如利用生成语法的句法结构改进解析性能(Collins & Koo, 2005) [50];基于生成语法的句法规则提出无需词汇信息的句法解析模型(Klein & Manning, 2003) [51]。同时,在基于层次短语的统计机器翻译模型中,生成语法的句法规则被用来进行句法分析,并在此基础上利用统计模型进行翻译模型的训练和优化(Chiang, 2005) [52]。在人工智能领域,生成语法被用于设计语言生成和理解模型以及对话系统之中,例如通过结合生成语法的句法规则设计神经网络语言模型,将句法规则与概率模型相结合,用于语言理解与生成(Bengio et al., 2003) [53]

近几年来,人工智能和自然语言处理技术的快速发展,生成语法与计算语言学的结合成为近十年的重要趋势。生成语法提供了句法解析的方法并运用于深度学习领域,神经网络模型也被用来研究语言生成和句法结构的关系(Bengio et al., 2013) [54],技术的发展也引发人们越来越关注生成语法和人工智能伦理关系,提出“语法偏见”(Grammar Bias)的概念(Bender & Koller, 2020) [55]。但是大语言模型的出现对生成语法提出了新的挑战和机遇,这些模型通过海量数据的训练,能够生成符合语法规则的句子,但其内部机制与生成语法的理论假设存在显著差异。生成语法强调语言的内在规则和普遍性,而大语言模型则依赖于统计模式和上下文预测,因此被认为是对语言的“高级模仿”而不是真正的语言理解(Chomsky et al., 2023) [56]。大语言模型通过大规模数据训练可以学习到复杂的语言模式,而无需依赖生成语法所假设的先天规则系统(Manning, 2015) [57]。生成语法所提出的以普遍语法为基础的语言习得机制也受到了质疑,因为大语言模型的学习机制与儿童语言习得的过程不符,表明语言习得可能更多依赖于统计学习而非生成语法的先天规则(Yang, 2016) [58],通过实验和计算模型对比,大语言模型无法模拟人类语言习得中的规则学习过程,但却有很强的生成能力,间接挑战了生成语法的语言习得机制(Pearl & Sprouse, 2013) [59]。同时通过实验,大语言模型在处理语义和上下文时表现优异,因此生成语法中句法规则的优先级可能被高估(Linzen, 2020) [60]。但针对大语言模型的语言生成能力,很多语言学家也从生成语法角度提出质疑,认为大语言模型缺乏对语言规则的抽象能力,无法处理超出训练数据范围的语言现象(Marcus, 2020) [61],基于统计的语言生成,并没有真正理解语言的意思,以至于在生成语言视角下,大语言模型只是“随机鹦鹉”(Bender et al., 2021) [62]

6. 总结与展望

生成语法的几十年发展历程经历了多个阶段,在发展的历程中,无论是生成语法自身还是围绕其所进行的研究,都有着强烈的阶段性特征。每一阶段的理论创新都试图解决前一阶段的不足,同时为解释语言现象提供了新的视角,将数学和逻辑的形式化方法引入语言学研究,为语言分析提供了严格的理论框架,对心理学、认知科学、计算机科学等领域的贡献显著。

但随着大语言模型的兴起与快速发展,生成语法也面临着挑战。大语言模型通过海量数据的统计学习生成语言,而生成语法依赖内在的抽象规则,二者的方法论差异引发了对规则是否必要的质疑。大语言模型能够生成符合语法的句子,但是其内部结构与生成语法所描述的句法系统相差甚远。

尽管其理论框架仍面临诸多挑战,特别是在大语言模型崛起的背景下,但生成语法的核心理念和研究方法依然具有重要的学术价值。未来的研究需要进一步深化理论探讨,同时结合实验和应用研究,以推动生成语法在更广泛领域的创新与发展,在新的研究范式下更好地揭示人类的语言机制。

基金项目

辽宁省社科基金规划项目语义学支撑的机器翻译语义问题可解释硏究(L22BYY011)。

参考文献

[1] Chomsky, N. (2002) Syntactic structures. Mouton de Gruyter.
[2] Chomsky, N. and Halle, M. (1968) The Sound Pattern of English. MIT Press.
[3] Chomsky, N. (2014) Aspects of the Theory of Syntax (No. 11). MIT Press.
[4] Halle, M. (1962) Phonology in Generative Grammar. WORD, 18, 54-72. [Google Scholar] [CrossRef
[5] Katz, J.J. and Fodor, J.A. (1963) The Structure of a Semantic Theory. Language, 39, 170-210. [Google Scholar] [CrossRef
[6] Fillmore, C.J. (1967) The Case for Case.
https://linguistics.berkeley.edu/~syntax-circle/syntax-group/spr08/fillmore.pdf
[7] Lakoff, G. (1966) Criterion for Verb Phrase Constituency.
https://escholarship.org/uc/item/6k88157h
[8] Lakoff, G. (1963) Toward Generative Semantics.
https://escholarship.org/content/qt64m2z2b1/qt64m2z2b1.pdf
[9] Lakoff, G. and Ross, J.R. (1976) Is Deep Structure Necessary? In: McCawley, J.D., Ed., Notes from the Linguistic Underground, BRILL, 159-164. [Google Scholar] [CrossRef
[10] McCawley, J.D. (1968) Lexical Insertion in a Transformational Grammar without Deep Structure. Proceedings from the Annual Meeting of the Chicago Linguistic Society, 4, 71-80.
[11] Chomsky, N. (1970) Remarks on Nominalization. In: Jacobs, R. and Rosenbaunm, P., Eds., Readings in English Transformational Grammar, Ginn, 184-221.
[12] Chomsky, N., Anderson, S. and Kiparsky, P. (1973) Conditions on Transformations, 1973. In: Zanuttini, R., Leu, T. and Kayne, R., Eds., An Annotated Syntax ReaderLasting Insights and Questions, Wiley, 232-286.
[13] Jackendoff, R. (1975) Morphological and Semantic Regularities in the Lexicon. Language, 51, 639-671. [Google Scholar] [CrossRef
[14] Lakoff, G. (1971) On Generative Semantics. In: Steinberg, D.D. and Jakobovits, L.A., Eds., Semantics: An Interdisciplinary Reader in Philosophy, Linguistics and Psychology, Cambridge University Press, 232-296.
[15] Halliday, M.A. (1978) Language as Social Semiotic. Arnold, 136.
[16] Schank, R.C. (1972) Conceptual Dependency: A Theory of Natural Language Understanding. Cognitive Psychology, 3, 552-631. [Google Scholar] [CrossRef
[17] Davidson, D. and Harman, G. (2012) Semantics of Natural Language (Vol. 40). Springer Science & Business Media.
[18] Montague, R. (1973) The Proper Treatment of Quantification in Ordinary English. In: Hintikka, K.J.J., Moravcsik, J.M.E. and Suppes, P., Eds., Approaches to Natural Language, Springer, 221-242. [Google Scholar] [CrossRef
[19] Putnam, H. (1975) The Meaning of “Meaning”. Harper Paperbacks.
[20] Kayne, R.S. (1984) 5. Principles of Particle Constructions. In: Guéron, J., Obenauer, H.G. and Pollock, J.Y., Eds., Grammatical Representation, De Gruyter, 101-140. [Google Scholar] [CrossRef
[21] Williams, E. (1981) Argument Structure and Morphology. The Linguistic Review, 1, 81-114. [Google Scholar] [CrossRef
[22] Rappaport, M. and Levin, B. (1988) What to Do with Θ-Roles. Syntax and Semantics, 21, 7-36.
[23] Huang, C.T.J. (1993) Reconstruction and the Structure of VP: Some Theoretical Consequences. Linguistic Inquiry, 24, 103-138.
[24] Manzini, M.R. (1983) On Control and Control Theory. Linguistic Inquiry, 14, 421-446.
[25] 程工. Chomsky最简方案形成的理论动因[J]. 外语教学与研究, 1998(1): 3-9, 80.
[26] Chomsky, N. (2014) The Minimalist Program. MIT Press.
[27] Pollard, C. and Sag, I.A. (1994) Head-Driven Phrase Structure Grammar. University of Chicago Press.
[28] Pinker, S. (2009) Language Learnability and Language Development, with New Commentary by the Author. Harvard University Press. [Google Scholar] [CrossRef
[29] Gleitman, L.R. (1982) Language Acquisition: The State of the State of the Art. Cambridge University Press, 150-193.
[30] Bates, E. and MacWhinney, B. (1982) Functionalist Approaches to Grammar. In: Gleitman, L.R., Ed., Language Acquisition: The State of the Art, Cambridge University Press, 173-218.
[31] Caplan, D. (1987) Neurolinguistics and Linguistic Aphasiology. Cambridge University Press. [Google Scholar] [CrossRef
[32] Hobbs, J.R. and Shieber, S.M. (1987) An Algorithm for Generating Quantifier Scopings. Computational Linguistics, 13, 47-63.
[33] Nagao, M. (2003) A Framework of a Mechanical Translation between Japanese and English by Analogy Principle. In: Nirenburg, S., Somers, H.L. and Wilks, Y.A., Eds., Readings in Machine Translation, The MIT Press, 351-354. [Google Scholar] [CrossRef
[34] Chomsky, N. (1995) Language and Nature. Mind, 104, 1-61. [Google Scholar] [CrossRef
[35] Pinker, S. (2003) The Language Instinct: How the Mind Creates Language. Penguin.
[36] Gleitman, L. (1990) The Structural Sources of Verb Meanings. Language Acquisition, 1, 3-55. [Google Scholar] [CrossRef
[37] Lakoff, G. (1990) The Invariance Hypothesis: Is Abstract Reason Based on Image-Schemas? Cognitive Linguistics, 1, 39-74. [Google Scholar] [CrossRef
[38] Givón, T. (2012) Functionalism and Grammar. John Benjamins Publishing Company.
[39] Chomsky, N. (2002) On nature and Language. Cambridge University Press.
[40] Boeckx, C. (2014) Elementary Syntactic Structures: Prospects of a Feature-Free Syntax. Cambridge University Press. [Google Scholar] [CrossRef
[41] Hornstein, N., Nunes, J. and Grohmann, K.K. (2005) Understanding Minimalism. Cambridge University Press. [Google Scholar] [CrossRef
[42] Oostendorp, M.V. and Weijer, J.V.D. (2005) Phonological Alphabets and the Structure of the Segment. In: Nirenburg, S., Somers, H.L. and Wilks, Y.A., Eds., The Internal Organization of Phonological Segments, DE GRUYTER, 1-24. [Google Scholar] [CrossRef
[43] Kayne, R.S. (2005) Movement and Silence. Oxford University Press. [Google Scholar] [CrossRef
[44] Cinque, G. (2010) The Syntax of Adjectives: A Comparative Study. The MIT Press. [Google Scholar] [CrossRef
[45] Huang, C.J., Li, Y.A. and Li, Y. (2009) The Syntax of Chinese. Cambridge University Press. [Google Scholar] [CrossRef
[46] Hauser, M.D., Chomsky, N. and Fitch, W.T. (2002) The Faculty of Language: What Is It, Who Has It, and How Did It Evolve? Science, 298, 1569-1579. [Google Scholar] [CrossRef] [PubMed]
[47] Berwick, R.C. and Chomsky, N. (2016) Why Only Us: Language and Evolution. The MIT Press. [Google Scholar] [CrossRef
[48] Hauser, M. (2001) Wild Minds: What Animals Really Think. Macmillan.
[49] Fitch, W.T. (2010) The Evolution of Language. Cambridge University Press. [Google Scholar] [CrossRef
[50] Collins, M. and Koo, T. (2005) Discriminative Reranking for Natural Language Parsing. Computational Linguistics, 31, 25-70. [Google Scholar] [CrossRef
[51] Klein, D. and Manning, C.D. (2003) Accurate Unlexicalized Parsing. Proceedings of the 41st Annual Meeting on Association for Computational Linguistics, Sapporo, 7-12 July 2003, 423-430. [Google Scholar] [CrossRef
[52] Chiang, D. (2005) A Hierarchical Phrase-Based Model for Statistical Machine Translation. Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics, Ann Arbor, 25-30 June 2005, 263-270. [Google Scholar] [CrossRef
[53] Bengio, Y., Ducharme, R., Vincent, P. and Jauvin, C. (2003) A Neural Probabilistic Language Model. Journal of Machine Learning Research, 3, 1137-1155.
[54] Bengio, Y., Courville, A. and Vincent, P. (2013) Representation Learning: A Review and New Perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35, 1798-1828. [Google Scholar] [CrossRef] [PubMed]
[55] Bender, E.M. and Koller, A. (2020) Climbing Towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July 2020, 5185-5198. [Google Scholar] [CrossRef
[56] Chomsky, N., Roberts, I. and Watumull, J. (2023) Noam Chomsky: The False Promise of ChatGPT. The New York Times.
[57] Manning, C.D. (2015) Computational Linguistics and Deep Learning. Computational Linguistics, 41, 701-707. [Google Scholar] [CrossRef
[58] Yang, C. (2016) The Price of Linguistic Productivity: How Children Learn to Break the Rules of Language. MIT Press.
[59] Pearl, L. and Sprouse, J. (2013) Syntactic Islands and Learning Biases: Combining Experimental Syntax and Computational Modeling to Investigate the Language Acquisition Problem. Language Acquisition, 20, 23-68. [Google Scholar] [CrossRef
[60] Linzen, T. (2020) How Can We Accelerate Progress Towards Human-Like Linguistic Generalization? Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July 2020, 5210-5217. [Google Scholar] [CrossRef
[61] Marcus, G. (2020) The Next Decade in AI: Four Steps towards Robust Artificial Intelligence. arXiv: 2002.06177.
[62] Bender, E.M., Gebru, T., McMillan-Major, A. and Shmitchell, S. (2021) On the Dangers of Stochastic Parrots. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 3-10 March 2021, 610-623. [Google Scholar] [CrossRef