摘要: 生成式人工智能(ChatGPT、DeepSeek和UPDF AI等)的快速发展,推动机器翻译进入以大模型为核心的新范式,人机协作已逐渐成为实现高质量翻译的重要路径。相较于传统的多人协作翻译模式,这一新范式在语篇连贯性、语义生成能力、术语一致性以及逻辑结构呈现等方面优势显著。但在专业性较强的技术类著作翻译中,大模型仍面临知识精度不稳定、长文本语篇一致性欠佳等问题。针对生成式人工智能引发的翻译范式变革,本研究立足于大模型专业著作的翻译实务,构建“LinguaPro翻译大模型 + 译后编辑 + 交叉审校”的协同翻译路径,系统总结大模型在长篇技术文本翻译中的表现特征,重点梳理译后编辑在术语预设、句段修订、章节审校及整体质量控制中的核心要求,并深入剖析人机协作过程中角色分工、流程设计与质量校验标准的重构机制。研究结果有助于完善以大模型为核心的人机协作翻译模式,为复杂技术文本的高质量、可控化翻译提供可操作的实践方案。
Abstract: The rapid development of generative artificial intelligence (such as ChatGPT, DeepSeek, and UPDF AI) has propelled machine translation into a new paradigm centered on large language models (LLM), in which human-machine collaboration is increasingly regarded as a key pathway to achieving high-quality translation. Compared with traditional multi-translator collaboration models, this paradigm demonstrates clear advantages in discourse coherence, semantic generation capability, terminological consistency, and the presentation of logical structure. Nevertheless, in the translation of highly specialized technical monographs, LLM continues to face challenges, including instability in knowledge precision and insufficient discourse consistency in long texts. In response to the paradigm shift in translation triggered by generative AI, this study is grounded in the practical translation of professional works concerning large models, and develops a collaborative translation pathway integrating the LinguaPro translation large model, post-editing, and cross-review. The study systematically summarizes the performance characteristics of LLM in long-form technical translation, with a particular focus on the core requirements of post-editing in terminological predefinition, sentence- and paragraph-level revisions, chapter-level review, and overall quality control. It further analyzes the restructuring mechanisms for role allocation, workflow design, and quality assurance standards in human-machine collaboration. The findings contribute to the refinement of LLM-centered collaborative translation models and provide a practical, actionable pathway for achieving high-quality and controllable translation of complex technical texts.
1. 引言
大模型(Large Language Models, LLM)是基于海量数据训练的深度学习模型,在自然语言处理、计算机视觉、机器翻译及多模态生成等领域均展现出独特优势。当前主流的大模型包括OpenAI的ChatGPT、Google的Gemini、深度求索公司的DeepSeek以及阿里的Qwen等。它们拥有上亿至万亿级别的参数,在处理复杂语言任务、理解上下文语境和生成高质量文本方面表现突出,已逐渐成为翻译学研究和实践中不可或缺的语言辅助工具[1] [2]。随着生成式人工智能不断发展,大模型不仅能够通过指令自动完成初稿翻译,还能在语义理解、术语一致性和逻辑结构等方面显著提升译文质量,为翻译实践创造了无限可能[3]。在LLM深度融入语言辅助任务的当下,翻译实践迎来了前所未有的机遇,本文结合作者在科技类专业书籍翻译中的实践经验,探索并构建了一条以大模型为核心、兼顾译后编辑与交叉审校的创新翻译范式和协作路径,为提升高专业度文本翻译的效率与质量提供了可操作的理论与方法指导。
2. 文献综述
随着机器翻译技术的持续发展,翻译工具形态与人机交互方式呈现出日益多样化的态势。现有研究普遍认为,当前翻译工具大致可分为三类:传统神经机器翻译工具、计算机辅助翻译(Computer-Assisted Translation, CAT)工具,以及基于大模型的生成式翻译工具。不同类型的工具在翻译质量表现、人机协作方式以及译后编辑需求等方面均存在显著差异[4]-[6]。
传统机器翻译主要依托大规模双语或多语语料训练的神经网络方法,其技术路线历经从循环神经网络及其变体、卷积神经网络到基于Transformer架构模型的演进,并且逐步衍生出多模态机器翻译、非自回归机器翻译以及多语言机器翻译等研究方向[7]。在此基础上诞生的Google Translate、DeepL等神经机器翻译工具,在翻译速度与系统稳定性方面表现成熟,能够较好地满足通用文本和信息获取场景的需求。然而,由于其翻译机制仍以句段级对齐为核心,在处理长文本篇章结构、跨句逻辑关联以及术语与表达一致性等方面依旧存在一定的局限性,难以充分满足专业性较强文本的翻译需求。
计算机辅助翻译工具是当前翻译实践中应用最广泛的技术手段,代表性软件包括SDL Trados、MemoQ和Wordfast等。这类工具以译者主导的人机协作模式为关键,通过翻译记忆库与术语库的系统化管理,有效保障译文在术语和表达层面的整体一致性,并显著提升重复性内容的翻译效率。不过,CAT工具本身不具备自主生成译文的能力,且使用的翻译引擎均为通用引擎,其翻译质量在很大程度上取决于译者的语言能力、专业背景及其对领域知识的掌握程度[5]。
近年来,以ChatGPT、DeepSeek等为代表的生成式人工智能翻译工具,凭借海量数据集与预训练方法,搭建起参数规模达万亿级的大模型,在语义推理、语篇生成和自然语言表达方面呈现出显著优势。与传统神经机器翻译工具相比,这类模型在译文连贯性、语言自然度和意译能力方面更接近人工翻译水准,尤其适用于长句密集、信息复杂的技术文本。然而,现有研究也表明,大模型在专业翻译场景中仍面临知识精度不稳定、领域细节误判以及长文本语篇一致性欠佳等问题,其生成结果还难以直接用作出版级终稿[6] [8]。
综合现有技术演进与研究脉络,本研究尝试在保留生成式翻译工具优势的同时,引入人工编辑的深度干预。通过重构协作分工,旨在打造一套可复制的技术类文本翻译模式,为人工智能背景下翻译流程的优化与翻译学方法的创新提供实践参考。
3. 研究设计
3.1. 研究问题
基于作者参与的实践项目,本研究聚焦以下三个问题:1) 高质量初稿生成:如何有效借助LLM提升科技文本初稿的翻译质量与生成效率。2) 协同翻译路径构建:在由LLM驱动的翻译环境下,如何设计并优化人机协同流程,从而突破纯机器翻译或传统人工翻译各自的局限。3) 角色与分工规范化:在多学科交叉的背景下,如何明确参与主体的角色定位、责任边界及任务分工,以实现翻译与编辑工作的系统化管理。
3.2. 研究素材选择
本研究所选用的研究素材源自三部前沿科技领域的专业著作,均为作者实际参与翻译与审校的文本。具体包括Unlocking Data with Generative AI and RAG、Large Language Models: A Deep Dive以及LLM Design Patterns。这三部著作内容关联紧密,主题聚焦于生成式人工智能、检索增强生成、LLM的核心原理与前沿进展,以及LLM设计模式等关键技术方向,整体专业性强、技术密度高。
上述三部著作总计约1370页,文本体量大,结构复杂,包含大量长句、嵌套句及信息高度密集的技术表述,对译者的语言能力、专业知识理解以及篇章层面的把控能力均提出了较高要求。在翻译过程中,不仅要准确传达技术概念与逻辑关系,还需确保跨章节术语的一致性和论述的连贯性,翻译难度显著高于一般通用文本。
因此,该研究素材具有较强的代表性,能够较为全面地反映大模型参与下科技类长文本翻译的实际特征与主要问题,为剖析机器翻译、译后编辑及协同审校机制在专业技术著作中的应用效果提供了坚实的实践基础。
3.3. 工具选择
本研究在广泛调研并对比常见翻译工具(如Google Translate、DeepL、百度翻译等)的基础上,最终选定ChatGPT 5.2、DeepSeek以及UPDF软件中的AI翻译工具作为研究工具。选择依据如下:
1) ChatGPT 5.2具备语篇级理解与整体生成能力,在隐性语义与逻辑关系的推断方面表现出色;支持多轮交互与动态修订,能够有效推动译后编辑和翻译角色的优化[9] [10]。
2) DeepSeek作为新一代LLM体系的重要代表,在技术领域适配性和处理复杂文本结构方面优势明显,在长难句及高信息密度内容的上下文关联和局部一致性保持方面表现尤其突出[11] [12]。
3) UPDF AI在科技文本翻译中应用广泛,对专业术语的准确性把握能力强,同时具备良好的交互式翻译体验和译后编辑友好性。
4. 分析与讨论
4.1. 设计LinguaPro翻译提示工程工作流与知识库
在对比ChatGPT 5.2、DeepSeek与UPDF AI等工具的综合性能后可以发现,ChatGPT在语篇理解、逻辑推理以及语言生成与学术写作等方面展现出更为突出的优势[10] [13]。参照对比得出的性能数据,ChatGPT在语篇理解与学术生成方面的表现优于其他工具,因此后续实践均选定其作为核心技术平台。
知识库与语料库的构建。首先,对待翻译原文进行整体研读,系统梳理高频术语、常用表达方式以及出版社在审校层面的具体规范与规则,并通过人工手动整理成pdf文件,ChatGPT 5.2会自动解析pdf文件,形成术语库以中英文对照的形式在ChatGPT 5.2中库;通过在ChatGPT 5.2通过提示词多轮调用测试与校验,确保术语译法的准确性和稳定性。其次,对已出版的有关大模型、智能体(agent)、向量数据库及RAG等主题的专业著作进行系统整理,ChatGPT 5.2通过自动化词元分割,形成结构化语料库,为后续翻译实践提供坚实的语料支持。
LinguaPro翻译项目的搭建。在ChatGPT平台搭建LinguaPro翻译大模型项目,并同步导入已建立的知识库与语料库。紧随其后,翻译团队通过设定严密的系统指令对模型行为进行约束,确保译文在垂直领域内的专业性与风格一致性。推荐指令如下:
“我是一名专业翻译助手,主要执行中英/英中翻译任务。翻译对象为大模型、智能体、RAG、向量数据库及相关人工智能技术著作。
翻译过程中需遵循以下原则:
1) 保持学术与技术写作风格,语言严谨、克制,避免口语化表达;
2) 以语篇为单位进行翻译,确保上下文连贯,避免逐句直译;
3) 对核心术语进行统一译法,必要时在全文范围内保持一致;
4) 准确呈现技术逻辑与因果关系,不增删原文信息;
5) 优先选用技术文献与学术出版物中通用的规范表达;
6) 若原文存在长句或高信息密度结构,可在不改变含义的前提下进行合理拆分与重组;
7) 对存在歧义或多种译法的术语,优先选取在人工智能与计算机领域中使用最广泛的译法。”
设计LinguaPro翻译提示工程工作流。在ChatGPT中自己构建翻译大模型,命名为LinguaPro翻译大模型。在该项目中,“LinguaPro”由两部分构成:Lingua源自拉丁语,意为“语言”;Pro表示“专业的”或“专家”。二者结合,体现“语言专家”或“专业语言处理系统”的内涵,意在突出该模型在垂直技术领域翻译任务中的专业性、权威性以及高质量输出能力。
4.2. 译后编辑和质量控制
在专业领域实践中,由具备计算机、大模型及人工智能背景的专业人员(以下简称AI-literate人员)将待翻译文本上传至LinguaPro翻译大模型,以章节为单位进行中文翻译。随后,AI-literate人员对译文进行通篇浏览,针对语义选择、语境判断及翻译不准确等常见问题展开审查[14] [15],具体内容见表1所述。
Table 1. Common problems of machine translation at the professional domain level
表1. 专业领域层面常见机器翻译存在问题
序号 |
内容 |
例举例子 |
1 |
术语与专有名词翻译 |
在专业术语翻译中,LinguaPro可能出现译文不统一的情况。例如,书中涉及token,tokenized,tokenizer和tokenization等术语,其中token译为“词元”,tokenized译为“词元化后”,tokenizer译为“词元分析器”,tokenization翻译为“词元化”。 |
2 |
多义词翻译 |
术语需根据上下文进行区分。例如: 1) Memory在计算机操作系统场景下应译为“内存”,在大模型相关语境下应译为“记忆”; 2) Context在大模型语境下译为“上下文”,在其他场景中译为“语境”; 3) Interface在软件工程语境下译为“接口”,在UI交互场景下译为“界面”; 4) Token在大模型语境下译为“词元”,在系统安全访问语境下译为“令牌”。 |
3 |
翻译不准确 |
翻译不准确的现象同样存在。例如,framework通常译为“框架”,architecture通常译为“架构”,但LinguaPro有时将framework误译为“架构”,从而产生错误;Transformer作为AI框架,容易被误译为“变压器”。针对上述问题,可通过在ChatGPT中提交提示词指令,引导LinguaPro翻译大模型实现术语统一处理。 |
由具备翻译学及语言学背景的专业人员(以下简称TS-Ling专业人员)在ChatGPT中对AI-literate人员完成的译文进行审校,重点处理信息冗余、语序调整、主语补全及综合性错误[16] [17],具体内容见表2所述。
Table 2. Common problems of machine translation at the linguistic level
表2. 语言学层面常见机器翻译存在问题
类型 |
原文 |
机器翻译 |
人工译文 |
解释说明 |
信息
冗余 |
例子1:原文:Furthermore, advancements in artificial intelligence were marked by endeavors such as the creation of LISP by John McCarthy in 1958 and the development of ELIZA, recognized as the inaugural chatbot. |
此外,人工智能的进展标志性地体现于1958年约翰·麦卡锡创造的LISP语言,以及被公认为首个聊天机器人的ELIZA的开发。 |
此外,1958年John McCarthy创造的LISP语言以及公认的首个聊天机器人ELIZA的开发等成就均体现了AI的进步。 |
机器翻译(以下统一简称为MT)中的“标志性地体现于”属于冗余表述,加重了句子的累赘感,且句式结构松散,故删除冗余修饰词,调整句式为“等成就均体现了AI的进步”,让句子更精炼紧凑。 |
Tuned LLMs sometimes exhibit undesirable behavior even while following instructions. For example, the responses might be hallucinating false information, using harmful or offensive language, misinterpreting human instructions, or pursuing a different task. |
经过调优的LLM有时在遵循指令时仍会表现出不良行为,例如生成虚构的虚假信息、使用有害或冒犯性语言、误解人类指令或执行其他任务。 |
经过微调的LLM即使在遵循指令时,有时仍会表现出不良行为,如生成虚假信息、使用有害或冒犯性语言、误解人类指令或执行其他任务。 |
MT将“hallucinating false information”译为“生成虚构的虚假信息”,其中“虚构的”和“虚假的”在中文里含义重叠,同时出现显得冗余、啰嗦。故简化为“生成虚假信息”,既包含“hallucinating”(无中生有)的含义,又符合中文表达习惯,更为精炼。 |
|
For example, imagine a base LLM adept at mirroring the distribution of internet text. It captures the cacophony of the internet in its entirety, replicating valuable and undesirable aspects alike. |
例如,设想一个基础LLM擅长镜像互联网文本分布,它能够完整捕捉互联网的喧嚣,复制其中既有价值又有不良的方面。 |
以擅长模仿互联网文本分布的基础LLM为例,
它完整捕捉互联网上的各种信息,
既复制其中有价值的内容,也再现了不良信息。 |
MT中有两处冗余:
一是添加
“能够”,原文无此语义,
属于多余表述,中文语境中
“完整捕捉”已能体现动作能力,无需额外加情态动词;
二是“既有……又……”与
“方面”搭配冗余,故优化为
“有价值的内容”“不良信息”,既精简又明确语义。 |
语序
调整 |
Owing to the unprecedented scale of pre-training, these learned patterns often enable LLMs in zero-shot language task competencies that often outcompete smaller models that have been explicitly fine-tuned for such tasks (Brown et al., 2020). |
由于预训练规模前所未有,所学到的模式常常使LLM在零样本语言任务上表现出色,甚至优于那些专门为该任务微调的较小模型(Brown等,2020)。 |
由于预训练的规模空前,LLM展现出的零样本语言任务能力常优于为此类任务专门进行微调的较小模型(Brown等,2020)。 |
此句包含由“that”引导的嵌套
定语从句,信息较密集。
MT基本遵循了英文的
“主句–定语从句”结构进行
顺译,使用了“表现出色,
甚至优于……”的句式,意思正确但略显冗长。因此将
“enable LLMs in zero-shot language task competencies”的核心信息“LLM展现出的零样本语言任务
能力”直接作为主语,使中文句子的主体更早呈现,重点更突出;
将“that often outcompete…”
这一定语从句处理为
“常优于……”,直接与前文的
主语连接,消除了原文的嵌套结构,使对比关系更直接、
句子更紧凑;“规模空前”比
“规模前所未有”更符合中文
四字习惯;“展现出的……能力”比“使……在……上表现出色”
更简洁地道。通过重组语序和优化表达,使长句的逻辑层次更清晰,更符合中文论述文的语感。 |
The helpfulness of an output goes beyond its mere accuracy. There are many dimensions to a helpful response, including a balance between explanatory depth and breadth, overall length of output, formatting, creativity, similarity to human output, the ability to ask for any necessary additional information to complete a task, and recognizing and pointing out when a given request is infeasible or ill-posed. |
输出的有用性不仅仅在于其准确性,还体现在多个维度上,包括解释深度与广度之间的平衡、输出总体长度、格式、创造性、与人类输出的相似度、询问完成任务所需额外信息的能力,以及识别并指出某一请求是否不可行或问题表述是否不合理。 |
这种特性超越单纯的准确性,包含多个维度:解释深度与广度之间的平衡、输出的总体长度、格式、创造性、类人性、获取必要补充信息的能力,以及识别并指出不可行或表述不当请求的能力。 |
MT直译“There are many dimensions to a helpful response”为
“还体现在多个维度上,
包括……”,存在句式杂糅,
故调整为“包含多个维度:……”的冒号衔接列举内容,
使逻辑更清晰;且MT
“识别并指出某一请求是否不可行或问题表述是否不合理”中宾语
部分语序混乱,“某一请求”
与“问题表述”语义重复,
故调整为“识别并指出不可行或
表述不当请求的能力”,
将定语前置修饰“请求”,
语序简洁连贯,
符合中文表达逻辑。 |
主语
补全 |
With these perspectives in mind, we can look at an example of the benefits of helpfulness tuning. In this and subsequent sections, we compare the outputs of the Llama-2 base model and the Llama-2 chat model with 13 billion parameters (Touvron et al., 2023). The latter version has undergone HHH alignment tuning. First, we will ask the base model to provide useful suggestions for an upcoming trip. |
基于上述观点,下面举例说明有用性微调的益处。在本节及后续部分,将比较Llama-2基础模型与拥有130亿参数的Llama-2聊天模型(Touvron等,2023)的输出,后者经过了HHH对齐微调。首先,向基础模型询问关于即将到来的旅行的有用建议。 |
基于上述观点,下面举例说明有用性微调的实际效果。本节及后续部分将比较Llama-2基础模型与拥有130亿参数的Llama-2聊天模型(Touvron等,2023)的输出表现。后者经过了“3H”对齐微调。首先测试基础模型对旅行建议的响应。 |
原文中主语是“我们(实验研究者)”,属于显性逻辑主语,为确保文本的学术性,两个版本的译文均对其进行模糊处理。但MT省略主语后,主体变为“在……,将比较……”,缺少主语后导致语义模糊。故将其修改为“本节及后续部分将比较……”,通过“比较”“测试”等动词明确实验动作主体,补全逻辑主语。且MT“向基础模型询问关于即将到来的旅行的有用建议”虽与原文一致,但联系上文可知“询问”的目的是实验测试,直译导致主语动作逻辑不完整,因而补全为“测试基础模型对旅行建议的响应”,明确动作核心,使主语语义完整。 |
Initially, the agent does not know the maze layout or the optimal path. As the agent explores the environment, it encounters different states representing its position within the maze and takes various actions that lead to new states. Iteratively rewarding or penalizing these actions will influence the probabilities the agent assigns to each possible action in each given future state. |
最初,代理并不知晓迷宫布局或最优路径。随着代理在环境中的探索,会遇到代表其在迷宫中位置的不同状态,并采取各种动作进入新的状态。通过反复对这些动作进行奖励或惩罚,将影响代理在每个未来状态下为每个可能动作分配的概率。 |
在初始阶段,智能体对迷宫布局或最优路径毫无认知。通过环境探索,它会遇到代表其在迷宫中位置的不同状态,并采取导致状态改变的各种动作。对这些动作进行反复奖励或惩罚将影响智能体在未来各状态下选择不同动作的概率。 |
MT第二句“随着代理在环境中的探索,会遇到……”省略主语“代理(其实应译为智能体)”,导致前半句主语是“代理”,后半句主语残缺,语义模糊,故补全逻辑主语“它”(指代智能体),句意完整;MT第三句“通过反复对这些动作进行奖励或惩罚,将影响……”缺少核心主语,读者无法明确“谁在奖励/惩罚”,原文隐含“外部训练机制”的逻辑主语,译文2删除冗余的“通过”,让“对这些动作进行反复奖励或惩罚”直接作主语,补全主语语义;MT“每个未来状态下为每个可能动作分配的概率”中,未明确“分配概率”的主体是“代理”,虽前文提及,但此处衔接残缺,因而补充“智能体”,同时优化为“选择不同动作的概率”。 |
综合性
错误 |
Although specialists in AI who were up to speed on recent developments may not have been surprised at the achievements of these platforms, they were the wider public’s first taste of the revolution occurring in machine learning over the last decade. |
尽管对AI领域保持最新动态的专家们并不感到惊讶,但对于广泛公众来说,这些平台的成就代表了他们第一次接触到过去十年中发生的机器学习革命。 |
尽管熟悉AI领域最新发展的专家对这些平台的成就可能并不惊讶,但普通大众却是首次领略到过去十年机器学习领域的革命。 |
原文“they were the wider public’s first taste…”中,“they”指代“the achievements of these platforms”。MT将其译为“这些平台的成就代表了他们第一次接触……”,将“成就”作为主语,逻辑上可接受,但略显物化。故通过调整句式,将后半句的主语转换为“普通大众”(即“the wider public”),译为“但普通大众却是首次领略到……”,补全了中文句子的主语,使句子结构更清晰,也更好地传达了原文“first taste”的体验感。MT中“对于广泛公众来说”是欧化插入语,“代表了他们第一次接触到”的表述也较冗长。故修改为“但普通大众却是首次领略到”,简洁有力,更符合中文表达习惯。 |
|
The legality of training LLMs on scraped internet data is being adjudicated in numerous lawsuits. |
AI是否可以基于爬取的互联网数据进行训练,正在通过多起诉讼进行裁决。 |
目前多起关于利用抓取的互联网数据进行LLM训练的合法性问题的诉讼,正在接受
裁决。 |
MT的译法存在两个主要问题:首先,它将“The legality… is being adjudicated”(合法性正在被裁决)转换成了一个是非疑问句“是否可以……进行裁决”,改变了原文陈述客观法律程序的语气。其次,“AI”的表述过于宽泛,模糊了原文特指“训练LLMs”这一具体行为。人工译者抓住了“合法性”是裁决的核心对象,并通过“关于……的合法性问题的诉讼”这一结构,严谨完整地还原了原文的信息和法律语境,主语“诉讼”和谓语“接受裁决”的搭配也更精准。 |
针对以上专业术语等,通过向ChatGPT提交提示词交互指令,使LinguaPro翻译大模型在语言学层面达成一致化处理。
4.3. 协作角色与流程的重构
经过长期实践,作者提出了一条高效的协调翻译路径,该路径可分为三个核心环节:第一阶段为LinguaPro翻译大模型初译(详见4.1及4.2节),由大模型完成章节级初步翻译,AI-literate与TS-Ling借助ChatGPT进行交互式提示词指令处理,以解决常见的语义歧义和通用性问题。第二阶段为译后编辑。在此环节中,从ChatGPT下载的译文存在长句衔接不畅、专业术语表达欠精准以及语言风格不一致等问题[18]。译者与技术审校人员围绕句段语义与逻辑修订、章节级一致性以及整体质量控制与潜在风险识别展开协作,确保译文在专业性与可读性之间实现平衡。第三阶段为双重审校,本文采用语言审校者与领域审校者的双重校色机制,对译文进行多维度检查,从而确保最终质量可控。
相较于传统依赖多人协作的翻译模式,本文提出的“LinguaPro翻译大模型 + 译后编辑 + 交叉审校”协调翻译路径,对角色分工与流程设计进行了重构。在此体系中,译者不再是单纯的文本生产者,而是逐步转型为“质量管理者”与“决策者”。大模型成为高效的语言生成工具,审校人员则将精力集中于译文质量优化与风险点监控,进而显著提高工作效率[19]。
在流程落地层面,本路径通过“前置规范、中期修订与后期校验”三个阶段,构建起完整的质量闭环。前置阶段规范涵盖术语库、专业语料库及指令构建,确保初译阶段的基础稳固;中期环节修订通过译后编辑完善句段语义与逻辑,兼顾专业术语统一性与章节一致性;后期校验通过交叉审校进一步强化质量控制和风险管理。这一闭环设计不仅提高了翻译效率,还有效降低了返工成本,实现了译文质量的可预测性与可控性[18]。
5. 结束语
本研究通过深入剖析大模型在科技翻译中的实战表现,提炼出“LinguaPro翻译大模型 + 译后编辑 + 交叉审校”的协同范式。具体实践如下:1) 建立术语库、专业用语库及出版社审校规则,在大模型辅助下生成的译文初稿具有语篇连贯、术语一致、逻辑清晰的特点,其翻译质量显著优于传统多人协作模式,但仍存在长句连贯性不足、高专业度文本精确性不稳定以及语言表达方面的问题;2) 以已出版的高质量大模型、RAG和智能体相关著作为基础语料库,设计LinguaPro翻译提示工程工作流。该模型能够让译者在交互过程中提出翻译疑问和技术问题,并借助大模型知识库与推理能力获取答案;3) 通过优化角色定义与分工,大模型及计算机与人工智能专业人员主要专注于专业概念、跨章节一致性及整体质量控制,而英语与翻译学专业人员则在语言表达、语法规范及“信达雅”方面发挥关键作用。
本研究通过设计LinguaPro翻译提示工程工作流、交互式翻译范式、开展译后编辑并明确角色分工的协作模式,不仅为技术文献和专业书籍翻译提供了可复制、可推广的流程范式,还从实践层面验证了人工智能背景下翻译学的理论拓展与方法创新,在一定程度上为未来大模型参与的科技文本翻译提供了可操作的参考与方法论支撑。
NOTES
*通讯作者。