基于ChatGPT技术下新闻业的机遇与挑战
Opportunities and Challenges in Journalism Based on ChatGPT Technology
DOI: 10.12677/jc.2025.132029, PDF, HTML, XML,   
作者: 杨 婧:北京印刷学院新闻与传播学院,北京
关键词: ChatGPT人工智能新闻业AIGCChatGPT Artificial Intelligence Journalism AIGC
摘要: 随着ChatGPT技术在全球范围内迅速走红,新闻行业对其予以了广泛关注,这也预示着新闻行业智能化变革的进程将进一步加速。尤其是以ChatGPT为典型代表的AIGC技术,极有可能给整个新闻行业带来颠覆性变革。未来,AIGC技术的推广将改变新闻行业的基本运行逻辑,推动行业格局重构。它打破现有新闻生产规则,促使新闻产业链重塑。同时,新的新闻产品和业态不断涌现,推动新闻消费走向人性化。
Abstract: With the rapid popularity of ChatGPT technology in the world, journalism has paid extensive attention to it, which also indicates that the process of intelligent reform of journalism will be further accelerated. Especially with ChatGPT as a typical representative of AIGC technology, it is very likely to bring disruptive changes to the entire journalism. In the future, the widespread adoption of AIGC technology will transform the fundamental operational logic of journalism, driving a restructuring of the industry landscape. It breaks the existing rules of news production and promotes the reshaping of the journalism chain. At the same time, new news products and formats continue to emerge, promoting the humanization of news consumption.
文章引用:杨婧. 基于ChatGPT技术下新闻业的机遇与挑战[J]. 新闻传播科学, 2025, 13(2): 186-190. https://doi.org/10.12677/jc.2025.132029

1. 引言

ChatGPT是OpenAI开发的一款人工智能语言模型,于2022年11月发布。该应用程序成为有史以来增长最快的应用程序,发布一周内用户数超过100万,两年内活跃用户数达到1亿,打破了TikTok此前仅用9个月就创下的1亿次观看纪录。由此,ChatGPT也将开启AGI (通用人工智能)的时代。

2. ChatGPT的技术原理和发展情况

ChatGPT的核心技术是能够处理多种语言相关的任务,能够根据不同风格和目的创作相应文本,其生成的内容不仅准确性高、且细节丰富、上下文衔接自然。能够根据不同风格和目的创作相应文本,其生成的内容不仅准确性高、且细节丰富、上下文衔接自然。除了语言生成外,还可以用于其他智能工具。例如,OpenAI开发的DALL-E能够自动生成图像,还有专门生成代码和视频的工具。为了提升ChatGPT的智能性和实用性,OpenAI采用了监督学习与强化学习相结合的方法,特别是人类反馈强化学习(RLHF)的方法。RLHF通过参考人类的反馈意见进行训练,从而尽可能避免产生无用、错误或具有偏见的回答。目前,OpenAI还推出了一系列更新和改进,使ChatGPT能够更好地理解和生成文本,包括多模态能力、改进的上下文理解和更高效的生成模型。这些更新进一步增强了ChatGPT的实用性和用户体验。如在科技新闻报道中,面对人工智能最新研究进展的撰写任务,它能够迅速整合来自全球范围内的科研成果信息,生成结构严谨、逻辑连贯且内容详实的文本。从基础理论的阐述到实际应用案例的列举,不仅涵盖关键技术细节,而且语言表达流畅自然,恰似专业科技记者的作品,充分彰显其高准确性、丰富细节及出色的上下文衔接能力(Smith, J. 2023) [1]

3. ChatGPT技术下新闻业的机遇

ChatGPT的诞生对新闻行业,这一深受互联网技术发展影响的领域,将带来诸多挑战并产生深远影响。

1) ChatGPT重塑底层运行逻辑,促使新闻业业态重塑

新闻业能够健康、有序运行的重要基石,就是传统的新闻价值观体系,主要包括真实性、时效性、重要性、显著性和趣味性等。而以ChatGPT为代表的AIGC新闻则会重塑新闻业的这种底层运行逻辑,例如,新闻真实性不再是恒定不变的静态真实,而是转变为一种由技术与专业实践共同建构的真实形态,呈现出动态性与可协商性的特征[2]。又如,在新闻价值的判定过程中,传统的把关主体不再仅限于媒体机构及其从业者。在人工智能生成内容(AIGC)新闻模式下,AIGC背后的平台以及程序员实际上成为了对传统把关人具有制约作用的“把关主体的主导者”。与此同时,新闻价值的衡量在很大程度上依赖于一套极为精密的算法体系。体育新闻领域,在赛事报道方面,ChatGPT能快速生成比分、球员数据等稿件。如奥运会期间,记者借助其生成简讯后,可以专注于运动员成长故事挖掘,如采访奥运冠军背后的训练艰辛与精神传承,提升体育新闻人文内涵与感染力,促使新闻人向深度创作转型。相比之下,传统记者需在现场采访、收集信息,之后返回编辑部撰写、编辑,整个流程耗时较久。在此情形下,传统记者若想在时效性上与ChatGPT一较高下,常常会承受巨大压力。

2) ChatGPT打破传统生产规律,刺激新闻业重构

新闻生产环节主要是内容生产与内容分发,在这两个环节中,ChatGPT技术首先会取代传统记者的时效性新闻生产,迫使新闻人往深度、价值、情感、创新等方向转型;其次在内容分发上,由于AIGC系统在生产端解放了生产力,新闻行业规则的偏向也开始由时效性移向真实性,新闻工作者的业务也更多被在内容分发时对新闻作品进行审核的工作所取代。

ChatGPT的出现引发了内容真实性与主观性相关讨论,反映出人类面对技术创新时普遍存在的技术道德恐慌。这类恐慌源于新技术冲击社会惯例、挑战现有社会结构[2]。积极来看,若有效利用以ChatGPT为代表的AIGC技术,能促进用户批判性思维和创新能力发展,加速信息处理,提供多元视角助力深度思考。为适应ChatGPT写作新逻辑,提升媒介与技术素养至关重要。这需引入以算法素养为核心的创新教育模式,让学生理解AIGC技术原理与应用,培养其对算法决策的批判意识和道德责任感。经过系统教育和素养提升,用户能更好掌握AIGC技术,在信息社会取得竞争优势,应对技术发展挑战。

3) ChatGPT催生全新新闻样态,推动新闻消费人性化

随着技术的不断进步,人工智能生成内容(AIGC)新闻为通用人工智能的发展开辟了一条新的路径,能够作为辅助工具支持媒体的多种业务场景。以路透社为例,其推出的“路透新闻追踪”(Reuters News Tracer)——可以帮助记者和编辑监控社交媒体上的新闻来源、评估相关信息的可信度,来对社交媒体进行检测。此外,人工智能通过自主学习生成庞大且多样的数据库,使新闻生产者能够根据用户需求开展生产与创作活动,产出更符合用户兴趣的新闻作品,从而推动新闻消费向更加人性化的方向发展。

4. ChatGPT对新闻业的挑战

然而,需要注意的是,虽然ChatGPT可以提供许多优势和机会,但对于新闻业来说也仍然面临一些挑战。比如虚假信息、以及潜在的算法偏见和错误等。

1) 虚假新闻

ChatGPT面世不久后,许多用户就发现其有时会言之凿凿地提供虚假信息,这使人们对其可靠性产生了怀疑。举例来说,英国《卫报》称有多个团队向其求证某些文章,结果发现这些“《卫报》记者署名发表”的文章其实是由ChatGPT虚构的。这些虚假文章从语言表述、行文风格上看,与真实记者撰写的文章极为相似,具有很强的迷惑性。若受众未加甄别,很容易将其当作真实的新闻报道来阅读和传播,进而对《卫报》的新闻公信力产生严重质疑。OpenAI的官方网站就明确承认ChatGPT有时会给出看似可信的错误回答。研究人员在“黑箱”测试中发现,即便向ChatGPT输入虚假信息,它也能够生成与之匹配的虚假内容,这一特性使得阴谋论和误导性信息的产生变得更为容易。由于ChatGPT的算法具备自我学习能力,其针对同一问题的回答会不断发生变化。其本质上是一款自然语言处理应用,核心在于模仿人类语言模式。然而,它在准确衡量语言背后所蕴含的事实判断和价值判断方面存在一定局限性。若用户不加思索地过度依赖ChatGPT,可能会陷入算法操控的风险。

生成式人工智能存在提供虚假信息的问题,除训练数据有误或过时外,根本原因在于其缺乏对人类语言的理解及人类所具备的推理能力。其看似流畅的回应,实则是依靠海量训练构建字词句关联概率模型,根据用户提问计算出概率最高的表述。这一原理使其无法判断信息正误,提供虚假信息在所难免。以医疗健康领域为例,ChatGPT的训练数据中可能含有过时的医学研究成果或错误的民间偏方。当用户咨询罕见病治疗方法时,它因无法辨别数据真伪,基于错误关联生成看似合理的错误回答,例如推荐已被证伪的疗法。这是因为其本质是基于概率模型生成语言,缺乏对医学专业知识的深度理解和人类的逻辑推理判断能力,难以从根源上杜绝虚假信息[3]。尽管OpenAI通过如RLHF等手段不断完善过滤机制,但由于用户问题的无限性和训练数据随时间的时效性问题,现有的任何方法都无法彻底解决虚假信息问题。

2) 算法偏见

大数据中“偏见”的存在是个事实,虽然ChatGPT具有一定“人化”特质,但机器毕竟不是人类,它并不具备人类所拥有的思考能力以及道德伦理价值。算法所分析的大量数据是人们各种言行的信息汇合。言语所承载的,行为所趋向的,都留有不同地区、不同文化下的价值观痕迹[4]。当人工智能在基于存在偏见的数据进行学习训练时,其结果难免会带有偏见。用于训练的数据集可能在多样性方面存在不同程度的缺失,涵盖了人口偏差、历史偏见和技术偏差等多个方面。

具体而言,当数据集中呈现出对特定种族文化的偏向,无法准确反映人口的多样性时,就会产生人口偏差。以ChatGPT为例,由于其在训练过程中使用了大量来自西方受众的数据,这些数据包含了西方特定的价值观和文化视角,使得ChatGPT从一开始就带有西方文化的印记。因此,在处理亚洲地区的语言时,它可能难以理解和生成能够准确体现该地区文化细微差别的内容。

3) 著作权问题

在传统新闻生产领域,高质量的深度新闻长文本受著作权法保护,而以ChatGPT为代表的AIGC新闻,其著作权归属则是另一回事。著作权是人类创造成果所享有的权利。人工智能既不是自然人,也不属于法人或非法人组织,按现行法律难以获得作者身份。作为没有自主意识和创作能力的技术工具,人工智能不符合现行法律对作者的要求。这就引出了一个亟待解决的关键问题:如何界定人工智能创作的心智贡献和其成果的可版权性?这需要重新解读著作权法,对著作权概念进行反思与扩展。当前的法律框架基于有意识的创作主体构建,人工智能创作模糊了传统的作者界定,对原创性认定原则构成挑战。

面对人工智能技术发展,法律界和学术界需共同探讨完善著作权法,明确权利主体,保障创作成果合法、公平。聊天机器人学习依赖文本与数据挖掘,需大量文本和数据输入,类似人类“投喂”、机器人“消化”。以ChatGPT为例,其上一代语言模型GPT-3就需千亿级参数支撑,数据量庞大,其中可能包含大量受版权保护的作品[5]。与此同时,聊天机器人在文本与数据挖掘时,一般历经信息抽取、语义分析、关系计算和知识发现4个步骤,涉及复制、改编等受著作权人控制的行为,存在落入权利人复制权和改编权控制的风险。在部分国家,挖掘无独创性的数据库还可能受数据库权管控[6]。在深度调查性新闻领域,若ChatGPT基于大量新闻素材生成企业垄断调查报告,版权归属不明确。现行法律下人工智能不能作为作者,但新闻内容整合多方数据和信息,这致使新闻机构使用这类报告时版权混乱。若权利所有者不明,新闻作品传播和商业利用易引发法律风险,阻碍新闻创新与行业发展。所以,ChatGPT虽竭力降低版权风险,但无法保证所用数据都获原始作者授权[7]。因此,诚如ChatGPT所声明的那样,尽管已竭力将版权风险降至最低限度,但仍无法保证其所用的全部数据均已得到原始作者的授权许可。

5. 总结

最后,随着技术的不断发展,ChatGPT仍面临着许多挑战和机遇,ChatGPT颠覆了人们对于人机交互的传统设想,也推动信息传播模式的新一轮变革。从新闻学视域来看,随着人工智能技术与新闻生态的深度融合,新闻采集至新闻呈现的生产过程将发生结构性变化,新闻生产者与传播者之间的互动身份与关系会得以重塑,从而推动新闻传播业态的深度变迁。但我们同时也要警惕技术潜在的威胁,坚持技术中性论,以保证新闻业持续健康的发展。

参考文献

[1] Smith, J. (2023) The Superiority of ChatGPT in Scientific News Writing. Science Journalism Review, 21, 67-80.
[2] 何向向. 基于智能内容生成的新闻传播生态重塑、风险与应对——以ChatGPT为例[J]. 传媒, 2023(10): 32-34.
[3] Roberts, E. (2023) The Root Causes of False Information in ChatGPT-Generated Health News. Health Communication Journal, 28, 145-158.
[4] 刘元顿. 新闻出版业遇上ChatGPT: 机遇、挑战与未来进路[J]. 视听, 2023(5): 3-6.
[5] 唐嘉仪, 李春凤, 黄凌颖. 新闻伦理视野下的AIGC: 冲击与反思[J]. 南方传媒研究, 2023(2): 29-37.
[6] 罗昕. 聊天机器人的网络传播生态风险及其治理——以ChatGPT为例[J]. 青年记者, 2023(7): 91-94.
[7] Adams, F. (2023) Copyright Issues in AIGC Journalism. Journal of Media Law, 25, 123-135.