1. 引言
人工智能巨头公司Open AI发布的大型语言模拟器——ChatGPT,迅速引发了全球关注与应用热潮,它的出现意味着在内容生产方面实现了从用户生产内容与专业生产内容向人工智能生成内容转变的重要阶段。AIGC以其百科全书式的海量数据库、流畅的语言表达以及便捷灵活的互动方式等优势,成为Web3.0时代的重要内容生产模式风向标。中共中央办公厅和国务院办公厅联合发布的《关于加快推进媒体深度融合发展的意见》,明确指出要利用好人工智能、大数据、5G等新技术,推进新兴技术在新闻传播领域的广泛应用。由此可见,AIGC将成为新闻传播发展的重要方向,它为新闻生产与传播范式带来了无限的可能性,但同时也蕴藏着不容忽视的传播风险与新闻伦理问题。本文就AIGC在新闻场域的应用视角出发,深度剖析AIGC如何重塑新闻生产传播以及潜在的新闻伦理问题,并探讨如何助推AIGC技术向善的路径,促进人工智能技术在智能数字语境下的新闻生产范式善用。
2. AIGC在新闻场景下的应用范式
AIGC即人工智能生成内容(Artificial Intelligence Generated Content),是指利用人工智能技术,如自然语言处理、计算机视觉等,通过算法模型自动生成文本、图像、音频、视频等多元模态的内容。其核心思想是利用人工智能算法生成具有一定创意和质量的内容。AIGC把数据要素提到时代核心资源的位置,在一定程度上加快了整个社会的数字化转型进程。AIGC已经为人类社会打开了认知智能的大门,通过人工智能技术生成内容,在新闻视域下具有广泛的应用前景。在新闻业,写稿机器人、虚拟主播、采访助手、视频自动剪辑等重塑新闻采编流程,再造新闻生产链条,大幅提高了内容生产效率。
2.1. 新闻采集:大数据信息收集打破时空区隔
传统的新闻采集主要依赖记者的实地走访、现场观察以及对有限信息源的人工筛选,这使得新闻素材的获取在很大程度上受到时间和空间的限制。人工智能将记者从琐碎重复的工作中解放出来,为记者提供更多的素材。大数据信息收集不受时间的约束。能够回溯历史数据以挖掘具有潜在价值的新闻点,也能实时追踪当下正在发生的事件,第一时间捕捉到最新鲜的资讯。这种基于大数据的信息收集方式极大地拓宽了新闻采集的视野与范围,为新闻的全面性、及时性和深度报道奠定了坚实的基础。大数据信息收集打破空间的隔阂。借助先进的网络技术和智能算法,能够对全球范围内海量的、分散的信息源进行实时监测与捕捉。无论是社交媒体平台上的实时动态、各类网站的更新内容,还是不同地区政府机构、企业组织等发布的各类信息,都能被纳入大数据收集的范畴。通过对这些来源广泛、类型多样的数据进行深度挖掘与整合,新闻采集者可以突破地域的局限,获取到来自世界各地、不同文化背景下的新闻线索与素材。大数据和传感器等人工智能技术打破了时间与空间的隔阂,为新闻采集创造了更大的可能性。
2.2. 新闻生成:智能生产方式为内容提质增效
在当今数字化语境下,新闻生成领域正经历着深刻变革,智能生产方式的应用成为显著趋势,为新闻内容的产出效率带来了前所未有的提升。传统新闻生产往往依赖记者的实地采访、资料搜集以及后续的撰写、编辑等链条式的新闻生产模式,耗时较长且人力成本颇高。随着人工智能技术在新闻领域的渗透,智能生产方式应运而生。通过自然语言处理等先进技术手段,智能系统能够快速抓取海量数据中的关键信息,如实时监测各大新闻源、社交媒体平台以及各类官方发布的数据动态等。基于这些信息,系统可以依照预设的新闻模板和算法逻辑,自动生成新闻初稿。例如,在财经领域,对于股市的每日行情波动、重大企业财报发布等事件,智能生产方式能在极短时间内生成条理清晰、数据准确的新闻报道,大大缩短了从事件发生到新闻呈现的时间间隔。同时,智能生产方式还可对生成的新闻内容进行初步的语法检查、风格统一等优化处理,进一步提升了新闻制作的整体效率。这种高效的智能生产方式不仅满足了当下社会对新闻及时性的高要求,也为新闻媒体在激烈的市场竞争中赢得了优势,推动着新闻行业不断向前发展。
2.3. 新闻分发:智能算法助推个性化定制新闻
AIGC主要应用于“数字化程度高 + 内容需求丰富”和“自动化程度高 + 个性化需求高”两大场景。传媒、影视、娱乐、电商等行业与前者适配,从新闻视域角度而言,个性化新闻推荐则是后者的典型应用。AIGC本质上是内容自动化生成的技术集合。算力、算法、数据是驱动AIGC技术前进的“三驾马车”。其中,算力是“基础”,人工智能计算能力的提高需要计算机、芯片、传感器等基础载体的支撑;算法是幕后“推手”,神经网络和开源模式提升了算法的学习能力;数据是算法的“养料”,海量优质数据是训练算法精确性的关键要素。智媒时代新闻业正经历“算法转向”(algorithmic turn),人工智能技术被视为下一代新闻生产的“标配”,渗透到从选题到内容分发各个新闻生产环节,如机器人新闻、个性化新闻推送、智能检校、用户评论审查、自动事实核查、自动生成图表、聊天机器人、数据挖掘与分析等[1]。算法的运行离不开数据,而个性化新闻推荐、用户分析等服务需要个人数据。无论作为一种技术目标,还是一种服务目标,搜集的个人数据越多,算法对用户的“了解”就越准确,越能展现出“私人定制”般的个性化新闻,增强受众黏性,从而增加传播效果。
3. AIGC在新闻场域的伦理风险冲击
当前生成式人工智能的状态可以被视为一种“灰箱化”,即介于完全可见可知可理解的公开技术和算法黑箱之间,人们通过提示词介入内容生成模式,并结合基于人类反馈的强化学习可以在一定程度上打开算法黑箱[2],但过程中始终存在的不可知与不可控处又带来了真实的忧虑和恐惧。在新兴前沿技术语境下,人工智能技术在传媒领域的伦理失范所面临的由技术、管理、法律、监管等诸多因素共同作用的结果的不确定性并未减少,并且随着其在传媒领域的渗透而出现新的失范现象以及伦理问题等方面的挑战。充分了解生成式人工智能潜在的风险并保持警惕,才能更好地厘清人与技术的关系,从而保证技术走入向善进路。
3.1. 技术悖论:AIGC乱象丛生,不慎滑向新闻伦理底线边缘
生成式人工智能AIGC存在自身的缺陷,必然会触及传播伦理的底线。对于智能新闻技术的发展和应用需要保持同样的理智,盲目与急功近利以及对不良后果的选择性忽视将极大增加风险发生的可能[3]。人工智能技术的主要技术支撑是建立在庞大的数据库基础之上,这就导致人工智能技术对于技术可能存在较强的依赖性。当数据资源被过度收集、整理、分析时,公民隐私将不被保证,每个人将会暴露在“全景监狱”之下,极易导致个人隐私数据被不当获取并融入生成内容之中。一旦这些包含隐私信息的内容流入公共传播领域,不仅会侵犯公民的隐私权,更违背了新闻伦理中对保护消息来源及相关个体隐私的基本要求,使得公众对新闻行业使用AIGC技术的信任度大打折扣。另外,人工智能新闻责任主体的不明确导致新闻“把关”的缺失,为虚假新闻和负面价值取向的新闻提供了可乘之机,使新闻质量受损。最后,人工智能毕竟不是具有主观能动性的人,对情感、道德的弹性把控不到位,在人文关怀和价值判断等方面无法读懂受众,也容易触及传播伦理的底线。
3.2. 算法危机:算法黑箱逐渐显现,决策情境暗藏风险
所谓算法黑箱,即算法的运行逻辑与决策过程犹如一个不透明的箱子,外部难以知晓其内部具体如何运作。受众对生成式人工智能技术的理论知识与实践认识尚不完备,可能存在过度信任技术的漩涡中,导致受众陷入由人工智能技术构造的“算法黑箱”当中。技术的发展与应用直接影响人类社会的生产和生活方式等方面。技术伦理研究的核心是如何正确地运用技术,以促进人类的幸福和全面发展,而不能让技术成为侵犯人权、破坏环境和危害人类生存的工具[4]。决策风险是指由于人们过于相信算法,对某些决定进行思考、判断时出现错误。而在决策情境中,算法暗藏的风险不容小觑。一方面,若算法数据存在偏差,那基于此做出的决策可能带有歧视性,影响公平,像招聘算法若学习了带有性别偏见的数据,就可能对女性求职者不公。另一方面,一旦算法被恶意篡改或出现故障,其产生的错误决策后果不堪设想,可能扰乱市场秩序,甚至危害公共安全。对于新闻媒体而言,决策风险主要出现在个性化新闻推荐中,轻则推送的内容不符合“用户画像”,重则真假新闻不分,导致假新闻广为传播。再如一些数据新闻采用“计算器”的方式帮助用户进行决策,但没有人关心这种计算器是如何计算出来的,计算错了,人们的决策也错了。更重要的是这里的风险不只是眼前的决策风险,更在于人们会越来越依赖算法,从而失去对一些事物的独立判断长此以往,人们对算法的信任会逐渐瓦解,所以亟待打破黑箱,规范算法决策,化解这场潜在的算法危机。
3.3. 规范缺失:市场监管有待加强,法律体系尚未健全
在AIGC蓬勃发展的态势下,市场监管与法律体系方面存在的不足日益凸显。从社会管理的角度来说,社会对人工智能的监管力度不足,缺乏相应的监督渠道。监管机构的审查缺位使算法决策的透明性和公平性难以得到保障,从而产生传播伦理失范。部分用户利用AIGC生成虚假名人代言广告,这些广告文案和图片高度仿真,误导了众多消费者,扰乱了正常的市场秩序。然而,由于当前针对AIGC在广告营销领域应用的监管规则不够细化完善,相关部门难以迅速且精准地对这类违规行为进行认定和处罚。缺乏必要的法律规范是人工智能技术伦理失范的主要原因之一。在现有人工智能的解释性与透明度皆有不足的情况下,容易导致对人工智能算法不准确的风险评估,甚至影响法案在不同应用场景下的适用[5]。AIGC作为新兴技术,现有的法律体系大多基于传统业态制定,对AIGC涉及的复杂版权归属、虚假信息传播责任界定等诸多问题缺乏针对性规范,存在诸多法律空白。同时,市场监管层面缺乏专业且系统的监管机制与力量,难以全程追踪AIGC各类应用场景,无法做到及时察觉并纠正违背公序良俗、损害他人权益等不良行为,这迫切要求加速完善法律框架,强化监管举措,以引导AIGC健康发展。
3.4. 伦理困境:AIGC不乏伦理隐忧,价值观判断存在漏洞
美国认知科学哲学家科林·艾伦(Colin Allen)和技术伦理专家温德尔·瓦拉赫(Wendell Wallach)在《道德机器:如何让机器人明辨是非》中提出,机器道德关乎人类的决策行为,故而,人类不要把责任推给机器,而是必须坚守人类的价值观和伦理[6]。生成式人工智能AIGC现阶段不具有独立判断能力,很容易在处理敏感新闻时置道德伦理于不顾。比如在一些涉及灾难、战争等敏感新闻的报道生成中,AIGC可能单纯依据所学习到的语言模式和数据关联去拼凑内容,使用不当表述或是渲染血腥、悲惨画面以博眼球,全然未考量这样做对受害者及其家属情感的伤害,以及对社会公序良俗带来的冲击。尽管AIGC能高效产出内容,但在新闻等关键领域应用时,开发者和使用者都应肩负起把关责任,通过提前设定符合伦理道德的规则框架,过滤掉可能违背价值观的输出,同时建立严格的审核机制,对其生成的内容进行细致甄别。数据伦理在生成式人工智能的发展中必须强调,数据的归属权与使用权必须厘清,要求我们必须重视人工智能时代的伦理准则、伦理归责、伦理责任、伦理价值等问题的深度反思与探讨。
4. AIGC技术向善路径探索及规范构建
以类人为模仿起点,以界面互动为连接,以自然语言为沟通工具,生成式人工智能发展的最终方向是超越人与解放人。具体而言,必须统筹生成式人工智能发展和安全,建立相应的智能规范与机制监管亟待完善,彰显人的独特价值,推动技术向善。
4.1. 新闻工作者:发挥人的主体性,助推“人机共生”生态环境
在生成式人工智能AIGC逐渐融入新闻领域的当下,新闻工作者有着独特的专业优势,他们经过长期训练培养出的新闻敏感、对事实深度挖掘的能力以及基于社会责任感做出的价值判断,是AIGC难以企及的。在“人机共生”中,充分发挥主体性,对AIGC生成的内容进行严格审核,凭借专业素养甄别其中可能存在的虚假信息、伦理问题等,确保新闻真实可靠、符合社会主流价值观。充分认识到人类在道德方面的主体地位,珍视人类在道德、情感等方面的独特优势,不断提升自身的道德判断能力,主动承担起道德责任,自觉遵守智能时代的道德准则,成为道德的实践者和审视者[7]。
新闻工作者可将AIGC作为得力助手,利用其快速生成初稿、整合资料的功能,节省时间与精力,进而投入更多心血到深度报道、专题策划等更需人类智慧的工作中去。比如在大型体育赛事报道时,借助AIGC汇总赛事数据等基础内容,新闻工作者再深入采访运动员,挖掘背后故事,产出高质量深度报道。而且,新闻工作者还应积极参与到AIGC在新闻领域应用规则的制定中,从专业视角建言献策,引导技术朝着更有利于新闻业发展、更契合公众需求的方向改进,以此推动形成良性的“人机共生”生态环境,让技术与人力相互补充、协同发展。
4.2. 新闻媒体:明确责任主体,实现“准确性负责”原则
在当今信息传播环境日益复杂的背景下,新闻媒体肩负着至关重要的使命。新闻媒体作为内容传播的核心枢纽,涉及众多环节与多方人员参与,从选题策划、信息采集,到内容编辑、审核发布等,每个流程都需清晰地界定责任主体。比如在报道一则重大社会事件时,记者要对采访获取信息的真实性负责,编辑要严格把关文字表述、逻辑以及事实核查,主编则需统筹全局,确保整个报道符合准确性要求。只有将责任具体落实到每个岗位、每个人,才能最大程度避免出现虚假、错误信息流入公众视野。明确智能新闻的问责机制,机器人犯了错到底由谁来负责,智能算法的设计和编写者是人类,人类是智能新闻的“元作者”,要对源数据的版权和准确性负责[8]。
实现“准确性负责”原则,要求新闻媒体建立起严谨的多层级审核机制,对新闻来源进行多方验证,对关键数据、引语等仔细核对,杜绝道听途说、以讹传讹。面对AIGC等新技术在新闻生产中的应用,媒体更要清醒认识,不能因追求效率而放松对内容准确性的把控,明确无论是人工采编还是借助技术生成的内容,媒体自身都是最终责任主体,始终坚守新闻底线,维护自身权威性,在赢得受众长久的信任,为社会传播真实、可靠的信息的同时,避免因责任主体的模糊而导致新闻伦理失范的问题。
4.3. 技术维度:完善与革新并举,建立健全智能规范机制
处理人工智能技术所导致的传播伦理失范问题时,把控内容固然重要,但绝不能止步于此,更关键的是要达成对技术的优化与完善,双管齐下以有效化解现存伦理问题。一方面,完善现有技术至关重要。以自然语言处理技术为例,当前AIGC虽能生成流畅文本,但在语义理解准确性、上下文逻辑连贯性等方面仍存在不足。这就需要技术人员深入分析其算法机制,查漏补缺,不断优化模型参数,提升其性能表现,减少因技术局限而导致的信息偏差、虚假内容生成等问题,让人工智能输出的结果更加可靠。
另一方面,革新是推动技术持续进步的源动力。面对不断涌现的新需求和新问题,如在复杂伦理情境下如何确保人工智能做出正确决策,仅靠完善现有技术远远不够。科研人员要敢于突破传统思维,探索如融合新的机器学习架构、引入新兴的认知计算理念等创新手段,赋予人工智能更强的适应性与智能性。而在完善与革新的过程中,同步建立健全智能规范更是不容忽视。要通过制定严格的技术标准、伦理准则,明确人工智能在数据使用、内容生成等各环节的规范要求,使技术在合理的框架内健康发展,避免其陷入无序的应用状态,进而保障人工智能更好地服务于社会,助力各行业实现高质量发展。
4.4. 法律范畴:监管同法规政策并驾齐驱,促进AIGC良性演进
生成式AIGC在蓬勃发展的同时,在监管和法律层面还存在许多遗漏空白点,一方面要完善相关法律体系与监管机制规范其有序发展,另一方面要最大限度防止生成式人工智能对人类社会潜在威胁的可能性。以图像生成AIGC工具为例,用户存在利用其生成名人的虚假图片,并在网络上广泛传播,造成侵犯其本人肖像权和隐私权等合法权益,产生恶劣影响。诸如此类现象凸显缺乏有效监管和法规约束的AIGC极大可能带来的负面后果。法规政策方面,需要明确AIGC技术的使用规范、版权归属以及数据隐私保护等关键问题。完善在生成式人工智能范畴的法律条文,规定AIGC生成内容的版权归属于原始数据提供者和AIGC开发者共同所有,或者在特定情况下明确划分归属比例,以此避免版权纠纷。同时,对数据收集和使用的范围、方式进行详细界定,防止隐私泄露。监管层面,相关部门应加大执法力度,建立专门的AIGC监管机构,对AIGC平台和应用进行定期审查与抽查。如要求AIGC平台定期提交数据使用报告和内容生成审核记录,对于违反规定的平台予以严厉处罚,包括罚款、暂停运营甚至吊销相关资质等。人工智能在新闻领域的应用可能会造成对用户信息的过度获取、无意识“窥视”用户的私人空间或者人工智能写作的新闻稿件有可能造成不良社会影响,都提醒我们急需制定更加完善、更加符合当下形势的法律法规[9]。只有监管与法规政策紧密配合,形成严密的保障网络,才能引导AIGC沿着正确的轨道前行,在发挥其巨大创新潜力的同时,避免陷入伦理、法律和社会秩序的泥沼,实现从无序扩张到有序发展、从野蛮生长到良性演进的转变,最终为社会创造更多积极有益的价值。
5. 结语
自启蒙已降人类秉承“知识推动人类文明进步”的信念,确信知识越多越安全,理性愈发达社会愈进步,发明人工智能是为了解放人类自身,其显现的意义与成就也确证了存在的正当性[10]。生成式人工智能既是推动社会前进的武器,更有可能反之成为面向人类自己的利刃,把握人机平衡的界限与尺度尤为重要。生成式人工智能AIGC在进一步赋能传统新闻业,推动新闻业迈向强人工智能的同时,也埋下了新闻业与传播的技术悖论、算法危机、监管与法律规范缺失和道德的伦理困境的隐忧。为此,新闻工作者、新闻媒体提升智能素养势在必行,智能规范必须建立,法规政策和机制监管亟待完善,人类特有的信任与共情也将重新显现其价值,以此规制AIGC的发展、应用与传播,推动技术向善。“人类拥有比其他一切组合都更为重要的生物学装备——大脑及其支配的身躯。”深入理解生成式人工智能在内容生产领域的运行逻辑与伦理风险,将帮助人类更好地应对这个新时代发生的巨大变革,给“人”以行动的尺度、活力和信心,携手共建天朗气清的智能生态。
NOTES
*通讯作者。