1. 引言
ChatGPT作为一款聊天机器人程序自2022年发布以来,便迅速成为全球关注的焦点和热点,甚至成为人类科技史上用户增长速度最快的应用程序[1]。ChatGPT作为一种强大的人工智能语言模型,它在自然语言处理方面取得了令人瞩目的成就。它能够回答各种类型的问题、生成文本,在诸多领域如教育、娱乐、客服等方面展现巨大的应用潜力。然而,它的出现也引发了知识产权伦理困境,这不仅关系到创造者、使用者的权益,也对整个社会的创新生态产生影响。
2. 知识产权伦理
(一) 知识产权伦理的定义
知识产权伦理是指在知识产权的创造、使用、保护和管理过程中,涉及的道德原则、道德规范和道德实践的总和。它涉及到知识产权的合法性、公正性、公平性、透明度、尊重知识和尊重人才等方面的问题。知识产权伦理的核心是平衡知识产权所有者的权益和社会公众的利益,确保知识产权的合理使用和保护,同时促进知识的创新和共享。
(二) ChatGPT与知识产权伦理的关系
知识产品的创造:ChatGPT本身是一种知识产品。其一,它的开发涉及海量的文本数据,包括书籍、文章、网页内容等等,这些数据构成它学习的基础;其二,ChatGPT的技术核心在于其独特的算法设计。开发商在算法研发过程中的投入巨大,因此,他们有权获得相应的专利保护,防止他人未经授权的商业性复制或使用。因此,这些数据和技术的使用需要遵循知识产权的相关法律和伦理规范。
知识产品的使用:ChatGPT是根据用户的指令生成其各种文本内容,这些内容的知识的知识产权归属问题需明确。开发商和用户双方均负有维护知识产权秩序的责任。对于开发商而言,应当建立健全内部审核制度和技术手段,防范和减少侵权行为的发生。同时,向公众传达正确的版权意识教育也是一项必要任务。至于用户,他们必须明白自己在享受科技便利之余还需承担相应法律责任。
知识产品的传播:在数字化时代,以ChatGPT为首的生成式技术正逐渐渗透至大众日常生活,催生出无数新颖且引人入胜的作品在网络上广泛传播,这就涉及到对这些内容的版权管理和保护。然而,如何有效保护这些数字资产免遭盗版侵权以及预防不法分子将其用于非法目的两大难题亟待解决。
知识产权的保护:ChatGPT面临技术变革与版权的挑战。研发团队应积极寻求专利申请,将独创性的技术方案转化为无形财产,保护自身核心竞争力不受侵害,合理设定使用许可条款,以利于更广泛的学术交流和产业升级。同时,他们也需要与用户合作,共同维护ChatGPT生成内容的知识产权。
知识产权的合理使用:在使用ChatGPT时,用户需要遵循知识产权的合理使用原则。这意味着用户可以在一定范围内使用ChatGPT生成的内容,但不得超出合理使用的范围,例如,不得将ChatGPT生成的内容用于商业目的而不支付相应的版权费用。
(三) 知识产权伦理困境
在数字时代,知识产权伦理面临着前所未有的挑战。随着人工智能、大数据等新技术的快速发展,传统的知识产权保护理念和法律框架正在受到冲击。这些技术不仅改变了知识生产和传播的方式,还引发了一系列复杂的伦理问题。
生成式人工智能,以ChatGPT为例,版权归属问题是当前最为突出的挑战之一。ChatGPT可以根据用户下达的指令快速生成大量高质量的内容,如文本、图像和音频等,这使得传统版权法中“作者”的概念变得模糊不清。2023年9月,包括乔治·马丁在内的17位作家向美国纽约联邦法院提起诉讼,指控OpenAI使用他们的作品训练ChatGPT,称其为“大规模、系统性盗窃”。这个案例反映了作家们对AI训练数据来源的担忧,虽并未直接涉及著作权归属问题,但值得深思。
另一个值得关注的问题是ChatGPT训练过程中的数据使用。ChatGPT的运行需要大量数据进行训练,其中包括受版权保护的作品。这种使用是否构成侵权?目前尚无统一的答案。
大数据技术的应用也带来了新的伦理挑战。一方面,大数据分析能够帮助企业更有效地管理和保护知识产权,如通过实时监测和分析网络数据来发现潜在的侵权行为。另一方面,大数据的使用也可能侵犯个人隐私和数据安全。如何在保护知识产权和保障个人隐私之间取得平衡,成为一个亟待解决的问题。
3. ChatGPT引发的伦理问题
在数字化、智能化的时代背景下,以ChatGPT为代表的人工智能语言模型正在以前所未有的速度改变着我们的生活和工作方式。作为一项前沿科技成果,ChatGPT不仅展现了人工智能的强大潜能,也引发了关于其背后的知识产权问题的关注和讨论。
(一) 生成内容所属权问题
ChatGPT的编写能力已获得大众的认可,因生成的内容和研究者的自撰高度相似,所以对于ChatGPT生成的论文是否拥有著作权饱受争议。赞成者认为ChatGPT具备超强的写作能力,从作品质量出发,应将其纳入作者署名;反对者则认为作者需要为自己的作品负法律责任,实际上,ChatGPT无法为自己的行为负责[2]。例如,英国科研诚信办公室的Matt Hodgkinson表示,已经对作品署名做出明确规定,ChatGPT不被视为合著者[3]。
然而,目前鉴别ChatGPT生成的内容是一个较为棘手的难题。无论是利用查重系统还是邀请专家鉴定,想要准确辨别研究者的论文是否存在利用ChatGPT的情况比较困难。一篇发布于bioRxiv的文章显示,作者选取JAMA、Nature Medicine、The BMJ等刊登的50篇医学论文的摘要,对ChatGPT下达指令以论文题目及其来源期刊格式生成相应的摘要。结果显示,ChatGPT生成的摘要全部通过论文剽窃工具的检测,即未检测到剽窃;人工智能检测器检测出50篇AI生成摘要中的32篇(66%),专家准确鉴定出了50篇AI生成摘要中的34篇(68%),但也将7篇原创摘要(14%)误判为AI生成[4]。所以,在论文审核过程中,鉴别使用ChatGPT的论文中是否存在虚构、造假、捏造的情况对于编辑和专家来说也是一大挑战。甚至于出现作者将未经审核且内容不知是否准确的论文发表,问题将会更严重。
(二) 数据隐私问题
ChatGPT作为一款基于人工智能的聊天机器人,其数据隐私问题已经引起了广泛关注。用户在与ChatGPT交互时可能会提供或透露个人信息,这些信息的安全性和隐私保护成为了用户和监管机构关心的重点。
1. 数据收集
ChatGPT的数据来源主要包括多个语料库,这些语料库由各种类型的无监督文本数据组成,例如网页、书籍、新闻文章等。为提高程序的使用性能,ChatGPT会最大限度的收集数据[5]。以数据收集为参照,开发商OpenAI尚未对ChatGPT的数据来源进行详细说明,因此,使用的数据既可能是通过网络爬虫技术获得,也可能是购买的第三方数据。其一,这些数据未经用户同意和授权进行数据训练,并用于提供商业化服务,存在非法收集数据、侵犯个人隐私的风险,进言之,非法数据获取不仅关乎个人与企业,还触及国家数据安全与主权领域。其二,第三方提供的数据可能存在侵权、权属不清等问题,数据来源缺乏正当性。此外,OpenAI规定在使用程序时,对用户输入和输出的信息具有广泛的使用权,故ChatGPT利用自身的连续问答功能,引导用户回答,分析用户的兴趣偏好、行为习惯等隐私,从而对用户进行“精准画像”,给用户的隐私权和生命健康权带来影响[6]。
2. 数据泄露
如今,我们被海量的数据包围,在这样复杂的社会环境拥有一片属于自己的“私密空间”,隐私权是必要条件。2023年3月,ChatGPT出现了技术漏洞,部分用户的个人信息、与ChatGPT的对话内容被泄露,韩国个人信息保护委员会对此表示,韩国共计近七百名用户受到此次信息泄露事件的影响[7]。此次事件揭示了ChatGPT在数据安全方面的不足之处,同时也引发了对数据隐私和人工智能伦理的广泛关注。这不仅涉及到个人隐私的泄露,还可能导致更广泛的安全问题,例如身份盗窃、网络诈骗等犯罪行为。同时,数据泄露事件可能损害了OpenAI及其产品ChatGPT的声誉,引起用户对使用这些生成式人工智能的信任危机。如果用户感觉他们的敏感信息无法得到妥善保护,他们可能会选择停止使用这些服务,这对OpenAI来说可能意味着用户基数的减少和潜在的经济损失。
此外,研究人员的发现也突显了在设计和部署这些系统时需要考虑的伦理和隐私问题。个人身份信息的泄露可能会对个人造成严重的隐私侵犯,并可能导致诸如身份盗窃等安全问题。因此,ChatGPT的开发者和运营者需要确保他们的系统能够保护用户数据的安全,并且在处理潜在的敏感信息时采取适当的预防措施。
(三) 虚假信息传播
ChatGPT等人工智能系统通过分析大量文本数据来学习语言模式,并基于这些模式生成生成流畅、连贯的文本,模拟人类的对话[8]。然而,这种能力也带来了潜在的风险,尤其是在虚假信息传播方面。研究表明,ChatGPT和类似的人工智能系统可以产生几乎无限量的虚假观点,这些观点可能会被用于网络上的影响力活动,削弱公共话语中的信任基础[9]。
1. 生成不准确内容
生成式人工智能对训练样本有较强的依赖性,数据的数量和质量决定了生成式人工智能输出的内容[10]。即ChatGPT的回答是基于其预训练数据。其一,如果数据存在偏差、过时或者不完整,就可能导致输出内容不准确。例如,对于一些新兴的、快速发展的领域,如最新的科技突破或者社会文化现象,如果其预训练数据没有及时更新,那么生成的内容可能不符合当前的实际情况。其二,ChatGPT可能会生成不准确或者虚假的信息。由于它是基于概率模型生成文本,可能会出现与事实不符的表述。例如,在回答历史事件时,可能会给出错误的时间、人物关系等。这种虚假信息如果被广泛传播,会干扰人们对事物的正确认知。
2. 误导公众
生成式AI生成内容具有排他性与无源性,为信息的真实性验证设置了障碍,由此为不法行为敞开了大门。例如,有非法分子利用ChatGPT撰写一篇“2023年3月1日起,杭州市政府将取消机动车尾号限行政策”的“新闻报道”,许多公众并没有辨别出其真实性,造成了不好的社会影响。另外,特别是在一些重要领域如医疗、科学研究等,虚假信息的传播可能会误导公众做出错误的决策。例如,ChatGPT可能会提供错误的医疗建议,导致患者延误治疗或者采取错误的治疗方法。
(四) 阻碍创新
近年来,以ChatGPT为代表的人工智能技术迅速崛起,其卓越的语言理解和生成能力让许多人看到了无限潜力。然而,ChatGPT的应用却引发了一些争议声音,有人担忧它可能成为阻碍创新的因素之一。
1. 商业领域
ChatGPT作为一个开源工具,可以通过对以往知识、文化贡献者的高效学习,批量整合出具有商业价值的产品。但这也意味着可以被众多企业轻松地运用到自家产品中来,原本依靠差异化优势吸引客户的原创公司面临众多模仿者,整个行业内出现大量雷同的产品和服务,企业难以突破重围,创新动力受到压制。同时,这些产品的商业利润并没有回流给原初的知识文化生产者,商业利润完全被知识文化整合者与ChatGPT的技术提供方获取。长期看来,此是对知识文化原初生产环境的破坏,不利于知识文化的长期发展。且以ChatGPT为首的生成式人工智能整合参与的市场,将螺旋强化已有的文化特点,进一步挤压新文化的生存、成长空间。
此外,优秀人才往往是企业最宝贵的资源。但在ChatGPT等类似技术面前,某些工作岗位被替代已经成为不可避免的趋势。这种情况下,高素质员工们往往会寻找更有前景的发展机会离开原有组织,造成人才断层现象严重,从而降低了企业的创新能力与核心竞争力。
2. 学术领域
ChatGPT等生成式人工智能的整合功能与螺旋强化效应同样存在。大语言模型(Large Language Model,简称LLM)会强化已有学术观点,挤占创新观点的经费、版面等学术资源,从而起到阻碍创新的作用。同时,结合算法黑箱的现状,LLM所生成的观点往往无法通过其引用与参考文献进行追溯,其可靠性是诉诸LLM的大算力与大规模语料;此与诉诸专家经验具有同样的学术风险:不经逻辑检验的权威观点,有可能隐藏着微小但致命的错误前提,这将浪费其后进行跟进的科研资源,从而起到阻碍创新的作用。同时,LLM使得科研抄袭、炮制论文的成本降低,这也将挤占正常科研的发展空间。
4. 知识产权伦理困境纾解之策
对ChatGPT产生的知识产权伦理困境的纾解,关乎生成式人工智能的未来发展趋势。以知识产权伦理困境为背景,以ChatGPT为对象讨论其衍生出的问题,挖掘其产生的原因,以优化生成式人工智能技术和培育正确的主体意识是完善ChatGPT为代表的生成式人工智能论难问题的有效治理路径。
(一) 加强技术监控,规范审稿流程
随着ChatGPT等生成式人工智能的出现,人工智能的发展进入了新阶段,随之而来的是写作内容的侵权、学术造假等伦理挑战,使得学术诚信度的认定变得更加复杂。相关部门需要建立完备的监管体系,拿出针对性的检测手段对学术论文内容的新生产模式进行有效监管,洞察其生成文本背后的逻辑;同时,对人工智能参与撰写论文的所有环节,详细记录,做到有可追溯的过程。这不仅是技术的展现,也是透明度的化身[11]。
然而,各类学术机构需加大科研监督力度,对学术论文涉及的伦理道德问题进行严格审查。首先,学术机构需完善收稿规则,改进审查技术。期刊要求作者主动声明是否使用机器参与写作,凡是机器参与写作的部分都需区别标识。在传统审稿流程加入技术和人工审查,利用大数据自动挖掘、智能图像数据、人工智能分析、区块链技术应对学术不端行为。其次,培训编辑鉴别处理机器参与稿的能力。分析总结机器参与稿的共性,建立问题库,留意奇怪的机器表达方式,调查提供写作服务的工作,熟悉其写作风格特点。最后,建立更严格、开放的同行评议机制,将论文出版的全部流程置于评审和监督之下,确保机器参与稿的质量和学术水平。
人工智能早已介入人类的生活,人与人工智能共生已成定局。ChatGPT的出现标志着人工智能在内容领域的突破性进展,虽然它带来了学术伦理道德挑战,但并不意味着绝对禁止其使用,而是需要科研机构的监督审查力度和研究者的自我规范意识,共同治理生成式人工智能带来的学术伦理风险。
(二) 推动算法透明,监控数据风险
当前,ChatGPT等生成式人工智能产品的广泛应用,也引发了数据泄露、算法黑箱难解、“信息茧房”等问题[12]。企业作为第一责任人,应依法健全常态化的数据风险管理机制。首先,需推动ChatGPT的算法透明,其算法模型中包含的信息茧房问题,导致算法模型和数据画像产出的内容形成黑箱状态,为避免此类状况,企业应优化监督算法设计,将伦理道德融入研发和实践环节,确保数据和算法公正无偏见,确保人工智能应用以人为本。其次,强调数据源的合法性、可追溯性。企业在收集训练数据时应当依法遵循数据安全法、个人信息保护法等相关规定,在获取用户个人信息或第三方的数据信息时,有义务保证用户的数据安全,确保用户的知情权并获得其授权,通过用户许可协议等方式合法收集相关数据的用途[13]。最后,企业要做到对数据的全方位监控,及时检测到错误的、不良的数据,定期对人工智能顺利俺的数据进行质量评估和更新,保障算法数据分析结果的客观性、中立性和合理性。
(三) 坚持主体地位,强调责任意识
生成式人工智能是人的产业劳动的产物,是转化为人的意志驾驭自然界的器官,或者说在自然界实现人的意志的器官自然物质[14]。其存在目的是服务于人类,提高人类的生活品质,而不是取代人类。因此,我们需要培育正确的主体意识,加强主体责任意识,处理好人机关系。首先,要树立正确的生成式人工智能认识论。我们需理性认识生成式人工智能和人类主体意识的本质差异。生成式人工智能是基于算法和数据的模拟智能,缺乏道德判断和自我意识,并非真正的主体意识。我们应当将生成式人工智能视为人类的辅助工具,而不是视为独立意识而存在。其次,在人工智能时代,每个个体应遵循使用者是第一责任人的原则,使用者是生成式人工智能的受益者,其在使用时应深刻理解所需承担伦理责任,以及伦理规范的执行。最后,人的创造力、责任感和社会性如今愈发重要,生成式人工智能在研究、开发和应用过程相关人员应进行伦理原则和价值观培训,与相关领域的专家合作,探讨生成式人工智能的伦理和认识问题,承担相应的责任。
5. 结束语
2022年12月4号,OpenAI的联合创始人埃隆·马斯克(Elon Musk)曾在推特上表示“我们离强大到危险的人工智能不远了”。总之,ChatGPT作为当今炙手可热的技术明星,无疑给我们带来了诸多便利和惊喜。但是,与此同时,它所引发的知识产权伦理困境也提醒我们要审慎行事。所以,我们应以积极的态度面对ChatGPT引发的伦理困境伦理问题,运用合理的手段约束技术的滥用,坚持人的主体地位,促进人机关系协同发展。坚持让“科技更好地增进人类福祉”[15],未来,在充分认识新人工智能技术的基础上,更好地与人类社会相结合,塑造美好的人机共生智能图景。