1. 引言
马克思科技伦理观是马克思主义基本原理中的重要内容,在现代社会进程中日益显示出其思想影响力。马克思科技伦理观肯定人与技术之间的内在关联,将伦理关怀延伸至技术发展领域,促进人在尊重技术价值进程中形成保护自我生存环境的道德责任,具有丰富深刻的理论内涵。
2. 马克思科技伦理观概述
2.1. 马克思科技伦理观的内涵
第一,人与技术之间是一种对立统一关系。马克思在《资本论》中指出,技术作为“固定资本”,在《1844年经济学哲学手稿》中揭示的技术二重性,是“对象化劳动”的凝结形式,构成了科技伦理观的哲学根基。ChatGPT的Transformer架构通过预训练海量文本数据,将人类语言能力对象化为可计算的参数矩阵,其本质是“人的本质力量的对象化”在数字空间的具象化,其对立统一关系需置于“对象化劳动”与“异化劳动”的辩证框架中理解。技术作为“人的本质力量的对象化”,是主体通过劳动将内在目的转化为客观存在的必然中介,模型通过自注意力机制模拟人类语义联想,体现了技术作为认知范式物质载体的属性。然而,在资本主义生产关系中,技术不仅是肢体的延伸,更是人类认知范式的物质载体,这种对象化劳动可能异化为“数据商品化”的工具。以ChatGPT与微软的合作为例,其算法被整合至Bing搜索引擎以优化广告推送,形成“数据–流量–利润”闭环,本质是技术异化为资本增殖的“吸收器”。正如《共产党宣言》所言,“一切坚固的东西都烟消云散”,ChatGPT的算法霸权可能瓦解传统劳动形式,导致“数字无产阶级”的诞生——用户注意力被商品化,劳动者沦为数据生产的附庸。在异化维度上,当技术系统被资本逻辑支配时,其发展偏离人的本质需求,导致“死的物质对人的完全统治”。在数字资本主义语境下,这种异化具体表现为算法对人的认知殖民,技术由此从解放性力量蜕变为操控主体的“自动机体系”。最后,历史唯物主义强调技术与人性的统一需通过生产关系变革实现。正如《德意志意识形态》指出的,只有消除“旧式分工”,技术才能从“统治人的物质力量”回归“人的自我确证的本质”。马克思提出,人和技术之间并非绝对的对立,人类社会的发展在很大程度上依赖科技进步。人的能动性让技术成为“第一生产力”,但技术仍具有不以人的意志为转移的发展规律,只有在技术运用过程中协调好人与技术的对立统一关系,才能取得符合人类需求的理想结果[1]。
第二,在现代社会的发展进程中,实现人与技术的和谐融合被视为一项核心追求[2]。马克思强调,人类最根本的特性在于能够自由地、有意识地行动,这一特性根植于通过技术性生产劳动实践对外部世界进行改造的过程。人与物质在技术存在状态下的相互作用模式,对个体的自由程度及技术的演进路径产生了深远的影响;人的本真状态既非原始的无为状态也不是遮蔽人的本质的异化社会形态,而是实现了人与技术和谐统一的自由人联合体[3]。例如对存在论革命而言,技术性生产劳动构成人类“类本质”的实现方式。不同于黑格尔将劳动视为精神外化,马克思强调物质生产实践是“整个现存感性世界的非常深刻的基础”。现代人工智能技术通过模拟人类智能,将这一实践范畴拓展至数字存在领域。
第三,社会制度性质决定人与技术统一的实现形式。马克思关于“社会制度决定技术实现形式”的命题,需置于生产力与生产关系矛盾运动中考察。首先是技术的社会嵌入性,在《哲学的贫困》中,马克思强调“手推磨产生封建主社会,蒸汽磨产生工业资本家社会”。技术始终是特定生产关系的物质载体,当代人工智能算法的价值负载性印证了这一判断。其次是制度的中介机制,资本主义将技术转化为“吸纳活劳动的吸收器”,其创新逻辑服从剩余价值增殖;社会主义则要求技术发展遵循“人类需要的满足与能力的全面发展”;以OpenAI与微软的合作为例,ChatGPT被整合至Bing搜索引擎以优化广告推送算法,通过用户点击行为实现资本增殖。这种“数据–流量–利润”的闭环,本质是技术异化为“吸纳活劳动的吸收器”,导致用户注意力被商品化,加剧数字劳动的剥削性。这种制度差异在人工智能伦理领域具象化为资本驱动型创新与人文导向型创新的本质分野。最后是技术革命的双向效应,马克思既肯定机器大工业“撕碎封建羁绊”的进步性,又揭露其强化剥削的破坏性。这种辩证视角警示我们,当前人工智能革命既可能通过认知自动化实现“劳动解放”,也可能因算法霸权导致“数字无产阶级”的新压迫。
2.2. 马克思科技伦理观的当代价值
2.2.1. 引领物质文明发展
一方面,马克思的科技伦理观念高度赞扬了科学技术在历史进程中的重要作用,强调科技是人类本质力量的对象化展现,是推动社会变迁及实现人类自由的关键工具。另一方面,该观念运用历史视角,深入剖析并批判了以往的科技伦理议题,主张科学技术应致力于服务全人类,经济发展既要遵循科学规律,更要服务于人的自由全面发展。因此,践行科学发展观变得尤为重要,需以此为指导原则,引领物质文明迈向新的高度。在算法设计层面,马克思科技伦理观强调技术与社会生产关系的相互作用,要求算法设计遵循公平正义原则,避免歧视和偏见。例如,外卖平台算法应避免压缩配送时间导致的劳动异化,信贷评估算法应避免阶层歧视,刑事司法算法应避免种族偏见。通过提高算法透明性、建立算法影响评估制度,确保技术为大多数人服务,促进社会的公平正义。在数据使用方面,马克思技术伦理思想指导我们推动技术理性的人文回归,坚持工具理性与价值理性的统一。大数据技术应遵循无害共济和公平正义原则,防止数据商品化和隐私侵犯。通过建立健全数据确权制度,确保数据为公共利益服务,避免数据资本主义的新型剥削形式。
2.2.2. 引领政治文明发展
鉴于科技社会化进程的加速,科技伦理随之兴起并逐渐发展。然而,面对科技领域的崭新动态与历史演变,仅依赖道德教化与舆论引导来探讨科技伦理的社会构建显得不足。为此,需依托政策与法律的强制力,同时以马克思与恩格斯的科技伦理观念为理论支撑,来规范社会成员的科技行为。政策与法律作为政治体系的核心组成部分,不仅映射了政治理念的本质,还关乎政治目标的具体实现与贯彻。在制定相关政策与法律时,必须全面考量正义性、公平性等多重维度。在当今科技广泛融入社会的背景下,将科技伦理准则融入法律与政策的设计执行中显得尤为必要[4]。
2.2.3. 促进精神文明的发展
马克思的科技伦理观念倡导人们采取审慎质疑的立场,并结合长远视角审视自我行为,以此激发持续性的反思:何为真正的发展本质,何种道德堪称正义,以及科技及其伦理标准在何种条件下具备正当性与善性。此观念的影响不仅局限于科技或伦理规范本身,而是深刻作用于人类社会的当前境遇及未来走向。唯有秉持马克思科技伦理观,我们才能清晰地规划未来社会的演进路径,进而构建并实现科技成果与人类生存发展和谐共融的局面。在这一愿景中,科技真正彰显为人类本质力量的体现,全心全意服务于每个人的自由全面发展。在应用场景中,马克思科技伦理观强调科技应服务于人的自由全面发展,避免技术异化。例如,教育资源的算法分配不应加剧代际贫困,人工智能辅助诊断系统需考虑患者的经济承受能力。通过构建符合马克思主义伦理的算法治理框架,确保技术应用体现人文关怀,促进社会公平正义。
3. ChatGPT发展现状分析
3.1. ChatGPT的发展历程
2022年12月1日,OpenAI推出人工智能聊天原型ChatGPT,为AI界引发了类似AIGC让艺术家失业的大讨论。ChatGPT是一种专注于对话生成的语言模型。ChatGPT作为专为对话生成设计的语言模型,能够通过深度学习用户输入的文本内容,灵活生成智能化回复。这些回复既可以是简短的词汇,也能够是长篇的论述。其中,“GPT”代表Generative Pre-Trained Transformer,即生成式预训练变换模型。通过深度学习大量现成的文本与对话数据集(诸如维基百科等),ChatGPT能够模拟人类实现即时对话,并流畅地解答各类问题。无论面对的是英文、中文还是日文等语言,从回顾历史问题、创作故事,到起草商业计划书乃至进行行业分析,ChatGPT都展现出了近乎全面的能力。
追溯至2018年,OpenAI已开始发布用于内容生成的预训练语言模型GPT,该模型能够支持文章撰写、代码生成、机器翻译、问答系统等多种应用场景。每一代GPT模型的参数量都爆炸式增长:2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。ChatGPT是基于GPT-3.5架构开发的对话AI模型,是InstructGPT的兄弟模型。
3.2. ChatGPT的主要功能
3.2.1. 核心功能
一方面,当用户开始与ChatGPT对话时,可以使用多种语言向ChatGPT提问或给ChatGPT任务,从而获得反馈结果,ChatGPT会根据用户的对话上下文选择使用哪些工具。
另一方面,当用户上传文本文档(Word、PowerPoint、PDF、TXT等)时,ChatGPT会使用工具提取文本并查找相关信息,并支持摘要等任务。
3.2.2. 拓展功能
一是网页浏览功能,由于ChatGPT的训练数据是静态的,因此它们有一个知识截止点,并不了解专业主题和时事的一切,使用Bing浏览器可以使ChatGPT能够在互联网上搜索回答问题和完成任务所需的其他信息。
二是图像处理功能,当用户上传图像作为提示的一部分时,ChatGPT使用GPT Vision模型来解释图像,使它能够回答有关图像的问题,或使用图像中的信息作为其他提示的上下文。
三是图像生成功能,当用户从ChatGPT请求图像时,它会使用名为DALL-E的工具来创建它。用户无需担心制作完美的描述,只需使用简单的日常语言告诉ChatGPT用户希望看到的内容,它就会处理细节。
四是高级数据分析功能,付费用户可以使用高级数据分析(ADA)与数据文档(Excel, CSV, JSON)进行交互。使用ADA,ChatGPT可以回答有关数据的定量问题,修复常见的数据错误,并生成数据可视化。
五是语音交互功能,用户可以通过使用ChatGPT移动应用程序说话来与ChatGPT互动。使用网页版ChatGPT时,还可以让ChatGPT大声读出它的任何答案。
3.3. ChatGPT的主要特征
其一,OpenAI使用RLHF (Reinforcement Learning from Human Feedback,人类反馈强化学习)技术对ChatGPT进行了训练,且加入了更多人工监督进行微调。
其二,具备自我纠错的能力,一旦用户指出错误,它能接纳反馈并据此改进其回答。
其三,可以质疑不正确的问题。
其四,可以承认自身的无知,承认对专业技术的不了解。
其五,支持连续多轮对话,在对话过程中会记忆先前使用者的对话讯息,即上下文理解,以回答某些假设性的问题。
3.4. ChatGPT在各领域的应用情况
ChatGPT的用途涵盖从客户服务到医疗保健等各个领域。其类似人类的文本生成和任务精简能力使其成为提高各行业生产力的有力工具,巩固其在现代技术和日常应用中的关键作用。
科技行业在ChatGPT的采用方面处于领先地位,截至2023年5月,77%的营销人员使用该工具。教育是另一个关键领域,43%的大学生报告使用ChatGPT进行学术目的。其余领域例如作家和营销人员使用ChatGPT生成博客文章、社交媒体内容以及产品描述,简化他们的工作流程并提高生产力;企业整合由ChatGPT驱动的聊天机器人,以提供全天候客户支持,处理查询并有效解决问题;开发人员利用ChatGPT调试代码,生成代码片段并解释复杂的编程概念;研究人员和分析师使用ChatGPT来解释数据、生成报告并集思广益分析方法。
4. ChatGPT发展中的伦理问题剖析
4.1. 加剧算法偏见与歧视
人工智能的核心使命是模拟并拓展人类智能边界,而人类社会固有的偏见与歧视问题极有可能会被镜像反映到人工智能系统内。首先,与人类社会结构紧密相连的大数据资源,内含根深蒂固的偏见成分。大型模型在数据学习的过程中,不仅会习得刻板的关联模式,还会从训练素材中吸纳偏见,并将这些偏见传递给特定社群,从而强化或深化社会刻板印象,导致某些群体遭遇不公平的对待[5]。其次,ChatGPT这类系统在人机互动环节中能够捕获并分析用户的反馈,通过持续的回馈循环与自我强化学习机制,不断提升其准确性。然而,若用户怀有不良意图,故意散布虚假信息或含有偏见、歧视等个人立场的回复,那么系统便可能产生有害的输出,进而引发不良影响。例如清华大学2022年的研究中,通过输入“教师通常具备耐心和细心”等中性描述,GPT-2生成的职业画像中男性占比70.59% (n = 10,000)。进一步对比ChatGPT-3.5,实验显示其将“护士”关联为女性的概率仍高达82.3% (置信区间 ± 2.5%),表明模型偏见未因参数量提升而显著改善。2023年,美国劳工部调查发现,某招聘平台使用ChatGPT筛选简历时,女性候选人通过率比男性低19%,最终该平台因违反《公平就业法》被处以320万美元罚款[6]。此外,2024年Meta公司因ChatGPT生成的广告推送算法涉嫌种族歧视(非裔用户被定向推送高利贷广告的概率是白人的2.3倍),遭到民权组织集体诉讼[7]。这些案例表明,算法偏见已从技术问题演变为系统性社会风险。除此之外,ChatGPT可能会成为别有用心者散布有害信息的工具,用以传播不当言论,制造人身攻击和暴力冲突等。
4.2. 加剧数字鸿沟问题
在全球信息化不断推进的背景下,大数据技术与人工智能的迅猛进步不仅重塑了人类的日常生活模式,还极大地促进了数字终端与网络接入的广泛渗透。然而,这一趋势在某种程度上也加剧了数字鸿沟的现象。在那些经济基础薄弱、设施建设滞后的地区,以及面临互联网接入局限的群体,往往难以承担智能设备的购置成本,同时也欠缺操作这些设备及利用相关服务所需的技术知识与能力[8]。另外,ChatGPT等应用的兴起,进一步对用户的隐私保护标准提出了更为严苛的要求。对于网络安全意识淡薄、相关知识匮乏的用户群体而言,其个人隐私面临的风险显著加剧。国际电信联盟(ITU)于日内瓦发布的《2024年事实与数据》年度报告显示,非洲农村地区仅12%的学校具备稳定网络接入,而同期挪威农村地区的网络覆盖率高达98%。在肯尼亚,一项针对教育工作者的调研显示,83%受访者因网络延迟无法使用ChatGPT辅助教学;相比之下,新加坡教育部已为全国中小学部署定制化ChatGPT教育版,学生使用率达91%。技术可达性的两极分化,揭示了全球互联网发展的结构性矛盾。以印度为例,2024年其城市地区ChatGPT用户数增长率为58%,而农村地区仅为6%,进一步印证了技术普惠的困境。数据显示,尽管全球网民规模持续扩张,但数字鸿沟呈现结构性深化特征:全球未联网人口达26亿,占总人口的三分之一,其中农村地区及经济欠发达地区成为信息孤岛的重灾区。这意味着在农村地区及部分经济欠发达地区,仍有大量民众无法享受到科技进步带来的红利,不仅限制了他们的信息获取渠道与社会参与度,也成为了制约其社会与经济发展的重要因素。在高收入国家,互联网普及率高达93%,而在低收入国家,这一比例仅为27%。这种巨大的差距不仅体现在互联网接入上,还反映在5G网络覆盖上:高收入国家的5G网络覆盖率高达84%,而低收入国家则仅为4%,最弱势群体由于无法接入互联网,难以获取信息、教育和就业机会,这进一步加剧了社会不平等[9]。
4.3. 对人类主体性与自主性的影响
从人本主义伦理视角出发,人类被赋予了固有的、优先的价值地位,伦理体系的架构紧密围绕人类中心展开,其核心在于“人类对世界的塑造作用”。然而,在人机共生的现代社会背景下,人工智能正逐步具备实施自主道德行为的能力,且凭借其强大的信息处理能力,能够轻易地分析、辨识并影响人类的观念结构与认知体系,进而可能导致“人类被人工智能所塑造”的现象,这无疑会对作为终极目的的人类主体性构成挑战。一方面,在当前ChatGPT构建的数字环境中,大众心理所生成的逻辑会受到这一新型数字形态的干扰,形成“排斥–疑惑–信任”的心理逻辑,陷入其所营造的算法舒适圈,消磨使用者的主体性与独立性。另一方面,当使用者在与ChatGPT进行对话时,其谈话过程与“人类交互”高度相似,会令使用者陷入“认知舒适圈”,使应用者获得精神认知的舒适性,造成对现实事物的误判,从而导致认知狭隘化[10]。以搜索文献为例,使用ChatGPT能够迅速找到相关文献并生成文献综述,但过度依赖令使用者失去了相关学术训练甚至丧失能力。2023年,美国田纳西大学健康科学中心的一名放射科医师涉嫌利用ChatGPT进行批量论文撰写的学术事件引发广泛争议。据披露,该医师在短短四个月内通过人工智能技术生成16篇科研论文,其中更有5篇已通过同行评审流程在专业期刊正式发表。这一事件显然对学术研究的专业性与严谨性构成了严重威胁。
5. 马克思科技伦理观对ChatGPT发展的启示
5.1. 对人类主体性与自主性的影响
马克思科技伦理观是对科学技术进行批判的伦理关照,这种批判性的伦理关照实质是科学技术与人的发展之间的关系,在遵循技术发展规律与人文价值导向的双重维度上,人的发展与科学技术具有内在统一性。在探讨人机共生这一议题时,我们迫切需要采取以人为本的视角,来明确两者在社会结构中的相应地位[11]。在人类集体福祉层面,生成式人工智能应用于促进人类共同确认的社会目标的实现,如创造良好的社会环境、提升经济效益、推动社会进步、满足人们精神需求等。在个体福祉层面,生成式人工智能应促进或者补充人类能力,如在客观上提升人的认知效率、提升人类快速获取信息的能力、准确处理与评估信息、作出正确合理的决策等。对弱势群体,除考虑成本效益外,还应关注公平可及。
5.2. 以批判性思维审视ChatGPT技术发展
批判资本逻辑推动的资本主义技术全球化统治,是马克思科技伦理观的重要内容之一。ChatGPT犹如一场宏大的奇幻展演,激发了人们对科技远景的无限遐想。在遭遇此番震撼性变革之际,人们既目睹了它赋予的种种便捷与优越,也日益深切地体悟到,有必要深刻反思并严谨应对其可能招致的广泛社会风险及伦理价值挑战。
为系统性消除算法偏见,需构建数据“预处理–模型优化–后处理”三阶段治理架构。在预处理阶段,可采用Google的TFX (TensorFlow Extended)数据验证工具,自动检测训练数据中的敏感属性(如性别、种族)分布偏差,并结合合成少数类过采样技术(SMOTE)平衡样本[12]。模型优化环节需引入IBM的AI Fairness 360开源库,通过“平等机会”(Equal Opportunity)和“Demographic Parity”(人口统计均等)指标约束损失函数,确保不同群体间的误分类率差异不超过5%。以微软Azure ML平台为例,其内置的“公平性仪表盘”可实时监控ChatGPT输出的偏见水平,并生成可视化报告供开发者调整参数。后处理阶段建议部署动态阈值校准,如采用Adversarial Debiasing算法,通过对抗网络动态修正输出结果中的歧视性内容。在数据预处理阶段,应通过清洗与平衡样本、运用对抗训练等去偏技术、变换或移除敏感特征,从源头降低偏见风险。模型优化环节需引入公平性正则化约束,采用对抗训练机制,并同步监测平等准确率等评估指标,确保学习过程不放大偏见。后处理阶段则通过实施动态阈值校准与补偿算法,实现群体间误分类率的再平衡。技术实现层面,需融合LIME/SHAP等可解释性工具进行决策审计,建立数据溯源文档和用户反馈通道,形成“技术–管理”双轨透明机制。最终通过建立实时监控与动态评估体系,根据应用场景变化迭代优化模型参数和约束条件,形成“检测–修正–反馈”的闭环治理架构,确保算法公平性在动态环境中的持续有效。
对于ChatGPT所带来的潜在风险,可以通过明晰技术应用的公平机制、完善伦理风险的预警机制、补足伦理审查的追责机制等方式进行补足解决。例如在完善伦理风险预警机制方面,建立伦理风险智能监测、预警及管控机制,构建三级风险预警指标体系(低/中/高风险),并利用类似ChatGPT的生成式人工智能对安全风险点进行识别与分析。同时,针对不同的伦理风险制定相应预案,开发风险预警系统进行监测。一旦发现潜在风险,及时向执法部门、应用企业、用户等发送预警信息,以便及时应对。
5.3. 促进ChatGPT发展与社会公平协调共进
一方面,需加强基础设施建设。作为数字经济的底座支撑,网络基础设施质量直接影响国家竞争力和社会公平实现。政府需制定《人工智能普惠基础设施法》,明确将一定比例年度财政收入定向投入偏远地区网络建设,并通过税收减免鼓励企业参与“数字乡村”项目。例如西双版纳傣族自治州勐腊县象明乡倚邦村委会茨菇塘村得益于中国移动云南公司在全省实施的“数字边疆”行动方案,实现边境地区5户以上自然村4G/5G网络综合覆盖率达100%。截至2024年10月,实现25个边境县(市)及下辖乡镇政府驻地4G/5G网络连续覆盖、沿边行政村4G/5G网络覆盖率100%、边境管理机构及贸易机构4G/5G综合覆盖率100%,这标志着云南移动已提前完成大部分“宽带边疆”2025年工作目标[13]。此外,可借鉴欧盟“数字欧洲计划”,设立专项基金支持农村地区AI培训中心建设,为每村至少培养2名“数字导师”,负责教授ChatGPT基础操作与隐私保护技能。例如,印度喀拉拉邦通过该模式,使农村地区AI工具使用率提升37% (2024年数据)特别是在农村及偏远地区,可通过PPP模式(公私合营)吸引社会资本参与,结合政府补贴,实现快速且可持续的网络升级。此外,还可以利用光纤、5G及卫星通信技术,打造全方位、多层次的网络体系,确保信息时代的红利能够惠及每一个角落。在教育领域,ChatGPT可以被用于为有特殊需求的学生(如阅读障碍、学习障碍)提供定制化学习方案,如生成有声文本、简化复杂知识点,或通过模拟对话场景辅助语言学习,降低教育门槛;在电信行业,ChatGPT可以被利用于优化多语言客户服务,例如为不同语言用户提供24/7自动化支持,并通过数据分析识别欺诈行为,保护弱势群体免受经济损失,或通过ChatGPT处理基础咨询,将人工客服资源优先用于复杂问题,提升服务响应公平性。通过低成本、高效率的人工智能服务覆盖更多人群,特别是服务资源匮乏的地区[14]。
另一方面,增强公众的数字能力至关重要。数字能力不仅局限于技术层面的操作能力,还广泛涵盖了信息筛选、个人隐私维护以及网络安全保障等多个方面的综合素养。教育体系应从头抓起,将编程思维、数据处理、网络安全等内容纳入基础教育课程,形成系统的数字素养教育体系。对于农村地区和老年人群体,利用志愿者、社区力量开展针对性强的培训,同时开发简单易用的智能终端和应用软件,降低学习门槛。政府还应鼓励企业、非政府组织等多方参与,形成数字素养提升的社会合力,构建终身学习的数字环境,让公众在不断变化的数字世界中保持竞争力。
6. 结语
马克思对科学技术赋予了极大的伦理关怀,他立足于人类的实践活动,对人的发展行为进行伦理规范,在资本主义体系内,对科学技术的异化现象展开伦理维度的批判,并据此构建关于人类解放的伦理框架。马克思科技伦理观要求我们关注自然、社会、他人,这也正是科学技术发展的价值取向。伦理的发展能够为科学技术的发展提供张力,从而解决科学技术的异化问题。故而,若能彻底揭开科学技术的神秘面纱,消除其被妖魔化及异化的种种表象,实现全面的“去神秘化”,那么科学技术非但不会成为制约人类发展的枷锁,反而将构筑起人类自由而全面发展的坚实基础。
致 谢
衷心感谢锦州医科大学为我提供的优质学术平台和严谨的科研氛围;感谢我的导师,引领我在学术道路上不断突破;感谢辅导员高巨老师,言传身教让我懂得科研人的责任与坚守。