生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例
发布日期:2024-03-18 来源:华东政法大学学报


□ 冯子轩 (西南政法大学教授)

伦理问题关乎人工智能未来技术走向、规则制定、接受程度等,是生成式人工智能发展过程中需要解决的首要问题。以ChatGPT为代表的生成式人工智能拥有强大的语言理解和文本生成能力,但其仅是吸纳虚拟世界中的数字代码集成,与客观世界交互仍有遥远距离。应当警惕其撼动人类主体地位的伦理困境,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,从人工智能伦理治理组织机制、人工智能伦理规范机制入手,为人机共存社会寻求妥善的伦理解决方案。

当前,国际组织层面主要以伦理倡导性规范为主,旨在为人工智能伦理凝聚共识,宣示意义较强。随着引领生成式人工智能技术实现突破后,美国对其伦理问题的重视程度明显超越以往,多份文件提出确保人工智能的合伦理性、可信赖性以及对公民个人信息、隐私、公平、自由等基本权利的保障,并在联邦政策与法律框架制定中有所表达,正在形成一种倡导与监管并行的伦理治理模式。英国在生成式人工智能监管中注重维护市场秩序、保障相关消费者合法权益等,强调基本伦理秩序维护与基本权利保护。我国正处于人工智能伦理规范建设初期,正在探寻安全发展、协同参与的平衡方案。《生成式人工智能服务管理暂行办法》《深圳经济特区人工智能产业促进条例》等立法对人工智能应尊重社会公德与伦理道德,坚持社会主义核心价值观、防止歧视,尊重他人合法权益等提出明确要求,未来还需在组织架构、程序设计、标准统一和责任承担等方面予以完善。

生成式人工智能应用的多重伦理困境

第一,削弱人类主体价值。人类被赋予了某种固有价值或价值优先,伦理秩序围绕着人类展开,伦理建构以“人类塑造世界”为核心。但在人机共存社会中,人工智能正在成为具有一定自主行动能力的实施者,并且人工智能极易通过结论的输出去分析、识别和塑造人的观念和认知体系,引发“人工智能塑造人类”的结果,人类主体性将会遭受挫折。再者,由于个体能力有差别,“人工智能鸿沟”的出现或将加剧社群内部分化,弱势群体将面临淘汰或成为算法霸凌受害者,动摇普遍意义上的人本主义立场。

第二,加剧算法偏见与歧视。一是作为与人类社会同构的大数据,包含着根深蒂固的偏见。人工智能可从数据中学到刻板联想,也会从训练数据集中继承偏见,使部分人群遭受不公正待遇。二是生成式人工智能可以在人机交互过程中获取并分析人类回应,反馈自我强化学习,提高准确性。若使用者传播虚假或不实数据,或回复本身存有偏见、歧视等个人价值观因素,则会生成有害输出。

第三,过度依赖拟态环境输出结果。生成式人工智能使人们习惯依赖其输出结果来认识周围事物,并对其结果产生信任。这时,传来经验代替实践经验,拟态环境就成了人与世界的一种中介性存在。因此,机器最终向大众呈现的并非全然是真实世界中的客观事实,其存有产生“象征性现实”这一拟态情况的可能。使用者接收到拟态事实并经大众传播渠道输出后,便会变成普遍社会现实存在,成为人类行动的标准和认识世界的依据。

第四,价值对齐困难。如果人工智能不能理解人类的意图,在为其设定多种目标时,机器可能会作出错误的选择,输出结果可能不符合人类意图。人机价值无法对齐,机器会选择执行人类不需要的目标,如果不能坚守人的价值立场,我们可能会失去对它的控制,使机器应用最终凌驾于人类之上。

生成式人工智能应用的人本主义伦理立场

聚焦于人机共存关系,我们亟须秉持人本主义立场来定位两者在社会谱系中的相对位置。第一,明确人类较之机器所具有的优先性,也兼顾人机交互的优势。第二,明确机器的从属性和次要性,始终把人工智能视作实现人类目标的工具,其任务是协助而不是取代人类,更不能操纵和支配人类,使人类异化为工具。第三,无论是传统工具,还是人工智能,都是人类创造的具有价值的社会实践物或社会实践活动,都要遵循“人是目的”的伦理立场,不能改变其“属人性”特征。

笔者认为,立足人本主义伦理立场,应坚持福祉、尊严和责任原则。福祉原则是以人为本的根本目标,尊严原则是实现以人为本的前提和必然要求,责任原则是实现以人为本的重要保障。上述原则旨在确保生成式人工智能发展和应用为人类社会带来正面伦理影响。

生成式人工智能应用的人本主义伦理治理机制

法律具有滞后性,科技创新要考虑伦理先行。在人工智能未来风险处于不可完全认知、风险评估及成本效益分析等规制手段不完全有效的情况下,我国应秉持人本主义立场,探寻符合中国实际的科技向善之道。

第一,建构人本面向的人工智能伦理治理组织机构。我国人工智能伦理治理组织机构应当立足人本主义立场,重视常态化、场景化评估生成式人工智能引用的伦理风险与影响,制定伦理安全标准、技术规范、风险防控与应对策略。伦理机构应协同发挥作用,相互协调、信息互通、分工明确,搭建伦理监督的协同治理组织框架。应秉持预防原则,对生成式人工智能的伦理风险及时干预,对其发展方向、发展战略作出规划,制定安全标准与规范,提升管理风险的能力。伦理机构也应关注生成式人工智能应用中公民基本权利如何得到有效保护。

第二,完善人本面向的人工智能伦理规范机制。一是明晰技术应用的公平机制。关注生成式人工智能应用中所产生的歧视偏见等,完善公平保障机制。解决设计道德问题,扩大技术系统质量的评价标准,开发符合应用者价值倾向的算法。形成生成式人工智能应用真实性的规范制度,促成生成式人工智能应用过程可解释性实现。二是完善伦理风险的预警机制。加强人工智能技术安全保障,建立伦理风险智能监测、预警及管控机制,提升生成式人工智能的安全透明度。三是补足伦理审查的追责机制。生成式人工智能输出的问答与信息,其伦理责任最终应指向各环节承担实际角色的主体。生成式人工智能仍然是一种“非人化”拟合工具,是基于对参数与数据的分析,其本身不具有主体自觉和情感,严格来讲不具有伦理意识与责任。故就现阶段而言,应基于人本主义立场,明确提供者、使用者、设计者等各方主体伦理责任,落实伦理责任承担机制,完善责任体系。还应建立监测生成式人工智能系统全生命周期的机制,针对算法、数据与系统运行流程进行监测与审计,关注生成式人工智能应用可追溯性和可审计性的实现。



责任编辑:谭则章
本站系非盈利性学术网站,所有文章均为学术研究用途,如有任何权利问题请与我们联系。
^