《东方法学》2024年第3期目录
(人形机器人法治专刊)
卷首语
2023年9月,习近平总书记在黑龙江考察时指出,要整合科技创新资源,引领发展战略性新兴产业和未来产业,加快形成新质生产力。科技创新能够催生新产业、新模式和新动能,而以人工智能发展为引领的科技创新则是赋能新质生产力的核心引擎。2023年中央经济工作会议明确提出“加快推动人工智能发展”的目标;国家工信部按照中央要求提前布局未来产业,开辟人形机器人等新赛道,发布了《人形机器人创新发展指导意见》,为布局该领域未来科技发展和产业发展奠定政策基础。今年的政府工作报告将“加快发展新质生产力”列为2024年十大工作任务的首位。
面对新一轮科技革命和产业变革,特别是处在人形机器人规模化商用的前夜,法学研究必须通过前瞻性研究,抓紧回应人形机器人有无法律主体地位、使用者的权利义务等一系列前沿法律问题,就人形机器人规模化商用的安全、伦理与治理给出可资参考的学术见解。为此,我们专题策划了本期“人形机器人法治”专刊,约请“2023智慧法治学术共同体TOP100学者”中暂未在《东方法学》刊发作品的优秀青年“新作者”,从主体论、权利论、责任论和治理论等不同视角撰写人形机器人法治专题文章15篇,提出高质量的法学学术观点。相信这些基于对智慧法治的长期关注特别是对人形机器人法治的敏锐洞察而形成的理论成果,有助于引领法学法律界有关人形机器人等新科技催生新质生产力、催生法治新需求的研究、讨论与争鸣,进而推动技术界和产业界的关注、思考与投入治理。
坚持与时代同频共振,聚焦法学前沿领域,推动中国法治实践的创新研究,服务党和国家的中心工作,是《东方法学》始终坚持的办刊初心。作为一本年轻的学术期刊,《东方法学》密切关注法学发展新动向、新问题和新议程,不断发掘、培育、壮大优秀青年作者群体,努力打造青年法学学者展示学术才华、推动学术创新、实现学术报国的学术平台。真诚期待广大法学法律工作者与《东方法学》一起,深入贯彻新发展理念,以高质量的学术生产服务科技创新与经济社会发展,勇于担当智慧法治探索的排头兵和先行者,讲好中国智慧法治故事,传播中国智慧法治声音,以智慧法治的新思想、新理论、新实践引领数字时代的制度生产,以法治捍卫人类福祉,捍卫和平、发展、公平、正义、民主、自由的全人类共同价值,让科技发展真正助推人类命运共同体的构建。
作者:郑智航(山东大学法学院教授、博士生导师 1983年8月出生) 内容摘要:人形机器人不仅要求具备人类的智力,还必须拥有类似人类的身体,从而塑造出具有实体形态的通用人工智能。人的身体不仅是生物学意义上的肉体形态,也是人的全部感知和内在精神生发的重要场域,更是社会关系形成的基本节点。身体和精神是人的主体性生成的核心基础。人的身体通过发挥感知能力和运动经验参与认知活动,通过完成意识的或无意识的行为来进行社会活动。人的身体、与身体相关的非精神要素、人的精神都是不可分割的统一体。人形机器人的本质就是对人类身体的仿造和对人类行为的模仿。通过技术手段仿造经过数百万年自然发展而来的“人”的形态与功能,将会导致“人”这一概念的异化。这一过程割裂了身体与精神的统一关系,存在消解人对于他人的认知统一性、技术滥用、人权危机等一系列风险。人形机器人产业的发展必须摒弃技术中立的观念,重视“人的形式”在法治中的价值。 关键词:人形机器人 身心一元论 尊严 法律归化 通用人工智能 主体性 作者:孙山(西南政法大学民商法学院副教授、法学博士 1983年4月出生) 内容摘要:近年来,人工智能的飞速发展极大地推动了人形机器人的商业化进程,人形机器人已经成为产业发展的新风口。相较而言,人形机器人法律地位的研究才刚刚起步。类人外形的具身存在,以涌现方式生成的决策和内容,这两个基本特征引发了人形机器人特有的法律难题。将人形机器人确定为法律主体,既不符合传统法理及其背后演进的逻辑,也违背了立法目的,更会引发人类社会系统性的生存危机。人形机器人是法律风险总体可控的对象,也是伦理风险和技术风险较高的权利对象,需要法律的特别规制。人类中心主义的立场,是我们厘清人类与人形机器人关系的理性前提。 关键词:人形机器人 人工智能 具身 人类中心主义 主体 对象 作者:江海洋(山东大学法学院助理研究员、法学博士 1992年6月出生) 内容摘要:随着通用人工智能(AGI)技术的发展,AGI赋能的人形机器人正在成为未来科技重点发展方向。鉴于人形机器人搭载的AGI“大脑”具有完成无固定任务能力、适应能力、涌现能力等技术特性以及其“人形”外观使其社会性急剧增强,是否赋予人形机器人刑事主体资格又重新成为理论热点。人形机器人与人类的本体论差距正在缩小,其功能与外观使其可以成为人类社会互动的参与者,且对其实施刑罚既具有实际效果,也有助于弥补责任漏洞、促进创新,故应赋予其刑事主体资格。人形机器人的刑事归责可分为三种归责模式,其中研发者或用户的注意义务确定,应基于偏重创新的价值导向,以相关法律法规、成文技术标准以及行业技术惯例为指引,采取一种基于风险的路径进行。人形机器人犯罪意图确定应以其是否脱离研发者或用户的控制或训导作为推定标准。 关键词:通用人工智能 人形机器人 自由意志 人类的本体论 功能责任 刑事主体资格
作者:宁园(武汉大学法学院特聘副研究员、法学博士 1992年9月出生) 内容摘要:人形机器人的应用和普及将产生人形机器人使用致害风险,并引发有关使用者是否应负注意义务的诘问。使用者是人形机器人的直接管控者,应设置与其风险管控能力相匹配的注意义务,以保障智能社会交往安全、维系人的主体性认同和共同体认同、实现动态利益衡平。人形机器人的注意义务包括合理指令义务、合理操作义务和过程管理义务,注意义务的成立则需满足义务履行的必要性、损害可预见性、损害可避免性三个要件。由于使用者对人形机器人的支配存在有限性和依赖性,应以人形机器人制造者、人工智能提供者未就损害发生之危险履行必要辅助义务作为使用者注意义务的免除事由,以避免使用者承担超出其支配能力的注意义务。 关键词:人形机器人 注意义务 社会交往安全 主体性认同 免除事由 侵权责任2.人形机器人服务的消费者保护机制——以“信任控制”风险为视角
作者:柯达(华东政法大学经济法学院特聘副研究员、法学博士 1994年12月出生) 内容摘要:人形机器人在智能水平、静态与动态物理特征方面高度拟人化,其在软硬件互信、脑体协同基础上构造的虚拟人际关系,可提供展现亲密感的增强型信任。但人形机器人服务的增强型信任未在总体上改善消费者的弱势地位,反而还强化了消费者的信任匹配失当、隐性信任定向化、信任扭曲等信任控制风险。传统消费者保护法中的经营者告知义务、基于风险分级的人工智能敏捷治理、产品责任的发展风险抗辩均难以充分保护消费者。为应对信任控制风险,应以强调“卖者尽责、买者自负”的消费者适当性为核心,基于伦理安全构建人形机器人服务与消费者的分级准入, 并在分级准入的基础上要求经营者对消费者履行适当性匹配与事中事后的监测调整义务。此外,应通过“终止保障义务”完善人形机器人服务侵权责任的发展风险抗辩事由,其应以消费者与人形机器人在服务过程中的各方自主性程度为主要依据。 关键词:人形机器人 消费者保护 信任控制 适当性义务 人工智能3.具身智能体的隐私风险及法律应对——以人形机器人为例的展开
作者:王苑(东南大学法学院讲师、法学博士 1988年10月出生) 内容摘要:具身智能体结合了人工智能与机器人技术,单独讨论其中的任何一项技术对隐私的威胁都是片面的。具身智能体所具有的具身性、交互性及涌现性特征展现了其强大的互动和行动能力,给隐私与数据保护带来前所未有的新挑战。一方面,具身智能体能侵入私密空间,记录私密活动并潜移默化收集处理私密信息;另一方面,自主决策和自主行动的结合能造成实害,侵害用户的人身财产权益。既有的隐私和数据保护规则围绕信息控制而展开,具身智能体数据的生成和涌现加上造成实际损害的能力不仅会导致个人信息控制机制的失灵,还可能会使追究责任变得不切实际。针对这些挑战,除了弱化既有数据法中个人同意的作用外,还需在人工智能立法中植入数据保护理念,强化监管者和设计者责任,尤其是应当禁止通用型具身智能的市场化应用,并确立“通过设计来进行隐私和数据保护”的原则,明确设计者的可责性。 关键词:具身智能 人工智能 人形机器人 隐私 数据保护 责任承担
作者:谢琳(中山大学法学院副教授、法学博士 1984年10月出生) 内容摘要:因人工智能系统的不可解释性、不可预测性和自适应性,人形机器人自主侵权责任面临难以认定的困境。人形机器人自主致人损害属高风险人工智能领域,对此人形机器人提供者应承担产品责任,履行产品安全可控保障义务;大模型提供者仅需履行充分的透明度告知义务,与人形机器人提供者承担共同侵权责任;人形机器人使用者须按照说明正确使用产品,其承担的侵权责任不宜过度偏离原有类型。通过层次化确立信息披露、可反驳的过错和因果关系推定,不再要求过错与因果关系具备一一对应性,可使受害者获得公平救济的同时兼顾产业发展。 关键词:人形机器人 自主侵权 侵权责任 大模型 过错 因果关系推定 作者:沈伟伟(中国政法大学法学院副教授、法学博士 1985年3月出生) 内容摘要:随着人形机器人的日益普及,其引发的事故也不断挑战现有事故责任制度。通过对人形机器人技术的分析和类型化可知,由于开发主体多元、机器学习算法、人机混控等因素的影响,人形机器人事故的事故成因、行为判定、责任分配、救济措施均变得相当复杂,这给传统事故责任制度带来巨大挑战。建立在人形机器人技术分析和事故法律责任制度分析的基础上,传统事故责任制度仅能处理小部分过错清晰的事故类型,对于大部分人形机器人事故,传统事故责任制度将很难继续适用。为了应对这些挑战,我国应当构建针对人形机器人的特殊责任制度,将人形机器人制造商作为最小成本规避者,同时根据工厂、医疗、家居、物流等不同场景,引入技术避风港等豁免机制,以期在法律规制和产业发展之间寻求新平衡。 关键词:人形机器人 人机混控 人工智能 机器学习算法 事故责任制度 豁免机制 作者:王华伟(北京大学法学院助理教授、法学博士 1991年8月出生) 内容摘要:随着机器人和人工智能技术的快速发展,作为具身智能的人形机器人在应用场景上逐渐拓宽,同时也形成了多元而复杂的安全风险和刑法归责难题。理论上主要存在代理责任、过失责任、严格责任、独立责任四种各有利弊的刑法归责模式。除了严格责任之外,其余模式都可以统合在场景化的刑法归责体系之中。在当前人工智能的发展阶段,传统的刑法教义学原理可以处理绝大部分的机器人刑法归责问题,不过也应在新的技术条件下对可容许风险、信赖原则予以新的推演和发展。取决于未来的技术进展,在功能主义的视角下,将来可以考虑有条件地肯定智能人形机器人独立责任主体地位的可能性。人形机器人的刑法归责体系,应当对其他法秩序的规范评价和机器人伦理标准的探讨保持协同和开放。 关键词:人形机器人 人工智能 应用场景 安全风险 刑法归责 机器人伦理
作者:李晟(中国海洋大学法学院教授、博士生导师 1982年10月出生) 内容摘要:人形机器人具有跨场景的通用性,可以在多种场景中与人类展开合作,可能通过全面的运用形成人机共生社会。在人机共生社会中,法律治理应当超出特定的场景设计,形成更具一般性的架构。跨场景应用的人形机器人在态势感知和情感识别方面的特征,决定了人形机器人的法律治理不同于一般意义上的机器人。以此为出发点对人形机器人的法律治理基本架构进行设计,平衡技术发展与社会风险,形成合理的激励机制。 关键词:人形机器人 法律治理 态势感知 情感识别 责任分配 风险预防 作者:张欣(对外经济贸易大学法学院副教授、法学博士 1987年10月出生) 内容摘要:人工智能体由控制端、感知端和行动端组成。在控制端,尽管大模型充当了智能体的“智能引擎”,但仍存在“机器幻觉”,其生成的内容面临时效性和可靠性风险。大模型的算法偏见也可能加剧智能体在决策中的偏见。在感知端,智能体的多模态感知能力加大了个人隐私侵权的风险,对个人信息保护制度构成挑战。多智能体系统间的交互可能导致不可预测的、复杂的和动态的系统性安全风险。在行动端,具身智能体的交互式学习模式可能导致全面的、侵入性的隐私风险。智能体的嵌入式和中介化部署方式将深度影响人类的主体性。其高度定制化的部署特性还将面临人工智能对齐的挑战。面向“代理即服务”的产业链特点,应建立从基础模型到基础代理的模块化治理框架。针对具体的高风险场景,应探索精准化治理机制。鉴于人工智能体的生态特性,应着力推进交互式治理。
关键词:人工智能体 通用人工智能 人工智能治理 模块化治理 大模型 精准化治理3.人机交互的模式变革与治理应对——以人形机器人为例
作者:商希雪(中国政法大学刑事司法学院副教授、法学博士 1987年12月出生) 内容摘要:人形机器人的出现,使人工智能的输出由虚拟的数字世界开始走向现实的物理世界,由此促进了人机共生状态的演进进程。具备情感代理和行为代理功用的人形机器人突破了传统的人机交互模式,尤其是人机情感交互模糊了人机主体地位的界限,为具身智能体的主体定位提供了现实支撑。新型交互生态颠覆了以往人机交互的技术模式和理论范式,对传统的“以人为中心”的人机交互思路带来了冲击。基于技术层面的人机互嵌与社会层面的情感补偿,应从行为代理与情感代理两个维度区分对具身智能体的规范治理措施,并跟随技术发展步伐,面向现在和未来分阶段作出理论和制度准备,最终围绕整体性的人机交互关系构建智能时代良性循环的人机信任生态。 关键词:人机共生 人形机器人 人机交互 模式变革 治理范式 人机信任生态 作者:林洹民(中央财经大学法学院副教授、法学博士 1988年3月出生) 内容摘要:在人工智能大语言模型技术加持下,具有拟人化外观的人形机器人将具有操纵能力,可能引发限制人的自我成长、误导社会化进程以及扭曲家庭伦理观念等问题。风险管理进路是一种成本效益分析法,存在风险评估与分类困难,并非调整人形机器人活动的良方。人形机器人具有专精科技与赋能科技双重属性,前者意味着必须借助科技伦理规范研发活动,后者则要求充分关注不同应用场景的复杂治理需求。对人形机器人研发活动的规范,应适当将科技伦理法律化,预先控制人形机器人的情感计算能力,并避免外观设计产生过度操纵等风险。对人形机器人应用活动的规范,一方面应充分借助法律系统抽象的权利义务工具,如知情权、人工沟通权以及人为监督、安全稳定义务等,回应海量应用场景引发的规范难题;另一方面应为法规、政策留出必要的空间,借助合规认证、监管沙箱等制度实现对人工智能赋能应用的协同治理。 关键词:人形机器人 操纵效应 专精科技 赋能科技 科技伦理 人工沟通权5.具身智能的数据安全风险及刑法应对——以人形机器人的研发与应用为例
作者:刘双阳(中国政法大学刑事司法学院讲师、法学博士 1993年8月出生) 内容摘要:人工智能的具身化意味着人工智能由代码塑造的虚拟空间进入更为复杂的现实世界,具备强大的环境感知、认知交互、智能决策、行动控制能力,而这一切都依赖规模庞大、类型多样的数据处理活动作支撑,人形机器人研发与应用过程中也催生了数据控制安全风险和数据利用安全风险。刑法作为数据安全治理的重要手段,应当引入前置法确立的数据分类分级保护规则指导数据犯罪立法完善与司法认定,通过将过失泄露个人信息行为以及非法篡改、毁损、滥用个人信息行为犯罪化,全流程管控具身智能领域个人信息安全风险;通过增设非法持有重要数据罪和非法出售、提供重要数据罪并调适侵害重要数据行为的入罪标准,高强度防范具身智能领域重要数据安全风险。居于数据安全保证人地位的具身智能服务提供者是从源头防范和化解数据安全风险的第一责任主体,负有保护具身智能数据安全的作为义务,应依次判断作为可能性和结果回避可能性,合理确定具身智能服务提供者怠于履行数据安全保护义务时承担不作为刑事责任的边界。 关键词:具身智能 数据安全风险 数据分类分级 人形机器人 服务提供者 不作为责任 作者:万方(北京外国语大学法学院教授、法学博士 1984年8月出生) 内容摘要:人形机器人产业对数据的需求量急剧扩大,使得提前预知处理信息的目的变得更为困难。产业链条更为复杂与场景更为多元也给规制带来新挑战。处理个人信息的目的越来越不具有确定性,个人信息二次使用规则的缺位以及目的原则的判断标准不一,都要求从体系上对目的原则进行重新审视。将法律直接转化为代码面临重重困境。按照人形机器人的不同应用场景先行引入标准,摒弃水土不服的兼容性规则以及维持研究目的的开放性,是在技术快速变革的社会中把握支持性结构与适应性流变之间平衡的重要路径。 关键词:目的原则 人形机器人 个人信息保护 标准化 场景化 新质生产力