在科技公司主导着人工智能发展应用的时代背景下,公司法之于人工智能技术的规范性作用被严重低估。决定人工智能技术被用于行善还是作恶的,是处于技术优势地位的公司,而公司行为可被化约为股东授权下的董事会所形成的决议的总和。人工智能法案对大模型发展提出了透明度、模型评估、跟踪系统风险、网络安全保护以及模型能耗报告等具体义务,这些义务将转介为科技公司的合规责任。我国已有学者针对通用人工智能风险提出了以提供者技术控制力、用户鉴别能力、外部监管能力为变量阶梯式设定通用人工智能技术提供者义务的方案,工信部《人形机器人创新发展指导意见》就具身人工智能风险提出了培育优质企业、完善创新载体等要求。此次公司法修订,在第20条首次引入了利益相关者保护条款,各类技术型立法所欲保护的对象并未超出法定“利益相关者”的范畴。综上所述,若未穷尽公司法百宝箱中的既有工具就从技术本身入手去另辟蹊径,必然将导致法律资源的无端浪费。本文并不试图预测欧盟人工智能法案的构造应然,而旨在就通用人工智能和具身人工智能视域下的大模型规制,论证并呈现公司法在制度层面的因应可能,以期为未来人工智能立法节省“带宽”。
一、公司法如何裨益技术法治?
大模型的异军突起既为通用人工智能的发展按下了快进键,也为具身人工智能的大规模部署奠定了基础,其终极风险正源于“在赛博格层面成就了机器‘身体/意向’的双层构造”。公司法的作用不在于对潜在灾难性后果的救济,而在于避免技术的发展和应用在不经意间跨越“卢比孔河”。
(一)技术之争背后的公司困局
人们多认可经合组织的定义,将“人工智能”视作以机器为基础的,可以结合给定目标产生预测性、建议性或决策性输出以影响环境的系统,而对于“通用人工智能”,至今尚不存在具有代表性的共通性认识。OpenAI将其定义为“在最具经济价值的任务中超越人类的自主系统”,学者们则各有侧重地将其归纳为“具有广域泛化能力的、并不必要在封闭场景下完成任务的系统”或“可像人类一样学习进步、推理演绎进而解决更复杂问题并独立作出决策的系统”。虽然定义尚不统一,但学界均认可“大模型”为连接人工智能和通用人工智能的桥梁。早在GPT-4发布时,微软研究团队就认为通用人工智能的火花已经初显。在Altman被罢免前夕,OpenAI多名核心技术人员曾警告董事会,团队已在通用人工智能领域取得重大突破,甚至将威胁人类文明。公开资料显示,该重要突破的代号为Q*,反映了强化学习算法Q-Learning和路径规划搜索算法A-Star的创造性结合。其中,Q-Learning擅长在既定状态下寻求最佳策略,以求随时间推移获得最高积累奖励;A-Star是在静态路网中求取最短路径的高效寻址方式。两者结合就像“左右大脑的结合”,或使得Q*拥有破解AES-192乃至AES-256加密算法的能力。这两种算法被视为当前人类所掌控的最尖端的算法加密技术——一旦被攻克,人类所积累的所有数字财富将在瞬间化为乌有;政府机密档案、银行加密记录、个人敏感数据等所有处于“被保护”状态的信息都将毫无遮蔽地呈现在公众面前。大模型的能力提升也必然同步引发人们对于具身人工智能的担忧。根据人民网的报告,仿生机器人技术已经日趋成熟,且已初步进入商业化落地阶段。在过去,具象的机器人只是在完成特定任务方面领先于人类,而大模型的嵌入无疑将补足“类人”机体的终极缺失——有相当思维能力的大脑。人形机器人具有成为尼采意义上“超人”的潜力,如若最终在智力和体力上“双重碾压”自然人,势必将导致人的降格。由此可见,技术人员的担忧并非杞人忧天。
OpenAI的技术路线之争,最终以Altman的回归和Ilya的致歉落下帷幕。与其将之归因于技术加速主义的强压,毋宁从中看出公司治理的失败。Ilya的困局反映了在公司组织层面,任何阻碍技术前进的保守尝试都可能面临多重机制性挑战。一是当公司过度“人格化”时,任何来自内部的理性质疑都会被反质疑怀有“篡位夺权”动机。Altman长期被大众奉为OpenAI之父,行事低调的Ilya虽然是OpenAI的技术支柱,但后者对前者的突然发难,必然因公司同特定领导人的“过度捆绑”而被视为“抢夺劳动果实”。二是公司的付费用户有权主张自身的信赖利益,服务的戛然而止或优化进度不符合用户预期,都可能招致客户的不满。ChatGPT上线仅5天注册用户便破百万,目前其全球用户已超17亿,任何可能威胁服务存续的外因,哪怕具有伦理正当性,都可能演化为社会公共事件。三是股权投资人天然存在不同于公司管理者的理念差异,他们对于何为“公司最佳利益”有着截然不同的理解。OpenAI管理权争夺战发生后,大股东微软立刻以终止资助为威胁,迫使Ilya及其支持者让步。四是各公司利益相关者因“下注”公司而必然支持能够确保其“李嘉图租金”的公司管理层:一方面,身处价值链条中的供应商企业,因其专用性投资的不可撤销以及难以转化,具有“裹挟”焦点企业朝着盈利而非“非盈利”方向迈进的激励;另一方面,机会成本高昂的员工,总是希望公司能够“长治久安”,警惕一切可能阻碍自身发展的经营决策,当Altman被罢免后,超过700名员工威胁将“辞职并入职微软”以声援被解雇的前CEO。
(二)公司法潜在的规范性优势
Ilya的担忧并非无风起浪。在过去,大模型训练需要海量的数据和强大的算力支撑,此二者共同构成了大模型发展的物理瓶颈,而即便是最先进的模型,也会因逻辑错误产生“幻觉”。但OpenAI在四个方面的齐头并进使得Q*几乎已无限逼近通用人工智能的拐点。其一是基于自递归预测的合成数据技术,可能在一定程度上摆脱数据稀缺性的束缚;其二是“解释微调(Explanation Tuning)”的训练方式,有助于放大合成数据的价值并显著提升模型的推理能力;其三是能够提高大语言模型从事复杂任务能力的思维树(Tree of Thoughts)推理范式,进一步明晰了Q-Learning叠加A-Star的运算流程;其四是取代结果监督的过程监督方法,有望通过对思维链中各个独立推理匹配奖励反馈缓解“幻觉”现象。
各项技术协力发展且相互增益的事实,映衬出伴生大模型发展的三大风险趋势。一是风险的异化与泛化,即哈贝马斯所称“新的非了然性”:人工智能应用的指数级增长不仅不会带来更多美好生活的可能,反而必然催生各类平白无故降临于无辜个体之上的问题。二是风险的反尺度恶化,即康德的著名洞见“应当蕴含能够”的反逻辑倒转:随着技术的不断精进,诸多问题不仅不会自然消失,反而还可能进一步恶化。三是风险的规律性反噬,即科林格里奇困境的常态化:当技术发展速度突破摩尔定律、金帆定律和吉尔德定律下硬件处理性能提升的临界值,所有新问题都将在“积重难返”后才会呈现。正是出于对上述风险蔓延趋势的把握,有学者提出,“伦理先行”已经成为生成式人工智能治理的“元规则”。无论通用人工智能最终能否实现,也无论具身人工智能能否全面碾压人类,学界和实务界就落实“伦理先行”大致形成了两条大异其趣的治理路径——模型可信与价值对齐。所谓“模型可信”,根据周鸿祎的观点,主要指输出结果可信任、“幻觉”偏差被校正。所谓“价值对齐”,根据何积丰院士的解释,是指人工智能的系统目标“同人类价值观一致”且“符合设计者的利益和预期,不会产生意外的有害后果”。虽然通用人工智能更依赖模型可信,而具身人工智能更需要价值对齐,但二者对于大模型的共同依赖使得模型可信和价值对齐共同成为了因应人工智能潜在系统性风险的关键之所在。
在二重目标的实现上,公司法的适格性体现在三个方面。其一,相较于技术型立法,公司法具有促进技术良性发展的均衡特质。自上而下的强监管模式虽然能够解决部分棘手问题,但从长远来看,却可能遏制人工智能产业发展的创新活力。显然,“法律真正应当回应的是‘权力如何按照预设的方式行使’,而不是‘如何遏制数字权力的诞生’”。通过公司法将大模型开发纳入法治轨道,比强制性地苛以开发方和运营商对于特定技术的法定义务利多弊少。其二,公司法的适度制度安排可以更好地协调其他法律法规对于特定主体的一般保护与公司法提供的特殊保护之间的关系,填补相关法律事前和事中保护的立法空白。例如,在个人生物敏感信息保护方面,个人信息保护法、数据安全法提供了明确的规范性要求,但具体到诸如掌握个人数据的公司合并分立、业务变更等具体场景,公司法可以要求董事会在作出相关决策时就将数据资产的保护纳入统筹安排,从而起到防微杜渐的效果。在防范算法歧视方面,互联网信息服务算法推荐管理规定等提供了堪称细致入微的禁止性规定,但要减少股东出于利己动机施压公司管理层作出侵害受众利益的决策,遏制“算法外部性扩散所引发的社会成本向普罗大众和弱势群体的不合理转嫁”,公司法内部的制度性工具更为直接,因而也就更为有效。其三,公司法的明确回应有助于将价值对齐和模型可信同科技公司的ESG实践相结合。
本质上,ESG可被视为开明投资者用来筛选或评估其基金和投资组合的评价性公式,脱胎于社会责任标准(SA8000)、多美尼400社会指数(Domini400)、道琼斯可持续全球指数(DJSGI)、富时四好指数(FTSE4Good)等一系列关注社会责任型投资(SRI)的投资指数标准。ESG呈现了不同面向指标的“最大公约数”,回应了公司法的“进步需求”,被视为继“有限责任”和“两权分离”后,“促进公司永续发展的新制度工具”。既有ESG指标体系虽已涵盖生物多样性、气候变化、污染排放、环境供应链、水资源安全、消费者保护、健康与安全、人权与社区、劳工标准、社会供应链、反腐败、公司治理、风险管理、税收透明度等领域,但普遍欠缺对科技伦理的恰当关注。公司法对技术伦理诉求的吸纳,有助于倒逼企业在实践层面有针对性地提升ESG适用标准,并透过绿色导向的投资偏好“减轻企业及社会整体的负外部性影响”。
二、公司法如何促进模型可信?
公司法何以促进模型可信,需要回顾外部监管的演进历程,以厘清模型可信的不同层次。
(一)模型可信的“目标释义”
以英美为代表的轻监管路径和以欧盟为代表的强监管路径,最终都指向了落点于具体人工智能产品的“场景化监管路径”,而场景化规制的终极目标,是实现“负责任的人工智能”。就实践效果来看,要完全结合具体场景灵活实现监管手段的“量体裁衣”,势必将产生无比高昂的执法成本,即使是同场景化规制密不可分的分散化监管思路,也很难真正在降低法律成本的同时实现监管效果的提质增效。以人形机器人为代表的具身人工智能的应用和部署更不会局限于具体场景和事项。面对技术发展的日新月异,分散化监管倘若是“问题驱动式”的,显然也无法填补科技公司监管套利的法治真空。英国政府于2023年3月发布了《一个创新促进导向的人工智能监管路径》,提倡采取“敏捷性的、迭代性的”监管范式。在动态促进“负责任人工智能”的实现方面,聚焦于技术供给侧的“可信人工智能”比聚焦应用端的场景化规制对应着更低的制度成本。通用人工智能和具身人工智能均以大模型为基座,“人工智能可信”在很大程度上意味着“模型可信”。
从德鲁克所提出的第一性原理来看,模型可信首先意味着模型背后的开发者可信以及将模型用于商业目的的使用者可信,二者共同指向了大模型背后的“公司行为可信”。我国公司法第1条以“规范公司的组织和行为”为旨归,本身就具有促进“公司行为可信”的法益。公司行为可信与完善中国特色现代企业制度若合符契。当前,我国科技公司存在股权过于集中、代理成本高昂、监督效能低下、职能部门相互甩锅、科层制约名不副实等问题,且“股东会中心主义”逻辑占据主导。欠缺对公司行为可信的倡导,公司的组织形式极有可能沦为公司内部人凭借技术优势攫取不正当利益的合法外衣以及控股股东追求不成比例回报的牵线木偶。
通常而言,“公司行为可信”的首要阻碍,来自逐利股东的巨大影响力。OpenAI事件原本反映了围绕技术发展与未来应用的立场之争,也因背后资本对于囚徒困境的担心而异化为利益纠葛。公司法对股东控制力的赋权,背后有着较为深刻的结构性考量。新制度经济学者从“资产专用性”角度指出,股东的“赌注”是唯一且终局的。如若公司进入破产清算程序,股东将劣后于政府、员工、债权人获得清偿,只有在其他人都获得了充分补偿且公司尚有剩余财产的情况下,股东才能主张获得资产分配。可见,公司发展不利会导致股东分红权名存实亡,原本具有复合属性的股权也将退化为劣后于公司其他参与方的“剩余索取权”。因此,公司从设立之初就应将“剩余控制权”配置给股东。只有这样,公司法才算是作出了更有利于专业化分工和更高效投资的公司权力分配。此种主张成就了掌握公司剩余索取权和剩余控制权的股东同受到商业判断规则保护的董事会之间的职权划分,在一定程度上也彰显了股东会中心主义范式优于董事会中心主义的制度合理性。公司在正常情况下采取股东利益优位的策略本身无可厚非,但公司利益并非在所有情况下都同股东利益严格一致。面对潜在的利益冲突,有三项共识值得注意:(1)公司利益同股东长期利益具有较高程度的一致性;(2)当追求股东利益不至于严重损害社会公共利益时,可承认股东利益的优先性;(3)公司的独立人格决定了公司可以有独立的价值追求。长远来看,科技公司积极践行“模型可信”,不仅不会与获取市场利润背道而驰,相反,还可能因虏获更多用户而有助于提升公司的财务绩效与市场占有率。此外,“模型可信”还有助于公司降低行业层面的合规风险,提升公司的认可度、美誉度和社会责任评价。
(二)模型可信的公司法工具
实践研究表明,当前大部分语言模型“只有在25%的时间是真实可信的”。公司法对模型可信的促进,可以从以下四个方面展开。
首先,扩容法人人格否认。从外观上看,大模型的负外部性扩散同公司商业行为大规模侵害用户及其他利益相关者利益的行为具有同源性,因股东贪婪而导致的公司过度逐利通常是造成此种状况的核心诱因——有限责任的“理所当然”区隔了股东财富与特定风险,最终“强化了股东的冒险取向并使之成为了最激进的公司选民”。
虽然公司法素有“刺穿公司面纱”直接追诉过度干预公司事务的大股东的优良传统,但我国公司法适用该规则的前提是股东实施了滥用公司法人独立地位及滥用股东有限责任的行为,且主要集中于人格混同、过度支配与控制、资本显著不足等股东需要对债权人履行赔偿责任的情形。可见,我国公司法并不支持将公司需对外履行的侵权责任传递给“肇事股东”。诚然,“股东至上”通常并不直接表现为个别强势股东的“大权独揽”,而是透过明面上的董事选取以及潜在的股东积极主义等施加压力,我国公司法较为保守的制度设计本身也具有防止过度滥用法人人格否认制度的合理考量。
不过,为减少大股东和控股股东的激进行为,需考虑适当增强“法人人格否认”制度的穿透力。在严守不直接向股东转移侵权责任底线的同时,可考虑在新公司法第59条“股东会职权”的列举中额外增加“就可能对社会和利益相关者造成重大影响的公司事项作出决议”。与此同时,第23条“刺穿公司面纱”的前提“股东滥用股东权利”,也应相应扩张至“不妥善履行决策义务”。在新公司法框架下,对于股东和董事重合度较高的小型公司以及存在由股东董事组成的特别委员会的科技公司,责任穿透或将更加频繁。总之,适当将股东与责任增量关联,能够有效缩紧科技公司的风险敞口,进而将模型可信贯彻于股东会和董事会的决策之中。
其次,激活公司目的条款。公司目的条款并非纯粹陈述公司的经营范围,而是对公司宏大发展愿景的细致勾勒,以明确股东长期利益以及身处技术链条上不同利益相关者利益的正向相关性。对于科技公司而言,精心设计的公司目的条款不仅可以阐明“模型可信”在公司长远发展中的重要地位,还可以支持公司管理层在落实模型可信方面的决策执行,使其免于短视股东的诘难,并可为技术研发和公司治理提供方向指引。
聚焦域外制度前沿,共益公司入法代表着公司目的创新的前沿实践。“共益公司的立法目的非常清晰,即改变公司目的,使公司不仅服务于股东,还服务于公司所意欲实现的公益目的。”不过,对于“公益目的”的追求始终必须同“股东利益”的追求相平衡且不能矫枉过正。事实上,公司有限责任自创设之初,就同利益相关者保护密不可分。随着公司制度的现代化,如今公司设立虽无需再经国家事先授权,且法人独立人格已经成为公司区别于其他组织类型(例如合伙企业)的自然属性,但探寻普通商事公司之外的、服务于更广阔社会利益的公司类型化实践却从未停止。从实践效果来看,低利润公司、灵活目的公司、社会目的公司等尝试均以失败告终,共益公司却得以在全球铺展开来。究其原因在于,共益公司更好地调和了“公益目的”和“股东利益”间的天然张力。所谓“共益”,其实可以理解为以“共融”和“共荣”为目标的股东利益和公共利益的“对立统一”。建制上,共益公司延续了传统公司的治理结构。叙事上,共益公司主张公司主动消化经营活动的外部性,但与纯粹强调反哺社会的单极实践相比,共益公司更突出“额外收益”。积极推动共益公司落地的非营利机构共益实验室(BLab)的研究报告表明,“千禧一代”的消费者尤其愿意为“值得信赖”的服务买单。由此可见,对于年轻受众而言,“模型可信”本身就具有助推商业价值的实在功效,将其落实于科技公司的目的条款中,可有效消解“公益目的”和“股东利益”间的对立。
不过,无论公司是否采取共益公司的组织模式,都应防止公司目的条款受经济波动和财务威胁出现“使命漂移”的情况。实践表明,即便是最受关注的共益公司,也可能因为各种原因放弃对社会公众的承诺而重回“股东至上”路线。最贴切的例子是跨境电商ETSY,以销售具有创意的复古和艺术手工品起家。从早期公司目的条款来看,ETSY曾致力于让“消费者、生产者、员工和地球受益”,优先考虑工匠精神的传承和中小微手工业者的福祉。ETSY于2012年通过BLab认证成为共益企业。2015年上市后,ETSY因长期未能盈利致使投资者和管理层之间冲突不断,董事会不得以撤换公司CEO。新任命的CEO立刻宣布放弃共益企业身份,对平台卖家进行绩效考核,并大幅削减员工补贴,力求迅速提高公司盈利水平。无独有偶,号称“以革命性价格供给眼镜产品,引领造福社会商业模式”的Warby Parker公司,也在上市后放弃了自身共益企业认证,重回“利润最大化”的商业模式。归根结底,共益公司虽不同于普通商业公司,但毕竟不是慈善机构,而任何组织的存续与发展,都离不开资本的加持。虽然学界曾一度有过“劳动雇佣资本”还是“资本雇佣劳动”的争论,但即便是在技术含量最高的大模型领域,资本对公司目的的规训也不可小觑。OpenAI在2019年设立之时曾采用了有限合伙的组织形式,以实现作为普通合伙人的技术团队和作为有限合伙人的投资人之间的区隔,防止资本过度影响公司经营决策。OpenAI还同各参与方设定了100倍率的投资上限,超过该倍率的资本回报都必须回流到下属于OpenAI的非营利机构。OpenAI于2023年6月完成了从有限合伙企业向有限责任公司的转型,同样采取了限利公司的制度安排。但从Altman被驱逐仅仅48小时后就重回董事会的现实来看,掌握技术的董事会成员只能在短期通过投票权完成董事会的改组,董事会的“商业决策”终究难敌股东会的“资本决策”。为防止公司目的条款的立场反复,应将目的条款的修正明确为股东会的特别决议事项,除要求三分之二以上表决权通过之外,还应为其设立较长的公示期间。
再次,优化董事信义义务。以促进模型可信为目标,如欲更好实现公司目的条款的利他功效,公司董事、监事、高级管理人员的信义义务内涵也应当得到更新,避免公司管理者沦为资本的“橡皮图章”。在迈向通用人工智能或具身人工智能的进程中,科技公司具有同等依赖大模型的固定商业模式,将模型可信的内涵嵌入管理层信义义务有助于公司整体利益的维护。
新公司法第180条明确了董事、监事、高级管理人员对公司的忠实义务和勤勉义务,要求其采取措施避免自身利益与公司利益冲突,并在执行职务时应当为公司的最大利益尽到管理者通常应有的合理注意。需增加的内容是,忠实义务方面,董事应当着力避免股东利益同社会公共利益产生冲突;勤勉义务方面,董事应维护股东长期利益,且尊重其他利益相关者利益。此外,当前第181条的反向列举仅仅局限于挪用资金、关联交易、违规收取贿赂、泄密和篡夺公司机会等传统事项,对违反勤勉义务事项的列举暂付阙如。近年来,各行各业都通过“数字化”给自己贴上“智能”和“变革”的标签,从而与“传统”划清界限,技术赋能已是绝大多数公司的新常态。在此背景下,第181条引入禁止违反技术伦理道德的一般性表述具有合理性和紧迫性,董事同时负有不听任“技术雇佣资本”的忠实义务以及不放任技术滥用的勤勉义务。在职权方面,第67条也应为模型向善预留空间,将技术后果同董事决策相勾连,新增“董事会应当对经营行为产生的技术外部性后果作出安排”等规定。
最后,活用双重股权结构。另一项有助于科技公司“模型意志”独立于“股东意志”的工具是“双重股权结构”。双重股权结构本就是为了增加“内行人控制”、减少“内部人控制”而生。将更多投票权配置给掌握技术的公司初创团队,能够使之免受短视股东苛责,更有底气综合公司运营需求而“为之计深远”,同时,又不会因为掌握公司控制权承担过度的风险。有反对者据此指出,双重股权结构豁免了公司核心团队因次优决策引致的各方责难,却让外部投资者概括承受决策不力的诸多代价。支持者则表明,如果存在决策不利致使效益受损的可能,公开募股的市场压力自然会阻却双重股权结构的维持。由此可见,双重股权结构提供了一种市场化的、满足投融资双方需求的助推“模型可信”的解决方案。
此前,由于双重股权结构中存在高表决权内部人士滥用公司控制权和低表决权股东利益最大化间的“竞争性利益”,我国立法者及实务部门一直对双重股权结构持保守态度,坚持“一股一权”原则。2019年《上海证券交易所科创板股票上市规则》首次对上市公司双重股权结构的设计进行了规范,完成了表决权差异化安排的制度性破冰。此后,创业板、新三板也相继开始了对双重股权结构的试点。新公司法第144条允许公司依照公司章程的约定,发行与普通股权利不同的类别股,回应了各交易所已在事实上践行的制度诉求。根据规定,公司不仅可以发行表决权多于或少于普通股的股份,还可以发行优先或劣后分配利润或剩余财产的股份。就促进“模型可信”而言,应赋予专业人士更大限度的公司治理权,公司法可要求科技公司向有意愿的学术机构的专业人员发行一定数量的高表决权、低分红权的股份。大模型领域之外,自动驾驶、智慧医疗等关系重大民生领域,以及基因工程、核聚变等关系人类生存福祉等领域,基于双重股权结构的“独立董事”之外的“独立股东”同样重要。为“避免外行人指挥内行人”,公司法还可以考虑要求科技类上市公司为技术人员配备特定门槛比例的高表决权股,并允许他们提名少数董事。
三、公司法如何促进价值对齐?
为论证公司法何以促进价值对齐,需首先梳理出有待人工智能系统对齐的价值观的具体内涵。
(一)价值对齐的“内涵解构”
自2018年以来,联合国以及不同国家、地区,各自颁布了具有官方性质的人工智能伦理规范,作为对官方文件的补充和回应,不同领域的专家学者也从不同角度对人工智能伦理规范建言献策。但是,人工智能伦理规范和倡议存在诸多问题。其一,反复就已经获得公认的价值进行抽象论述,并未衍生出符合具体人工智能技术样态的周延伦理体系;其二,在规则层面缺乏对公平、正义等笼统道德诉求的进一步细化,在标准层面又未能就透明性、安全性等技术性伦理形成可操作性的规范;其三,不同国家和地区有关人权、人之尊严的价值观倡议存在意识形态、政治动机、学术派别等内生性差异,不同倡议间不具备“横向可比性”;其四,同一文件的多重诉求间也可能存在相互冲突和掣肘,例如强调收益和强调发展、强调透明性和强调安全性以及强调公平和强调尊严之间,均可能存在一定程度的“抵消”;其五,部分伦理倡导例如隐私保护、透明性、鲁棒性等原本属于技术范畴,究竟应当通过道德入法入规等方式予以警示,还是应当革新技术手段或优化技术标准,有待观察。这种“非标性”导致的结果是,指导性文件虽然因“模糊”“无所不包”而左右逢源,看似获得了广泛的认可,但负责下位法制定以及条例细化的公共部门或行业协会根本无法从过于宽泛的原则中作出有效的权衡取舍,进而也就无法对行业实践提供明确指导。不惟如是,价值“非标性”还可能导致法律规则的过度刚性。为贯彻落实欧盟《可信人工智能伦理指南》的部分倡议,已初现雏形的人工智能法案拟直接禁止特定的人工智能技术,包括但不限于可以用来“操纵心智”的智能应用、可挖掘和利用系统漏洞的智能应用、用于社会性评价的智能应用以及过度采集面部等个人敏感信息的智能应用等。此种立法范式本身建立于“错误的假设之上”,即名单之外的技术是“无公害的”。
从系统论的角度来看,任何有待人工智能对齐的差异化价值诉求必须具备可通约的共性特征,否则将很难从大相径庭的应用场景和千变万化的技术形态中准确体察出可供法律促动的价值结点。作为对周遭评价、意向和观察的综合,价值观包含“行为激励”和“行为判定”双重维度。为调和因起源和文化差异导致的道德的“非标性”,道德基础理论提出了五组“基础道德”——关怀与伤害、公平与欺骗、忠诚与背叛、权威与亵渎、神圣与堕落,被广泛应用于拆解文化、性别、意识形态差异下的道德基准。围绕大模型发展,有学者采取前述方法提炼出了助益(Helpful)、无害(Harmless)、诚实(Honest)的3H标准,为在可通约层面探讨公司法对大模型价值对齐的促动提供了基准。
(二)价值对齐的公司法工具
随着模型规模增长和训练数据集体积膨胀,大模型已呈现出尺度扩容(性能与计算开销成正比)和能力涌现(新能力浮现与旧能力急剧提升)两大特征,并且已完全具备了零样本学习、上下文推理、指令遵循、归纳解释等能力,极大地推动了多个领域的可能性边界。为贯彻落实3H目标,公司法对价值对齐的促进,可以从以下四个方面展开。
首先,引入多样化保护原则。公司法可在总则部分引入多样化保护原则,引导人工智能产业的可持续发展与良性发展。“每种技术都暗含哲学观,体现了如何让人们适用它们、如何编纂世界、如何放大我们的感官以及如何忽略我们的情感和智力倾向。”人工智能不会因为对个体的赋能而启动新世界的自我创造过程,毋宁认为正是这种倾向的“同一性”将导致生活和生产处境的标准化,马尔库塞所批判的“单向度社会”或因人工智能的“终极强制本质”而空前绝后。海德格尔所称技术对人的“促逼”,也已在人工智能规训个体生活层面暴露无遗。就正如当前已经观察到的那样,多个行业的劳动者不得已按照算法的要求去规划、加工、生产自己的人生。多样化保护原则旨在提升商业业态的多元性,防止技术过度赋能导致的行业整体“柠檬市场化”。多样化保护原则的引入有助于防止模型及其开发者的价值观负载逆向排挤原本以人为本、重视人类价值和精神表现的行业实践,将3H标准中的“助益”和“无害”落到实处。
始源于20世纪80年代美国敌意收购浪潮中的各类选区法案,即为各州公司法层面对于“多样化保护原则”的表达。此类条款重在保护公司不同利益相关者的多样化利益,典型如加利福尼亚州公司法典第309条和印第安纳州注释法典第23章第1节中的相关规定,允许公司管理层在面对敌意收购时,可以考虑除了股东以外群体的利益,包括债权人、员工、顾客、社区等。对于科技类公司,可以考虑的多样化利益不仅包括前述传统利益相关者的利益,还应包括且区分作为用户和消费者的“受众利益”和作为间接受影响者的“涉众利益”。“涉众”的概念外延宽于“受众”,后者通常仅指技术应用的相对方,即智能服务的用户、平台经济的消费者、数据处理活动中的数据主体等,“受众”同技术方之间存在直接合同关系,受明示的“知情同意框架”的约束。而前者则囊括了一切在当下、在未来同技术应用息息相关的主体,包括但不限于受算法调配指挥的社会公民、被技术进步所感化的普通大众以及长期缺乏话语权乃至被数字技术“边缘化”的落后群体。涉众利益是通用人工智能和具身人工智能领域尤其具有保护法益的多样化利益之一。
其次,贯彻科技向善的理念。3H标准中的“无害”和“诚实”,可通过科技向善原则的植入予以促进。科技向善原则体现了发展利益和社会利益的动态均衡。2021年5月,习近平总书记在出席中国科协第十次全国代表大会时指出:“要深度参与全球科技治理,贡献中国智慧,塑造科技向善的文化理念,让科技更好增进人类福祉,让中国科技为推动构建人类命运共同体作出更大贡献!”《互联网信息服务算法推荐管理规定》第6条明确要求“促进算法应用向上向善”。同期发布的《新一代人工智能伦理规范》第18条提倡人工智能产品与服务的善意使用。根据《关于加强科技伦理治理的意见》,“推动科技向善”成为科技伦理治理的重要导向,“塑造科技向善的文化理念和保障机制”势在必行。
人们常说,工具的好坏取决于使用它的人。同理,促进人工智能技术向善的关键在于促进人工智能背后的人向善。就任何技术的研发、投产与部署,通常是公司,而非个人承载主要工作。因此,人工智能背后的人在绝大多数场景中首先指涉的是作为组织体的“法人”而非自然人,公司法对“技术向善”原则的吸纳具有合理和正当性。在目标上,技术向善的原则应有助于企业在面对复杂伦理冲突作出“符合发展趋势的价值判断”,并针对不同技术场景强化“有意义的人类控制”,以期在私法层面促使分散的社会关系间形成“受规整的自治”。
再次,建立科技伦理委员会。除原则回应外,建立科技伦理委员会也有助于价值对齐的实现。科技伦理委员会可以为董事会决策提供与专业技术相关的科学意见,能够帮助董事会拟定技术风险管理的目标,是现代公司内部机关发展完善和职能分化的必然趋势。相较于中央科技委员会在国家层面建立的国家科技伦理委员会,在科技公司的治理结构中引入科技伦理委员会同样势在必行。科技公司的外部性甚于其他类型的公司,其发展必须要强调社会公共利益的实现,且在一定程度上肩负着“网络强国”“数字中国”等目标。就价值对齐而言,公司内部科技伦理委员会应对给定价值表述的模型输出是否满足道德基础理论所指涉的无伤害、无欺骗、无背叛、无亵渎、无堕落,并尽可能防止对齐范式存在对齐标准被数据标注者所左右的“众包专制”等问题。
技术上,大模型价值对齐可划分为插入式对齐和微调式对齐两种方式。在插入式对齐方面,科技伦理委员会应:(1)在尽可能减少微调模型参数开销的基础上,确保预训练模型数据集的去毒和去偏见;(2)监督技术人员对模型的输出向量和分布进行后期矫正,尤其是在生成式人工智能的输出中消除性别、种族及其他无关因素的影响;(3)指导团队作业,减少外部因素对模型性能的扰动和影响,监督模型稳定提升上下文学习能力。在微调式对齐方面,科技伦理委员会应:(1)引入反事实数据增广等方法,减少预训练数据中因语义与特定事实关联而可能导致的偏见;(2)重视强化学习过程中的人类反馈,鼓励人工而非系统自动完成关涉重要价值判断的参数排序;(3)优先采用内嵌道德标准的新型微调方式,例如充分考虑道德理解能力、道德诊断能力、道德矫正能力和性能维持能力的平衡对齐方式,使模型“不仅能理解道德准则,而且能在践行道德要求的同时维持性能的有效性,既帮助人类完成复杂多样的任务,又在道德价值层面实现知行合一”。需要指出的是,大模型的价值对齐不能是机械的对齐、死板的对齐、盲目的对齐,而应当充分考虑道德价值观的时间演化性、情境分别性和意涵多元性,采取一种颇具灵活时间观感的“反窥区辨”的精细对齐方式,即“从未来时间站位对当下的决定生成进行反推……并在此基础上对‘过去—未来’进行选择性阻断和延伸性预判”,进而使规则适用不再局限于恶果补救或负外部性避免。
新公司法第121条允许公司按照公司章程规定在董事会中设置其他委员会。不过,新公司法的各项条款仅对由董事组成的审计委员会作出了相应规定,而审计委员会无论是在人员构成还是职权设定方面都同由专业技术人员构成的科技伦理委员会大相径庭。为落实科技伦理委员会的制度设计,未来公司法应当在条款中对由非董事组成的特别委员会进行赋权性表达。相应地,还需修订《上市公司治理准则》中有关专门委员会的规定,为大型科技公司引入科技伦理委员会提供立法指引。《上市公司治理准则》第38条第1款规定可修改为,“上市公司董事会应当设立审计委员会,并可以根据需要设立战略、提名、薪酬、考核以及科技伦理等相关专门委员会”。第42条也应相应增加科技伦理委员会的职权规定,并将其定性为下辖于董事会的咨询、建议、审查机构。对于内设科技伦理审查委员会的公司,可适当减轻或免除董事在技术事项决策方面的注意义务,但董事的责任减轻和免除须以委员会人员组成的权威性、专业性、独立性和全面性为基本前提。
最后,伦理导向的ESG披露。随着国内ESG规则的日臻完善,科技公司价值对齐的实践绩效将得以合理方式被纳入本土ESG的指标体系,公司法层面的信息披露制度即得以发挥促进价值对齐的功效。新公司法第20条新增了有关社会责任信息披露制度的规定:“国家鼓励公司参与社会公益活动,公布社会责任报告。”在公司社会责任和ESG的关系上,ESG可被视为公司社会责任发展的最新形态:“随着公司治理作为一个以服务股东及其利益为导向的行业的成熟……传统的企业社会责任在事实上转向了以股东价值为核心导向的环境、社会和公司治理(ESG)范式。”二者存在一定程度的“等效互换”,我国国资委也将ESG纳入推动企业履行社会责任的重点工作,公司社会责任报告同披露ESG信息本身并无太大区别。伦理导向的ESG信息披露具有较高技术性,需要科技伦理委员会辅助公司董事会进行真实、准确、完整、有效的ESG信息披露。港交所《环境、社会以及管治报告指引》明确了董事会对ESG信息披露的监管责任,董事会管理ESG相关事宜的过程本身也是信息披露的重要组成部分。为更好履行ESG信息披露义务,已有部分香港上市公司在其治理架构中增加可持续管理委员会,该委员会负责同公司的各利益相关者协商、沟通,极大地减少了董事会在ESG决策和管理方面的工作量。落实科技伦理相关的ESG信息披露,最大的困难在于无法进行信息强制鉴证。由科技公司聘请第三方鉴证人员对其披露信息的真实性进行核验会面临商业机密泄露等风险,而下属于公司董事会的科技伦理委员会具有在信息保密的前提下进行信息真实性核验的多重优势。诚然,“自己鉴证自己”本身是存在制度性缺漏的,但在大模型发展的当前阶段,此举是减少透明性和安全性“抵消”的不得以让步。在科技伦理委员会的协助之下,公司董事会在ESG信息披露中的主要职责是监管和督导,虽不必事必躬亲地深入ESG信息披露的细枝末节,但同样需要通过同委员会的频繁互动掌握并披露具体的相关信息。
作者:唐林垚,中国社会科学院法学研究所副研究员。
来源:《东方法学》2024年第2期。