摘 要:由于行政处罚的负担行政属性,部分自动化是现阶段自动化行政处罚的主流形态。自动化行政方式的高效可能导致处罚密度失衡,需要建立处罚标准动态调整机制予以平衡。在自动化行政时代需要坚持和发展正当程序原则,以解决在程序与证据方面面临的挑战。自动化行政对于数据的依赖与行政处罚中的数据特殊限制形成了悖论,应当通过将数据纳入公物法规制与扩张个人数据权利等方式,完善数据法治。责任方面,自动化行政处罚错误时的责任主体仍然是行政主体,归责原则应当采用无过错责任。
关键词:自动化行政 行政处罚 人工智能 《行政处罚法》修改
引言
随着图像识别等人工智能技术的不断推进,自动化行政的适用场景更是愈发广泛。在行政处罚领域中,自动化行政也早已屡见不鲜,可以从两个案例中一窥端倪。第一个案例是2005年的杜宝良案。杜宝良每日驾驶机动车在同一地点违反禁行规定,均被电子监控装置抓拍,累计105次,均未得到及时通知。直到他顺带查询违章时才发现,被公安交通部门共处以罚款10500元的行政处罚。后交警部门以内部执法监督的方式对行政处罚予以纠正,随即杜宝良撤诉。第二个案例是发生在2018年的声呐电子警察第一案。何先生驾车时忽然收到交警支队的短信通知,提醒其涉嫌违法鸣笛。交警支队提供的关键证据为声呐电子定位系统的定位与识别抓拍。何先生对处罚不服,提起行政诉讼。最终一审法院认为证据确实,程序正确,驳回了原告的诉讼请求。
这两个案例一旧一新,在许多方面反映出了自动化行政方式对已有行政处罚制度的挑战。作为一类重要的也是经典的负担行政行为,行政处罚的法学理论与法律制度构建都相对较为完整。但随着技术和社会的不断发展,自动化行政方式逐渐普及和加强,这使得行政处罚的形态发生了改变,也随之带来了新的法律问题,亟需理论上与制度上的回应。恰逢《行政处罚法》颁布22年来的首次大修,对行政处罚制度变革的探讨正当其时。
一、自动化行政方式下的行政处罚形态
所谓自动化行政,就是一种人工智能在行政领域中的具体运用,是指行政程序中特定环节或所有环节由人工智能或者说自动化系统代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政活动。依据自动化系统与人的分工情况、适用场景等因素,可以将自动化行政区分为自动化辅助行政、部分自动化行政、无裁量能力的完全自动化行政、有裁量能力的完全自动化行政等多个级别。
(一)部分自动化——自动化行政处罚的主流形态
在判断自动化行政的级别,尤其是区分部分自动化与完全自动化时,需要对行政活动的具体环节进行进一步区分,从而判断自动化系统与人在具体环节中的分工。从信息处理的角度,对于一项特定的行政执法活动,可以将其具体区分为识别与输入(surveillance)、分析与决定(analysis)、输出与实现(action)三个环节。在杜宝良案与声呐电子警察案中,自动化系统对违章车辆进行了识别与证据固定,独立完成了信息的识别与输入。而在声呐电子警察案中,系统还自动推送了违法通知短信,实践了信息的自动输出与实现。但在这两个案例中,分析与决定环节仍然需要由人工完成。这也与《道路交通安全违法行为处理程序规定》中所设计的现行制度精神相一致。在现阶段,这两个行政处罚案例均属于部分自动化行政行为,尚未实现行政程序全过程的完全自动化。
(二)不具有裁量能力的完全自动化——行政处罚领域的特别限制
实践中,一些其他行政行为类型的自动化行政程度要走的更远。广西、深圳等地的行政许可已经在特定事项上实现了无人干预自动审批,在分析与决定环节也实现了无人化,达到了完全自动化。这些自动审批事项一般比较简单,不存在裁量空间,属于无裁量能力的完全自动化级别。但是在行政处罚中适用完全自动化行政方式(即使是无裁量的情况下),仍需高度谨慎。与一般性的行政许可不同,行政处罚是负担行政,将会对相对人的权利产生结果性的不利影响。因此其在正当程序上比一般性的授益行政行为的要求更高。在行政处罚的过程中,应当详细说明理由、展示证据,充分保障相对人的申辩权。这是现阶段的自动化行政难以做到的。更进一步说,即使技术上可以实现,还需要考虑到相对人的可接受度。行政处罚中行政主体与相对人的关系相对紧张,新技术手段的运用需要更为谨慎,以降低相对人的疑虑。在声呐电子警察案中,当事人的一大不满就在于对声呐证据的技术可靠性的怀疑。如果行政处罚实现完全无人化,这种疑虑将更为激化。这种心理上的疑虑和可接受度也应该当被纳入考量范围,正义不仅应得到实现,而且要以人们看的见的方式实现。因此现阶段自动化行政处罚仍然主要限于部分自动化方式,自动化行政尚未在主体论方面给行政处罚制度带来质的冲击。其在主体方面的影响主要局部体现在技术主体的介入对责任主体的影响。这部分将在后文予以进一步探讨。
(三)具有裁量能力的完全自动化——对自动化辅助异化的警惕
现阶段由于技术和制度的限制,自动化系统还难以对不确定法律概念、效果裁量这样的不完全信息做出妥善的决策,因此还尚未出现里程碑式的能够自我进行裁量的完全自动化行政行为,甚至在代表性国家的行政程序法中更是明确规定自动化行政只能适用于不存在裁量的情况。对于行政处罚来说,正当程序的要求更高,距离这种更高级别的完全自动化行政的还尚远。
但是,从国内外实践来看,利用人工智能算法做出决策参考的情况已经逐渐出现,包括利用人工智能算法协助特定地区交通管制措施的确定;指导犯罪预防措施的实施;甚至是辅助刑事司法裁判。我国的《新一代人工智能发展规划》中也提出要进一步开发适于政府服务与决策的人工智能平台,研制面向开放环境的决策引擎,在复杂社会问题研判、政策评估、风险预警、应急处置等重大战略决策方面推广应用。在行政、司法、城市管理、环保等多方面发挥人工智能的作用,实现社会治理智能化。
这种算法的决策辅助,从形态上看,严格来说只是属于自动化辅助行政,各个环节最终还是由人工把关,自动化的级别并不高。然而实践中很有可能出现由于对人工智能的信任,对机器的建议不加怀疑接纳的情况,使得人工智能的决定在事实上就已经变得自动存在了。甚至当人类质疑人工智能的自动化决策建议时,会反而被视为鲁莽行事。在行政处罚中应当对此尤为警惕,应当通过程序的周密设置,对人工智能的自动化决策进行有效监督,对个案情境进行充分考察。
二、处罚密度失衡——处罚标准的动态调整
(一)高效带来的处罚密度失衡
自动化行政方式具有高效、客观等固有优势,因此很快在各个行政领域中普及开来,这也包括行政处罚。但也带来了大量挑战,这些挑战需要相应的制度回应。有趣的是,本文将探讨的第一个挑战却正来源于自动化行政的最大优势——高效。高效在节约成本带来便利的同时,却使得行政处罚的疏密程度严重失衡,产生了实质性的处罚不当问题。
杜宝良案就是一个典型。在自动化行政方式出现之前,交通违章等行政处罚的执法工作主要由人力完成,执法成本相对较高。如果想要对所有的交通违法行为都予以处理,其需要投入的人力成本将会是天文数字。因此在人力执法时代,交通违章实际上是一种“抽查”。违章十次,可能仅仅会被抓住一次。从经济学的角度,要实现对违法行为的利导,就应当保障“违法损失期望>违法收益”,而“违法收益”又等于“被处理的概率”乘以“被处罚的力度”。在人力执法中,由于被处罚的概率远远小于百分之百,因此为了实现“违法损失期望>违法收益”,就必须相应地提高“被处罚的力度”。
而交通抓拍等自动化行政方式的出现,从根本上改变了这一局面。自动化系统一旦设置,就可以风雨无阻的24小时进行监控,违法行为被处理的概率在特定条件下将被大大提升,甚至提升到接近百分之百。而此时,原有的处罚力度却没有得到相应的调整,最终从整体上看,行政处罚的密度严重失衡,执法畸重。
(二)处罚标准动态调整下的再平衡
从“被处理概率*处罚力度=违法损失期望”这一模型中,亦可以探寻到两种解决处罚密度失衡的思路。第一种是降低自动化行政处罚的效率,从而缓解处罚过密的问题。这一方法看似因噎废食,但是从特定角度上看,却有一定意义。比如有美国学者指出,“低效和不确定性”看似是缺点,但也更有利于情境化的决策、可以一定程度上降低技术对隐私等的危害、在轻微违法上给予公民相对更多的自由空间。这种观点如果用一种更加东方的表述,那就是“法理不外乎人情”,通过适当降低自动化行政的效率来缓解自动化执法的僵化。但这种方法的调整程度和范围都相当有限,否则不仅影响自动化行政方式高效优势的发挥,更可能破坏行政执法的严肃性与可预测性。
因此本文提出的回应方式主要还是基于第二种思路:随着处罚概率的提升相应降低处罚力度,换言之,建立行政处罚标准动态调整机制。传统的行政处罚的处罚程度由法律法规所设定的具体条件、行为、情节、结果所限定。这个范围一般是静态的,且相对固定。如果出现原有静态标准中没有明确的因素,行政机关可以进行裁量,但行政机关的裁量不得突破原有标准的上下限。这个上下限的范围一般不会太宽,否则会赋予行政机关过大的裁量权。而在传统行政处罚的静态标准之下,被处罚概率这一因素并未被纳入处罚程度的考量。当技术手段极大地提高了被处罚概率时,行政机关能做的也仅仅是在不大的裁量范围内进行平衡,而这对于自动化行政方式下被处罚概率动辄数十倍甚至上百倍的提高来说是远远不够的。
静态标准的不足也不仅限于自动化行政领域。行政处罚实践中经常出现的另一个问题是,作为处罚依据的法律法规规定了具体的处罚额度,但是由于经济发展、通货膨胀、地区发展不均衡等原因,许多原有额度已经明显过低,无法起到足够的惩罚效果。想要调整处罚额度,就必须通过法律法规修订来完成,这存在不可忽视的周期与成本,甚至可能刚刚修订就已经滞后。这反映了静态标准的本质缺陷:静态的标准无法适应日新月异的动态社会。
为了解决这些问题,应该建立行政处罚标准的动态调节机制。法律法规在设定行政处罚额度时,不再局限于条件、行为、情节、结果等固定指标,还应该加入处罚概率、经济发展情况等可变指标,从而使得行政主体在进行法律适用时,可以根据当前情况进行裁量。需要注意的是,从理论上,这并未增加行政主体的裁量空间,只是将其限定因素从固定指标变成了可变指标,而这些可变指标在每个特定时间是可以根据一定计算方式确定的。换言之,关于可变指标本身,行政机关的裁量权并没有增加。但从实践上,这种可变指标的确定过程的确可能给了行政机关一定“活动”的空间。为了防止这种情况的出现,必要时可以通过裁量基准来对可变指标进行确定,然后定期对裁量基准进行更新。裁量基准的修订成本要远低于立法修改,从而实现灵活性与确定性的平衡。
三、处罚程序与证明方式的挑战——正当程序原则的新发展
(一)现有程序制度在自动化行政处罚中的贯彻不足
行政处罚程序体系构建相对比较完善,《行政处罚法》及相关法律法规中对告知、说明理由、当事人陈述和申辩、听证等具体程序制度进行了规定,这些具体程序在限制行政权、保护相对人权益、增强行政行为的确定性与合法性等方面发挥了重要作用。自动化行政方式并没有改变行政处罚的行为性质,其仍然属于一种行政处罚行为,那么《行政处罚法》等法律法规中规定的相应程序性要求就应当也适用于自动化行政处罚。虽然比较法上,有国家允许对某些批量做出的自动化行政行为予以一定的程序豁免,如无需签名、特定情况下可以不说明理由、无需事先听证等,但这种程序豁免都具有很大的局限。尤其是行政处罚属于负担行为,如果没有特别的理由,且未经过立法明确,不应减损自动化行政处罚的程序要求。
自动化行政处罚的实践,尤其是早期实践中,部分环节的无人化使得一些现有程序制度未能在自动化行政中得到完全的贯彻。比如杜宝良案中相对人之所以会被接连处罚105次而不自知,正是因为其没有及时地被告知。传统的人力执法,现场开设罚单并送达当事人,通过执法者与相对人的直接接触,可以对告知、说明理由、陈述与申辩等程序环节予以现场实施。而自动化行政处罚所实现的无人化,丧失了这种人与人之间的直接接触,继续适用传统的现场执法程序难以再满足要求。
这种现有程序制度贯彻不足的问题,其解决的基础思路有三:其一,需要在理念上认识到,自动化行政处罚是一种行政处罚行为,因此应当适用行政处罚法律体系中规定的相应程序制度,并不因为行政方式的改变而降低行政主体的程序义务。其二,应当通过新的技术手段和程序规定,在具体制度上实现现有程序要求。比如通过短信的即时推送来实现及时告知。在声呐电子警察案中,相对人就通过短信、道路电子屏等方式即时获悉了自己的受罚情形。其三,自动化行政处罚具有的非现场性、高效性等特征,使得部分程序制度的实现方式可能改变。最典型的趋势在于说明理由、陈述和申辩等程序的重心可能后移,从事前、事中程序变为事后纠正程序。比如一项交通违章处罚,在人力执法时代,现场处罚能够即时进行说明理由并听取陈述、申辩。而在自动化行政方式下,执法者可以事先通过短信等方式进行简单通知,当事人如果不服,可以通过网络平台、行政服务中心等媒介获取违法事实证据材料等更多信息,提出自己的申辩,并要求人工介入,对可能的错误进行纠正。从而在保障相对人程序权利的同时,发挥自动化行政处罚的高效优势。
(二)证据形态与证明方式改变所带来的可接受性与正当性难题
除了现有程序制度的贯彻不足,自动化行政所引发的程序挑战更体现在其带来了证据形式与证明方式方面的全新问题。在前述声呐电子警察案中,核心争议在于声呐抓拍的证据证明力,其本质是:在自动化行政方式下,随着新技术的不断运用,证据的形态与证明方式发生改变。这种改变带来了证据形式的法律认可问题与公众接受度的难题。对于前者,可以通过法律法规的修订予以解决,但是后者的矛盾则没有这么简单。
在自动化行政的早期运用中,自动化系统生成的证据往往比较直接、明了,符合人们的常识,如交通抓拍中所抓拍到的闯红灯照片。但随着技术的进步,越来越多超越人们常识的方式也开始出现,比如声呐电子警察。这一方面正说明了技术进步使得自动化行政可以完成那些人工难以完成的任务,但也恰恰挑战了人们的可接受度。人们会本能地对这种新技术手段作为证据的可靠性存在一定怀疑。
如果说声呐电子警察尚且还属于“看得见、听得到”这样的常识边缘,人工智能技术的进一步发展将会进一步挑战人们的接受极限。比如人脸识别,人工智能基于各种算法,其对人的识别方式与人类并不相同,因此很多时候人眼所无法识别的差异,却可以被人工智能区分;而当人眼被变装所欺骗的时候,人工智能却可能“透过现象看到本质”。这是技术的进步,但也是一个“反常识”的证据。
有些表面上反常识的证据形式和证明方式,仍然可以通过一定方法予以解释。但随着机器学习等人工智能算法的发展,部分人工智能算法可以自发学习和演进,其决策方式不是简单的线性一对一,而是变得扑朔迷离,也就是所谓的“算法黑箱”。人们只知道其输出了特定结果,这个结果从统计学上看大概率正确,至于为什么得出这个结果,人们却可能一无所知。此时可接受度所受到的挑战就将十分巨大。特别是在行政处罚中,如果不能得到一个让相对人可以理解的解释,仅仅用概率上的正确,是无法让被处罚人满意的。这种可接受性上的缺失,也将直接影响到行政处罚的教育与利导效果。
更进一步说,算法黑箱对于行政处罚正当性的影响还在于关系到在特定行政处罚中,证明标准是否达到。关于行政处罚的证明标准学界尚未有统一观点,但一般认为,像拘留、吊销证照等对相对人人身、财产权利有重大影响的重大行政处罚案件,应当适用确凿证据标准,也就是需要能够排除任何合理怀疑。那么一个难以被解释、难以被理解的、仿佛来自黑箱之中的人工智能算法所作出的结论,能否构成确凿证据标准的基础?换言之,对于这样算法黑箱的质疑是否构成一种合理怀疑?从这个角度上看,新技术使用所产生的黑箱问题,至少在行政处罚领域中存在巨大的潜在正当程序问题。
(三)自动化时代的正当程序原则
技术的发展带来治理模式的转变,自动化行政方式下的行政处罚制度发展也出现了一定的变化性与不确定性。为了在这样的变化中保护相对人的基本权利,需要构建一定的程序底线,不管技术如何变化,相对人可以通过程序的保护来获得应有的公正。在自动化行政时代,正当程序原则还将继续发挥重要作用。这一方面要求现有的行政处罚程序制度在没有特别理由、未经立法改变之前,应当同样适用于自动化行政处罚;另一方面正当程序原则的具体内容也产生了相应的发展,提出了一些新的要求:
1. 透明度与可解释性
提高包括人工智能算法在内的各种自动化行政技术手段的透明度和可解释性,是解决算法黑箱、提高技术接受度的一种直觉性的解决方式。因此虽然部分学者对算法透明的必要性提出异议,但是主流学术和立法都对自动化决策中的透明度与可解释性提出了相应要求,成为了一种重要的发展趋势。
所谓透明度和可解释性就是指,当自动化决策可能对相对人的权益产生重大影响时,应当对其作出决定的过程作适当的解释,使自动化决策能够被人类所识别、追踪和理解。在这一要求下,自动化行政处罚中如果在程序、证据等方式中使用了包含人工智能算法等在内的新技术,当这种新技术对相对人权益产生重大影响时,应当对这种技术影响处罚决定的方式做出解释,或者说,至少保有解释的能力。其制度建设可以部分参考说明理由制度。现行的说明理由制度包括说明事实依据、法律依据以及其他理由。透明度和可解释性在一定程度上可以视为对说明理由制度的拓展,其制度价值是相似的。但其与一般的说明理由不同的是,由于技术的复杂性,如果要求对每一技术细节处处进行事前解释,无疑成本高昂且冗长。因此正如本文前述的那样,关键是保留解释的能力,而具体解释的环节可以后移至事后,即当相对人存在异议的时候,对个案进行事后监督。
2. 技术运用中的形式公平
正当程序原则要求程序公正,在形式意义上与平等保护原则是一致的,即同样情形下的同样事情,应当在程序上获得相同的处理,不得考虑不相关的因素。然而人工智能算法却存在着个性化、定制化等特征,可以根据对象的不同,进行区别化处理。如果发挥这种优势,可以实现良好的精准治理,但是反过来,却也会产生程序不平等的问题。为了解决这一问题,至少在行政处罚这样的负担行为中应当建立起一系列程序公平的具体要求,从而使得新技术平等的适用于每一个体,程序的设计不会特别地不利于特定的人。这些具体要求应当包括:每一个决策都应该适用相同的策略或规则;在识别被决策主体身份前就事先明确决策策略(并且可靠的记录这一策略选择),从而降低通过设计程序来歧视特定个体的可能;每一项决策都可以依据特定的决策策略和特定的输入信息予以重现;如果一个决策中存在一定随机性(比如抽签),那么这种随机信息不能受到任何利益相关方的控制。
3. 评估与认证
一个人类完成特定的专业工作前需要进过一定的考试或评估并通过相应的认证,特定的技术手段在承担自动化行政的特定任务前也同样如此。这种评估与认证程序构成了自动化行政方式下正当程序原则的重要一环。比如在声呐电子警察案中,相对人对声呐定位的可靠性提出质疑,作为答辩,行政机关提出了违法鸣喇叭抓拍设备均已通过国家权威机构检测的证据。最终法院采纳了行政机关的观点。实际上,由于自动化行政中各种新技术的高度复杂性,普通人是难以理解也难以对其进行实质性审查的。这也是为什么部分学者认为将透明度普及到普通公众并没有意义。在这种情况下,专业机构与专业人士的评估与认证,将会起到关键作用。通过他们对技术手段予以测试,交流和发布可能存在的风险,满足正当程序的需求,同时提高公众的可接受度。此外,对于有些确实存在可解释性难题,但是又确有存在必要的特定技术,也可以通过一些专业技术工具的运用,在信息不完全的前提下对算法等新技术的实效进行检验,从而满足正当程序原则的基础要求。
四、自动化行政处罚的大数据悖论——对数据法治的再认识
(一)数据依赖与数据特殊限制之间的悖论
自动化行政时代在一定意义上同时也是数据时代。自动化系统做出各种判断的基础是数据库中的各类信息,而非工作人员的肉眼与经验,这产生了极强的数据依赖。一方面放大了数据出现错误时可能导致的不利后果。另一方面更是让行政活动中的数据需求剧增,使得数据的互联互通成为了自动化行政方式中的一个重要方向。
但这却形成了一个悖论:自动化行政要求数据的互联互通,但行政处罚的特性却对特定数据的使用进行了限制:即使某些数据为真,也不得使用。比如《统计法》中规定,统计调查中获得的能够识别或者推断单个统计调查对象身份的资料,任何单位和个人不得对外提供、泄露,不得用于统计以外的目的。《全国经济普查条例》和《人口普查条例》更是明确规定,经济普查和人口普查获得的数据严格限定用于特定用途,不得作为行政处罚依据。
之所以对数据的使用进行这样的限定,有几个原因:其一,保证统计数据、普查信息的准确性。如果可能成为惩罚的依据,那么必然会影响相对人申报信息时的真实程度。其二,防止诱导性的强迫自证其罪。相对人如实提供统计与普查信息,之后却以此为依据受到惩罚。这种惩罚超出了相对人提供信息时的预期,属于一种非自愿的自证其罪。其三,对于数据的认识逐渐出现转变。随着现代生活中数据的重要性愈发提高,人们对于数据的重视逐步增加,对数据的滥用危害也日益警惕。
(二)政务数据的公物法规制与个人数据权利的扩张
应当认识到,在对大数据时代予以欢呼的同时,数据泛滥同样可能是一场灾难。尤其是在行政处罚领域中,前述悖论的存在,使得我们有必要对看似美好的数据互联互通予以一定的限制。这种限制可以基于两种路径:
1. 将政务数据纳入公物法规制——政务数据的合目的性限制
政务数据具有很强的公共性,不管其来源如何,其并不属于政府的私产。政府对于数据的控制和管理,并不是基于一种类似于私法所有权的支配权,而是一种基于特定公共目的管理权。从这个意义上来说,政务数据是一种特殊的“公物”。和其他有形公物一样,政务数据处于行政主体支配之下,直接服务于公共利益,供公众按照一定程序予以直接使用,或者是服务于行政活动。与私物不同,公物上承载了特定的公共目的,其使用受到事先所确定的特定公共目的的合目的性拘束。换言之,作为一种特殊公物的数据,其承载的公共目的应当事先明确,之后行政机关仅能在设定的目的内使用这些数据。通过将数据纳入公物法的规制领域,可以很好的限制行政机关对于数据的滥用。而为了平衡数据联通互通的需求,可以针对各种政务数据的具体情况,在命名时设置或广或窄的公共目的范围,从而实现精准控制。
2. 个人数据权利的扩张
传统上,对于个人数据的保护主要基于隐私权。但传统隐私权不及于公共空间,因为你不可能要求公共空间的路人或者警察为了你“关闭自己的眼睛”。换言之,传统隐私权所能保护的范围是非常有限的,至少对于大量公共领域监控摄像头或者是网络空间所留足迹这样的信息就无法予以控制。但随着人们对于信息重要性的认识逐步提高,个人信息与数据逐渐获得了超越普通个人隐私的相对独立地位。像欧盟《通用数据保护条例》这样的标志性立法中,更是赋予了个人以数据的更正权与被遗忘权。这些个人数据权利的扩张将有利于解决自动化行政处罚中数据依赖所产生的如数据错误等问题,也将从另一个角度限制政府对个人数据的使用。
五、责任界定问题——责任主体与归责原则的确定
责任界定一直是自动驾驶等自动化技术普及过程中受到广泛关注的一个焦点问题,在自动化行政处罚中也不例外。在自动化行政处罚过程中,如果因为自动化系统的原因产生处罚错误,责任界定就可能出现两个有待解决的难题。
(一)外部技术主体的介入所产生的责任主体问题
自动化行政处罚中的自动化系统往往不是由行政机关自行研制和开发,而是由外部技术主体提供。他们对自动化系统予以设计、安装、运作和维护,对系统的了解往往比直接操作系统的行政机关工作人员更多。这就使得外部的企业与人员实质性的介入了行政处罚的特定环节之中,比如声呐电子系统的可靠性,就与技术提供方密不可分。这些技术主体将会通过自动化系统对行政程序产生一定的潜在影响,但却又并非行政机关的一部分,一旦因为自动化系统故障而导致了行政处罚错误,责任又该如何界定?
应当认识到,行政主体作为一种法律拟制,解决的就是行政法律关系中公权力方的主体问题。因此不管行政行为的方式如何改变,无论行政行为的具体承担者是个人、集体亦或是自动化系统,从法律意义上,作为行政法律关系一方的始终是行政主体。因此在不断变化的自动化行政方式中,行政主体仍然是责任界定不变的基点。
对于自动化行政处罚中的相对人来说,其无需关心到底哪些主体介入了行政程序之中,只需要针对行政行为法律意义上的主体寻求救济即可。而对于行政机关,一方面其有权力选择是否适用自动化系统、选择采用什么样的系统、选择如何进行自动化行政以及对最后的处罚决定进行把关,因此行政机关仍然是自动化行政行为真正的最终控制者;而另一方面,即使有外部技术主体的合作,行政机关仍然有义务对自动化行政的各个环节进行系统性的监督,确保行政任务的恰当完成。因此由行政机关承担自动化行政处罚错误时的直接责任具有正当性。
至于处罚错误的原因到底归因于行政机关还是外部技术主体、行政机关如果承担了责任是否可以向技术主体追责的问题,其实并不属于行政处罚关系中需要解决的问题。这一问题涉及的是技术主体与行政主体之间的技术法律服务,属于一种行政协议关系。如果技术主体存在过错,其按照行政协议中的具体约定承担相应责任即可。
(二)责任类型之辨与归责原则的确定
大陆法系的行政赔偿制度中,一般可以将行政赔偿责任分为公务员违法侵权的“人的行为”责任和公共设施设置和管理有欠缺所产生的“物的瑕疵”责任两大类型。两者的构成要件与救济程序并不完全相同。自动化行政处罚主要还是处于部分自动化阶段,尚不适用完全自动化,距离具有所谓独立人格的强人工智能更是遥远。因此在现阶段的行政处罚中,自动化系统出现错误所导致的责任形式还难以以“人的行为”作为类比,而更多地接近于“物的瑕疵”。
这对于自动化行政处罚赔偿责任的归责原则的确定有很大意义。由“人的行为”导致的赔偿,其归责原则为违法责任,需要行政过程中有行为违法性的存在,通常还要求存在故意或过失。而“物之瑕疵”导致的赔偿则属于无过失责任(也就是危险责任),其成立不需要过失或违法性。只要行政机关设置公共设施并提供给国民,就负有保护其安全性的义务,对于该设施产生的一切危险负担全部责任。自动化系统作为一种新技术的运用,过程中难免存在一定的瑕疵,这是一种社会发展难以避免的风险。即使行政机关守法谨慎,不存在违法与过错,这种风险很多时候也难以避免。如果适用违法责任,则意味着要让相对人自行承担社会一般性的技术风险在他身上的特别体现,这实际上就构成了一种特别牺牲。因此从这个角度上看,自动化行政处罚的赔偿责任中采用无过错责任更为恰当。
不过也应当注意到,自动化系统错误所导致的行政赔偿责任与一般的物之责任还是存在明显不同。比如按照我国现行法,公共设施致害的“物的瑕疵”责任不纳入国家赔偿的范围,是按照民事程序处理。这对于行政处罚错误的责任和救济来说是明显不合适的。随着技术的不断发展,这两种责任之间的不同还将愈发明显。因此从长远上看,将自动化系统错误导致的责任予以单独类型化,确定专门的责任构成要件,是一种更为可取的路径。
结语
以人工智能为代表的新技术正在深刻的改变人们的生活。我们的政府也积极拥抱这种改变,通过自动化行政等方式改善治理模式,更好的实现行政任务。但这种改变所带来的法律挑战也是深远和全面的。行政处罚作为一种适用最为广泛、制度相对最为完善的负担行政行为,其制度上的回应需求也最为迫切。在未来《行政处罚法》的修订中,应当充分认识到自动化行政方式所带来的巨大挑战与回应需求,在制度上予以完善。还应当注意到,技术的发展仍然在不断前进中,甚至越来越快。因此应该坚持正当程序等基本原则,为变化的社会带来相对稳定的保障;同时在具体制度上留有一定发展和创新的空间,构建出具有一定发展弹性的自动化行政处罚制度体系。