孔祥稳(对外经济贸易大学法学院讲师)
【摘 要】 互联网时代,公共表达的主要空间转移到互联网平台。由于技术能力和执法资源受限,行政机关倾向于通过课以平台义务督促平台展开内部规制,对信息内容的规制模式也随之转化为高权干预与私人规制的结合。但由于制定法对违法信息判断标准和平台审查义务界定的模糊,以及对责任设定的缺陷,致使平台的规制活动存在侵犯使用者权利的风险和隐患。规制的不断趋严可能带来“寒蝉效应”,而平台规制外观上的私法属性则使其逃避了公法规则的约束。可能的应对方案为优化平台的法定审查义务,并明确平台的基本权利保护要求。互联网时代如何调处国家、平台、私人的关系将是未来需要继续面对的课题。
【关键词】私权力 平台责任 内容审查 基本权利第三人效力
一、问题的提出
数字经济时代,信息成为社会经济发展的重要驱动力,网络平台的迅速崛起则成为最显著的经济标志。作为信息聚合与流散的中心,网络平台通过高效的信息匹配形成了双边或多边市场效应,成为社会生产生活的组织中心。信息撮合是平台的本质和基础,这致使巨量信息在平台内融汇。在资源配置优化、社会生活便利的同时,大量违法信息也进入了平台生态。由于技术能力和执法资源受限,行政机关通常难以直接对平台内的所有违法行为进行管控,而倾向于对平台课以义务、设定公法或私法责任,从而督促平台展开内部规制来实现公共目的,“平台责任”与“平台治理”的命题就此形成。
为实现国家立法所规定的目标,大部分平台制定了作为内部治理规则的“网规”,依托过滤、屏蔽等技术措施,在平台内部建立和实施违法信息查处机制,优化整体秩序。这种兼具技术与策略的治理手段取得了良好的效果。在我国互联网管理中,这一路径也被形象地概括为“以网管网”。从大陆法系行政法学的理论框架来看,这一治理形式尚无法纳入“行政授权”“行政委托”等传统概念的范畴,也与行政任务民营化有一定差别。因为平台并未得到实定法的明确授权或是特定主体的委托,而仅是基于法定义务的督促而展开内部规制。换句话说,实定法仅赋予平台进行规制的义务,但却并未赋予平台相应的行政职权。此外,平台的治理活动也并非是面向整个社会场域,而仅仅针对其平台内部生态进行。鉴于此,平台所行使的并非是来自于国家或公共组织所授予的“公权力”,而是基于其与平台用户之间支配与被支配关系而形成的一种“私权力”。
近年来,国内行政法学者在肯定私人审查和规制活动能够提高规制效率、改善规制框架的同时,也指出其通常存在着突破比例原则、缺乏正当程序保护、合法性约束淡化等一系列问题。也即在私人规制的语境之下,除了厘清公权力与私权力之间的关系外,如何调和私权力与公民个人权利间的冲突,平衡治理效能和权利保护之间的张力也是极为重要的命题。正如有研究者所指出,智能互联网时代形成了“公权力—私权力—私权利”之间复杂博弈的新格局,三者之间都可能发生合作与对抗机制,这在很大程度上改变了以往国家与社会、权力与权利的关系结构与功能。从国内相关研究来看,对于此种情境下如何保护权利的探讨尚不充分。尽管有研究者指出私主体执行行政任务存在着侵犯公民权利、模糊政府责任以及危害公法价值等潜在风险,但却并未系统构建应对机制。在公权力、私权力、私权利的三者的复杂博弈之中,私权利明显处于相对弱势的地位。
将这一复杂博弈体现得最为充分的是网络平台对于信息内容的规制。当互联网成为社会信息的主要载体后,各类网络平台也成为了公共表达的主要场域。由于互联网信息内容多、传播速度快、影响范围大、损害不可逆,仇恨性、煽动性表达可能造成的社会风险成倍提升,政府防范和干预风险的难度也逐渐增大。这使得各国开始重新审视对互联网信息内容的规范。2018年,欧盟理事会要求欧盟委员会提交了关于提高检测和删除恐怖主义内容的立法提案,该提案于2019年4月17日经欧洲议会投票通过。德国也在2017年出台了《改进社交网络中法律执行的法案》(Gesetz zur Verbesserung der Rechtsdurch setzung in sozialen Netzwerkn,简称“《网络执行法》”),该法案赋予了平台更严格的信息管控义务。这似乎表明依托平台展开规制成为世界范围内的普遍选择。但与此同时,平台基于“私权力”而广泛展开的规制活动逃逸在传统公法规范的约束之外,增加了使用者权利被不当干预的风险。这种激烈的冲突反映出,在互联网信息内容规制领域,国家公权力、平台私权力、使用者个人权利三者间的内在张力需要得到更进一步的思考与解决。在此背景下,本文所要试图回答的问题是,当数字经济时代的公共治理发生转向,私人规制成为公共治理的重要依托时,这一模式对于个体权利的保护带来了哪些潜在的隐患和风险,以及如何在保障治理效能与保护个人权利之间寻求可欲的平衡。
二、网络平台信息内容规制的基本结构
传统上,对表达权利的保护所面向的是“政府”与“个人”的二元关系,相应的制度安排也是在此基础上构建。但当互联网崛起,尤其是网络平台兴起后,公共表达的主要场域从传统媒介转移到网络平台,内容规制的结构也随之变为“个人(发言者)—企业(平台)—政府(国家)”的三角关系。面对平台企业的迅猛发展,我国以《网络安全法》和《互联网信息服务管理办法》为基础,辅之以大量的规章和规范性文件,已经构建起一个以平台为中心的规制体系,各网络平台则在此基础上制定颁布“网规”,形成内部治理的基本规则。
(一)内容规制的基本模式:从二元结构到三元结构
按照欧文·费斯(Owen Fiss)等学者对美国表达自由传统的论述,古典的表达自由模式可以被理解为对“街头发言者(the street corner speaker)”的保护——“街头发言者”象征一个站在大城市街头的肥皂箱上,因为向路人发表批评政府言论而被逮捕的个人。在这一设定中,公共言论的核心是批评政府的政治言论,美国宪法第一修正案如同一面盾牌,主要围绕着防范国家对个人表达的压制而构建。上述建构可以被归纳为古典的表达自由理论,其内在核心承袭了约翰·弥尔顿、约翰·密尔等人所构建的自由观,与政治哲学上的古典自由主义和经济学上的自由放任主义有着深刻联系,也与美国表达自由理论体系中保护“自治”(autonomy)的理念紧密相关。在这一时期,表达权所面向的依然是“政府”与“个人”的二元对立关系,媒体的属性、架构、功能等尚未对发言者和公共言论造成结构性影响,甚至于媒体也通常被视作具有表达需求的“个人”之代表,得到表达自由相关权利的保护。
然而,当大型媒介逐渐崛起,尤其是互联网时代来临后,“街头发言者”模式逐渐被颠覆。首先,公共话语的集散地不再是“街头”或传统媒体,而转移到了互联网平台。在“双边效应”的作用下,平台经营业态逐渐混合化,部分平台兼具了即时通讯、社交等多种功能,逐渐成为公共意见的集散地。美国皮尤研究中心的调查显示,在2016年,有62%的美国人通过互联网社交平台获取新闻,这一数字比2012年的49%上升了13个百分点。这显示出互联网在信息传播上的作用正随着数字技术的发展而不断跃升。当更多人参与到公共表达中,且信息的载体逐渐数字化后,信息的量级急速递增。面对无数的发言者、海量的信息、极快的传播速度,公共部门无法再通过传统的事先许可加事后审查的方式对信息内容进行直接规制,而必须诉诸于平台的力量。强大的平台面对分散的用户具有技术上和资源上的优势,包括关键词过滤、删除、屏蔽、封停账号等手段在内的技术操作可对信息流通产生较大的影响,以至于国外有人从政治、经济等方面进行分析后开始将Facebook等大型网络平台比作“国家”(Facebookistan)。故而在这个时代,公共表达中“政府”与“个人”的二元关系也开始逐渐转化为“个人—企业—政府”的三角关系。
在对内容进行规制时,平台因其在互联网架构中的关键作用而有着政府难以比拟的优势。用户公开发表任何信息均需要经过平台的服务器进行传输,在这一过程中,平台可以通过关键字过滤等技术进行事先过滤,当用户试图发布的内容涉及敏感字词时,可能会出现无法正常发送的情况,这意味着平台能够以较低的成本过滤掉大量具有违法风险的内容。在需要确定信息发布者并课以线下责任时,平台通过其保存在后端的用户注册信息可以完成快捷和准确的确认,这一功能在实名制的网络环境下体现得尤为明显;而且,互联网信息的传播速度快,影响大,平台可以基于对传播效果的监测,在第一时间采取措施,有效阻止信息扩散。甚至可以采取封停账户等方式,清除发布严重违法信息或多次违法的账号。总而言之,主管机关在对信息内容进行管控时,倘若能够借助平台的力量,将获得事半功倍的效果。
(二)我国互联网信息内容规制的法律框架
从实定法规范来看,我国互联网信息内容规制的架构同样符合上述特征,其具体规则分为三个层次:第一个层次是对违法信息的判定标准;第二个层次是平台对违法信息的处理义务;第三个层次是平台不履行或未按规定履行相关处理义务所可能导致的后果。
在互联网违法信息判定上,公安部1997年发布的《计算机信息网络国际联网安全保护管理办法》已经初步提出了判断标准,这一标准在国务院2000年发布的《互联网信息服务管理办法》中得到进一步完善。该办法第15条规定了八类互联网信息服务提供者不得制作、复制、发布、传播的信息,以及一项兜底条款,因而也被业界称为“九不准”。由于这一条文调整的是互联网信息服务提供者“制作、复制、发布、传播”的行为,并不自主生产内容的第三方平台自然也被纳入调整范围当中。2017年生效的《网络安全法》虽未直接定义违法信息,但在总则部分规定了不得利用网络从事的违法活动,这一范围与“九不准”大致相同,仅在具体表述上存在部分差异。
在平台对违法内容的处理义务方面,现行立法所规定的义务主要包括停止传输、消除信息、防止扩散、保存记录、报告有关部门五类。早期的《互联网信息服务管理办法》仅规定停止传输、保存记录、报告有关部门三项义务,并规定当平台发现有信息“明显”属于该办法第15条所规定的违法信息时,才负有相关的处理义务。《网络安全法》沿用了2012年《全国人民代表大会常务委员会关于加强网络信息保护的决定》中的规定,增加了采取消除等处置措施、防止扩散的义务,从侧面反映出当下更加强调对于违法信息传递过程的管控,这与移动互联网应用条件下违法信息的量级和传播速率增加有紧密关联。
在法律责任层面,《网络安全法》第68条规定,平台对法律、行政法规禁止发布或者传输的信息未采取停止传输、消除、保存有关记录等措施的,由有关主管部门责令改正,给予警告,没收违法所得。倘若有“拒不改正”或“情节严重”的情形,处十万元以上五十万元以下罚款,并可以责令暂停相关业务、停业整顿、关闭网站、吊销相关业务许可证或者吊销营业执照,对直接负责的主管人员和其他直接责任人员处一万元以上十万元以下罚款。这一条款相较于《互联网信息服务管理办法》第23条在责任形式上有所丰富,并增加了对于主管人员和其他直接责任人员个人的处罚。
从以上梳理可以看出,以《网络安全法》和《互联网信息服务管理办法》等规范为基础,实定法已经构建起一个以平台为中心的规制体系。在该体系中,执法机关充分借助平台在发现、寻找、处理违法信息方面的优势,要求平台积极展开规制活动。若平台未按照法定要求处理违法信息,可能需要承担相应的法律责任。国外有研究者将这一模式称为“附属审查”(collateral censorship),即当A主体可能对并无直接隶属关系的B主体所发布的信息承担法律责任时,A基于其实际权力而对B所发布信息进行的审查,并认为从政府直接规制到依托平台的附属审查体现了“新派”(new school)的表达规制路径。从实践来看,这一模式在保障互联网信息秩序上发挥了很大作用,平台在发现和处理违法信息上高效、便利的特点得到充分体现。但值得注意的是,虽然立法为平台设定了发现和处理违法信息的义务,但对于平台如何发现、判定违法信息则没有进行清晰的界定,这导致规制体系内部存在着一定的隐患。
其一,《网络安全法》第47条规定了平台在发现违法信息后具有处置义务,但对于平台应当负有怎样的“发现”义务却缺乏解释。接到主管机关指令、接到用户举报、主动监控、人工排查等均可以纳入“发现”范畴,但采用不同的标准却对平台运营的成本和架构有着不同影响。从实践来看,下位法多有强化平台“发现”义务,要求平台主动进行违法信息的搜寻和监控的倾向。如2015年发布的《互联网危险物品信息发布管理规定》明确要求网络服务提供者加强对接入网站及用户发布信息的管理,并确立了定期对信息进行巡查的义务。国家网信办《互联网用户公众账号信息服务管理规定》第12条则要求平台要对用户公众账号的留言、跟帖、评论等互动环节进行实时管理。此外,部分规范还明确提出人工审查的要求,如《互联网新闻信息服务管理规定》第6条就明确规定,申请互联网新闻信息服务许可,必须有与服务相适应的内容审核人员。
其二,平台对内容违法性的判断可能欠缺专业度。《网络安全法》和《互联网信息服务管理办法》对违法信息范围的划定较为全面,但却存在判断标准不够清晰的问题。例如,《互联网信息服务管理办法》所规定的违法信息包括了“散布谣言,扰乱社会秩序,破坏社会稳定”,即俗称的网络谣言,《网络安全法》也规定“不得编造、传播虚假信息扰乱经济秩序和社会秩序”。然而,判断信息是否属于“谣言”是一个复杂的事实认定和法律推理过程,通常需要对信息内容的性质、类型等进行实质性判断,后果条件中的“社会秩序”“社会稳定”“经济秩序”等概念又高度抽象,平台作为不具备政策形成与法律裁量空间的企业,很难做出专业和准确的认定。对于这一问题,《互联网信息服务管理办法》曾经设定了一个独特的规范结构——当互联网信息服务提供者发现相关信息明显属于违法信息时,才负有采取措施的义务。信息达到“明显违法”的标准,意味着一般理性人即可判断,这避免了平台专业能力不足的窘境。然而,包括《网络安全法》在内的后续法规范几乎都未采用这一标准。
其三,主管机关在对平台课以行政责任时,可能存在忽略平台技术审查能力的情况。因为对发现和处置义务界定不够清晰,对平台是否尽到审查义务的判断往往被忽略,这导致执法可能出现“结果主义”——以平台存在违法信息与否而非平台存在过错与否进行问责,实质上让平台对内容承担了严格责任。有研究者认为,《网络安全法》规定“发现违法信息”是平台承担处置义务的前提,这意味着平台对于“未被发现”和“未能被发现”的违法信息不用承担责任。也有研究者提出,从2012年《全国人民代表大会常务会员会关于加强网络信息保护的决定》出发,平台只有“发现法律、法规禁止发布或者传输的信息”时,才需要履行处置义务,如果平台未发现相关信息是法律所禁止的信息,或者发现违法信息后履行了法定义务,则不应当承担任何法律责任。但之所以执法中未采取此种过错主义的归责路径,一种可能的解释是,执法机关很大程度上把平台视为了信息的总把关人,要求平台对于其生态内的所有信息负总责。然而,在互联网环境下,平台并不具备传统媒体管道中的层级管控能力。如果要求所有内容均经过人工把关的话,平台运营成本将大幅度增加,信息效率可能受到影响,同时还可能会对内容丰富的大平台形成主动减少创新的负向激励。
(三)平台内部的信息内容规制结构
在国家立法之外,绝大多数平台几乎都建立了系统内部的规则体系,即俗称的“网规”,这被认为是低信息成本下实施法律,满足治理要求的一种方式。在用户注册并使用个人账户时,这些规则以“用户协议”“行为规范”等形式呈现,用户必须同意相关规则才能顺利注册账户,接受平台所提供的服务。从性质上说,网规与实定法最大的区别是,平台通过与用户签订协议的方式完成了规制依据的私法化。通过网规规范用户行为的治理方式在近年来得到了主管机关的认可,成文立法中也开始明确要求平台通过协议对用户行为进行规范。
在对违法信息的应对和处理上,平台采用了事前预防与事后制裁并行的技术手段。首先,如前所言,大部分平台均建立了基于关键词的事前过滤机制,从源头上预防高风险信息进入平台空间,大量违法信息在这一环节失去了流通可能。其次,当平台经过主动审查或者接到其他用户的举报投诉,认定有违法信息存在时,将会启动对违法信息和信息发布主体的处理。从实践来看,各平台使用较多的处理方式由轻到重,主要包括:屏蔽相关信息(其他人无法查看)、停止信息传输(即俗称的删帖)、一段时间内或永久的停止发言(禁言),以及暂停或永久性关闭用户的账号(封停),但对于上述各种处理手段之间的适用标准和相互关系,大多数网规的说明并不细致。
在救济层面,当用户发布的信息被认定为违法信息并被处理后,大多数平台均设定了申诉复核机制。与网规的内部属性相似,这一机制同样属于平台内部机制,旨在为被错误判断的用户提供挑战处理决定的途径。以微信公众平台为例,在相关内容涉嫌违法被删除后,后台运营界面将在处理决定告知中附带“发起申诉”链接,对于每条内容处理决定,公众号运营者有一次申诉机会,可填写200字以内的申诉原因并附上相关申诉证明材料。
三、网络平台信息内容规制结构的内在缺陷
依托前述规制结构,平台实现了对违法信息的及时审查与处理。然而,由于成文法规则的不完善,导致这一结构也存在着一定的缺陷与隐患:在严格的法律责任面前,平台的自我规制存在趋严的倾向,从而导致个人空间被压缩。而当个人权利受损时,平台私主体的属性决定了其不受“国家—个人”关系中基本权利保护要求的限制。这所导致的结果是,在“政府—平台—个人”的三角结构中,用户个人始终处于弱势状态,并可能由此影响到平台生态的繁荣和公共利益的实现,这一三角结构本身也难以形成可持续的均衡状态。
(一)自我规制不断趋严可能造成“寒蝉效应”
作为一个开放的公共论坛,通常来说,平台会倾向于鼓励内部多元文化的表达,丰富公共场域的观点,从而实现信息乃至文化的繁荣。然而,在现有的规制体系下,因为实定法对平台的审查义务和法律责任要求较严,而相关的判定、解释标准又不够清晰和细致,致使平台暴露在过大的法律风险当中。从趋利避害的理性人角度出发,严格处理涉嫌违法的信息所涉及的是分散的单个用户的权益,并不会对平台内部的海量内容造成本质影响,尤其是发表这些内容所带来的正向激励更多归属于用户个人而非平台。但是,疏于处理却可能使平台面临巨大的法律风险,这决定了平台的审查标准必定是更加谨慎和严格的。有研究发现,在英国等国也存在着平台在接到投诉后未经仔细核查就将合法内容下架的问题。具体而言,在违法内容的认定标准和处理机制两个方面,平台自我规制都存在不断趋严的倾向,从而可能造成“寒蝉效应”。
首先,以微信公众平台的内容规制作为观察对象,即可发现平台在违法信息认定上存在扩张倾向。《微信公众平台服务协议》在第6.1.2部分明确规定了禁止发布、传送、传播、储存的违法内容,共计12项,其中第12项为兜底条款。然而,在前11项中,除前8项与《互联网信息服务管理办法》所列举违法信息范围相一致外,第9至11项均有扩张的趋势。尤其是该规范第11项,认为不符合《即时通信工具公众信息服务发展管理暂行规定》及遵守法律法规、社会主义制度、国家利益、公民合法利益、公共秩序、社会道德风尚和信息真实性等“七条底线”要求的均属于违规信息。在概念上,“七条底线”中存在着“国家利益”“公民合法利益”“公共秩序”等大量不确定概念,在解释中可能出现扩大现象。在性质上,“七条底线”应当是规范即时通信工具服务使用者一般行为的原则性要求,而非判断违法信息的具体标准,但平台在执行时直接依据其判断相关内容是否合法。这一“层层加码”的趋势扩大了审查范围,使得审查进一步趋向于严格,同时也无助于用户形成稳定的预期。
其次,举报投诉机制中权利义务关系的失衡加剧了这一情况的发生。从制度设计上看,内容管理领域举报投诉机制的原型是《侵权责任法》第36条的“通知—删除”条款,其所借鉴的样本是美国1998年《数字千年版权法》所确立的“避风港”规则。按照这一规则,当平台上出现侵权内容时,权利人有权通知并要求平台采取必要处理措施,若平台未及时采取措施,需要就损害扩大部分承担连带责任。由于《侵权责任法》第36条的制度设计相对简单,可能导致权利人通知行为的滥用,学者们普遍主张应当规定反通知机制,并明确错误通知的法律后果,此类主张在后续的《电子商务法》等立法中得到了体现。具体而言,版权领域“通知—删除”规则中对于权利人的通知行为具有如下制约方式:第一,权利人在提出侵权通知时,必须提供构成侵权的初步证据,以襄助平台作出判断。第二,错误通知造成损失需要承担责任,尤其是恶意通知,需要承担更为严重的法律责任。第三,被通知人可以发出不存在侵权的反通知,通知与反通知之间的争议将交由执法机关或司法机关解决,以避免平台陷入判断窘境。正如有研究者在评论《侵权责任法》第36条时所言,“在解决言论自由与人格权之间的矛盾时,只有法律的权威性方能够赋予这种取舍以合理性基础,而作为以个体利益最大化为目标的网络服务提供者,显然不能也不应被置于对二者进行利益衡量并予以取舍的地位”。
然而,当举报投诉机制迁移到内容规制领域后,由于缺乏对于举报投诉人行为的规范和制约,就有可能出现制度性失衡:其一,目前实定法所规定的“违法信息”主要为涉及公共利益而非私益的信息,用户的判断未必具有专业性,这使得举报投诉可能是不准确的;其二,错误举报投诉甚至恶意举报投诉不用承担责任,使得举报投诉近乎“零成本”;其三,举报投诉信息难以完整送达内容发布者,失去了通知与反通知机制中的实质性交涉环节。这使得内容领域的举报机制过于偏向举报投诉者。从平台的角度出发,倘若在接到投诉举报后未采取措施,而相关信息在后续处理中被主管机关认定为违法的话,平台可能因为“发现”违法信息未处理而承担责任。故平台自然“宁失之于严,不失之于宽”,以投诉举报的数量、内容的影响力等更加模糊的标准作为判定内容是否违法的依据。
此处值得一提的是,审查标准和审查力度的不断强化,尽管能够在很大程度上减轻主管机关查处违法信息的压力,但对于公共治理而言却并非益事。一方面,过于严格的信息过滤可能窒碍公共信息的有效传递,从而削减公共言论在促进文化繁荣、监督公权力运行等方面的作用,不必要的管制也会增加社会运行的额外成本;另一方面,由于平台的规制活动与行政执法有着紧密联系,误判、误删等过度反应可能被使用者归因于政府,导致主管机关公信力受挫。最为典型的例子是,由中央气象台官方微博所发布的台风黄色预警曾经因为关键词“涉黄”而被删除,在互联网上引发强烈批评。
(二)平台在对基本权利进行限制时逃逸于公法规则约束之外
从上文的分析可以看出,平台在其生态内部具有较为完整的规则制定权、执行权以及准司法救济权,形成了一个近似于主权国家的权力体系。但倘若平台的规制活动涉及用户权利,则往往会因为在性质上属于私主体而逃逸于公法规则的约束之外,增加权利被侵犯的风险。具体而言,这种风险可能表现在三个层面。
首先,在规则制定层面,平台独占了规则制定的话语权。在成文宪法国家中,宪法居于法律体系金字塔的顶端,代议机关通过立法实现宪法的具体化,授权政府展开规制活动。这也是行政法上最为传统的正当性传递模式。然而,尽管网络平台所构建的公共生态与主权国家的公共空间存在一定同构性,但平台用户却无法参与到规则制定当中。在用户协议面前,用户仅仅有选择接受与否的权利。尽管从法律性质上看,平台与用户所缔结的协议是平等主体之间的民事协议,但用户却缺乏实质上的议价能力。而大型互联网企业向寡头垄断的迈进,也使得用户“用脚投票”的可能性不复存在。美国皮尤研究中心2016年的调查显示,在占美国总人口比例86%的美国网民中,Facebook的活跃用户占比达到79%,比2015年升高5个百分点。这一数字远远高出排名第二的Instagram(32%),且Facebook用户依然在逐渐增长,而其他社交平台则仅能基本维持原有市场占比。这反映出大型平台在用户聚集上的虹吸效应。
其次,在规则实施层面,平台的私主体身份让其规避了公法原则的限制,其中最为典型的是对正当程序原则的规避。近代以降,正当程序逐渐成为保护公民权利的重要屏障。在行政执法活动中,正当程序的要求集中体现在,公权力机关对当事人做出不利决定时,应当告知当事人决定的内容并且说明理由,同时给予当事人陈述申辩的机会,告知其救济的途径。我国《行政处罚法》等多部法律的具体规范都体现了正当程序原则的精神。然而,在平台规制活动中,作为私主体的平台并不受到《行政处罚法》等公法规范的调整。正当程序作为一种权利保障装置,其本身需要付出一定成本,以商业利益为主要考量的平台并无动力主动遵循。事实上,免却了正当程序的限制,也是平台治理效率如此之高的一个重要原因。而缺乏了正当程序装置的保障,用户权利被侵犯的可能性将大幅增加。例如,在基于关键词过滤的事前审查中,平台所实施的事前限制的非正式性和隐蔽性都更加明显;在对违法信息的处理中,平台并未给予用户充分的告知和说明,这导致用户缺乏合理预期,对形成良好规范的平台秩序也并无助益。部分平台还直接在网规中列明,其有权不经通知随时对相关内容进行删除、屏蔽,并视行为情节对违规账号处以警告、限制功能、封禁、注销等各类处罚。
最后,在救济路径的选择上,私法救济对用户权利的保护力度不足。从实践来看,平台内部的申诉机制存在着透明度不足等问题。当信息被删除时,发布者虽然可以选择进行申诉,但因平台并未告知发布者删除的详细理由与依据,发布者自然也不可能提出有效的申诉理由。双方无法形成实质性的交涉,该机制也就难以充分发挥作用。同时,对于平台所展开的审查行为,用户在寻求司法救济方面存在困难。尽管我国未建立针对个案的宪法监督机制,但传统上却依靠其他公法规范形成了一套独特的基本权利保护体系。尤其是行政诉讼制度,在保护公民基本权利上发挥了重要作用。然而,当平台实施处置行为时,用户不服处置决定在理论上只能以违反协议为由提起违约诉讼。值得注意的是,适用公法规范亦或私法规范对平台活动进行审查的差异极大。在行政诉讼中,作为被告的行政机关需要承担举证责任,证明其行为的合法性;私法诉讼则遵循谁主张谁举证的原则。同时,由于争议所适用的是私法规则,更重视意思自治,提供格式合同文本的平台显然享有更为充分的解释权和话语权。
四、以平台为中心的规则调适
在“政府—平台—用户”的三元结构中,实定法赋予平台的审查义务是平台规制强化的重要动因,平台相对于用户的强势地位则导致了其行为缺乏相应的限制与约束。调试这一结构需要回应上述两个问题。一方面,应当从优化平台的法定审查义务入手,设定更为清晰和明确的内容规制要求,减少平台自我加压的可能;另一方面,面对平台对用户所形成的实际支配地位,应当通过引入正当程序等公法要求和装置,提高平台在处置信息内容时的规范性,从正反两个方面入手,保证“政府—平台—用户”三元结构的均衡性。
(一)优化平台的法定审查义务
优化平台责任的设定,其关键在于厘清平台“发现”和“判明”违法信息的标准。如前文所言,之所以平台规制会出现宽严失据的现象,其中一个原因是实定法在为平台设定违法信息处理义务时,忽视了侵犯公共利益与侵犯私人利益的信息内容之差异,确立了相似的处理规则,从而导致部分权利平衡机制的失灵。因此,在对违法信息进行界定时,应当对侵犯公共利益的信息与侵犯私人利益的信息进行分类,根据不同信息内容的性质和特点来设计相应制度。
首先,对于侵犯公共利益的信息,在如何界定“发现”上,应当结合平台经济的特点和平台技术特征确立标准。从实践来看,平台“发现”违法信息的主要路径可以分为三类,分别为:(1)主管机关的通知;(2)平台的自主监控;(3)用户的举报投诉。其中主管机关的通知属于对违法内容的有权认定和处理,且通知内容确定,自然可以成为平台“发现”义务的来源。对于平台是否应当建立对内容的普遍监控,存在不同观点。学界一般认为,尽管随着互联网平台的发展,“避风港原则”经历了部分修正与调整,然而其作为平台法律责任的基本出发点这一判断尚未发生改变。但是,由于互联网在信息传播上的优势,平台上的违法信息可能比传统媒体上的违法信息对社会影响更大,这也促使平台开始反思应当如何在公共治理中承担更多责任。例如,2016年 12月,Facebook、微软、Twitter和 YouTube就宣布将联合开发一个共享数据库,用来限制恐怖主义内容的传播。因此,可行的折中方案为,不要求平台承担全面审查义务,尤其不应要求平台对于每一条信息均进行发布前的人工审查,但可要求平台建立符合技术特点的信息筛查和风险防范系统,即有研究者主张的“技术性审查”,从而以相对较小的成本实现有效率的规制。只要平台建立并运行了相应机制,就应当认定其履行了相关义务,而不应采结果主义。对于技术能力有所欠缺的中小平台而言,这种技术性审查可以考虑通过向第三方购买服务的方式实现。此外,还应当对用户的举报投诉机制进行适当改造,例如要求举报者详细阐述认定相关信息违法的理由,并设定恶意举报时可对举报投诉者处以暂停使用举报功能,或暂停访问等处置。当被举报投诉的信息存在法律定性上的难题时,应当建立与主管机关的联系与沟通制度,由主管机关进行最终的性质判定。目前,《互联网用户公众账号信息服务管理规定》已经意识到这一问题,在第 15条第2款规定了“完善恶意举报甄别、举报受理反馈等机制,及时公正处理投诉举报”,但相应机制的设计还需继续细化。
在对违法的判定标准上,应当重新回归“明显”标准。《互联网信息服务管理办法》第16条的规定表明,在规制初期,主管机关仅要求平台对明显违法的信息进行处理,只是这一标准在后续的立法中未被采纳。然而,对信息内容进行法律定性本不是平台所擅长的工作,平台审查人员并非受过专业训练的法律人士,并不掌握法律解释的技能,难以对复杂内容进行准确定性。曾经有主张认为可以要求平台通过雇佣律师等形式建立人工审核团队,提高审查精确性。对于这一主张,暂且不论平台是否能够负担相应人力成本,即便平台聘请了相关专业人士,因其并不具有行政执法的主体资格,所作判断同样无法在法律上获得最终的权威性,平台依然要面临与主管机关判断不一致的风险。更为科学和合理的做法应当是回归“明显违法”这一判断标准,无论是平台主动监控获得违法线索,亦或是通过举报投诉途径掌握违法线索,只有当相关内容的违法性明显到一般理性人能够直接作出判断时,平台才负有相应的处理义务,否则平台仅应当依据主管机关指令来作出最终的处理决定。从比较法上的经验来看,在欧美国家,平台对用户行政违法内容的注意义务通常都要低于民事侵权内容。这并非是因为行政违法内容所侵及的法益不如民事侵权内容重要,而是由于缺少了权利人所提供的相关证明材料等可用于认定,平台很难进行法律上的准确判断。
其次,对于侵犯私人利益的信息,由于其所侵犯的法益并不具备社会范围内的整体危害性,从法益衡量和保护平台生态的角度而言,不宜要求平台建立一般性的审查机制。平台对此类信息的“发现”只应基于执法机关、司法机关的指令和权利人的通知。在“通知——删除”规则上,可大致沿用目前《侵权责任法》《电子商务法》的相关设定,即以“避风港”原则为基础,明确反通知机制和错误通知的责任。但需要注意的是,在侵犯私人利益的信息中,有一类信息具有较高的公共利益属性,属于公益与私益交叉的信息,即《互联网信息服务管理办法》第15条第8项规定的“侮辱或者诽谤他人,侵害他人合法权益的”信息。相较于版权侵权,该类信息因为可能包括对公众人物和公共事务的监督而具备一定的公益属性,故在违法性判断上应当参照侵犯公益的信息进行适当调整。
(二)明确平台的权利保护要求
从制度经济学的角度出发,通过设定相应的责任条款,以反向激励的方式要求平台承担责任,在功能主义层面具有正当性基础。然而,这种责任的设定必须在一个合理限度内,充分考虑到平台的执行能力及其可能面临的现实后果。从前文的梳理来看,制定法在设定平台责任时较为严格,对平台的审查义务要求偏高。造成这一现象的一个重要原因是,立法机关和主管部门在很大程度上注重了“以网管网”所带来的快捷、便利、有效,但未充分考虑到这一路径可能对私主体权益造成的损害。尤其值得注意的是,在互联网平台经济迅速发展,内容创业成为重要风口的当下,信息内容规制不仅可能涉及平台用户的表达权利,还有可能影响到用户的财产权利,从而形成基本权利的竞合。因此,应当将保护基本权利作为平台治理的一项重要价值纳入规制系统的设计当中。在合理设定平台法定审查义务的同时,还必须设计相应制度防止平台过度侵及公民权利。有研究者提出,私人规制以合同和自愿为行动基础,不受“无法律则无行政”原则的约束,但仍应当接受宪法规范的调整,负担最基本的宪法义务。然而,其没有解决的问题是,要求私主体承担宪法义务,保护公民的基本权利,是否属于宪法的效力范围之内?如果属于的话,私主体应当承担的宪法义务又包括哪些?
这一问题的本质是宪法基本权利是否拘束私主体间关系的问题。以美国为代表的“国家行为”(State Action)理论和以德国为代表的“基本权利第三人效力”理论都试图为这一问题提供方案。“国家行为”是指在私人关系中存在国家行为的因素时,即可适用基本权利规范,这些因素可能包括公共职能的承担、与国家机构的紧密联系、共同作出行为等。这一学说在美国国内即存在巨大争议,关于其存废或改造的论争一直未停止。“基本权利第三人效力”是指传统上针对国家权力的基本权利效力及于国家与公民关系之外的第三人,即拘束私人与私人之间的关系。基本权利第三人效力有“直接效力说”和“间接效力说”之分。直接效力说认为基本权利可以在私人之间直接适用,法院可以在民事争议中直接援引基本权利规范进行裁决。间接效力说则主张基本权利不能直接适用于私人之间,而应当通过转介后方可适用。其中间接效力说又存在“客观价值秩序说”与“国家保护义务说”两种理论进路。客观价值秩序说认为宪法基本权利具有主观权利与客观价值秩序的双重功能,其中客观价值秩序应当对所有的法领域产生影响;国家保护义务说认为当公民的基本权利遭到私主体的侵害时,国家有义务采取积极有效的保护措施。
近年来,间接效力说遭到两点较为有力的批评。一是间接适用具有虚假性,因为民法概括条款的适用仅具有形式意义,起实质作用的依然是基本权利规范;二是由于概括性条款高度不确定,间接适用可能导致法安定性丧失,尤其是其普遍适用可能会对私法自治带来威胁。论者所提出的解决方案是,在承认公私法二元框架下,通过引入“社会公权力”这一概念,对部分具有支配力量的私主体进行法律上的重新定义,以扩大公法调整的范围。然而,该主张存在的问题是,“社会公权力”这一概念可能对公法学的体系性带来冲击,很难以被纳入规范框架。例如,论者将一部分职业团体、企业等也视为“社会公权力”的主体,这与行政法上“法律、法规授权的组织”这一概念存在着重合,因而行使“社会公权力”的主体是否应当适用行政法相关规范就存在疑问。此外,也有研究者沿日本法上高桥和之等人的研究路径,主张基本权利对第三人无效力,其主要立场是我国宪法并非如同德国宪法一般是法律之上的价值母法,因此宪法基本权利不可能对所有法领域形成客观价值秩序,宪法基本权利与民事权利均为人权这一道德权利的分别实证化。
可以看出,厘清这一争议的关键是找到宪法基本权利客观价值秩序的位置。应当承认,通过民法实证化的权利可以有多重道德价值来源,其中既包括宪法基本权利所包含的价值(如基于宪法财产权而形成的物权),也包括宪法之外的其他道德价值。但在宪法基本权利规范的辐射空间内,民法的价值体系必须要受到宪法价值秩序的约束和整合,即受到基本权利客观秩序的拘束,例如财产权所承担的社会义务。中国特色社会主义法律体系“以宪法为统帅”,这种整合的具体形式包括了立法机关通过制定法律的方式对宪法规范进行具体化。事实上,前文提及的《电子商务法》等立法中对于通知与反通知机制的规定实际上就已经涉及保护表达的价值面向。故由立法机关将宪法基本权利的保护要求以制定法的形式在私主体间具体化并无不当,它既是基本权利国家保护义务的实现,也是宪法基本权利规范的具体化。因此,在互联网立法中,明确平台信息审查义务的同时,同时也应当明确平台的权利保护要求。
由于私主体间的基本权利侵害多以权利冲突的形式出现,即在保护一方基本权利时(用户表达自由)可能对另一方的基本权利构成干预(平台行为自由),因此不能直接套用传统基本权利保护的框架,而应当进行更加细致的处理。在德国法上,对传统的基本权利侵害通常以比例原则作为审查标准,但在国家基本权利保护义务上则仅要求达到宪法的最低水准,适用不足之禁止的原则。具体而言,在处理私主体之间的基本权利保护问题时,可考虑三个方面因素:其一,侵害基本权利的行为类型,即区分对基本权利的侵犯是通过法律行为抑或事实行为实施;其二,私主体之间的地位区别和力量差异,这其中应当主要考虑具备优势地位者是否具备支配性地位,因为只要竞争机制能够运行,权力差距本身对协商自由的影响就会较小;其三,所涉及法益的重要性,即根据法益重要性来确定保护的必要性,例如卡纳里斯曾经提出,“在那些不具备或者基本不具备人身内容的基本权利的限制情形中,基本上应该不予考虑类似的必要性和合比例性的审查”。
具体到本文所讨论的信息内容规制,其性质本质上是一种基于合同而展开的治理。由于实定法仅仅赋予了平台审查义务,而并未赋予其行政职权,故平台并不具有法定的行政管理权限。只是由于用户需要依托平台所提供的基本架构发布信息,平台对用户才形成了实际上的支配力,并通过用户协议确认了这种权力。基于契约自由的原则,应当承认平台在合同下具备一定的自治空间。美国也有研究者提出,不应当对社交媒体平台完全适用第一修正案,否则大量无法被有效治理的言论等将降低信息环境的质量,导致平台价值的降低。因此,制度建构的重点应当是解决由于平台的“双边经济”效应和头部效应造成的用户弱势问题。在所涉及的法益方面,表达自由是我国宪法基本权利中较为重要的政治权利,在基本权利序列中排序较为靠前。同时,由于对用户的删帖、封号等行为可能涉及账号所有者的财产利益,因而可能出现基本权利的竞合,具有较强的保护必要性。但从另一方面来说,考虑到平台上违法信息的数量级和治理可能,保护装置的要求同样不宜过高。
综合考虑上述因素,应当从实体与程序两方面设定平台的权利保护要求。首先,在实体要求上,应当规定平台在对违法信息进行处理时,处理措施应当与违法信息的内容、性质、社会危害程度相当。例如,在通过删除内容能够实现治理目的的前提下,就不应当采用封停账号的形式进行处置。当通过短期封停账号能够起到警示作用时,就不应当采用永久封停账号的处置形式。其次,在程序要求上,应当明确平台的信息处理措施要遵循最低程度的正当程序原则,其具体内容包括:(1)规制信息内容的标准应当事先公开,并做到清晰可理解;(2)在认定相关信息内容违法需要进行处理时,应当有充分的理由说明;(3)建立具有实质交互性的参与和申诉救济机制。
五、结 语
自近代以来,对公民基本权利的侵犯主要来源于国家公权力,故宪制架构也以防范国家公权力对公民基本权利的侵害为主要目的。然而随着科学技术的发展进步,新经济组织的壮大和社会结构的变化,使得基于传统社会而设定的法律构架面临着挑战。互联网及互联网产业的发展即是个中代表,其在便利生活的同时,也形成了支配生活的强大力量。于是传统的“国家—个人”二元结构逐渐形成“国家—平台—个人”的三元结构,“公权力”与“私权利”之间的对抗博弈也转换成了更加复杂的“公权力—私权力—私权利”之间的合作对抗与复杂博弈。在这组博弈关系中,私权利的保护是一个难解的话题。有从博弈论视角展开的研究认为,作为监控者,国家与商业组织会在绝大多数情境中采取合作策略,而在利益严重冲突时则转变为对抗策略。但无论监控者之间采取何种策略,均将使作为被监控者的社会个体利益遭受损害。本文以网络平台展开的信息内容规制作为例证,试图对这一组复杂关系中的私权利保护问题进行解剖并寻找对策,但远未在规范上提出彻底解决这一问题的办法。未来应当如何完成三元格局的规范建构,依然需要继续探索。