平台治理年度观察报告(2025)

来源:
文章即将刊发于《数字法学评论》第七辑(2026年第2期),转引请注明来源。
* 因原文篇幅较长,已略去注释与参考文献。

目次

一、智能技术介入下治理规范的代际演进
二、从市场联防向社会共治的平台功能延展
三、软法技术化驱动的预防性治理常态化趋势
四、结论
关键词:监管合规;过程控制;社会共治;预防性治理
表1 2025年发布的主要平台治理规范
序号 | 规范名称 | 主要内容 | 主管部门 | 是否生效 |
1 | 《电子商务平台协助查处商标侵权案件规定(征求意见稿)》 | 明确电子商务平台经营者协助市场监管部门查处商标侵权案件的具体措施 | 国家市场监管总局 | 已完成向社会公开征求意见 |
2 | 《大型网络平台个人信息保护规定(征求意见稿)》 | 规定大型网络平台的行为准则以及责任承担 | 国家网信办、公安部 | |
3 | 《网络安全标识管理办法(征求意见稿)》 | 明确网络安全标识是反映产品本身网络安全能力水平的信息标识,并提供分级指引 | 国家网信办、工信部 | |
4 | 《互联网平台反垄断合规指引(征求意见稿)》 | 针对平台经济领域竞争行为的特点和趋势,为平台经营者设定清晰明确的行为指引 | 国家市场监管总局 | |
5 | 《网络餐饮服务第三方平台提供者和入网餐饮服务提供者落实食品安全主体责任监督管理规定(征求意见稿)》 | 针对网络餐饮服务中平台责任不清、入网餐饮服务提供者管理不严、食品安全信息不透明等薄弱环节做出系统性规定 | 国家市场监管总局 | |
6 | 《未成年人用户数量巨大和对未成年人群体具有显著影响的网络平台服务提供者认定办法(征求意见稿)》 | 落实《未成年人网络保护条例》要求,细化具体认定标准、认定流程和相关工作要求 | 国家网信办 | |
7 | 《网络信息内容多渠道分发服务机构相关业务活动管理规定(草案稿)》 | 规范MCN机构互联网信息内容相关业务活动 | 国家网信办 | |
8 | 《外卖平台服务管理基本要求》 | 聚焦平台收费、促销行为等重点问题 | 国家市场监管总局 | 年内正式颁行 |
9 | 《人工智能生成合成内容标识办法》 | 规范人工智能生成合成内容标识 | 国家网信办、工信部等 | |
10 | 《网络交易平台收费行为合规指南》 | 明确平台收费行为应当考量的基本因素和遵循的基本原则、基本要求 | 国家市场监管总局 | |
11 | 《移动互联网应用服务用户权益保护合规管理指南》 | 梳理服务提供、个人信息保护、算法推荐、服务收费等六方面的用户权益保护要求 | 工信部 | |
12 | 《互联网平台企业涉税信息报送规定》 | 规范互联网平台企业向税务机关报送平台内经营者和从业人员涉税信息 | 国务院 | |
13 | 《网络交易合规数据报送管理暂行办法》 | 规范网络交易合规数据报送行为 | 国家市场监管总局 | |
14 | 《关于推动网络交易平台企业落实合规管理主体责任的指导意见》 | 引导网络交易平台企业加强合规管理,提升合规经营水平 | 国家市场监管总局 | |
15 | 《网络数据安全管理条例》 | 规范网络数据处理活动,保障网络数据安全,促进网络数据依法合理有效利用 | 国务院 |
资料来源:硕士研究生洪子豪同学根据公开资料收集整理。
一、
智能技术介入下治理规范的代际演进
在2025年的平台治理语境中,智能技术事实上并不是以新增风险的单一面向走入法治视野,而是推动治理规范在责任逻辑、治理工具、合规形态各个方面发生了整体变革。当我们观察制度的代际演进时,如果只是停留在“智能技术应用导致因果性被相关性取代”的层面上,仍然不足以解释为何监管部门在短期内集中引入了标识、备案、登记、信息披露这一高度程序化的监管合规工具组合。更具解释力的路径应当是从平台运行的技术事实中发掘制度变革的关键节点。也即,智能技术将网络信息内容生产从可被轻易识别的人类行为彻底推向概率化、链路化的系统输出,平台治理随之被迫从结果归责的单线结构转向风险预防、过程义务和责任追溯的复合结构,而这一结构转向在2025年获得了比较清晰的制度表达,形成了“法规—备案—标识—标准”相互支撑的监管合规制度体系。
2025年3月,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合印发的《人工智能生成合成内容标识办法》(国信办通字〔2025〕2号)可以被视为治理规范整体演进的关键转折点。该办法以内容标识为抓手,将公众在网络信息环境中最直观也最难以制度化的需求——哪些内容是生成的、由谁生成、从哪里生成,转换为可以由平台技术系统实现和监管机构抽查核验的合规要求。新华社对该办法的解读亦着眼于通过全流程管理来引导技术向善的政策意图。
实际上,全流程管理的制度选择并非偶然。生成式人工智能、深度合成等新技术快速发展,为网络虚假信息内容的生成和传播提供了便利工具。网络信息内容的辨识与检测比较困难,同时,信息内容快速传播也对个人、社会和国家的安全带来多重风险。如何打造可信赖的人工智能技术以避免虚假信息泛滥,已经成为一项全球性治理难题。当平台治理面对的对象呈现出高度拟扩散的特征时,事后追责固然很有必要,但却很难继续承担稳定秩序的全部功能。对于受害者而言,无论是平台企业还是公权力部门,其所提供的救济措施往往都过于滞后。而对平台企业来说,单纯依赖事后处罚会将合规激励直接简化为过度拦截的防御性商业策略。因此,标识制度的重要意义在于,通过要求生成合成服务提供者对生成内容添加显式标识以及通过技术手段添加隐式标识,将治理大幅前移至信息传播链路的起点。同期配套发布的强制性国家标准《网络安全技术人工智能生成合成内容标识方法》(GB 45438-2025)还尝试在标识与元数据字段、印证机制之间,为标准和规范建立起统一的技术接口。可见,“识别—验证”的过程性合规正在替代传统网络信息内容治理中诸如是否已经尽到注意义务这样的事后主观判断。新一代治理不再仅仅是要求平台企业在合规结果上达成应有效果,更要求企业将合规全过程固化为可供监管部门查验的书面记录。
如果说标识制度旨在解决网络信息内容在传播端的识别与追踪问题,那么持续推进的深度合成与生成式人工智能技术备案、登记和信息披露制度(以下简称备案登记制度)则在技术供给层面推动了平台企业过程性合规义务与风险预防要求的制度化建构。2025年内,国家互联网信息办公室延续此前依据《互联网信息服务深度合成管理规定》开展算法备案的做法,共计发布了五批次的深度合成服务算法备案信息公告。分批公开算法信息的备案登记制度在治理结构上形成了两个层次的效应。其一,算法产品/服务的上线前准备、上线后维护、重大变更的全生命周期各重要环节都嵌入了平台合规要求,并被纳入备案链条当中。其二,监管机构将个案处置升级为清单化常态管理,使得针对目录内对象的抽查、复核和问责工作变得更加清晰、规范。备案登记制度不仅为平台企业过程性合规义务的落实提供了操作框架,而且也折射出治理重心的变化,即平台企业必须在组织内部完成合规风控机制升级,形成可以随时提交、更新和留痕的全过程合规材料,主动防范企业运营中面临的各种潜在风险与可能危险。
由此引发的问题是,平台企业的责任认定标准是否将从事后认定过错与因果关系,转向审查其是否在日常运营中完成了“应当完成的风险管理动作”。生成式人工智能技术的概率性输出会削弱意图与因果这两类经典归责要素的可识别性,从而对传统归责逻辑构成挑战。学界对于这一问题已有比较系统的讨论。若将该问题放在平台治理的现实场景中,则表现为两股相反力量的拉扯。一端希望以结果损害为中心安排责任,以维持救济的确定性;另一端则承认,如果无法证明算法行为与损害结果之间的单一因果关系,就必须引入能被审查的过程性标准,用以评价平台企业或算法模型提供者是否采取了合理预防措施。由此回看2025年的标识、备案登记制度与配套标准,这些规范内容的共同指向正是将“应当完成的风险管理动作”固化为具体的监管合规节点。就这一点而言,技术治理的国际经验也提供了类似参照。美国国家标准与技术研究院在2023年发布的《人工智能风险管理框架1.0》中,将风险界定为事件发生概率与后果严重程度的复合度量,并强调测试、评估、验证与确认四项工作应当贯穿人工智能技术生命周期,以支持中途纠偏与事后风险管理。这种基于全生命周期的风险管理逻辑同样反映在我国目前正在构建的“法规—备案—标识—标准”监管合规制度体系中。监管者并未满足于要求平台企业在安全风险事件发生后承担责任,而是倾向于将其置入一整套不间断的风险治理流程:在产品/服务上线前完成合规准备与风险评估,在运行中保持合规行为的可追溯性与可核验性,在出现异常时能够回溯合规链路并精准实施纠偏。平台治理因而更加接近常态化、标准化、系统化的合规形态,其责任认定也更强调过程归责而非单纯的结果归责。
上述平台治理的结构性转向在司法实践中亦有所体现。最高人民法院在2025年6月11日发布的典型案例中,已对智能技术换脸、拟声等新型人格权益侵害进行了回应,特别强调侵权风险的准确识别与依法救济。可见,在技术降低伪造门槛并加速扩散传播的背景下,权利保护的有效性日益依赖于能否建立可识别、可追溯与可纠偏的合规链路。而标识制度与备案登记制度正是构建这一机制的关键探索。同时,全国平台经济治理标准化技术委员会于2025年8月正式成立。该委员会的工作重点是推进算法透明、数据安全、风险预警等关键领域的标准制定,构建平台企业全流程合规指引体系,从而将能进一步增强行政法规、备案制度、标识制度与标准规范之间的衔接和支撑关系。
然而,当标识、编号、备案材料成为合规的核心载体时,其中潜藏的风险在于,平台企业是否会将过程性合规异化为展示性公示,从而在形式上满足要求,而在实质上却弱化对用户救济、纠错与复核的投入。因此,“法规—备案—标识—标准”监管合规制度体系的构建和完善必须始终保持对合规形式主义风险的敏锐洞察。如果平台治理过度关注合规过程中的各类量化指标,诸如训练/价值对齐、红队测试覆盖、上线评估与持续监测、日志留存、纠错与申诉接口有效性等更深层次的平台风险管理能力就有可能在监管部门与社会评价的忽视下被不断弱化。因此,接下来的关键恐怕在于避免平台企业的过程性合规义务滑向纸面化与符号化,必须使其真正对应较高的风险控制质量与切实的权利救济途径。
二、
从市场联防向社会共治的平台功能延展
随着平台企业越来越被频繁地描述为合规链路中的核心节点,2025年的平台治理逐渐摆脱单纯依赖专项整治与集中约谈的节奏,借助技术标准与规范文本,将分散的合规风险点转化为一系列规则模块。
一个典型事例是,国家市场监督管理总局于2025年12月发布实施的《外卖平台服务管理基本要求》(GB/T 46862-2025)中明确,该文件围绕总体要求、商户管理、价格行为、配送员权益保障、消费者权益保护以及投诉、申诉、处置等作出规定。这意味着餐饮外卖平台治理不再是孤立的监管事项,而是将价格、劳动、消费者保护与纠纷处理等相关议题都一并纳入,重新被整合成一套多元目标共存的服务管理制度。根据国家市场监督管理总局在专题新闻发布会上的介绍,针对商户管理,平台企业应当设置专门团队,通过人工或技术手段审核商户信息,并对商户信息开展抽查监测,必要时采取相应措施;针对食品安全风险,标准鼓励推进“互联网+明厨亮灶”,通过视频监控联网公开关键加工过程;针对促销治理,发布会区分了平台企业与商户两类主体的不同促销方式,强调平台价格促销成本应由平台企业承担,并要求平台企业不得通过降低自然搜索排序、限制流量等方式对未参加促销的商户进行变相约束;针对配送环节,标准提出优化调度算法、综合考虑路况天气配送难度并设置“补时”规则,同时建立疲劳提示、合理设置接单时长等机制,以回应配送员劳动强度与休息权的现实压力。
与上述推荐性国家标准相呼应的是针对网络餐饮食品安全的过程性合规要求。早在2025年10月,市场监管总局已就《网络餐饮服务第三方平台提供者和入网餐饮服务提供者落实食品安全主体责任监督管理规定》,向社会公开征求意见。该征求意见稿的要点包括,平台企业应对入网餐饮服务提供者的经营资质、加工制作、卫生环境等进行监测与抽查;每月线下抽查入网餐饮服务提供者的比例不低于5%,并在两年内实现全覆盖;抽查结果留存备查且期限不少于两年;将入网经营资质与省级市场监管部门主体资质信息校验比对,校验不成功的不得上线经营;在无堂食外卖提供者首页加注无堂食标识;未履责情形下应承担5至20万元罚款等法律责任。可见,在网络餐饮食品安全领域,平台治理开始内嵌于企业日常运营之中,形成了一个由市场准入审核、食安封签溯源、后厨视频监看、风险预警干预与消费评价反馈等规则模块组成的服务管理框架,并将在后续监管与社会监督中受到持续对照检查。
这些看似操作细节的规定,实则是在要求平台企业将外部公共目标转化为内部治理能力。在这一转化过程中,食品安全目标被落实到平台企业的准入审核、动态抽查与可视化监管上,公平竞争目标被落实到平台企业的收费透明与促销成本承担上,劳动权益保障目标被落实到平台企业的调度算法参数上,而消费者权益保护目标也通过平台企业的投诉申诉机制获得了更多制度支撑。2025年12月5日,主要的餐饮外卖平台企业接连表态,自愿执行上述推荐性国家标准,积极推动外卖行业规范管理与理性竞争。国家标准与企业声明、社会监督的组合,将平台治理从单向度的行政压力转化为多元主体参与的合规承诺结构。而当平台企业以公开承诺的方式接受来自社会公众的外部检视时,社会共治的入口也随之打开。最高人民法院在网络消费典型案例发布与解读中,曾以“外卖平台未审核餐饮服务提供者资质应承担连带责任——王某与甲公司产品责任纠纷案”提示平台企业资质审核义务的可归责性。在平台企业做出严格审查承诺却未尽审查义务的情形下,可能需要在经营者无法承担责任时,向消费者承担赔偿责任。由此可见,制度文本与裁判立场在同一方向上不断强化平台企业的审核义务,进而使得平台企业的内部治理具备了更加强烈的公共性意涵。
平台公共性议题的上升,还体现在以下两方面。一是平台应急能力或称平台韧性开始被纳入治理视野。2025年12月23日,快手科技在香港证券交易所披露自愿性公告称,快手应用直播功能于公告发布前一日约22:00遭到网络攻击,公司第一时间启动了应急预案,处置修复后直播功能逐步恢复,并已向公安机关报案及向相关部门报告,其他服务则未受影响。快手事件提示,平台企业遭受的互联网攻击不仅限于单点内容或个别账号,更波及平台承载实时互动的系统能力。相应地,平台企业的应急预案也必须从企业内部流程转化为社会公众与监管者共同关注的公共能力。对此,平台领域的相关研究已有所提示。在当代数字环境中,平台型服务呈现出鲜明的基础设施特征,既被广泛依赖,也在深刻地塑造着沟通与表达的边界,故有必要锚定平台的公共价值,将其作为理解平台型社会的关键问题并开展深入研究。
二是反诈治理展现了平台功能延展的另一条路径。例如,抖音于2025年8月26日发布的《2025年中反诈报告》披露,当年1月至7月平台日均拦截涉诈信息超过700万条,日均向用户发送反诈提醒超过800万次,并通过AI智能体、 验证助手等技术工具提升反诈效率。与之相伴的则是电信网络诈骗链条化、产业化的现实风险。2025年6月,公安部刑侦局与国家反诈中心联合发布了《2025版防范电信网络诈骗宣传手册》,在其中运用了许多真实案例,用以提升社会公众的防骗和识骗能力。在此背景下,平台企业对信息流的积极拦截以及对用户跨渠道支付的自动提醒等应对机制,在本质上属于一种面向人身和财产安全的社会治理。由于高度依赖算法与风控模型,平台反诈治理始终面临误伤、漏放与过度干预共存的问题,仅仅依靠平台企业自身难以破解。这也要求以公开透明的方式搭建政府、公众、平台的协商渠道,推动社会共治的持续完善。
由此可见,平台功能已从传统的市场联防向着新阶段的社会共治延伸。平台的市场联防功能本质上是行政权力在数字空间的技术代理机制。平台企业依据政府指令对特定违规行为进行事后拦截与信息报送,承担责任边界相对清晰的技术看门人角色,以网络空间秩序安全为目标,而通常无需额外关注效率、创新等多元价值之间的冲突。但在2025年,无论是在制度层面还是在治理实践层面,平台企业均已超越了风控拦截的技术承包商角色,从配合执法对象转变为风险识别、处置、纠纷化解、信息分发与规则执行的风险治理枢纽。不仅如此,监管和社会还共同期待着其在食品安全、竞争秩序、劳动者保障、消费者权益、人身和财产安全、网络系统韧性等社会公共领域,持续提升治理能力。治理角色的跨界融合以及相伴而生的社会期待,使得平台企业的权利义务结构始终处于动态调整,并持续推动法律制度的适应性变革。在这一过程中,平台治理实际上构成了社会共治系统工程的重要组成部分。监管者以制度文本确立平台治理框架,要求平台企业以自身技术能力支撑数字经济治理乃至数字社会治理的运行。而这一转型能否持续推进,取决于两大核心议题:一是平台算法如何有效实现效率、安全、公平、劳动权益等多价值目标的平衡,二是如何在制度与司法层面为平台企业构建稳定的责任预期。对这些问题的深入探讨,始终是未来制度演进的主线。
三、
软法技术化驱动的预防性治理常态化趋势
平台治理路径从行政主导向着技术主导的方向演进,有其现实必然性。数字时代,提振消费是各国经济发展的重中之重。我国在最近十几年连续位居全球网络零售市场首位。2025年4月,财务部和商务部联合发布的工作通知明确鼓励加快新业态培育,发展数智供应链、即时零售、直播电商等新模式,提升消费供给水平。同年11月,工信部等六部门联合印发的《关于增强消费品供需适配性进一步促进消费的实施方案》(工信部联消费〔2025〕252号)提出,到2027年,消费品供给结构明显优化,形成3个万亿级消费领域和10个千亿级消费热点,打造一批富有文化内涵、享誉全球的高品质消费品;到2030年,供给与消费良性互动、相互促进的高质量发展格局基本形成,消费对经济增长的贡献率稳步提升。
在新业态扩张周期中,平台企业易将纠纷前端化解作为提高效率的主要手段。直播电商、即时零售、同城服务这类新业态扩张,往往意味着交易链条更长,履约环节更多,投诉纠纷也更加密集。新业态中的风险治理前移,不仅是因为事后追责难以覆盖高频、小额、跨场景的纠纷,而且也在于监管和公众舆论常将平台企业能否及时止损作为评价治理效果的重要考量。因此,平台企业内部更加倾向于将风险拆解为一组量化指标,如商家准入与分层、订单异常与履约波动、售后纠纷与赔付成本、消费者投诉与处理时效等。指标体系一旦形成,便会反向塑造平台的风险处置逻辑。平台广泛部署异常行为识别模型,形成先行处置、先行赔付、限制交易、冻结账户等默认操作流程,并对相关的平台内经营者打上风险标签。标签形成后,平台的自动化联动就会触发连锁后果。处置结果很容易在多个链路同步生效,账号、流量、交易、支付、内容发布权限可能被一并限制。由此产生的后果是,平台企业为了换取合规风险最小化的确定性,不惜对风险经营者实施数据流量、交易权限、商业信誉等全面封锁。为了防止平台企业以效率之名压缩救济,平台治理必须深入交易与履约的微观场景,以更加技术化、工程化的方式要求平台企业通过建立特征库、审核机制与显著标识等技术措施,正确开展预防性治理。
然而,当平台企业在风险对抗中持续扩大联动处置的覆盖范围,而外部救济与内部复核跟进滞后时,预防性治理便有可能从风险前置异化为救济后置。例如,数据泄露与滥用事件具有典型的倒逼效应。国家互联网信息办公室在对滴滴作出网络安全审查相关行政处罚决定时指出,其违法违规行为事实清楚、证据确凿,并依据相关法律对公司处以人民币80.26亿元罚款,同时对相关责任人处以罚款。该事件之所以具有警示意义,原因正是在于它以强烈的监管信号促使平台企业将合规重新理解为一项系统性工程,而不仅仅是一种事后修补手段。行政处罚发生后,平台企业会迅速地将合规要求从法务条线推向产品/服务条线,将数据最小、权限治理、敏感操作监控嵌入研发流程,甚至将合规验收也纳入产品/服务上线测试的门槛。合规要求越向业务前端与技术底层渗透,平台企业越容易陷入流程主义的治理惯性,越倾向于机械地满足形式化、指标化的合规要求。这种惯性的危险在于,技术系统的自动化执行可能在实际上架空或取代法律规范背后应有的价值权衡与情境化判断。进而,不仅用户权利保护可能被简化为技术配置,实质性的法律论证与责任追究亦有可能被悬置,最终导致合规本身异化为平台规避问责的屏障。
这一问题在未成年人保护领域表现得比较突出。随着《未成年人网络保护条例》(国令第766号)自2024年1月1日起正式施行,未成年人保护在近年呈现出明显的强化趋势。《互联网信息服务算法推荐管理规定》(第9号令)也专门规定,向未成年人提供服务时应当履行未成年人网络保护义务,不得利用算法诱导未成年人沉迷网络。在平台治理中,这类规范的具体落实方式往往是由平台企业默认开启某些限制,对未成年人内容与互动做出更加细致的分类分级,将防沉迷与内容治理联动到账号和设备的识别之中。考虑到未成年人保护具有强烈公共色彩,平台企业也更容易获得充分的正当性基础,采取预防性更强的技术措施。可一旦未成年人保护措施被固化为默认设置,退出机制、例外情形与申诉通道的设计缺位或缺陷就决定了其将会滑向过度治理的极端。
实践中,平台企业的强保护措施产生了一系列意料之外的效果,比如未成年人模式下用户黏度、实际使用率和满意度往往较低,内容创作激励不足与优质内容欠缺,未成年人的数字公民素养不足,未成年人数字社交隔离的情况比较严峻,等等。问题的根源正是在于预防性治理的惯性逻辑。平台企业将合规风险最小化作为首要目标,未成年人模式的开或关就不再是未成年用户或其监护人的自主选择,而是变成了企业规避监管合规责任的单向阀门。由于缺乏有效的申诉复核通道与差异化的评估和救济机制,那些因误判而被纳入严格管控的未成年用户,特别是临界年龄段的青少年,实际上被剥夺了通过正当程序主张权利的可能。更深层次的问题在于,这种“保护即隔离”的平台治理模式忽视了未成年人数字权利的成长维度,将未成年人保护简化为静态的网络信息内容控制,最终可能适得其反,既无法有效防范风险,又限制了未成年人在数字社会中习得必要素养的机会,形成越保护越脆弱的悖论。
与此同时,国家互联网信息办公室于2025年9月16日发布《未成年人用户数量巨大和对未成年人群体具有显著影响的网络平台服务提供者认定办法(征求意见稿)》,力求将用户数量巨大或影响显著的平台企业有效识别出来,并对其施加更严格和更主动的未成年人保护义务。该办法代表了国家政策层面对平台企业加强未成年人保护工作的外部压力与制度期待,同时也极有可能进一步固化和推广以“保护即隔离”为特征的平台治理。过度限制或直接阉割未成年人模式内容池的严格保护模式,正是平台企业为满足此类强保护要求而可能采取的最直接和最保险的技术应对策略。因此,该办法的实施可能在无意中鼓励更多平台企业采取类似措施,从而放大内容生态贫瘠、数字社交隔离等副作用。未来的配套细则不仅应当构建有效的未成年人数字权利救济渠道,更需要在规则层面积极引导平台企业超越以简单限制和隔离为主导的当前模式,转而采取一种更加精细、积极以及更具赋能性的治理理念,最终促使平台将未成年人保护转化为兼具安全性、发展性与包容性的高质量数字服务。
另外,平台治理风险并不总是由新技术或新业态驱动,突发公共事件、谣言与抢购引发的供需波动等外部因素都会迫使平台企业即时启动限时限流、内容拦截、关键词管控等应急措施,并在未来相当一段时间内维持高强度管理水平。其原因一方面源于平台企业对快速响应的绩效偏好,另一方面也与规范文本对安全事件应急处置制度建设的要求相关。当应急机制成为衡量平台治理绩效的重要维度时,若缺乏清晰的期限设定与退出规则,应急手段便可能演变为持久性治理工具,使得临时性强化的管控力度在平台治理中得以延续并固化下来。由此可见,平台企业预防性治理常态化并不必然导向权利限缩,但其中依然潜藏着诸如合规技术取代法律判断、平台“准司法”功能的延续与扩张、预防性机制的惯性问题等风险。这些风险的演化逻辑与抑制路径,仍需在未来的治理实践中保持持续关注。
四、
结论
来源:《数字法学评论》第七辑(2026年第2期)
策划:高童非
编辑:叶道兵


