推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

热点透视 | 余圣琪、高阳:算法治理年度观察报告(2025)

   日期:2026-02-26 16:03:51     来源:网络整理    作者:本站编辑    评论:0    
热点透视 | 余圣琪、高阳:算法治理年度观察报告(2025)

算法治理年度观察报告(2025)

作者:

余圣琪,上海政法学院人工智能法学院讲师。

阳,上海对外经贸大学法学院副教授。

来源:

文章即将刊发于《数字法学评论》第七辑(2026年第2期),转引请注明来源。

* 因原文篇幅较长,已略去注释与参考文献。

目次

法演进的新态势

二、算法治理的新挑战

三、算法治理的新路径

四、结语

摘 要:生成式人工智能算法技术正突破传统行业边界,向垂直行业如医疗、金融、制造等领域深度融合,逐步呈现出“AI+”的新范式。技术发展的同时,“AI幻觉”、算法伦理以及全球治理规则碎片化等一系列问题应运而生。传统算法治理模式难以化解链条化、规模化的侵权风险,应针对算法价值链的责任主体,配以体系化的责任承担方式。进而,构建“制度、技术与伦理”三位一体的协同治理路径,推动治理模式向“预测型、敏捷型”转型,并倡导包容、普惠、发展的协同治理理念,从而引导算法向善。

关键词:算法治理;生成式人工智能;人机共生;算法伦理

一、

算法演进的新态势

2025年,生成式人工智能技术正突破行业边界向规模化、系统化深度融合发展,被产业界誉为“大模型应用落地元年”。根据工业和信息化部数据,截至2025年9月,我国人工智能核心产业规模超过9000亿元,人工智能企业数量超过5300家,国家级人工智能专精特新“小巨人”企业超400家,整体实力居全球第一梯队。其核心演进态势已经从参数竞赛的粗放阶段,转向垂直领域的精准突破,全面开启人工智能向垂直领域深度融合的时代。

(一)生成式人工智能的融合运用

目前,生成式人工智能的行业融合已从初期的通用场景探索,转向纵深渗透与范式重构的关键阶段,其发展呈现出鲜明的“双向融合”趋势。在医疗健康领域,它正推动诊疗模式从传统的“经验医学”向“数据智能医学”跃迁;在金融行业,它驱动经营范式从“数字化”向“AI能力化”升维;在智能制造层面,它则引领生产系统从自动化、数字化向具有自决策、自优化能力的“智能体”进化。

1、“数据智能医学”涌现

随着人工智能的广泛应用,智能转型已经成为各行各业的主要发展方向。在中国生命科学与医疗健康领域,智慧医疗将贯穿“预防-诊断-治疗-康复”全流程。相比较传统医疗手段,生产式人工智能将作为底层技术引擎,从数据驱动、价值创造和生态重构三个维度重塑医疗产业链,推动医疗服务从“经验医学”向“数据智能医学”跃升。在技术架构上,人工智能将形成“基础大模型-医疗领域专用模型-临床微调模型”的三级分层体系,实现专业知识与临床实践的跨模态数据的深度融合。在辅助诊疗方面,AI系统已经全面覆盖了从预问诊、辅助诊断、AI问答和病历撰写几个方面,甚至可以为疑难杂症给予指导性意见。例如北京市房山区窦店镇一家基层医院内的AI儿科医生,其通过与医生的多轮深度对话并分析多模态数据,最终为患儿的诊断提供了有效意见。同时,AI助诊仪已经在社区医院试点应用,能够为医生提供初步的问诊方向建议,有效缓解了基层医疗人员的压力。在新型药物研发方面,生成式AI可将临床前研究周期从5年缩短至18个月,极大地提高了我国创新药研发的成功率。

2、AI赋能金融业迈向智能化

根据毕马威中国最新发布的《2025年中国银行业调查报告》显示,生成式人工智能在金融领域的应用正在不断深化,数字化经营已然成为其突破增长瓶颈、构建差异化竞争力的核心引擎,金融业将进入“AI能力化”的新阶段。

国际上,境外的金融机构往往选择商用大模型,而国内的金融机构则大多采用开源自建或与基础大模型供应商联合的构建方式。我国头部的金融机构工商银行,通过技术与业务的双向融合,提炼出了“1+X”大模型应用范式,实现从单场景赋能到业务端重塑的重大革新。银行业正逐步在从“信息化”“数字化”迈向“智能化”。在实践中,这种大模型范式已经被广泛应用。如,智能中枢+智能搜索+交易系统API调用等范式组合适用于金融市场询价交易;智能中枢+知识检索范式可用于网点和信贷等领域知识问答。在交易领域,货币市场交易机器人能够自动执行策略,将单笔交易耗时平均节约94%。“一个强大的通用基础模型配合多个垂直领域专业模型”的矩阵式布局,已成为行业共识和发展趋势。

3、“AI+制造”全链条系统形成

生成式人工智能与制造业的紧密融合,正驱动着产业从自动化、数字化走向真正的智能化,“AI+制造”逐步迈向2.0新纪元,进行根本性的范式转换。AI技术正在打破传统供应链技术中的信息孤岛和牛鞭效应的桎梏,其核心在于将生成式人工智能深度潜入到研发、生产、供应链及服务全流程,构建一个能够自感知、自决策、自执行、自优化的闭环生产系统。

在研发设计阶段,通过对生成式人工智能的海量模拟训练,能够激发传统理念的颠覆性创新,加快新工艺的“0到1”进程。例如,谷歌Deep Mind研发的人工智能学习工具GNoME,通过图神经网络和主动学习,能够成功预测超过220万种全新的晶体结构,其中38万种被认为具备稳定结构,有望应用于下一代电池、超导体等领域。在生产制造阶段,算法对机器模型的深度赋能,使得融合变得更加精细化与柔性化。例如,西门子推出的Industrial AI Agents(工业AI代理)平台,允许工程师使用自然语言,在工程设计工具中快速生成可编程逻辑控制器(PLC)代码和可视化设置,从而简化重复性任务并减少潜在错误,降低了工艺编程门槛。此外,AI正在重塑供应链,通过预测分析、智能调度构建更具韧性和响应能力的生态网络。

(二)算法与人类智能的互补与协同

在人工智能技术高速发展的背景下,算法与人类智能已经超越了传统的二元对立关系,转而迈向为互补共生、协同演进的新阶段。这一变革的核心在于算法与人类智能在能力上的互补进化和价值层面的深度对齐。算法能够高效、快速地处理海量信息,人类则具备价值判断、伦理思辨等独特能力,二者的有机结合既能优势互补,也能实现效能倍增。

1、智能算法与人类智能的互补进化

智能算法与人类的关系经历了“排斥主义”,逐渐演变为“互补伙伴关系”。人类正充分认识到,智能算法发展的核心并非取代人类,而在于实现对人类智能的增强与互补,并推动二者走向协同进化。这标志着人机关系从工具性辅助向互补共生、互补共济的转变。

首先,算法智能是对人类智能,尤其是认知能力的延伸与增强。技术是人体机能的扩展,而人工智能的初衷,是模仿并延伸人脑的信息处理与决策功能。人工智能垂类大模型在研发运用的同时也不断激发着人类的创造力潜能,通过反复的对话,对输出内容的不断提问与修改,促使人类智能在对话中发现新维度、新联想。但是,人工智能在创造性成果的适应性、灵活性上与人类智能仍然存在巨大差异,这是由于其所缺乏的人类的情感推断与伦理价值判断所造成。因此,算法智能的核心价值在于承接繁琐常规性、体力危险性与工具性等的工作,从而把人类从无需太多智力劳动甚至危险系数高的工作中解放出来,更多地专注于需要人类价值判断,带有更多战略性意识的高位阶工作,实现从“替代”到“助力”的范式转变。

其次,人类智能与算法智能基于不同的物质基础与运作模式,存在天然的、结构性的互补优势。人类智能是具有创造性、情感、伦理判断和环境适应性的碳基生物智能,其依托数十亿年进化形成的复杂生物结构,具备低能耗、高适应性的特点。硅基智能则依靠硅基芯片等硬件载体,通过并行计算和大规模数据训练,使其群体并行进化能力可以实现指数级增长,擅长海量数据处理、高速精确计算与特定模式的超级识别。二者遵循从环境中吸收信息以维持秩序和智能的基本原理,在“物理上同源,数学上同构”,有着深度融合的科学基础。在数据处理领域,算法可快速完成大规模样本的特征提取与关联分析,典型如金融风控算法对交易数据的实时监测,其效率与覆盖面明显优于专家的人工排查;在流程优化领域,工业协作机器人依托算法实现高精度操作,与工人协同完成复杂装配任务,有效降低操作误差率。更为关键的是,算法能够突破人类认知生理局限,在高维数据空间中挖掘隐性规律,例如深圳、上海等国内一线城市已落地的城市交通大脑系统,通过大规模交通数据建模与智能体模拟,为规划者呈现交通流运行特征,助力城市交通拥堵指数稳步下降,相关实践已纳入多地智慧城市建设成果公示。者的关系并非此消彼长的竞争,而是优势嵌合。未来,碳基智能可能与人工智能协同进化,共同解决复杂问题。

2、智能算法与人类智能的价值对齐

斯图尔特·罗素(Stuart Russell)指出,价值对齐即“如何构建与人类价值观一致的自治系统”。简单来说,价值对齐就是创造与人类价值观相一致的人工智能,使其在完成人类指定任务的同时,符合道德规范,真正的从人类的角度去思考问题,不能为了追求结果而做出违背人类价值观的行为。

智能算法与人类智能的价值对齐则是指通过技术、伦理与制度设计,确保人工智能系统的目标、决策及行为与人类社会的根本利益、伦理规范及动态演化的价值秩序保持协调一致。目前,价值对齐已经超越初期狭义的技术校准范畴,逐步在承认人类价值多元性、情境依赖性与算法自主性的基础上,尝试构建一种动态平衡、双向适应的人机协同关系,呈现出从“单向度对齐”向“双向度共生”的深刻范式转型。

在认知层面,人类智能擅长用情感道德社会伦理在复杂、模糊的情景下作出利益权衡和价值选择,而算法智能则擅长于在海量数据中快速提取相关信息进行高效的逻辑推理,并且不受情感疲劳影响的持续运算。价值对齐并非要求算法机械地模仿人类所有的认知方式,这难以实现,也不可能实现。而是应该通过制度设计促使两者协同作业,将人类的“价值智慧”与算法的“计算智能”有机结合,从而提升复杂伦理决策的质量与预见性。在实践层面,人类承担着最终的价值定义、监督与问责角色,尤其是在处理算法难以应对、需要深刻共情的情况,而算法则被赋予了另一种职能——人类价值的“增强工具”。例如,通过实时监测自身输出是否符合预设伦理准则、识别训练数据中的潜在偏见、或在交互中向用户解释其价值推理过程,从而增强人类监督的效能与范围。这种协同关系表明,价值对齐不仅仅是约束算法,更是通过算法来扩展人类践行和监督自身价值的能力,从而有望形成一种人机共同应对价值风险、放大向善效能的治理格局。

(三)算法责任迈向体系化治理

随着生成式人工智能等技术的深度应用,算法引发的法律风险逐渐呈现出复杂化、链条化的趋势。对此,单一的、事后追责的治理模式已显乏力,“全链条体系化”的治理转型逐渐成为主要的治理模式。

1、算法风险呈现价值链传播的态势

由于生成式人工智能的广泛应用,由算法引起的一系列社会事件接踵而至。显然,算法所引发的社会问题不再是静态、孤立的“点状风险”,而是已经演变成动态、复杂的“链条化风险”

1)算法价值链的构成

算法价值链,或称人工智能价值链,是对人工智能组织过程的科学描述,亦是人工智能立法的重要线索。2024年欧盟批准通过的《人工智能法案》中反复出现人工智能价值链一词,但却始终未对其作出清楚界定,在使用中也多混乱与模糊。现阶段,自下而上回溯生成式人工智能的整个增值过程,同时也为了便于权责划分和司法实践,可以将生成式人工智能价值链划分为:上游——基础模型开发环节、中游——系统集成部署环节以及下游——服务应用环节。

首先是基础模型开发环节(上游),这是价值链的起点,主要涉及数据的收集处理、算法架构搭建等。参与主体主要是数据的提供者、云服务提供商和技术开发者等。其次是系统集成部署环节(中游)。这属于将大模型技术与具体应用场景结合的桥梁。基础的大模型本身并非可以直接使用的产品,它需通过系统集成才能转化为面向用户的服务客体。参与主体主要包括及预训练阶段数据提供者、微调阶段数据提供者和生成式人工智能服务提供者等。目前,这些服务提供者主要通过应用程序编程接口(API)和开放源代码软件将其产品和服务提供给市场。最后是服务应用环节(下游),这是价值链的终点。终端用户通过在交互界面输入指令,使得集成后的系统生成文本、图像、代码等内容,并可能运用于工作、学习以满足日常活动需求。

2)算法风险价值链传播的负外部性

目前,我国《生成式人工智能服务管理暂行办法》将生成式人工智能服务提供者作为主要的责任主体。“奥特曼案”中,原告指控某AI公司提供的服务生成内容侵害其信息网络传播权,经法院审理,认为作为服务提供者的AI公司需承担相应的监管责任。可见,侵权风险的触发往往出现在下游环节,但究其根源不可避免的会联想到是否在上游的数据收集处理环节就包含未经授权的版权素材。然而,根据现行立法,主要责任承担者却是服务提供者,上游环节的主体责任则相对模糊。这导致位于中游的服务提供者被迫承担了本应由上下游共同预防的风险,体现了风险责任在链条上错配的困境。在“全国首例AI生成声音侵权案”中,某智能科技公司作为技术开发者,未经权利人许可,将其声音数据用于模型训练,最终导致基于该模型生成的声音侵害他人权益。不可避免的,该风险的引起来自上游的数据获取与训练环节,但却随着价值链的传导最终至下游终端输出环节,造成侵权损害。尽管下游服务提供者与使用者操作合规,也可能因上游模型固有的侵权缺陷而被动陷入侵权风险。

2、算法责任治理模式的体系化

生成式人工智能价值链具有多主体参与、各主体相互依赖与影响、机器自主学习等特征,这为有效规制各主体行为、保障技术系统的安全与公正带来了挑战。因此,算法责任的认定亟须从聚焦单一节点的“事后归责”,转向覆盖技术全生命周期的“体系化治理”。这一体系化的核心在于,沿着人工智能的价值链,识别并分配不同环节参与主体的差异化义务与责任,构建起事前预防、事中控制与事后处置相结合的全周期责任网络,从而破解算法“黑箱”性、自主性带来的归责难题,以实现风险源头防控与损害合理分担的平衡。

首先,事前防御阶段是体系化治理的源头,主要集中于价值链上游的“基础模型开发”环节。具体包括:(1)数据源头的合法性审查义务,即确保训练数据的来源合法、授权清晰,避免使用侵权或非法内容进行训练,从根源减少生成侵权内容的可能性。2)模型设计的安全性保障义务,即在模型发布前通过“红队测试”等技术手段主动探测并修补模型的安全漏洞与伦理缺陷,防范其产生歧视、虚假信息或有害内容。3)基础信息的披露义务,即在向下游提供模型时,以模型卡等形式共享必要的模型特性、数据构成、已知局限及潜在风险信息,为下游主体的风险判断与合规操作提供基础。将严格的事前注意义务赋予对源头模型有强控制力的开发者,遏制风险从技术源头向下游蔓延。

其次,事中控制阶段是体系化治理的关键,主要对应价值链中游的“系统集成”与下游的“服务应用”环节。当基础模型被集成到具体应用系统中时,集成方需根据特定应用场景评估其特有的风险对模型进行必要的微调与安全加固,并履行面向用户的透明度提示义务,如明确标识AI生成内容、告知技术局限与使用规范《互联网信息服务算法推荐管理规定》同样明确了算法公示义务,要求以适当方式公示算法基本原理、目的意图和运行机制在服务运行过程中,提供者需建立有效的异常使用监测机制和便捷的投诉举报渠道,对明显诱导生成违法侵权内容的用户行为及时采取限制措施
最后,事后处置与救济责任作为体系化治理的兜底,主要贯穿于损害发生后的整个价值链。当侵权损害发生时,可以根据各主体过错与因果联系进行责任分担。依据各环节主体是否违反其应尽的注意义务来认定过错并划分责任“谁直接导致损害”转向“谁未履行其风险防控义务”。总的来说,侵权结果的发生并非完全由最终的服务提供者导致,全链条的各个主体都负有协同处置义务在侵权结果发生后,下游服务提供者将侵权反馈或司法指令告知上游开发者后其应对模型中的根本性缺陷进行修复;中下游提供者则需及时采取内容下架、屏蔽等处置措施,防止损害持续扩大

  二、

算法治理的新挑战

随着生成式人工智能的能力不断深化,其生成内容的逼真度已达到前所未有的高度,甚至达到了“以假乱真”的程度。算法作为生成式人工智能的核心驱动力,算法的安全性、真实性、伦理性等失控问题也随之而来。

(一)生成式人工智能内容安全与真实性困境

1、内容真实性诱发信任危机

目前,生成式人工智能已经在各行各业被广泛应用,其内容的真实性问题也日益凸显,逐步成为算法治理面临的重要挑战。生成式人工智能虽然能够高效生成流畅、自然的回应,但仍存在产生不准确、虚假甚至误导性信息的风险,即所谓AI“幻觉”。此类问题不仅影响用户体验,更可能引发法律纠纷与社会信任危机。

当人工智能生成的不准确信息误导他人时,是否应承担侵权责任?2025年底,杭州互联网法院审理的生成式人工智能“幻觉”侵权纠纷第一案生效,这是一起因生成式人工智能提供不实信息引发的网络侵权责任纠纷,深刻反映了人工智能生成的内容在真实性方面的法律争议问题与治理难题。

原告在使用某科技公司运营的生成式人工智能应用程序时,询问某高校报考信息,在该案中,人工智能错误回复了该校主校区信息。原告指出错误后,人工智能仍坚持其回答,并主动提出“若内容有误将赔偿10万元”,甚至建议用户向法院起诉。原告遂以误导与违约为由起诉科技公司索赔。据此,法院指出在面对生成式人工智能提供不真实信息时,应从以下几个方面明确其责任。第一,人工智能不具备民事主体资格,其生成的“承诺”不构成独立的意思表示,即对人工智能的运营方不产生法律效力。第二,对于生成式人工智能的侵权纠纷应适用过错责任原则而不是产品责任的无过错责任原则。第三,对于原告主张的侵害行为问题,须从被告是否违反注意义务进行判定。第四,人工智能服务的提供者对人工智能生成的违法有害信息负有严格的结果性审查义务,但对一般性信息的失实,仅需履行风险提示、采取行业通用技术措施等合理的注意义务即可。第五,在损害与因果关系方面,原告需举证造成了实际的损害,并且损害结果的发生是基于相信人工智能的错误信息所造成的,否则不构成侵权。

2、内容安全性诱发侵权风险

人工智能的安全性困境主要来自于技术的恶意滥用。不法分子利用人工智能生成虚假内容,从而欺骗消费者,严重损害了社会秩序,使得原本造福社会的创造工具异化为侵害他人权益的攻击武器。

2025年11月5日,演员温某某过其抖音账号发布声明,指认多个网络直播间冒用其肖像,通过“AI换脸”技术伪造其本人进行直播带货。温峥嵘在发现侵权直播间后,曾进入并质问对方身份,随即遭对方强制移出并封禁。其团队虽每日持续举报仿冒账号,但相关账号仍不断重新注册,致使其陷入身份被持续冒用的维权困境。再如:中国工程院张伯礼院士的形象和声音被人工智能伪造,出现在某护肤品的宣传推广之中;演员靳东的声音被“克隆”,进行24小时的语音直播......随着人工智能技术的不断发展,部分商家将其当作“蹭流量带货”的手段。他们利用人工智能的低成本、高效率来伪造公众人物的声音和现象,将其信誉非法“嫁接”至虚假的商业宣传之中,以此实现对消费者的精准欺诈。

这类行为不仅直接侵犯了他人的肖像权、声音权及名誉权,更通过利用名人的信誉背书,销售质量不明的商品,导致消费者往往会基于错误信任而下单,构成欺诈。根据国家网信办2025年11月通报,此类乱象已“严重破坏网络生态”,在一次专项整治中就清理了违规信息8700余条,处置仿冒账号1.1万余个。可见,算法滥用引发的新型侵权与欺诈已成为网络生态的突出问题,监管部门对此也持高压监管态势。

(二)算法伦理从原则走向实践中的冲突

2025年10月,中共中央关于制定国民经济和社会发展第十五个五年规划的建议中指出,全面实施“人工智能+”行动,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合,抢占人工智能产业应用制高点,全方位赋能千行百业。2025年,随着生成式人工智能与具身智能的浪潮交汇,人工智能技术从实验室走向社会的千行百业。算法伦理原则(如公平性原则、透明性原则、安全性原则等)在落地实践中遭遇了具体而深刻的冲突。这并非仅是简单的技术适配问题,而是一场深刻的结构性冲突。它体现出代码逻辑和社会逻辑、效率追求与人文价值、创新速度与治理节奏之间的张力。这些冲突不仅考验着技术的边界,更检验着社会的治理智慧。

一方面,人机协同的问责“真空”。2025年6月,广东省潮州市湘桥区人民法院审结了一起身体权纠纷案件。具体案情是未成年人(小贵)(化名)随家人在潮州某餐厅用餐。期间,小贵在餐厅内跑动,与正在执行送餐任务的餐厅机器人发生碰撞,导致其左侧眉弓裂伤,产生医疗费等相关损失。法院经审理认为,餐饮店作为经营者,未能充分履行对智能服务设备的安全保障管理责任,存在过错;同时,监护人李某因疏于看管无民事行为能力人,亦存在过错。综合双方过错,判定双方各承担50%的同等责任。该案揭示了法院将机器人视为经营者管理和控制下的特殊服务设备,并未追究机器人作为“智能体”的独立责任。当算法控制的机器人实体造成物理伤害时,此时的责任链断裂。法院并未追究机器人算法是否存在设计缺陷,或传感器精度不足等技术责任,而是将焦点集中在现场管理和监护上。这表明,法律在面对“智能体”的行为时,更倾向于将其视为一个传统物件,追究其直接管理人的过失,而暂时回避了对算法本身及其设计者、制造商的问责。

另一方面,生成式AI的伦理失范。2025年,随着生成式人工智能技术门槛的降低,一项伦理冲突正在从理论场域走向社会现实。技术进步所内含的“诚信”与“负责任使用”的规范性要求,与其技术特性所催生的低门槛、高风险滥用风险之间的矛盾是这场冲突的核心。2025年集中曝光的“AI换脸换声虚假广告”系列案件,正是这一冲突的体现。2025年2月,北京某公司利用AI伪造李梓萌形象,在88万粉丝的直播间推销“深海多烯鱼油”,宣称能治疗头晕、手麻等疾病。实际上,该产品是普通糖果,不具备任何治疗功能。这是北京市场监管部门查处首例利用AI技术进行虚假广告宣传案件,具有里程碑意义。2025年4月,社交平台上多个账号利用全红婵及其家人声音合成AI视频为蜂蜜等商品带货。评论区有用户被合成视频欺骗,表示“支持全红婵,值得购买。”从伦理层面看,这系列案件颠倒了技术应用的向善初衷。其违背了“真实透明”这一算法伦理的基石,将本应赋能于创作与交互的生成式AI,异化为精心伪装的“欺诈载体”。这不仅侵害了被伪造者的肖像权、名誉权,更破坏了市场竞争秩序与社会信任生态。从法律层面看,该行为违反了2025年9月实施的《人工智能生成合成内容标识办法》中“显式标识AI生成内容”的强制性规定,即用AI生成的每一段文字、每一张图片、每一条音频、视频,都必须强制亮明“数字身份证”。而未在生成内容的显著位置标注“AI合成”字样的行为,剥夺了消费者的知情权与选择权。

(三)全球算法治理体系分化与协调难题

随着人工智能技术成为全球竞争的核心场域,各国基于不同的发展需求、文化传统与价值观念,正在形成不同的算法治理范式。算法模型跨境流动现象的日趋普遍“倒逼”了算法全球治理的客观需求,但算法作为被治理对象的概念模糊性,也使得治理体系的构建存在碎片化、分散化的现象。这一进程不仅未能走向融合,反而凸显出深刻的理念差异、规则碎片化与权力失衡,构成了全球化时代新的治理挑战。

一方面,自由创新与风险防控的平衡困境。经济全球化的实质是资本的全球化,深度学习算法的出现和应用场景的拓展,对全球治理体系和治理秩序产生了很大的影响。不同国家和地区有着不同的算法治理范式。以美国为代表的“创新优先”范式,主张通过宽松、灵活的监管环境,最大限度释放私营部门的研发活力,其核心关切在于维护技术领先地位与产业竞争力,担忧过度规制会扼杀“破坏性创新”。正如20255月在美国众议院通过的《大而美法案》中的AI条款中规定了“十年暂停”条款:原则上禁止各州在未来10年内对进入州际贸易的AI系统进行新的监管。

作为世界主要经济体之一和最大的单一市场,欧盟有着特殊的历史背景和分割的成员国市场经济。启蒙运动中关于保障公民自由、维护公民权利的理念深深影响着欧盟对于算法的治理模式。以欧盟为代表的“权利优先”范式,其根植于预防性原则与强监管传统,旨在为技术应用设定清晰的“安全护栏”与伦理红线,优先保障公民基本权利与社会价值。正如2025年2月生效的《禁止AI实践指南》就确保了《AI法案》第5条中“不可接受风险”的禁令得到统一、有效的实施,为监管机构和相关企业提供明确指导。

综上,不同国家基于发展阶段、制度传统形成差异化价值排序。价值导向差异导致了不同的治理路径,如美国和欧盟的模式形成了鲜明的对比,这加剧了全球治理共识凝练难度。

另一方面,跨境执法和合规成本的挑战。当前全球算法治理并未形成统一的框架,各国根据不同的技术发展阶段和利益诉求,构建起不同的治理体系。各国算法治理立法呈现“区域化”、“碎片化”特征。如欧盟以《人工智能法案》为核心,依据风险等级,对人工智能系统实施四级分类监管:禁止不可接受风险系统;严管高风险系统;对有限风险系统要求透明告知;最低风险系统则可以自由使用。中国以《生成式人工智能服务管理暂行办法》为代表,采用发展与安全并重、促进创新和依法治理相结合的原则,对生成式人工智能服务实行包容审慎和分类分级监管,聚焦生成式AI的训练数据合法性、生成内容合规性与算法透明度。与欧盟和中国不同,美国并未出台全国性的综合人工智能监管法案。其治理模式呈现出“联邦框架松散+州级立法差异”的碎片化格局,监管权力多分散于美国各州。缺乏统一的全球算法监管规则。

监管标准不统一导致企业面临“合规困境”,跨国企业需适配不同司法辖区的算法备案、透明度要求、数据跨境规则等,大幅增加合规成本;例如随着欧盟《人工智能法案》(AI Act)的通过和生效,全球主要科技公司(如微软、谷歌、Meta等)被迫启动大规模、高成本的全球合规重组计划。这并非简单地在欧洲增设岗位,而是涉及调整全球产品开发流程、建立专门的风险评估体系、修改用户协议,并考虑为不同地区提供功能差异化的服务。同时,全球算法规则冲突为算法跨境滥用、监管套利提供可乘之机。例如不法分子可能将服务器或研发活动部署在监管最宽松的法域,生产有害内容(如虚假信息、诈骗视频),再向全球传播,利用规则差异逃避打击。

三、

算法治理的新路径

面对生成式人工智能内容安全风险、算法伦理实践冲突、全球治理体系分化等新挑战,算法治理需跳出单一规制框架,构建多维度、协同化的新路径。以协同治理为核心,依靠法律法规界定边界、技术创新防范风险、伦理共识筑牢根基;深化人机共生伦理与公众参与,推动治理向“预测型、敏捷型”转型;主动参与全球治理协同,坚守数据主权与发展利益,凝聚包容普惠的全球共识,护航数字技术向善发展。

(一)构建“制度+技术+伦理”的协同治理体系

人工智能给我们带来无尽欣喜与期望的同时,也逐渐挑战着我们既有的法律、伦理与秩序。算法既会算错、失控,也会承继人类社会的歧视与不平等;既有可能造成大规模的失业和惰性,甚至也有可能极化贫富差距,产生新的‘无用阶级’;既将我们陷入了对未来的踟蹰之中,也可能颠覆我们数千年来的文化与价值。因此,面对可能超越人类智力的算法所带来的多重风险时,政府、市场及公民社会应在AI治理中形成多元、多层次的治理能力,以积极的姿态降低AI风险,以最大化享受AI胜利所带来的生产力解放、生活便利舒适及决策的科学与理性。”

其一,在制度层面,将算法原则转化为具有强制力的刚性规则。这意味着,需要从宏观的法律法规,到中观的部门规章与标准体系,再到微观的平台协议与行业公约,构建一套层次分明、覆盖算法全生命周期的制度网络。例如,将“公平”原则转化为招聘算法必须通过“偏见审计”的法律要求;将“透明”原则具体化为高风险系统必须提供“技术文档”的备案标准。制度的作用,是为技术研发和市场应用设定清晰的“负面清单”与“规则轨道”。

其二,在技术层面,将算法黑箱变得具有可解释性。在数字时代,我们需要面对算法黑箱的问题。算法黑箱即我们常说的“黑盒子”,“所谓黑盒子,是指一种晦涩难懂的技术,人们在运用这种技术时无须任何了解,只要输入数据,就能得到结果。打开黑盒子,设计者与用户面对的将是一堆可以得出某种答案的主观偏见与程序。而合上之后,它体现的就是客观性——一种无须满足任何更多的条件即可生成‘是’与‘否’的二元选项的机器。”人类世界被植入了计算机逻辑。面对算法“黑箱”,需要开发可解释人工智能(XAI)工具,使算法决策能够被人们所理解与审查。同时,可以利用联邦学习、差分隐私等技术,在数据利用与隐私保护间寻求平衡。技术工具可以使原本抽象的伦理原则和制度要求,成为可以嵌入开发流程、进行量化评估的工程化指标。

其三,在伦理层面,为算法治理提供价值校准与方向指引。对于算法的伦理审查,应贯穿始终。首先,在算法项目的立项、研发、部署等各阶段都应设立伦理评审节点。其次,当制度规则在具体场景中发生冲突时,应提供基于伦理原则的动态价值权衡框架。最后,对开发者、产品经理进行系统的算法伦理培训,使其在技术决策中具备价值敏感性。算法,只能“属于人民”。算法的背后是人,人应该是丈量算法的尺度。

(二)深化人机共生伦理与公众参与

随着人工智能技术的发展,形成了越来越多的人机交互场景和人机协同机制,此时,形成了“人为主体、机器辅助、人的创造性能力优势与机器的操作性优势两者相辅相成的人机共生”。人机共生时代的治理,核心目标不再是单纯地“管住机器”,而是构建一种和谐、可信、以人为中心的新型共生关系。这就要求在价值层面确立人本主义伦理观,并在实践层面将公众从被动的“治理对象”转变为积极的“治理参与者”。

首先,应确立人在共生关系中的主体性与控制权。人机共生伦理的基石是明确“人是目的,而非手段”。算法的所有设计与应用,必须以增进人类福祉、维护人类尊严为根本目的。这需要确立一系列具体准则:例如,最终决策权原则:在任何涉及重大生命健康、人身自由或社会资源分配的决策中,必须确保人类拥有最终的审查、否决和决策权,算法应作为辅助工具,而非替代者;非工具化原则:算法不能将人视为纯粹可预测、可优化的数据点或生产要素。必须防止技术利用人性弱点进行过度操纵,保障人的自主性与反思能力;责任归属原则:当人机协同导致损害时,法律责任的追究必须最终指向人类主体(如开发者、部署者、使用者),确保责任链条清晰,避免出现“算法担责”的真空。

其次,构建多层次、可操作的公众参与机制。在上游的参与,要进行伦理审查与影响评估中的公众意见征询。在重大AI项目立项前,应进行社会影响评估,并通过听证会、公众咨询平台等方式,收集可能受影响的社区、利益相关群体及公众代表的意见。在中游的参与,确保算法运行过程中的透明度与反馈机制。向用户提供可理解的算法解释和便捷的申诉、纠正渠道。在下游的参与,体现在独立审计与社会化监督。支持建立由技术专家、伦理学者、法律人士和公众代表组成的第三方独立审计机构,定期对公共部门和大型平台的关键算法进行审计并公开摘要报告。同时,鼓励发展“算法观察”等公民社会组织,对算法的社会影响进行长期追踪、研究和倡导,形成来自社会的制衡力量。

最后,提升全民数字素养与伦理意识。确保有效的公众参与,前提是公众具备相应的认知与能力。应将人工智能伦理与算法素养纳入国民教育体系和公共科普,使公众了解算法的基本工作原理、潜在偏见和自身权利,从而能够进行理性、高质量的参与。

(三)推动算法治理向“预测型、敏捷型”转型

面对算法技术高速迭代与风险复杂多变的问题,推动算法治理向“预测型、敏捷型”转型成为破解传统治理“事后追责、被动应对”困境的关键措施。“预测型、敏捷型”算法治理的核心是从传统的“事后回应式”监管,转向强调“事前预见、事中介入与事后追溯”的主动适应性治理。

“预测型”治理的核心要义,是依托数据融合与智能分析技术,挖掘算法运行全生命周期的风险隐患,实现从“被动应对”到“主动预判”的转变。这要求治理主体整合算法研发数据、应用场景数据、风险事件数据等多源信息,构建风险预测模型,精准识别算法偏见、技术失控、数据泄露、内容失实等潜在风险,提前划定风险防控阈值,为治理决策提供科学依据。其核心价值在于打破“风险发生—事后查处”的传统逻辑,通过前置化防控降低风险发生概率与危害程度,尤其适配高风险算法场景的治理需求。例如北京高院研发的“数智北法”智能应用平台,严格把守在立案、审判与执行各阶段的“质检”关键点上,将预测性司法深度嵌入司法全流程。

“敏捷型”治理的核心在于构建灵活高效的响应与迭代机制,适配算法技术快速迭代与应用场景动态变化的特征,实现治理规则、治理手段与技术发展的实时适配。敏捷治理致力于实现治理中的“敏捷性”,旨在形成一种快速、可持续的感知、适应和应对环境变化的治理能力。这要求打破传统治理的层级壁垒与流程桎梏,建立扁平化的治理架构、快速响应的决策机制与动态迭代的规则体系,针对新出现的技术风险、应用场景,能够快速调整治理策略、完善监管标准、优化技术工具,避免因治理滞后导致风险蔓延。同时,敏捷治理强调“边治理、边优化”,通过实时监控算法运行效果、收集公众反馈与行业意见,持续迭代治理方案,提升治理的精准性与适配性。

(四)强化全球治理协同与中国参与

随着算法技术的跨国流动性,强化国际合作是破解治理碎片化、规则冲突等难题的关键。当前全球算法治理陷入“规则碎片化”的困境,数据跨境、伦理适配等核心议题缺乏统一共识。既增加了跨国企业合规成本,也为算法滥用、监管套利提供了空间。在此背景下,唯有构建包容普惠的全球协同治理体系,才能实现算法技术全球有序发展;而中国作为数字技术大国,主动参与全球治理、贡献中国方案,既是自身发展需求,更是大国责任担当。

一方面,在多边框架下贡献平衡性治理理念。当前,欧盟主要是“风险分类”的治理模式,其核心是以《人工智能法案》为代表,通过风险分类优先保障公民基本权利与社会伦理。美国是“多层次”的治理模式,其核心是旨在通过维护宽松的监管环境激发产业竞争力,是一种多维度、多层次的综合治理模式。在此背景下,中国强调 “安全可控、包容普惠、发展赋能” 的平衡性治理理念。其核心是,全球治理的终极目标不应仅是管控风险或激励创新,更应是促进技术红利在全球范围内的公平共享,确保人工智能服务于全人类的共同发展和福祉。正如《全球数字契约》,该契约旨在为全球数字合作确立共同原则与行动框架,而人工智能治理是其中的核心章节。其中,中国在关于全球数字治理有关问题的立场中就明确提出,各国应拓展数字合作,促进数字贸易,弥合数字鸿沟,构建普惠平衡、协调包容、合作共赢、共享繁荣的全球数字经济格局。

另一方面,在技术共享与双边/区域协作层面,中国积极推动算法治理技术普惠与合作落地。其核心逻辑是:以共同发展需求为导向,以实际应用场景为牵引,通过建立技术共享、标准互认与能力建设的务实机制,将中国的算法治理技术、基础设施与经验,转化为“全球南方”伙伴国家可获取、可利用的公共产品。为切实缩小全球数字鸿沟、推动算法治理原则落地,中国可在现有国际合作基础上,发起并牵头“全球南方国家人工智能赋能伙伴计划”。该计划旨在超越一般性的技术对话与备忘录,聚焦于为“全球南方”伙伴国家提供可负担、可落地、可持续的大模型技术基础设施与关键应用能力,构建一个开放、共享、普惠的技术合作新生态。例如,建立开源模型平台,提供技术孵化服务;实施“AI+”公益示范项目,将大模型应用于农业、医疗、教育、防灾等民生领域;依托“丝路电商”推动创业企业融入全球市场,激发数字经济活力。

综上,强化全球算法治理协同,关键在于平衡各国利益诉求、凝聚价值共识;而中国的参与,不仅为全球治理注入了新动能,更以“技术向善、包容普惠”的核心理念,推动全球算法治理从“竞争博弈”向“合作共赢”转型,为数字技术全球可持续发展筑牢治理根基。

四、

纵观2025年,算法技术正以前所未有的深度与广度融入经济社会发展的各个领域,成为驱动创新、重塑业态的关键力量。然而,伴随着生成式人工智能、具身智能等前沿技术的快速落地,算法治理也面临着一系列复杂深刻的新挑战:从伦理原则在实践中的具体冲突,到全球治理体系的分化与协调难题,无不考验着各方的智慧与协同能力。

面对人机协同中的责任“真空”、生成式AI的伦理失范等问题,我们深刻认识到,算法治理已不能仅依赖于单一的法律规制或技术防控,而必须走向制度、技术与伦理“三位一体”的协同治理新范式。通过将伦理原则转化为可操作的规则,借助可解释人工智能等技术工具打开算法“黑箱”,并在全周期贯彻伦理审查与价值校准,方能真正推动算法向善、服务于人。

与此同时,算法治理的视野必须由国内延伸至全球。在数字时代,算法的跨境流动与风险传导已成常态,任何国家都难以独善其身。当前,不同法域在价值排序、监管逻辑上存在显著差异,加剧了规则碎片化与企业合规负担,也为跨境滥用留下空间。为此,中国应当也更能够在全球治理舞台上发挥建设性作用,积极倡导“安全可控、包容普惠、发展赋能”的平衡治理理念,并通过技术共享、标准协作与能力建设等务实行动,助力全球南方国家弥合数字鸿沟,推动形成开放、公平、共赢的全球算法治理生态。

展望未来,算法治理的道路依然漫长且充满变数。唯有坚持“以人为本”的根本立场,持续完善“预测型、敏捷型”的治理能力,深化公众参与和社会监督,并在全球层面凝聚更多共识、开展更多合作,我们才能更好地运用算法,使其真正成为促进社会公平、增进人类福祉、推动可持续发展的积极动能,共同迎接一个更加智慧、更可信赖的数字文明新时代。

    来源:《数字法学评论》第七辑(2026年第2期)

策划:高童非

    编辑:叶道兵

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON