
2025年,数据安全、个人信息保护和人工智能监管接连调整,合规开始从纸面走向系统。从这一轮立法和监管变化入手,数字科技和互联网年鉴回顾了中国及主要司法辖区在人工智能和数据治理上的新动向,并结合产业实践和司法案例,分析这些规则正在如何影响企业的技术选择、商业模式和出海布局。进一步来看,在新的监管环境下,企业和法律服务都需要提前调整应对方式,把合规放到产品设计和业务决策的前端,减少不确定性,稳住长期发展节奏。
一、回望2025年
数字科技和互联网法律重点回顾
(一)中国的关键立法动态
2025年,中国数字科技法律体系步入了从“框架搭建”向“颗粒度精修”深度转型的关键年。如果说过去几年是数字化底座的“立规”阶段,那么2025年则开启了“以安全促繁荣、以治理导创新”的新治理周期。
纵观全年立法,其呈现出三大显著特征:
AI治理从通用走向垂直:监管触角已从宏观的算法治理,延伸至人工智能拟人化交互、内容识别标注等极其细分的场景,体现了敏捷治理的决心。
法律体系的深度衔接:随着《网络安全法》与《反不正当竞争法》的2025修正,我们看到数据与信息相关规范与《民法典》《个人信息保护法》之间的衔接进一步加强,法律适用的冲突进一步消解。
数据要素的合规释放:公共数据授权运营、数据安全管理条例的施行,标志着数据在安全红线内正加速转化为实质生产力。
为此,我们梳理了2025年度对数字经济具有里程碑意义的法律、法规及规范性文件,以期为行业参与者提供精准的合规对标。

(二)全球立法趋势
2025年是全球数据与人工智能立法的关键分水岭。一方面,生成式人工智能(AIGC)已从“实验性工具”跃迁为企业级基础能力,AI agent和自动化系统开始直接介入交易执行、资源配置和组织管理,其影响已超出传统IT或算法监管的范畴。另一方面,地缘政治紧张、供应链重组与技术脱钩风险加剧,使数据与人工智能不再仅是商业资产,而被普遍视为国家级战略资源与竞争工具。
在这一双重背景下,各主要司法辖区的立法目标发生了明显转变:监管不再仅仅解决“是否合法”“是否安全”,而是开始系统性回答“技术应如何被纳入国家治理与产业竞争框架”。
因此,2025年的全球立法呈现三个显著特征:
第一,立法重心从原则性规范转向可执行、可处罚、可审计的制度设计;
第二,人工智能与数据立法不再孤立存在,而是与产业政策、投资审查、国家安全高度耦合;
第三,不同国家开始明确选择自身的监管路径,而非国际趋同。
到2026年初,全球并未走向统一规则,而是形成了可识别、可持续、并将长期并行的多种监管模式。

2025年全球法规一览
1.欧盟:以秩序为核心的全面风险治理路径
欧盟在全球率先完成AI横向立法体系建设。该举措本质上并非技术立法,而是一次社会治理级别的制度工程。
2024年8月1日
《人工智能法案》正式生效,并按照法规第113条确立分阶段实施机制。
2025年2月2日
禁止性AI实践条款率先生效;
2025年8月2日
通用AI模型规则与处罚条款正式适用;大部分核心义务将于2026年8月2日生效,高风险AI系统的最终分类规则延续至2027年。
该法案通过风险分级制度,将AI系统划分为不可接受风险、高风险、有限风险和最小风险四类,并对高风险系统设定严格的合规评估、风险管理和人工监督要求。最高处罚标准为3500万欧元或全球年营业额7%,确立了全球最严厉的AI合规制裁上限。欧盟选择“先立秩序、再谈创新”,背后的核心判断在于:一旦AI成为社会基础设施,其风险将呈现不可逆与系统性扩散特征,届时再通过事后责任或执法手段进行纠偏,成本将显著上升。
此外,围绕通用模型合规,欧盟发布《通用人工智能行为准则》(General-Purpose AI Code of Practice),把AI Act中的相关义务细化成更可操作的行业路径。
因此,欧盟以风险分级、禁止性实践和高额罚款构建了一套“技术进入社会前的过滤系统”。这为跨国企业提供了高度确定的合规预期,但也意味着在欧盟市场,AI能否部署,往往先于“是否具有商业价值”被法律决定。这一模式尤其影响高风险行业,如金融、医疗、公共治理和基础设施。
2.美国:责任导向与执法驱动的分散式治理
美国并未建立统一的联邦AI综合立法,而是通过州法、行业监管与执法行动构建治理网络。2025年的立法重点集中于透明度、内容标识与具体风险场景。
加州SB-53、纽约州《负责任人工智能安全与教育法案》(RAISE Act)与联邦TAKE IT DOWN法案的出台,标志着美国开始针对可感知风险与社会冲击最直接的AI场景进行精确立法,而非全面覆盖。其隐含逻辑是只要责任主体清晰、救济路径可行,技术本身无需被过早限制。
美国模式的核心在于:允许技术快速落地,但在技术造成实质性损害时,通过刑事、民事和监管执法实现高强度追责。这种路径在创新灵活性上具备优势,但也使企业面临高度碎片化的合规环境。
3.英国:以数据使用为导向的增长型监管转向
英国于2025年正式通过并实施《数据使用与访问法案(Data Use and Access Act 2025)》,完成脱欧后最具实质意义的数据法制重构。该法案是对UK GDPR进行系统性修订。
立法重点从形式化合规转向风险导向监管,降低流程性义务负担,扩大数据共享、自动化决策和二次利用的合法空间,并显著强化“数据作为经济基础设施”的政策定位。在AI治理上,英国并未选择类似欧盟的全面横向立法,而是通过数据法重构,为企业级AI、AI agent和自动化系统的规模化应用保留灵活度。
英国由此形成一种兼具法治传统与增长导向的监管路径,在2026年全球科技投资与并购回暖的背景下,正成为独立于欧盟体系之外的重要制度选项。
4.拉美与新兴市场:制度建设与风险治理同步推进
巴西AI法案(PL 2338/2023)已于2024年12月在参议院通过,目前处于众议院审议阶段。该法案提出国家级AI治理体系、高风险系统分类、版权补偿机制以及劳动者人工审查权,最高罚款可达5000万雷亚尔。拉脱维亚《人工智能发展法案》预计2026年初生效,侧重国家AI发展框架、研究中心建设、产业促进与人才培养,体现中小国家通过立法推动AI竞争力的政策取向。
巴西与拉脱维亚的立法显示,新兴与中小经济体并未简单复制欧盟模式,而是尝试在建立基本治理框架的同时,为技术扩散保留空间。尤其是巴西AI法案,其同时涵盖高风险治理、劳动者保护与版权补偿,反映出AI已被视为影响社会结构的通用技术,而不仅是产业工具。
5.中东与东南亚:增长型监管形成区域合力
中东国家近年来密集出台AI与数据相关法规与国家战略,监管特点是强执行、弱形式、重产业导向。立法多围绕国家AI战略、关键行业应用和公共部门数字化展开,数据保护与创新政策并行推进。
东南亚国家则通过框架性立法、监管沙盒和跨境数据机制,在全球数字经济中争取制度竞争力。相较欧盟,其立法更强调可实施性与区域协同,与英国的增长型监管理念高度呼应。
中东与东南亚的立法实践表明,在全球AI竞争中,制度灵活性本身正在成为一种比较优势。这些地区普遍采用国家战略引导、框架性规则与监管沙盒相结合的方式,使法律成为技术落地的“加速器”而非“门槛”。
(三)产业影响
随着国内外立法的进展,法律法规对产业的影响已从单一的合规约束,演变为重塑商业逻辑、技术方向与竞争格局的深层力量。我们观察存在以下几个方面的产业影响:
1.数据安全治理体系化,合规成本与确定性并增
数据安全治理已超越技术范畴,成为企业基础管理的强制性组成部分。具体体现在以下三个方面:
首先,合规体系化已经成为刚性门槛。随着《网络数据安全管理条例》及配套细则的落地,配合《网络安全法(2025)》的修订,标志着企业必须建立覆盖数据分类分级、风险评估、事件报告、年度审计的全流程管理体系。这并非简单的技术采购,而是涉及组织架构、流程制度与审计监督的系统性工程。特别是《数据出境安全管理政策问答》和《个人信息出境认证办法》的发布,使得企业在数据出境路径选择上(安全评估、标准合同、认证)有了更清晰的操作指引,但也意味着“模糊地带”的消失,迫使所有涉及跨境业务的企业做出明确的合规抉择并持续投入。
其次,安全能力方面要求“可视化”。《网络安全标识管理办法》(征求意见稿)等文件的导向表明,企业不仅要做安全,还要能向监管方、商业伙伴乃至用户证明其安全水平。这催生了“合规科技”市场的繁荣,但也为企业带来了持续的“证明成本”。安全正从后台支撑,走向前台品牌与信任的重要组成部分。
最后,重点行业要求合规精准治理。以《汽车数据出境安全指引》(征求意见稿)为代表的行业性规范,揭示了监管逻辑,即对智能网联汽车、医疗健康等数据高度敏感且关系重大的前沿领域,实施“一业一策”的精准治理。这为头部企业提供了确定性,但无疑大幅提高了产品研发、数据架构设计与全球化部署的复杂度和成本。
2.AI治理走向“硬约束”,技术应用与商业模式面临重塑
生成式AI与人脸识别等技术的监管落地,标志着人工智能应用进入“强约束”发展新阶段。
AIGC商业化已经迎来了“身份证”时代。《人工智能生成内容合成内容标识办法》的落地,要求“规矩+强标”,即要求服务商在技术架构中内嵌可识别、可验证的溯源机制。这对所有AIGC服务提供商(从大型模型公司到各类应用开发者)的底层技术架构提出了刚性要求。这直接冲击了以“隐形”生成为基础的某些营销、内容生产模式,迫使产业将合规成本纳入底层设计。长远看,这为厘清版权责任、治理虚假信息提供了技术前提,将引导AIGC向更负责任、权责清晰的应用生态演进。
同时,人脸识别应用遭遇“急刹车”。《人脸识别技术应用安全管理办法》及其备案公告,是2025年对产业冲击最大的立法之一。“非必要不采集、不提供”原则通过备案制等手段落地,实质上是极大地提高了人脸识别技术的使用门槛。过去商场客流分析、无感支付、小区门禁等场景中对人脸信息的“随意”采集和使用将被严格限制。企业不仅需要进行备案,更要从业务逻辑的根源上论证其使用人脸识别技术的“绝对必要性”。这可能导致部分依赖人脸数据的商业模式直接终结,同时催生出以隐私计算、本地化处理为核心的替代技术方案市场。
3.个人信息保护:穿透企业治理,推动数据策略根本转型
个人信息保护落实的具体要求已深入企业组织的“毛细血管”,从以往的政策声明层面向可验证的内控流程深化。
个人信息合规层面,《个人信息保护合规审计管理办法》的推进,使个人信息保护合规拥有了类似财务审计的严肃性与专业性。企业必须建立贯穿业务全流程、记录完整、可被第三方核验的管理控制体系。这直接催生了对个人信息保护官(DPO)和专业审计人员的巨大需求,并推动企业法务、合规、IT部门的深度融合。
大型平台层面,针对大型平台的《设立个人信息保护监督委员会规定》和《个人信息保护规定》,明确了其作为“守门人”的特殊责任。这意味着一部分内部监督权被制度化、常态化,可能影响平台基于数据快速决策和扩张的效率,但也在促使平台建立更稳健、可持续的数据治理模式,从源头上防范系统性风险。
技术标准与数据处理层面,《个人信息识别、去标识化、匿名化相关实践指南》为业界长期争论的技术概念划定了官方标准。过去许多处于模糊地带的数据应用策略(如基于去标识化数据的用户画像)面临合规风险。企业应当在数据收集的初始阶段就采用“数据最小化”、“默认隐私保护”的设计理念,优先考虑匿名化等更为彻底的技术路径,从而真正推动隐私增强技术(PETs)从理论走向规模应用。
4.全球监管“温差”与执法硬度
企业出海与本土合规的“双向挤压” 随着全球数字治理进入深水区,企业面临的挑战已不再是单一法域的合规,而是如何在处于剧烈变动的全球监管版图中寻找“最大公约数”。
“监管碎片化”加剧,出海企业面临“左右互搏”困局。尽管国内法律体系日益完善,但全球范围内的监管逻辑并不统一。欧盟以《人工智能法案》为代表的“基本权利导向”、美国以国家安全为导向的出口管制,与中国强调的“安全可控”之间存在显著的监管温差。这导致出海企业在数据跨境、算法透明度及内容审核上,极易陷入“在此合规,在彼违规”的“长臂管辖”陷阱。过去依赖单一合规模板“打天下”的策略已彻底失效,企业必须建立“多法域动态响应机制”。
此外,执法从“形式合规”转向“穿透式监管”,隐形风险显性化。这一年,监管机构的执法颗粒度显著变细。无论是国内对平台算法“二选一”的实质性穿透,还是国际上针对科技巨头(如部分GDPR巨额罚单案例)的穿透式执法,都表明监管已不再满足于企业纸面上的制度完善,而是深入到商业模式的底层逻辑、算法参数的设置以及数据流转的实际链路。这种“实质重于形式”的执法趋势,要求企业必须将合规风控前置到产品设计的代码层,否则将面临推翻重来的合规改造成本。
正是在上述监管加码与执法趋严的背景下,相关纠纷开始加速进入司法审查轨道,人工智能领域的侵权争议也逐步由边缘问题转化为法院集中回应的现实议题。
(四)AI侵权类案件回顾
AI侵权并非新鲜事,其多数案件的立案时间都在2022-2024年,但直到今年全国各地法院才如雨后春笋一般做出了如此多的判决。从这个角度讲,将2025年成为有史以来相关裁判节奏最密集的一年,甚至称为“AIGC司法规制元年”并不夸张。从DeepSeek点燃全民热情,到“两会”再提“人工智能+”,AIGC在这一年中,也从单纯的技术狂欢,过渡到合规大讨论的阶段。
1.本年度常见AI侵权案件场景回顾
文生图领域的著作权侵权
AI侵权类案件中,讨论最多的就是著作权相关问题,相关司法实践中产生的争议,尤以文生图场景最为多见。在AI文生图场景中,主要涉及两个场景:
一是使用AIGC工具创作新图片的过程,创作者和AIGC平台是否涉及对现有图片作品的侵权问题;
二是图片完成创作后,是否能够被视为《著作权法》上的“作品”而被保护。
对于AIGC创作新图片过程中的平台责任,2025年有三个代表性案例,分别是第一案广州互联网法院裁判的“奥特曼案”首次尝试厘清AIGC平台责任;随后的杭州互联网法院(二审杭州中院)裁判的“奥特曼案”的分阶段分析更为系统详细;近期上海金山区法院判决的“美杜莎案”首次认定AIGC平台无责。三个案件层层递进,又相互参照,为我们描绘了AIGC在著作权领域的平台责任司法认定的完整图景。
对于AIGC创作图片是否受著作权保护,2013年底至2015年初,北京互联网法院“春风案”【(2023)京0491民初11279号】、江苏常熟市法院“伴心案”【(2024)苏0581民初6697号】、武汉东湖高新区法院【(2024)鄂0192知民初968号】连续做出三个认可AI生成图片具备可版权性的判决。随后张家港法院的“蝴蝶椅案”“【(2024)苏0582民初9015号】、北京互联网法院的猫咪晶钻吊坠”案以及上海黄浦区法院的(2025)沪0101民初14775号判决,则未支持AI图片“作者”的权利要求。
AI换脸场景下的多样侵权问题
在AI换脸场景中,涉及被使用人脸方和被换脸素材方等多方权益。就被使用人脸方而言,涉及肖像权侵权、人脸个人信息侵权和名誉权侵权问题,对于被换脸的素材方,同样涉及肖像权侵权和人脸个人信息侵权问题,同时对于被换脸的原素材,还存在侵犯著作权的可能。
对于被换脸素材方的肖像权侵权问题,上海市金山区人民法院在(2022)沪0116民初13222号认为,被换脸一方依然能够被识别,那么也有被认定名誉权被侵害的风险。而北京互联网法院在(2023)京0491民初12766号和(2023)京0491民初3820号案中则认为,妆容、发型、服饰、灯光等要素并非无法与特定自然人所分割的要素,无法与特定自然人形成对应关系,因此不构成肖像权侵权。可见,对于这一领域司法界还未能完全达成共识。
基于自然人的AI形象和AI声音商业化使用
AIGC的另一个重要商业化场景是基于现有真实自然人的人脸或声音等人格要素,生成与真实自然人高度相似的虚拟伴侣、配音作品、营销带货配音等。此类案件中,法院一般均会认可肖像和声音的人格权益属性,只要在未经授权的情况下,AI生成内容达到“可识别性”标准,其商业化使用行为就会构成直接的人格权侵权。今年北京互联网法院发布的典型“涉人工智能案件”中,已有三案为相关内容。
2.AI侵权案件的四个特点
正所谓“前事不忘,后事之师”,相较于具体的裁判观点,总结此类案件中的共性,显得更为重要。这些已经生效的裁判就像一盏盏明镜,值得每个AIGC相关从业者细细品读,以正衣冠:
以“人”为核心的权利归属不因技术发展而转移
无论技术如何发展,算法如何进化,算力如何提升,现行法仍以“人”为权利的核心因子:对于和人的肖像、声音、名誉等相关的人格权之神圣自不必说,通过AIGC包装的任何行为,未经许可均不能随意使用,也不能侵犯。
就著作权而言,AIGC大模型本身不会成为新的法律主体身份,也不是作品的作者,作者仍然是操作工具的人。在衡量是否构成作品角度,仍以“独创性+智力投入”为门槛。
“技术中立”不是侵权责任的免死金牌
就AIGC平台的运营者而言,侵权责任不会简单地因为“技术中立”而豁免。对于AIGC平台而言,其既不是传统避风港原则中的服务提供者,也不是内容提供者,其承担的是一个帮助内容生产的角色,这让其注意义务和法律责任都位于两者的中间地带。AIGC平台、模型开发者、终端使用者三者之间,谁对数据输入、模型训练、内容输出具备“事实上的控制力”,谁就要承担“与风险相当的注意义务”。
从结果论到过程论
司法裁判已从“结果论”转向“过程论”——对于使用人格要素、作品相关的侵权而言,能否出示完整的“授权链”,成为论证其是否侵权的标准;对于生成物的著作权认定,其是否能够举证其包含独创性智力投入的创作的完整过程,成为是否能够胜诉的关键;对于平台责任而言,“标识义务履行记录”“投诉—删除机制运转日志”“用户协议中的提示条款”成为免责或减责的“硬通货”。
类推说理在裁判中被频繁运用
靡革匪因,靡故匪新。任何新生事物相关的侵权案件,其在对“滞后”的现有法律的运用上,不可避免地需要运用类推说理的方法。这也是认识新事物的必然思维过程,也是延续司法确定性和说服力的方式。在著作权案件中,AIGC被比作照相机;在平台责任案件中,AIGC又和常见的互联网平台运营者做类比和区分。因此,对既往传统裁判场景的熟悉,对于认知AIGC新场景下的侵权责任有重要意义。
技术的发展和生产生活效率的提升,是任何力量都无法阻挡的历史趋势。而无论任何新技术的不断涌现,人的权利和尊严,永远是法律保护的核心价值,也是我们每个法律人永恒的历史使命。2025年的案例告诉我们,谁能把合规内化为技术代码、商业流程、企业文化,谁就能在这场盛大的AI浪潮里赢得用户、资本与监管的三重信任。未来已来,愿使命不负。
二、2026年趋势前瞻
全球性的AI法律挑战
(一)AI技术迭代倒逼法律体系升级
以2025年为关键转折点,全球人工智能技术的深度普及与突破,正在2026年持续外溢为对既有法律治理体系的系统性冲击,并推动各国加速对AI法律规则的调整与重构。
1.技术革新与社会问题并存
进入2026年,伴随多模态大模型、代码自动生成以及智能体技术在2025年实现关键突破,AI正呈现出更强的自主性与创造性,人工智能技术加速完成从“工具”向“伙伴”的转变,并持续向日常生活与生产场景渗透。
技术狂奔的背后,技术滥用风险日益凸显。首先,AI仿冒侵权、合成虚假信息等乱象频发。2025年11月,北京某医院的于某教授的形象被AI盗用于减肥产品宣传,多个直播间使用AI伪造央视主播进行虚假营销。自2025年4月中央网信办启动“清朗·整治AI技术滥用”专项行动以来,仅第一阶段就处置违规AI产品3500余款,清理违法违规信息96万余条。其次,责任认定困境成为制约AI赋能关键行业的瓶颈。人工智能价值链涉及研发、训练、部署等多环节,导致开发者、部署者与使用者之间的责任边界难以清晰界定。同时,数据安全与算法偏见问题加剧,不仅衍生出算法歧视、信息茧房等伦理挑战,更成为影响社会公平的潜在威胁。
上述问题在2025年集中显现,并将在2026年随着AI技术进一步普及而持续放大,成为倒逼法律体系升级与规则细化的核心现实压力。
2.全球法律应对的多元路径
面对AI带来的严峻挑战,2025年全球主要经济体加快了AI治理的步伐,AI治理呈现出从原则框架向务实工具转变的明显趋势。这一变化为2026年AI治理从原则框架向可执行、可落地的合规工具转型奠定了制度基础。
在“人工智能+”战略的引领下,中国对AI的治理呈现出框架构建与精准治理并举的特征。国务院在2025年8月印发《关于深入实施“人工智能+”行动的意见》,成为AI与各行各业深度融合的国家行动指南。2025年9月,《人工智能生成合成内容标识办法》实施,其规定的显性与隐性双重标识体系为AI生成内容建立了“身份可溯”机制。《中华人民共和国网络安全法》修正案于2025年10月通过,本次修订新增人工智能安全条款,体现了鼓励人工智能创新与风险监测并重的治理原则。同时,在监管层面,中国积极推动AI治理的场景化下沉,在医疗、教育、政务等垂直领域深化AI工具应用,例如重庆公安利用“预警劝阻智能体”精准反诈,使预警劝阻失败率降至万分之二。上述实践共同勾勒出2026年中国AI治理从制度构建走向场景化落地的基本路径。
2025年,《欧盟人工智能法》进入关键规则制定和实施阶段,基于风险分类构建层级化监管体系。美国鼓励人工智能技术创新,通过司法判例逐步明确相关人工智能产品责任规则,但在综合性立法方面仍显审慎。
3.大国竞争下的法律调整
人工智能技术已超越纯粹的技术竞争,成为大国战略博弈的关键领域。各国在推进法律修订与调整的过程中,均鲜明体现出争夺人工智能治理主导权的战略意图。
在《欧盟人工智能法》的实施过程中,欧盟委员会意识到过于严苛的合规义务,可能会抑制人工智能产业的创新活力,随即着手探索为人工智能产业减负的灵活方案。2025年11月,欧盟委员会推出“数字综合方案”,不仅推迟了高风险AI系统的合规义务的生效时间,还明确提出数据控制者在开发和训练AI模型时可以援引《通用数据管理条例》第6(1)(f)条下的“合法利益”条款等。而美国则依托出口管制、投资审查等国内法工具,对AI技术构筑隐性壁垒,同时持续推动其治理模式的国际化输出。
中国通过修订《中华人民共和国网络安全法》,显著强化域外管辖权限。修订后的《中华人民共和国网络安全法》第七十七条将该法的适用范围从“危害关键信息基础设施”扩展至“危害中华人民共和国网络安全”,同时取消“造成严重后果”的前置条件,实现对境外威胁的全面打击。这一调整不仅是对网络空间主权理念的深化落实,更是应对大国竞争的法律利器。
在上述全球治理格局与制度分化的背景下,观察中国人工智能相关法律的演进方向,已成为理解未来人工智能治理走向的关键切入点。
(二)中国法律的演进方向
展望2026年中国人工智能立法的演进,我们认为,演进的方向主要为顶层立法继续推进和重点问题、细分领域立法相继出台,人工智能法律体系继续加速完善。
1.人工智能顶层立法继续推进
与以欧盟为代表尽早出台《人工智能法案》等人工智能法律的国家和地区不同,中国对于人工智能的立法思路为系统推动人工智能法律法规体系建设,在人工智能发展的同时,修订完善既有法律法规规定、出台细分领域政策、标准和伦理规范对法律法规进行补充支撑,在保障安全底线的基础上优先解决人工智能发展中的突出问题,有序推动人工智能技术健康发展,待立法时机成熟时再制定人工智能法。
基于前述立法思路,2026年中国人工智能的顶层立法将继续推进,相关立法调研和起草工作也将持续进行。结合现有信息,参考《个人信息保护法》长达数年的立法进程,再加上2026年1月1日起施行的修改后的《网络安全法》首次在基础法律层面明确了人工智能安全与发展的框架性规定,2026年中国正式颁布《人工智能法》的可能性很低,《人工智能法》(草案)起草完毕并被全国人大常委会列为2026年初步审议的法律草案范围的可能性也不高。
2.重点问题、细分领域立法相继“面世”
有望在2026年正式出台的重点问题、细分领域立法
2025年,多部门围绕AI伦理与拟人化互动治理先后发布相关规定的征求意见稿,面向社会公开征求意见。其中,工业和信息化部会同中央网信办、国家发展改革委、科技部等多部门于2025年8月7日起草并发布《人工智能科技伦理管理服务办法(试行)》(征求意见稿)(简称“《AI伦理办法征求意见稿》”);国家互联网信息办公室于2025年12月27日发布《人工智能拟人化互动服务管理暂行办法》(征求意见稿)(简称“《AI拟人互动管理办法意见稿》”)。
两份规定征求意见稿分别回应了当前人工智能实践或细分领域中较为突出的问题。《AI伦理办法征求意见稿》侧重于将科技伦理问题转化为可执行的管理安排,结合人工智能的技术特点,重点规范人工智能应用、算法模型、智能系统及自动化决策等科技活动的伦理风险。《AI拟人互动管理办法意见稿》聚焦拟人化互动服务领域的边界与规范,针对用户被误导、冒用身份、过度拟人化引发的不当依赖等情形,规定了提供和使用AI拟人化互动服务的禁止性行为、服务提供者的主体责任、全生命周期安全责任等要求,为AI拟人化互动服务的健康、有序、合乎伦理的发展提供了重要指引。
结合当下人工智能治理的现实需求,这两部规定在2026年正式出台的可能性都比较高。
以问题导向为主线的人工智能领域重点问题、细分领域立法趋势
与2025年的方向一脉相承,2026年人工智能的立法会继续以问题为导向,先制定规定再完善配套与先指南标准探索再上升为强制性规定相结合,从而更好地应对人工智能技术快速发展与应用带来的新风险、新挑战。
先制定规定再完善配套,即先针对提出明确的、细化的规范发展要求,再以国家标准等文件明确落地细节,推动人工智能法律规则更好地落入实处,代表案例为《人工智能生成合成内容标识办法》和配套的强制性国标《GB 45438-2025网络安全技术 人工智能生成合成内容标识方法》。
先指南标准探索再上升为强制性规定,即先针对人工智能安全管理等基础问题或者特定领域问题制定网络安全标准实践指南,在实践初步成熟的情况下上升为国家标准,并在实践进一步成熟的情况下上升为部门规章等强制性规定。例如,2026年1月13日发布的《人工智能应用安全指引总则》《人工智能应用安全指引广播电视和网络视听》《用户使用人工智能安全指南》《人工智能训练数据清洗安全指南》等4项网络安全标准实践指南征求意见稿,就是从制定流程相对简化的网络安全标准实践指南入手。
整体而言,人工智能立法的阶段性重心在于围绕人工智能具体应用场景进行风险识别并配置责任与义务。随着人工智能的发展方向从通用智能转变为场景智能,从快速提升通用能力阶段进入到规模化应用阶段,人工智能相关的权利归属、侵权与违约责任、内容可追溯、误导与不当依赖等通用风险和在金融、医疗、教育等行业具体应用的问题越来越多地出现,风险程度和问题影响也在逐渐上升甚至短时间内剧增,进而相继具备通过制定部门规章等法律规定加以约束的现实条件。国家发展改革委在相关答复中亦以“苗头性、倾向性问题已初步显现”为前提,提出人工智能下一步制度演进的组合路径,包括遵循急用先行、总分结合、问题导向、留足弹性的原则,推动修订完善现有法律法规或者增加司法解释,同时研究出台政策、标准与伦理规范,对既有法律规范形成补充支撑,并鼓励具备条件的地区开展立法试点。
总结来说,2026年我们将在经历人工智能应用与经济社会各行业各领域进一步广泛深度融合、推动重塑人类生产生活范式和促进生产力革命性跃迁、生产关系深层次变革的同时,一起见证中国更多的人工智能相关立法发布,为AI向善指明具体的方向,规范和保障人工智能高质量、有序和健康发展。
中国的立法进路并非孤立展开,而是嵌入于全球人工智能治理体系加速成型的整体背景之中。从各国监管实践的演变趋势来看,人工智能治理正在经历由原则共识向具体规则、由政策倡议向可执行合规机制的关键转型。
(三)全球监管趋势预测
从2025年到2026年初,全球已形成三种稳定并行的监管风格:欧盟代表的秩序优先型路径、美国的责任与执法导向路径,以及中东、东南亚逐步汇聚的增长型监管路径。
1.欧盟
欧盟通过《人工智能法案》率先确立统一、具有约束力的风险治理框架。《通用人工智能行为准则》,把《人工智能法案》中的相关义务细化成更可操作的行业路径。该做法并非弱化监管要求,而是通过引入自愿性合规工具,为企业提供可被监管认可的合规证明方式,在确保风险可控的同时,降低合规不确定性并提升规则的可执行性。
2.美国
美国则呈现出更强的“州层面先行、联邦层面寻求统一”的趋势。一方面,2025年各州立法活跃度显著上升:全美各州广泛提出并通过AI相关法案,2025年共有38个州通过或颁布了约100项AI相关措施(由National Conference of State Legislatures(NCSL)统计)。
与此同时,联邦层面开始释放出“减少州法碎片化、推动全国统一框架”的明确信号:白宫于2025年12月11日发布《Ensuring a National Policy Framework for Artificial Intelligence》行政令,提出将评估既有州内AI法律并识别与联邦政策目标冲突或“负担过重”的州法,同时推动形成“minimally burdensome national policy framework(尽可能低负担的国家政策框架)”,并引入以联邦路径应对州层面过度监管的阻碍。
3.日本、韩国
日本、韩国通过立法强化国家人工智能发展框架、科研能力与人才体系建设,将监管与人工智能竞争力提升绑定。中东与东南亚地区正在形成以国家战略引导、框架性规则与监管沙盒相结合的“增长型监管”路径,强调执行效率、产业导向与区域协同。
总体而言,这三种模式将长期共存并深刻影响人工智能技术部署节奏、资本流向和产业布局。未来的合规优势不取决于“最严格”或“最宽松”,而在于能否建立可迁移、可扩展、可审计的全球治理体系。
因此,面向全球的合规策略应当正视各司法管辖区的路径差异:以一套统一的“全球合规水位”,形成AI合规常态机制,然后再按不同法域的要求进行制度配置与架构设计。从而在2026年及未来的人工智能的监管波动中保持产品迭代与合规水位的弹性发展。
三、智算时代
构建“安全与发展”双驱动的敏捷治理新范式
回顾前文可以看到,无论是中国在2025年密集出台的数据和人工智能监管规则,还是全球主要司法辖区不断细化的立法和执法实践,都在传递同一个信号:数字科技合规已经进入需要精细操作的阶段。
在过去较长一段时间里,企业面对新规,往往通过完善制度文本、补充合规文件或完成一次性整改,就能够满足监管要求。但从2025年的制度设计来看,这种“以文件应对规则”的方式正在失去空间。以《网络数据安全管理条例》和《个人信息保护合规审计管理办法》为例,监管关注的重点不再是企业是否写到了某些制度,而是是否建立了可以持续运行、能够被实际核查和审计的管理机制。仅停留在制度文本层面的合规安排,已经很难通过后续的合规审计和执法检查。
在这一背景下,我们认为,2026年之后,企业和法律服务至少需要在三个层面完成实质性转变。
第一,合规必须直接体现在产品和系统的设计中,而不只是停留在文件层面。以前文提到的《人工智能生成合成内容标识办法》为例,该办法要求对生成内容设置显性和隐性的识别标识,这一要求并不是通过事后声明即可完成,而是必须在模型输出机制、内容发布流程中进行技术层面的实现。无独有偶,《人脸识别技术应用安全管理办法》要求应用人脸识别技术处理人脸信息应当具有特定的目的和充分的必要性,实质上迫使企业重新审视哪些业务场景确实离不开人脸识别技术。
这些规则的共同特点在于,监管不再只看企业是否能够说明自身合规,而是要求合规结果能够在系统层面被验证。这也意味着,如果合规考量没有被纳入产品设计和技术选型,后续的整改成本将显著上升。
第二,企业跨境经营不再是简单的规则对照,而是对不同监管逻辑的理解和适配。在前文的全球立法回顾中可以看到,欧盟通过《人工智能法案》确立了以风险分级和事前评估为核心的治理路径,而美国则更多依赖事后责任追究和执法行动来塑造边界。英国在修订数据规则时,则明显降低了形式化合规负担,为数据共享和自动化决策预留空间。这种差异已经在企业实践中转化为现实压力。例如,在欧盟被归类为高风险的人工智能系统,即使在其他地区具备明确商业价值,也可能因为合规成本过高而无法部署。
对出海企业而言,继续依赖单一合规模板,已经难以应对这种长期并存的监管格局。真正可行的路径,是在产品和数据架构层面预留调整空间,使其能够适配不同监管要求。
第三,法律服务的价值,已经不限于由律师来判断判断是否合法,而是帮助企业做选择。在人工智能和数据相关领域,越来越多的问题并不存在绝对的“能或不能”,而是涉及不同方案之间的风险、成本和长期影响。例如,是继续使用合规压力较大的生物识别技术,还是调整业务模式,采用对个人信息依赖更低的替代方案;是选择程序复杂但确定性较高的数据出境方式,还是通过业务重构减少跨境数据需求。这些问题,已经超出了单纯法律解释的范畴,需要结合技术实现方式和商业目标共同判断。
只有在这些转变真正发生的情况下,合规才能从企业眼中的负担,转变为提高业务确定性、降低系统性风险的重要工具。相应地,法律服务的角色,也不再只是事后应对监管检查或纠纷,而是参与企业数字化建设和全球布局的前置环节。
2025年的立法、执法和司法实践,已经清楚地展示了这一变化趋势。可以预见的是,随着2026年人工智能和数据规则进一步落地,能够将法律要求落实到技术、流程和决策中的企业,将在不断变化的监管环境中拥有更稳定的发展空间。
主笔人

董皓
浩天全国数字科技和互联网行业委员会 牵头合伙人
北京浩天(上海)律师事务所 高级合伙人
donghao1@hylandslaw.com

郭远程
浩天全国数字科技和互联网行业委员会 牵头合伙人
北京浩天律师事务所 高级合伙人
guoyuancheng@hylandslaw.com

张金栋
北京浩天律师事务所 合伙人
zhangjindong@hylandslaw.com

何为
北京浩天律师事务所 合伙人
hewei2@hylandslaw.com

刘晓霞
北京浩天(上海)律师事务所 合伙人
liuxiaoxia@hylandslaw.com

宋海新
北京浩天(上海)律师事务所 合伙人
songhaixin@hylandslaw.com

黄雯嫱
北京浩天(上海)律师事务所 律师
huangwenqiang@hylandslaw.com

李佳陆
北京浩天(上海)律师事务所 律师
lijialu@hylandslaw.com
?延伸阅读



