安永与赛博研究院前段时间联合发布了一份技术报告《2025年全球可信AI治理与数据安全报告》,如下:

这份报告系统性地描绘了当前全球AI治理的宏观格局、企业实践现状、典型案例及未来趋势。其核心围绕“可信AI”(Trustworthy AI)这一主题展开,旨在为企业在拥抱AI技术红利的同时,有效管理其伴生的风险提供指引。
一、全球宏观治理体系:共识下的差异化路径
报告指出,全球AI治理已形成两条并行路径:“为何治理”(联合国框架,强调人权与可持续发展)和“如何治理”(全周期路径,贯穿基础设施到应用)。主要经济体虽有共识(透明、安全、伦理等),但具体策略迥异:
1. 欧盟:采取“强监管、重安全”的统一立法模式
- 核心:以全球首部综合性《人工智能法案》为核心,实施风险分级管理。
- 动态:近期通过《人工智能大陆行动计划》等举措,显现出在严格监管基础上适度松绑以促进创新的趋势。
- 组织:成立“人工智能办公室”统筹27国治理。
2. 美国:奉行“弱监管、促创新”的分散化自律模式
- 核心:联邦与州双轨并行,以NIST的《AI风险管理框架》等自愿性指南为主。
- 动态:政策随政府更迭波动(如特朗普2.0时代倾向于去监管化),各州先行立法填补空白(如科罗拉多州AI法)。
- 特点:强调行业自律,监管灵活但存在碎片化和空白风险。
3. 中国:构建“三级架构、统筹发展与安全”的治理体系
- 核心:国家顶层设计(如《新一代人工智能发展规划》)、行业规范(如《生成式AI服务管理暂行办法》)、地方配套(如上海、深圳条例)相结合。
- 手段:采用算法备案与大模型备案的双备案机制作为重要抓手。
- 理念:始终强调安全是发展的前提,为产业保驾护航。
4. 日韩:推行“软硬结合、协同治理”的模式
- 日本:侧重非约束性的软法(如《以人为本的AI社会原则》),监管宽松灵活。
- 韩国:走“软法先行、硬法固本”之路,于2024年底颁布《人工智能法案》,成为全球第二个通过综合性AI立法的国家。
关键议题方面,报告深入剖析了三大挑战:
- 数据安全:贯穿AI全生命周期,从数据投毒到交互泄露,风险复合且严峻。
- 知识产权:训练数据侵权与生成内容权属界定困难,现有法律体系面临挑战。
- 科技伦理:算法偏见、责任归属不清等问题日益凸显。
此外,报告还指出了产业链视角下的治理难题(上中下游责任划分不清)以及地缘政治引发的供应链断供与制裁风险。
二、企业实践现状:高探索、低成熟
通过对近百家企业的调研,报告揭示了企业在AI治理上的普遍状态——“高探索、低成熟”。
1. 战略与应用
虽然82%的企业已启动AI战略规划,但仅有12% 制定了明确目标与战略。 AI应用集中于企业管理(81%)、客户服务(60%) 等效率提升场景,在复杂业务环节渗透较慢。 企业高度依赖外部模型,67%首选开源模型,仅23%使用自研大模型。
2. 风险与顾虑
企业最关切的三大风险是:数据泄露(65%)、法律合规(42%)和隐私保护(33%)。 - 模型幻觉/输出不稳定(60%)和数据隐私滥用(79%)是技术应用中最令人担忧的因素。
3. 治理建设
- 组织架构:普遍由技术团队主导、多部门协同,59%的企业已设立或规划AI治理委员会。
- 标准融合:企业采取“多源融合”策略,同时参考中国法规、美国NIST框架、欧盟AI法案及ISO/IEC 42001等国际标准。
- 技术控制:呈现出“传统安全延伸”的特征,对身份访问控制、数据加密等基础措施部署较多,但对AI特有风险(如Prompt注入、模型文件安全)的防范措施部署严重滞后。
- 培训宣贯:普及性培训已覆盖,但面向管理层和核心AI团队的专业化、场景化培训明显不足。
4. 挑战与期望
- 主要挑战:合规成本高、技术架构复杂、缺乏统一行业框架、治理落后于技术发展。
- 未来期望:企业强烈呼吁建立权威的可信AI标准框架(72%),并希望AI服务商能提供标准化的可信方案(58%)和经过第三方认证的产品(70%)。
三、典型案例:从理论到实践的落地
报告通过三个案例展示了不同行业企业如何构建可信AI治理体系:
- 媒体出海企业:为应对全球化合规压力,构建了覆盖AI全生命周期的四步治理路径(目标-分域-组织制度-监测),成功获得ISO/IEC 42001认证,成为行业标杆。
- 网络安全企业:聚焦AI自身安全,打造了“三位一体”的AI安全防护网(AI安全护栏),实现了对模型输入、推理、输出的实时监控与防护,显著降低了异常输出率。
- 大数据科技企业:建立了AI全周期治理流程,从数据采集、模型训练到产品下线,每个环节都嵌入了严格的安全与合规控制点,确保了生成内容的高安全性。
四、未来展望:迈向内生自主与协同共治
报告对未来AI治理的发展趋势做出了五大判断:
- 数据治理为切入点:将形成跨机构协作、分场景(获取、训练、交互、再处理)的“合规-安全-可靠”治理模式。
- AI智能体为驱动力:可信AI将向“内生自主安全”演进,具备自我评估、迭代更新和遵循伦理算法的能力。
- 评估机制为核心:系统化、标准化的影响评估将嵌入AI产品全生命周期,形成动态治理闭环。
- 安全与AI双轮驱动:“AI for Security”(AI赋能安全)与“Security for AI”(安全护航AI)将相互促进,推动AI安全产业螺旋式增长。
- 区域协同与国际合作:尽管存在“监管优先”与“创新优先”的区域分化,但通过G20、联合国等多边平台,全球将朝着“多元共生”的治理新格局迈进。
五、个人见解
该报告为企业和政策制定者提供了一个很有前瞻性的思考框架:
1)“治理即竞争力”已成为新共识:报告中的案例清晰表明,健全的AI治理体系不再是成本中心,而是能带来品牌信任、市场准入和差异化竞争优势的战略资产。尤其是在全球化运营和强监管环境下,合规能力直接决定了企业的生存与发展空间。
2)警惕“传统安全思维陷阱”:企业普遍将AI安全等同于传统信息安全,这是一个危险的误区。AI引入了全新的攻击面(如对抗样本、提示词注入、模型窃取)。企业必须投入资源,发展针对AI原生风险的检测、防御和响应能力,否则将留下巨大的安全盲区。
3)标准化是破局关键:企业面临的最大痛点之一是缺乏统一、可操作的治理框架。报告中企业对标准的强烈呼声,预示着未来1-2年内,围绕ISO/IEC 42001等国际标准的本土化适配、行业细则制定以及第三方认证服务将迎来爆发期。率先拥抱并参与标准建设的企业,将在未来的市场竞争中占据先机。
4)AI智能体将重塑治理范式:报告前瞻性地提出,未来的可信AI将具备内生的、自主的安全与伦理能力。这意味着治理的重心将从外部强制约束,转向在AI系统内部嵌入伦理算法和自省机制。这不仅是技术挑战,更是哲学和伦理学的重大课题,需要产学研各界深度合作。
5)建议:
- 对企业:立即行动,不要等待完美方案。可以从建立跨部门的AI治理委员会、开展AI风险评估、加强核心团队的专业培训入手。优先解决数据安全和模型可靠性这两个最紧迫的风险。
- 对技术提供商:将“可信”作为产品的核心卖点。开发内置安全护栏、提供透明度报告、支持合规审计的AI产品,将是赢得企业客户信任的关键。
- 对监管机构:在确保安全底线的前提下,应鼓励沙盒监管和敏捷治理,为创新留出空间,并积极推动跨区域的互认与合作,降低企业的全球合规成本。


