2026年2月3日,中国人工智能产业发展联盟(以下简称“AIIA”)第十六次全体会议在北京石景山召开。会议期间发布了由华为、中国信息通信研究院人工智能研究所以及AIIA安全治理委员会共同编制的《行业数智化AI安全实践研究报告》(以下简称《报告》)。报告紧密结合行业数智化发展趋势,围绕行业人工智能应用安全开展系统研究,对行业AI安全治理的技术路径与未来发展方向进行了前瞻性分析与展望。
会上,华为行业ICT解决方案规划与营销运作部部长边英杰与中国信息通信研究院人工智能所所长、AIIA总体组组长魏凯共同发布《报告》。

在成果解读环节,中国信息通信研究院人工智能研究所高级业务主管静静对《报告》核心内容进行了系统介绍。她指出,随着人工智能技术快速演进并深度赋能千行百业,行业AI应用在加速落地的同时,也面临管理风险、技术风险和场景风险等多重挑战,亟需构建体系化、可落地的行业AI安全治理路径。
针对上述问题,《报告》以“安全即内建、安全即默认”为设计原则,提出构建覆盖AI应用全生命周期的安全治理体系,并以“端到端、分层解耦”为总体思路,形成由基础设施安全、数据安全、模型安全、能Agent安全等核心支柱构成的技术框架,辅以安全运营管理机制,实现协同联动、闭环治理。
其中,基础设施安全通过可信计算、隔离防护与全链管控,夯实算力、网络、存储与平台运行底座;数据安全遵循分类分级、全链防护和合规可控原则,覆盖数据采集、存储、使用、传输与销毁全过程;模型安全贯穿工具链、训练、部署与运行阶段,防范数据投毒、对抗攻击等风险,保障模型鲁棒性与合规性;智能Agent安全聚焦运行约束、交互防护、内容合规、业务逻辑校验与可审计性。安全运营管理通过跨域协同、全生命周期治理和分层解耦落地,构建“检测—响应—优化—复盘”的持续治理闭环,形成“基础设施-数据—模型—智能体—运营”协同治理机制,支撑行业AI应用安全可控、可信运行。
《报告》聚焦金融、政务、医疗、制造四个典型行业领域,对行业AI应用安全治理路径进行了实践验证。金融领域构建覆盖“事前—事中—事后”的全链路安全防控体系,通过数据合规治理、RAG机制与运行期监控保障数据、内容和运营安全;政务领域围绕内容合规与隐私保护,构建以Prompt注入检测、个人信息脱敏等能力为核心的内容安全防护体系;医疗领域围绕高敏感数据和诊疗安全,构建以统一治理中心为核心的多重防护机制,实现数据零泄漏与威胁自动化防御;制造领域构建覆盖运行环境、数据审计与推理业务安全的多层防护体系。报告强调将安全能力嵌入业务流程与运营机制,结合不同行业特性形成具备可复制性、可推广性的行业AI安全治理实践模式。
面向未来,《报告》提出推动行业AI安全治理由“基础能力补齐”向“生态协同共治”演进,探索构建安全可信的“数智共生”新生态。
《报告》的发布立足行业数智化转型的实际需求,系统梳理了AI应用全流程安全风险,总结了可落地的实践方案与实施路径,为人工智能技术在各行业的规范应用与深度融合提供了科学、系统、可复用的安全治理参考,有助于进一步夯实人工智能产业安全、有序、高质量发展的基础。
点击阅读原文,下载报告全文
咨询联系人
静 静
15810821574(同微信) jingjing@caict.ac.cn


