推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机  减速机型号  履带  带式称重给煤机  链式给煤机  无级变速机 

全球AIGC监管政策对比分析及合规趋势思考

   日期:2025-12-30 15:04:53     来源:网络整理    作者:本站编辑    评论:0    
全球AIGC监管政策对比分析及合规趋势思考

聚焦算法合规,推进备案流程

为规范人工智能的发展,防范和化解人工智能研发与应用带来的各类风险,实现人工智能的安全目标,近年各国开始探索对人工智能的法律监管,为AIGC企业带来了更多的合规挑战。以下将对当前世界各地的AIGC监管情况进行介绍。

01
美国

整体而言,与数据保护领域类似,美国对于人工智能监管比较谨慎,出台的政策法律文件不多,有意避免过早、过多和过严的监管妨碍人工智能产业发展,对人工智能的发展创新较为友好

2019年2月发布的行政命令《维护美国在人工智能时代的领导地位》体现了美国对人工智能产业发展的基本政策导向。该命令要求联邦机构利用各自职权鼓励和促进人工智能技术的发展应用,同时要求NIST更多参与制定人工智能标准。

2020年11月发布的《人工智能应用监管指南》体现了美国在人工智能监管方面的基本态度。该指南并未直接给出人工智能的监管规则,而是指导美国政府如何制定人工智能监管政策。该指南虽然也关注到人工智能引发的歧视问题、国家安全问题,并提出了一系列风险评估、管理框架等要求以促进人工智能的可信度、透明度,但其重点仍为确保监管规则不阻碍人工智能的发展。

2022年10月,白宫科技政策办公室发布《人工智能权利法案蓝图》,核心内容为五项基本原则,将公平和隐私保护放在首要位置。《蓝图》提出的五项基本原则包括:建立安全和有效的系统;避免算法歧视,以公平方式使用和设计系统;保护数据隐私;系统通知和解释要清晰、及时和可访问;设计自动系统失败时使用的替代方案、考虑因素和退出机制。这五项基本原则旨在避免人工智能系统滥用带来的危害,并着重强调了公平性和隐私性。

2023年1月,经过两次征求意见,NIST正式发布《人工智能风险管理框架》(第一版)。该框架可由相关机构自愿选择使用,旨在提供设计、开发、部署和使用人工智能系统的指南,增强人工智能可信度,降低人工智能技术应用的风险。该框架说明了AI风险与传统软件风险的不同,概述了可信 AI 系统的特征,包括:有效性和可信赖、安全性、可靠性与弹性、可问责和透明度、可解释性、隐私增强保护、公平与减损偏见;该框架还提出了AI风险管理的四个模块,包括:治理、映射、衡量和管理。

除了联邦层面,美国一些州也开始探索人工智能立法,在自动驾驶、个人隐私保护、算法治理等多个领域做出了立法探索。比如,2019 年,美国伊利诺伊州颁布《人工智能视频面试法》(Artificial Intelligence Video Interview Act),规范以人脸识别方式的视频面试。

02
欧盟

2018年发布的《欧洲人工智能战略》是欧盟人工智能发展的纲领性文件,提出增加对人工智能的公共和私人投资,并确保适当的道德和法律框架。

在人工智能伦理方面,2019年发布的《可信人工智能伦理指南》指出了可信人工智能的三大特征:合法性、符合伦理和稳健性,明确可信人工智能的伦理标准。

在人工智能综合监管方面,欧盟委员会于2021年提出《人工智能法案(草案)》,这是全球首部人工智能统一监管立法文件,并于近期进入最终谈判阶段,预计最早将于明年生效,法案基于风险预防理念,为人工智能系统制定了覆盖全过程的风险规制体系,将人工智能系统划分为不可接受风险、高风险、低风险和最小风险四类,着重立法规制前两类风险,对高风险人工智能系统的全生命周期监管作了详细规定。

在适用范围方面,《人工智能法案(草案)》将高风险覆盖的领域归纳为关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程等类型,重点规定高风险人工智能提供者或使用者等应建立风险管理体系、采取数据治理措施、建立日志记录能力、通过符合性评测等。对于违反规定者,草案设定了最高3500万欧元或全球年营业额7%的罚款(以较高者为准)。

与上述草案配套,欧盟于2022年提出《欧盟人工智能责任指令(草案)》,旨在解决成员国基于过错的一般责任原则难以保障人工智能场景下受害人索赔难的问题。该草案并不寻求统一成员国的举证责任分配规则和证明标准,而是提出了高风险人工智能场景下被告的证据披露义务,以及过错推定和因果关系推定的规则。

在欧盟发布的以上系列文件中,《人工智能法案(草案)》《欧盟人工智能责任指令(草案)》是两份具有重要参考意义的法律文件,体现了欧盟在人工智能领域通盘设计、统一监管的雄心。

03
英国

2023年3月29日,英国政府发布了人工智能新监管框架的提案《一种支持创新的人工智能监管方法》(白皮书)。它的目标是“提供一个清晰的、有利于创新的监管环境”, 英国针对人工智能领域的监管框架将基于五个关键原则。

一是安全、保障和稳健性:人工智能系统应该在整个生命周期中以稳健、可靠和安全的方式运行;

二是适当的透明度和“可解释性”:人工智能系统应该得到适当的解释和足够的透明;

三是公平:人工智能系统不应损害个人或组织的合法权利或不公平地歧视个人或造成不公平的市场结果;

四是问责制和治理:人工智能系统应该得到有效监督,并建立明确的问责制;

五是可竞争性和补救:当事方应该能够对可能产生有害结果的AI 决定提出异议。

04
东盟

以新加坡为代表,新加坡注重平衡产业发展与风险治理。2019 年,新加坡推出亚洲首个人工智能监管模式框架。该框架主要在企业使用人工智能过程的四个方面提出道德指导原则及措施,分别为内部监管、人工智能决策的风险管理、运营管理以及消费者关系管理。该框架的两个关键指导原则是协助企业确保以人工智能做出的决策能有合乎解释的依据、具有透明性,并且对消费者公平;确保人工智能的使用能以人为本,人工智能解决方案应该以人为中心。

        2022 年 5 月,新加坡政府首先发布官方人工智能治理评估框架和工具包 AI Verify,聚焦使用人工智能及人工智能系统的透明度、理解人工智能模型如何做出决定、确保人工智能系统的安全性和弹性、确保公平,以及确保人工智能系统的正确管理和监督等 5 个支柱和透明性、可解释性、可复现性、安全性、鲁棒性、公平性、可问责性以及人类能动性与监管等 8 项原则,为开发者和企业提供人工智能治理测试框架和工具包。该工具包系自愿申请使用,有助于提高公众对人工智能技术的接受和信任度。

05
国际标准化组织(ISO)

在AIGC监管领域,各类标准是不可忽视的一环。ISO/IEC已成立人工智能的分委员会 SC42。它负责人工智能标准化工作,重点围绕数据质量与治理、可信与安全展开研制工作,并被许多国家及地区作为监管参考,用于人工智能安全及治理工作。

其中,ISO/IEC SC42 WG2 已经开展了 5259 系列人工智能数据质量国际标准,人工智能和数据是鱼和水的关系,数据质量是人工智能发展的生命线,数据安全更是人工智能安全和治理的基础,ISO/IEC 5259 系列是用于衡量和评估人工智能系统中的机器学习和分析的数据质量标准。

同时,ISO/IEC SC42 WG3 可信工作组负责人工智能中可信、伦理、监管、管理、安全等方面的标准制定工作。比如,该工作组开展的 ISO/IEC 23894《信息技术 人工智能 风险管理》为组织在开发、生产、部署、应用人工智能技术的产品、系统和服务过程中提供针对人工智能的特定风险管理的指南,涉及数据安全、隐私保护、算法特性面临的风险的防护。

 本周四(1月18日)晚20:00,特邀嘉宾「乐歌Floria」为大家带来算法备案&大模型备案主题的干货分享,欢迎扫码报名参与。

内容来源 / Floria

排版 / 段梦琪

© THE END

人工智能产业发展迅猛,监管部门对人工智能企业上市的数据合规审查将会越来越严格!企业需注重备案相关问题,为长久稳定发展保驾护航。相关问题欢迎扫码咨询!

↓↓↓

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON