
炙手可热的AIGC产业,首个监管文件即将生效。
继今年4月网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见后,网信办等七部门正式发布了《生成式人工智能服务管理暂行办法》,该办法自2023年8月15日起施行。
这是国家首次针对生成式人工智能产业发布的规范性政策。相比4月发布的征求意见稿,新出台的《生成式人工智能服务管理暂行办法》在多处放宽了监管要求,并增加了鼓励人工智能技术发展的措施。
AIGC数据安全事件频发
技术为生产力革新带来机遇,然而,也需要辩证看待技术的双面性。与任何新技术一样,AIGC同样会带来数据安全、隐私风险和算法安全等问题。
自今年年初以来,全球范围内发生了多起因使用ChatGPT导致的数据泄露事件。科技公司被曝在使用ChatGPT不到20天的时间里发生3起机密数据泄露事件,涉及重要的半导体设备测量资料、产品良率等信息;6月,又有媒体报道称,超过10万个ChatGPT用户的个人信息被黑客窃取并在暗网上进行交易。
此外,用于AIGC训练的数据是否合规也正在引发人们的忧虑。总部位于加州的克拉克森律师事务所表示,OpenAI从互联网上秘密抓取了约3000亿字的内容,其中包括书籍、文章、网站和帖子以及未经同意的个人信息,受害用户达到数百万人。近日,ChatGPT的开发者OpenAI更是被卷入两场与版权相关的诉讼中。
从隐私数据泄露到侵犯版权,AIGC引发的连锁反应正不断升级。也因此,各国逐步开始重视AIGC数据安全风险的监管审核。美国商务部4月11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。而意大利、加拿大等国监管机构也先后宣布将关注ChatGPT及其背后公司OpenAI带来的数据安全风险,并将开启监管调查。
我国提出的《生成式人工智能服务管理暂行办法》同样格外关注数据及个人隐私保护。针对个人信息保护问题,《办法》提出:利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程借口等方式支持他人生成文本、图像、声音等,承担该产品生成内容生产者的责任;利用涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息;用于生成式人工智能产品的预训练、优化训练数据不应含有侵犯知识产权的内容,数据包含个人信息的,应当征得个人信息主体同意或符合法律、行政法规规定等。
随着法律监管与技术伦理不断完善,使用一系列数据安全技术来确保AIGC全链路隐私保护,已成为当前的必行之策。预计在不久的将来,AIGC安全审查、数据安全、安全评估、模型安全等需求都将快速落地。
其中,隐私计算技术就是可信人工智能实现过程中至关重要的保障技术。
技术力量守护AIGC数据安全
AIGC隶属于人工智能产业,以数据、算力、算法为核心,其中数据是不可或缺的新型生产要素。当前,AIGC发展面临着诸多挑战:输入模型或输出结果的隐私数据泄露;生成结果存在误导,甚至侵犯版权。最重要的是,对AI企业来说,数据作为人工智能进步的重要依托,却受限于数据可复制、易泄露、受监管的特性而无法大规模聚集使用,训练数据难以获得,阻碍了AIGC模型的调优。
这些问题需要依靠技术赋能协同解决。
近年来火热的隐私计算技术,被认为是能够帮助AIGC在一定条件下获得最大化的数据资源。隐私计算作为从根本上解决数据流通安全问题的技术,可以为AIGC提供“可用不可见”、“可控可计量” 的数据流通新范式,在保护数据隐私安全的前提下实现打通多方数据集,并实现数据共享使用,从而更好地发挥出数据在人工智能领域发展过程中的支撑性作用。
目前,隐私计算技术被寄予厚望,被视为高效布局可信人工智能基础设施的重要抓手。上海等多地已提出探索隐私计算的公共数据开放模式,公共数据开放、数据价值释放的时代更进一步。在科技公司陆续宣布入局大模型的同时,数据安全行业也正在针对AIGC加速开发产品,从根源上确保AIGC隐私安全性。
隐私计算在AIGC开发和应用的全链路都可以充分发挥作用,不仅是隐私安全的有力保障,更是数据共享的技术基础。
在模型训练环节,大模型应用在专业度较高的垂直领域,或者厂商需要开发垂直领域大模型,其中有指令微调的阶段。人工智能最重要的两个基础性因素,是数据和算力,而借助隐私计算技术可以把数据安全地采集和聚合,扩大用于训练的数据集,同时保护共享的训练数据。在模型推理阶段,可以用多方安全计算(MPC)来提升隐私保护能力。
在模型部署环节,可以利用可信执行环境(TEE)将模型部署在安全的环境中,保护厂商模型本身的安全。此外,还可以通过隐私计算来确保模型输入安全、输出结果安全,即利用多方安全计算、可信执行环境等技术,将用户输入的指令、人工智能输出的数据进行安全的存储和计算分析,防止员工将公司机密输入ChatGPT导致机密信息泄露事件重演。
隐私计算主要包括可信执行环境、多方安全计算以及联邦学习三大技术路径,不同的技术路径在性能和安全性上各有所长,且各类技术路线都有与大模型应用场景适配的方式。当前,已有多家企业针对AIGC推出包含隐私计算能力的产品。
“隐私计算+”范式:为数字经济奠基
“隐私计算+AIGC”呈现出挑战与机遇并存的现状。首先是海量化、参数化的大模型,给传统的基于可控、可解释、清晰的技术路线的隐私计算提出了全新的挑战,传统隐私计算方法需要更新迭代,以适应AIGC的技术需求。此外,人工智能的关键基础之一便是算力,隐私计算的引入,可能会相应地牺牲一些模型的计算性能,二者如何高效地相互协同,还需要进一步探索。
这些技术难关看似是挑战,长期来看,却为隐私计算快速发展提供了巨大的机遇。随着技术的不断进步和计算资源的不断增加,AIGC的性能和效率得以提高,倒逼数据质量和数据隐私问题解决,将推动隐私计算产业发展与行业监管的日益完善。
原国家信息中心首席经济学家范剑平曾表示,人工智能、数字经济将成为我国中长期经济发展的新引擎。
可以预见,在AIGC爆发的时代,“隐私计算+”这一范式将通过真正让数据安全地流动起来,在巨大的市场需求推动下快速切入千行百业,并改变行业底层的运行逻辑,从而成为数字经济的重要基石。

推荐阅读




链接数据价值
做隐私安全的守护者
杭州锘崴信息科技有限公司(锘崴科技)是一家专业的隐私计算技术服务提供商,是该领域的先行者和推动者,国家级专精特新“小巨人”企业、浙江省专精特新企业、国家高新技术企业。公司由“海外高层次青年人才”、隐私计算专家王爽教授,前硅谷知名科学家郑灏博士共同创立。团队成员多来自IBM、 Google、Thermo Fisher等世界五百强企业。
创始团队于2011年开始研究隐私计算,于2012年开创性地提出了全球首个医疗在线安全联邦学习底层架构。团队在隐私计算领域发表了超过300余篇学术论文,总引用量超2万余次。王爽教授联合创建全球顶级技术赛事 iDASH 大赛,标杆项目荣获美国医疗信息年会最高奖项、Intel杰出贡献奖、第六届数字中国峰会十佳普惠案例等重磅奖项,作为主要单位参与多个国内外隐私计算标准的制定,作为主要负责单位承担多项国家“十四五”、重要部委及省级重大研发项目。
锘崴科技依托在隐私计算领域的长期研究积累,开发了一套拥有完全自主知识产权的隐私计算技术架构,形成了锘崴信系列数据安全服务产品和解决方案;赋能医疗、政务、金融、安防、交通等多个行业,促进多方数据协作和数据流通。
锘崴科技致力于成为数据流通基础设施建设者,帮助激活数据要素潜能,护航数据安全,为数据要素市场健康发展贡献科技的力量。
公司总部位于杭州,在北京、上海、成都、海口、福州设有研发中心和区域总部。