演讲者 丨 甘青锋

编辑 丨 冯懿佳


(资料图)

实务 · 演讲

本文共8760字,阅读时间约27分钟

本期内容

//  

2023年6月11日,在首届亚太网络法实务大会暨第五届网络法实务大会上,360资深法律顾问 AIGC合规专家甘青锋女士就 “人工智能场景下之中日合规”发表了以「AIGC、AGI域内立法趋势及合规思考」为题的精彩演讲,分享了她的专业思考。

人工智能场景下之中日合规——AIGC、AGI域内立法趋势及合规思考

甘青锋

360集团资深法律顾问、AIGC合规专家

开场白

非常感谢大会邀请我在网络法实务大会这个平台分享关于“人工智能场景下之中日合规”这一主题的思考。

首先我想要简单做一下自我介绍,我目前供职于360上市公司法务部,主要负责公司内新技术新应用新产品的政策研究以及产品评估的工作。

大会的主题是ACG,我本人也是6、7年的《海贼王》粉丝,自带二次元属性。虽说是刻板印象,但二次元的人可能或多或少有一些社恐。如果让我直接分享对这些主题的思考,其实对于我来说问题不是很大;但作为今天下午第一位分享的嘉宾,要做好开场白,做好这个抛砖引玉的角色,对我来说还是有一点难度。

所以,我使用了国内一个AIGC的应用,让它来帮我写一段开场白,要求能够结合大家在大会上共聚一堂的场景,描述大家都是短暂地抽离日常繁忙工作的流程、来到这一平台学习交流,还要能够让大家记住我的名字——甘青锋。于是,我就提了一个问题:“能不能结合大会的场景,解读一下我名字中的‘锋’字,让大家能记住我”。

这个AIGC反馈的结果还是挺有意思的。“青锋”,大家经常可能会以为是山峰的峰,或者“宝剑锋从磨砺出”——锋利的锋,这些解读的记忆点不是非常强。而这个应用的解读是,“锋”这个字可以让人想到“含金带鏠”的鏠,就是金字旁加一个“逢”字,是个通假字,通的是相逢的逢,本身也有“遇见,相遇”的意思。结合大会的场景,AI给我了一个很有文化底蕴的解读——“金风玉露一相逢,便胜却人间无数”

所以我觉得这款应用还是有文化底蕴的,它用中国的古诗来展现当下场景,表达出了大家对于网络法的探讨热情,能够在这样一个炎热的下午相聚于此,讨论目前的网络法司法实务领域的一些前沿问题、难点问题。

那么接下来,我就借着我工作的主要内容,来跟大家简单地介绍一下我对于AIGC、AGI域内立法趋势的理解以及简单的几点合规思考,分享主要分为四个部分:

一、探讨有无统一的法律概念,解决法律地位和法律适用问题;

二、概述相应的国内外相关立法趋势的发展;

三、重点关注域内目前的监管机构和监管治理机制的设置;

四、简述几点合规思考,即在日常的业务范畴中如何去开展合规审查。

一、法律概念

首先进入到我们第一部分内容——我们在谈AIGC、AI的时候,到底是在谈什么?

我先明确一个观点,就是现有的立法框架文件中,其实是找不到AIGC的概念的,因为AI Generated Content偏向内容生成物的概念;但在我们现有框架的法律文件中,能够找到的更多是它的上层概念,例如AGI通用人工智能或者人工智能之类的概念。所以我们更多地是从AIGC的上层概念来对概念做辨析。

1.域外概念

  欧盟

谈论欧盟的原因在于,欧盟从2021年就已经开始提出人工智能领域内第一部有统一立法框架的草案文件,即《人工智能法案》。在这部法案中,它明确把AI认定为一套系统,即一套使用机器学习、推导演绎或统计学方法,能够针对人类定义的一组目标,输出内容、建议、预测或影响互动环境结果的系统。

在这个定义中,我用横杠划掉了一部分内容,因为目前在我们演讲的当下,2023年4月份提出的最新一版审议稿暂时删除了这部分内容。在2022年、2021年的审议版本中有一个附件的,只有符合那个附件中的方法,才能够认定为是AI。但目前,因为强人工智能形态的产品发展得太快了,所以最新的版本做了这样的处理。

同时,最新的审议版本还增加了概念的辨析,例如对于通用人工智能的区分,它认为,通用人工智能必须是可以广泛适用于一系列应用而不是有意或者是特别设计的应用系统。这一概念是为了跟专用AI做区分。专用AI就是我们通常理解的Alpha-go,或智能音箱之类,更多的是一种判别式的系统;而通用人工智能,就是目前很火的、大家都知道的ChatGPT这类,能够广泛适用于各行各业、也可以适用于垂直各个领域的系统。以上是欧盟的观点。

  美国

大家应该都清楚,目前美国的发展处于强人工智能形态,所以接着谈论一下美国的观点。刚刚提到欧盟把AI定义为一个系统,美国也不例外,也认为AI是一套系统,认为这样一个人工系统,只要具备以下的这些特征,都是能够称之为,或者说落入到人工智能的监管范围当中的。

它的特征包括以下几点:自主学习、类人任务、类人认知、机器学习、理性学习。例如能够通过机器学习的方式,对数据集进行自主学习和提升,在无需大量人类监督的情况下,针对多种无法预测的情况下执行任务。也就是说,通过自主学习、机器学习的方式,获得类人的认知,可能会发展出一些神经网络元,能够做出一些理性的行为,执行类人的任务。只要具备这几个特征,在美国的司法领域,都会落入到人工智能的监管范围中。

2.域内概念

  部门立法

转向国内,虽然我们前面提到,还没有AIGC这个概念,但是网信办在今年的4月11号提出了全世界首个对于生成式人工智能服务的管理办法(《生成式人工智能服务管理办法(征求意见稿)》)。虽然非常简略,但其中首次提出了生成式人工智能的概念,认为只要是基于算法模型规则生成文本,图片声音,视频代码等内容的技术,就会落入到生成式人工智能的概念里,这是中央部门的立法。

  地方立法

从地方角度来看,有大约三个文件提及到了人工智能或者生成式人工智能,但是只有两个有具体定义的方式,其中之一就是去年10月上海市人大发布的《上海市人工智能产业促进发展条例》,以及去年11月深圳市紧随其后发布的《促进人工智能产业发展条例》

这两个条例对于人工智能的定义采取了相类似的方法:利用计算机或者计算机控制的设备,通过感知环境、获取知识和推导演绎类的方法,实现对人类智能的模拟、延伸和扩展。

上海的条例是国内首个涉及到人工智能领域立法的地方性文件。这个文件还从四个方面对人工智能的概念做了一个延伸,认为理论方法、技术和应用系统,也都会落入人工智能领域。

前两周,北京市也发布了《促进通用人工智能创新发展的若干措施》。在这个文件中,虽然没有具体地定义什么是人工智能、什么是通用人工智能,但是它使用了一些“通用人工智能技术生成式人工智能产品”类似的表述。以上是对域内概念的辨析。

3.域内外对比

所以相比来看,国外认为AI是一个系统,更多认为它是多个相互作用的部件去相互组成、相互影响、能够去维持这个系统正常运行一个具体的概念。

但在国内,更多的是将AI认定为是一项技术,是能够将知识、技能、经验和方法转化成为实际应用的一个过程和方法。

对比来看,我们国内对于AI的理解会更加宏观。相对于数字经济的概念来说,是符合国内外立法的趋势的。例如从数据的角度来说,国外把数据认为是一项资产(asset)。但是去年国内发布了一个《数据二十条》文件,其中表明国内将数据当做一项生产要素。

也就是说,不管是在AI,还是在数据、数字经济等广阔的概念中,我们国内的理解及立法的监管趋势都会更加宏观、阔大。

既然概念非常宏观,那么在落地执行中,我们可能会遇到一些问题,即到底什么样的应用或研发产品会落入人工智能的监管中?接下来我将借助两张图来从实务角度辨析一下概念的问题。

第一个角度,首先我们可以看到红杉的这份研究报告,即生成式AI应用的全景图。我们可以通过两种方式来去理解到底什么东西属于人工智能:

(1)从生产结构来看,它既包括模型层,也包括应用层。模型层就是我们理解的如OpenAI发布的一些大模型产品,例如GPT2、、GPT4;应用层就是我们能接触到的,一些文字、对话类,如ChatGPT这一类产品。

(2)还可以通过不同的生成物的类型来理解人工智能的概念,例如它既包含文本,也包含代码,还包含图片、音视频、甚至3D等生成物类型。

第二个角度,国内5月底刚发布了国家标准文件《信息安全技术人工智能计算平台安全框架》(征求意见稿)。这份文件对于AI的计算平台,通过区分不同的参与方相对应的业务活动及其核心资产做了具体的区分。

例如,两个参与方,一是为AI应用提供数据的,二是提供模型的。对于这两个参与方来说,其实主要处理的是数据预处理、模型搭建的活动,其核心资产都涉及到训练数据。那么,如果之后监管机构发布一些立法性的监管文件中如果对一些高质量的数据集有具体要求的话,那么对于这些不同的参与方,肯定会设置具体的权利、义务和责任。

4.总结

总的来说,结合前面已经讲到的观点,可以总结以下两点:

(1)目前AI、AGI、AIGC的概念其实是不明确的、并没有取得普遍认识。

这就意味着它并不像我们理解的其它术语一样,能够直接找到适用的法律。例如我们要成立一家公司,我们有股东、合伙人,那我们可以通过直接检索“公司”、“股东”或“合伙人”、找到直接相对应的法律,如《公司法》、《合伙企业法》;例如我们要买卖一个房产,可以通过检索“房产”找到《房地产管理法》,通过检索“买卖”找到《民法典合同编》,或者直接就能检索到《房屋买卖合同司法解释》。

但是AI的概念不一样,我们可能没有办法直接通过搜索“人工智能”找到一个对应的单项的立法文件,所以对于对实践的指导来说,可能会存在一些困难。

(2)我们目前能够接触到的任意一个人工智能软件,其代码都会有多种来源。

从事人工智能程序开发的程序员每天都可以对一些代码库进行修改、分享、上传和更新,尤其是在例如Github或Stackoverflow之类的代码检索和代码分享的平台。这些平台中,每天都会更新很多的不同的代码库。

因此可能就会出现一个场景,即人工智能最后应用的代码来源会分为两种:一种是使用了开源软件的代码;一种是公司基于原创研发目的自己写的原创代码。

那对于这部分开源的代码来说——虽然我们现在都在说OpenAI不再“open”了,但是在2019年的时候它确实还是非常“open”的,对于GPT2做了开源处理——对于目前GPT2开源的一部分软件的使用,后续如果想要对这些使用开源框架而产生的产品进行监管,例如要求它做一些算法、科技伦理的审查时,监管机构如何分配、路径如何设计,其实都会存在相当大的困难。

以上就是关于第一部分法律概念的分析,即人工智能领域目前没有存在统一的法律概念,导致监管会存在一些难题。

二、立法趋势

第二部分主要讨论:由于监管存在难题,那么我们需要考虑的就是,目前的立法趋势是如何发展的,之后可能会面对一个怎样的执法文件,以在日后的研发和运营中做具体的合规审查和执行。

1.域外趋势

  美国

在美国司法领域,特点是分散立法——就是在联邦和州治下都有一些文件,例如总统行政办公室13960号文件等,及美国标准局发布的一些人工智能伦理治理框架等类似文件。这些文件中所有的治理框架都是从隐私与数据保护、算法监管与提示、竞争与消费者保护、AI系统注册管理、劳动者保护这样几个大的方面,来制定立法监管的框架文件。

  欧盟

相较来说,欧盟会有比较统一的立法框架草案。不仅从2021年起就有第一版的人工智能法案草案的审议稿,22年进行了更新,到23年的4月又出了目前最新的版本。据说23年4月该文件收到了3000多个修订意见,所以更新的幅度和内容还是挺大的。但是,无论怎么更新,其中有几个点一直都是不变的:

第一,欧洲议会想要发布一部类似于GDPR地位的文件,也就是说,一个统一的立法的框架性的草案。

第二,它认为AI是一个系统;

第三,它仍然是基于一些风险治理的机制来管理AI,治理原则主要是:要构建可信AI(Trustworthy AI),必须要合法合规、符合伦理道德、保证技术和社会的稳健。

基于风险治理的路径,该草案把AI分成四种类型:

第一种是针对高风险的AI,例如涉及到基本人权和安全的,如利用AI对个人实施自我伤害或者伤害他人的行为,是完全禁止开发和研发的。

第二类是针对一些高风险的领域,例如医疗,教育,健康,金融等等。针对这些领域开发的AI,必须要执行高监管措施,可能包括必须要做好风险评估、针对风险行为要采取相对应的反制措施,同时还要保证高质量的数据集、要全程记录处理活动,并适当进行人为干预,以及类似的其它高监管要求。

第三、第四类是针对一些有限风险和没有风险的AI,例如文生图的AI、处理垃圾邮件或者是广告邮件的AI。这样一些被视为有限风险的AI,可能只会对透明度有一些要求。这个“透明度要求”,落回到我们国内的概念里,就是必须要有标识的要求,即必须要在这个界面上进行标注,必须要让终端的用户知道,是在和AI进行交互,知道生成的内容是有操纵性或者是人为参与的过程。

2.域内趋势

  部门立法

在部门立法上,目前对于AI的监管来说,重点集中在三个文件。

第一个是在2021年四部门联合发布的《互联网信息服务算法推荐管理规定》。在算法推荐的技术里面,它包含了生成、合成的技术;再到去年11月份左右,三个部门(网信办,工信部和公安部)联合推出的《互联网信息服务深度合成管理规定》;再到今年4月11号网信办发布的一个专项的文件《生成式人工智能服务管理办法》

从趋势上来看,部门立法会更新得更快、内容会更细致、更有落地执行性。其治理原则主要包括以下几点:必须要合法合规、安全可信;为了要实现合法合规和安全可信,就会要求平台必须完成安全评估和算法备案的工作;同时在研发和运营的过程中,不得歧视、禁止恶意,不能违背社会公德和公序良俗等原则性的要求。

  地方立法

相比较而言,地方性的立法文件更多的是一种促进产业发展的框架性的要求,例如上海市的《促进人工智能产业发展条例》、深圳经济特区《人工智能产业促进条例》以及北京和其它各地近期正在发布的一些促进产业发展措施,都要求各个政府部门互相协调和配合企业推进人工智能产业的创新性发展。

地方性的立法文件相关的治理框架,也就是治理机制,基本上相当类似,都是先由市政府成立人工智能委员会做统筹,由网信部门或工信部门做主管,由各个其它部门协调配合。

三、监管治理

1.地方层面

地方的监管治理结构,其实跟刚刚我们提到的欧盟《人工智能法案草案》中的治理监管治理机构相类似。

在欧盟草案中,是由欧盟先设立一个人工智能委员会,具体进行统筹主管;第二层级,由各个国家指定一个主管机关负责日常的执行,主管机关定期会向人工智能委员会进行汇报;第三层级,由专门机构针对一些专项进行立法,例如刚刚提到的医疗、金融、教育等领域产品的专项立法。

回到国内,在地方层面还是参考刚刚提到的上海和深圳的条例,都是由市政府下设一个人工智能伦理委员会。但上海和深圳存在的略微差异在于,上海是由经济信息化部门主管,市政府加强领导;深圳是由工业和信息化部门主管,市政府只负责协调,其它的一些政府部门在其职责范围内开展一些跟AI有关的活动。例如,市监部门完善地方标准;统计部门要制定和完善一些地方的产业目录;科创部门负责开展人工智能相关的科技成果的转化。这是我们地方层面上监管治理机制的设置。

2.部委层面

第二块是部委层面,其实从现有的法律文件来看,其趋势非常明显。首先是三大部门——网信部工信部公安部,联合在去年推出了《互联网信息服务深度合成管理规定》。其次,开发AIGC应用的过程中如果涉及一些网络活动、网络文化、网络视频,那可能文化旅游、新闻出版等部门也会涉及监管。

第二个层面是考虑科技伦理审查。上个月,科技部发布了《科技伦理审查办法(试行)》,其中规定了科技部明确的监管职责。在5月16号,工信部新设立了两个委员会,一个是科技伦理委员会,另一个是科技伦理专家委员会。所以在人工智能应用的科技伦理审查方面,既有科技部的审查监管职责,也有工信部下属的两个委员会的审查职责。

总体而言,从监管趋势来看。我们国内在目前没有统一的立法性框架文件的这样一个背景下,呈现出一种多头监管的趋势。那多头监管对于我们日常的业务和运营意味着什么?

意味着我们可能需要投入更多的时间、成本、政府协调能力来处理相关事务。如果我们要满足算法合规、科技伦理合规的目的,那我们就必须要按照各个部门、各个层级的要求完成安全评估、算法备案、个人信息保护、科技伦理备案,甚至是数据出境的审查——像我们今天谈的出海的场景下,就要完成很多监管审批相关动作。

四、合规思考 

最后一个部分就是我们在日常的业务运营中的合规思考,即如何审查合规要点、如何配合业务,在合规层面将这些风险控制到最小。在这一部分,我制作了三张图进行呈现,第一张图是我个人在业务参与的过程中根据合规的四个阶段设置的。

1.开发设计

首先在开发设计阶段,我们需要考虑的法律适用就可能包括《新一代人工智能发展规划》《著作权法》、各类开源许可证的要求

刚刚在法律概念部分有提到,进行研发的过程中,很可能会涉及到一些开源框架的使用。那么如果我们选择的开源框架的许可证是比较宽松的,例如BSD,那可能我们就可以免费地用于商用,直接修改和使用。但如果该开源框架用的是强著作权类型的开源许可证,例如GPL,那就会有一些非常具体的要求。例如,必须要保留其版权声明;在每一次使用和修改的过程中都需要留下记录;在每一次分发代码的过程中都必须要符合源代码等限制性的要求。

2.科技伦理

第二部分是科技伦理审查。除了国内《新一代人工智能伦理规范》《科技伦理审查办法(试行)》《人工智能伦理治理标准化指南》等立法文件的要求以外,还需要讨论国际的趋势。

因为国内外对科技伦理审查都是非常重视的,三、四月份的时候,埃隆·马斯克以及苹果的创始人之一斯蒂芬·盖瑞·沃兹尼亚克联合了约1400名科技从业者签署了一封联名信,标题是“停止强AI实验”,要求对GPT4以上系统的研发处以暂停六个月以上。上个月也有个比较火爆的新闻——OpenAI的创始人山姆·奥特曼,主动要求美国国会对其举行听证,主要议题的内容是共同讨论如何对强AI系统进行科技伦理审查、如何保证其安全性。

所以,对于科技伦理的审查,国内外的趋势要求都是趋于严格的。例如,科技部在上个月发布的《科技伦理审查办法》中就专门提到一个强制性要求,即如果要从事人工智能或者敏感领域的研发,必须要在内部设立一个科技伦理委员会。

3.数安运营

第三部分涉及到数据安全、网络安全运营的问题。除了考虑《网络安全法》《数据安全法》《个人信息保护法》三个法规以外,拿训练数据来说,我们日常能够接触到的人工智能应用,它们在选择预训练数据的时候,可能都是千亿级别的数据量级。这些数据都从哪里来?可能大部分是来自公开的网络或者是授权的数据库。在如此大的千亿级别的数据库中,不可避免地会包含一些个人数据或个人敏感数据。

OpenAI在4月份的时候就发布过一个调查报告,解释3月20号为什么会中断服务,其中显示,当时ChatGPT plus有大概百分之一点几的用户群数据在应用使用过程中被泄露了。泄露的内容不仅包括名字、住址、手机号等基本数据,还包括信用卡号码等非常敏感的金融数据。以及在2019年的GPT 2时代,也出现一种情况,即只要输入一段特定的代码,就会自动生成个人的姓名、身份证号、住址、传真号。

所以对于数据安全和网络安全的运营,在审查的过程中必须要考虑到技术措施能不能实现、有没有人为审查等控制风险的方法。

4.知识产权

最后一部分是知识产权,立法包括《著作权法》《专利法》《商标法》

目前,AIGC作品到底具不具有可版权性,针对此的观点是什么?从成文法角度来说,并没有成文的规定说明其能否构成作品,AI能否享有著作权人的身份。但从案例的角度来说,可左可右,支持和不支持的情况都存在。

从域外来看,美国版权局在3月份发布的一个著作权注册指南,明确拒绝AIGC作品具有可版权性的说法,原因是:第一, AI系统并不符合宪法上任何关于“人”的认定;其次,这种作品不具有任何的创新性。所以,该指南认为AIGC生成的内容不具有版权性。

但是也存在支持的情况,支持的原因可见国内深圳腾讯的Dreamwriter软件生成作品的案例。在该案例中,深圳法院支持了其可版权性,原因就在于,它认为腾讯公司在其中有技术投入和人员投入,在投入的基础上,生成的内容也具有一定独创性。所以作为开发运营者的角色,可以对此类作品享有著作权及背后相对应的权益。

5.总结

总的来说,我们可以从这四个阶段明确AIGC或AGI产业中涉及到的产品在不同的阶段需要考虑的审查要点。但仍然有很多难点是没有得到解决的,所以我还是借助了AI应用,让它提出了一些具体的应对方案。

从大方向上来看,它在数据隐私保护、智能算法的公正性、知识产权管理、责任界定、应用授权等角度提出的方案其实是没有问题的,但对于具体的实际落地执行的细节却无法深入回答。例如它提出“采取安全可控的方法”来保护数据隐私”,但什么叫安全可控的方法?它答不出来。

所以,我们在使用这些应用来做交互的时候,可能有更多的细节需要把控,需要我们去提更多的prompt,或者需要把它的算法做得更加完善。

最后是评估角度的示例。这是从现有的法律框架中——即刚刚提到的几个文件,例如《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成规定》、《生成式人工智能服务管理规定》——抽取出来的一些不同阶段的风险类别,包括资质风险、算法风险、数据风险、运营风险

例如针对资质风险,如果某AI设计的目的是提供互联网信息服务,那就必须要取得ICP及相关的证照要求。如果在算法方面要利用人工智能与虚拟现实深度合成的技术,就必须要完成安全评估和算法备案的工作。针对数据风险,则必须要获得个人信息主体的单独同意,完善授权链条。

演讲者介绍

甘青锋

360集团资深法律顾问

AIGC合规专家

英国布里斯托大学商法硕士,曾供职于北京某法院民事审判庭,现为 360 集团资深法律顾问。

为《合同起草审查指南:三观四步法》及民法典修订版的作者之一。数据合规、AIGC 合规专家,撰有《试论人工智能域内法律规制问题》 《NFT 合规风险概述》《数据出境安全评估办法合规要点》等多篇专业文章。

关于威理扬  

垦丁律师事务所威理扬法律团队,骨灰级二次元迷汇集地、产品经理型律师团队。专注ACG产业全生命周期法律合规、为互联网企业提供出海合规方案、国内研发及发行各阶段法律风险梳理及评估、数据合规、知识产权及诉讼纠纷等。

扫码联系林娜,加入ACG合规讨论群

(请注明:实名-单位-来意)

团队初心

“二次元”发源日本,面向世界。时代赋予了“二次元”新的含义和生命。

悲壮如银河战争中的提督杨威利、孤勇如明治维新的剑客绯村剑心,坚毅如满血热爱穿越千年的棋魂藤原佐为、温暖如十二国残酷斗争中始终给人希望方向的半兽乐俊....

新的时代,我们看到了在日本扬帆起航的罗小黑战记、收获了时光代理人带来的惊心动魄、看到刺客伍六七迈向世界的高昂步伐、也惊艳于原神的全球开花......

热爱二次元、痴迷日语、精通英语的我们,从漫画到动画,从动画到游戏,从游戏到虚拟世界.....愿以法律合规为器,伴你披荆斩棘,为你保驾护航。

声明

本文章所载内容仅供参考之用,并不代表威理扬法律团队及律师的意见。如需更多信息,请联系我们。

推荐内容