21世纪经济报道 记者 郑雪 北京报道
在人工智能展示了其非凡的创造力以及潜在的危害力之后,越来越多力量加入了呼吁监管的队伍之中。
(相关资料图)
近日,为确保欧洲人工智能以人为本的道德发展,欧洲议会内部市场委员会和公民自由委员会以 84 票赞成、7票反对、12票弃权通过了《人工智能法案》的谈判授权草案。修改后的《人工智能法案》针对人工智能基础模型、价值链责任和最近大热的生成式人工智能做出回应,同时研究了针对企业尤其是中小企业和初创企业的豁免条款。
大型网络平台推荐系统被列入高风险
欧盟关于人工智能立法的进程,最早可以追溯到2018年的《人工智能时代:确立以人为本的欧洲战略》报告,报告解读了欧盟在人工智能领域的最新发展现状;2021年4月21日,欧盟委员会正式提出《人工智能法案》提案,世界范围内第一部针对人工智能进行规制的法律迈开制定的脚步。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括在接受21世纪经济报道记者采访时表示,欧盟的立法强调结合欧盟自身的经济技术、现状,同时服务于欧盟打造世界级经济体和确保数字主权、技术主权的政策目标,在强调保障创新发展的同时突出体现了以风险管理为导向的监管思路,它的制定出台会对世界人工智能产业发展生态和人工智能监管走向带来非常大的影响。
监管框架定义了人工智能的4个风险级别:不可接受的风险、高风险、风险有限、最小或无风险。这些规则基于风险制定,并根据人工智能可能产生的风险级别为提供者和用户规定义务。
风险级别上,所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统都被认为是不可接受的风险而将被禁止,包括部署潜意识或有目的地操纵技术、利用人们的弱点或用于社会评分。
这次法案大幅修改了不可接受的风险相关名单,禁止侵入性和歧视性地使用人工智能系统,例如公共场所的“实时”远程生物特征识别系统,使用敏感特征的生物识别分类系统,预测性警务系统等都被禁止。
而在高风险级别方面,欧洲议会议员扩大了高风险领域的分类,对人们健康、安全、基本权利或环境造成危害的人工智能属于此类。高风险人工智能系统在投放市场之前将受到严格的义务约束。同时他们认为,被认定为大型网络平台的社交媒体平台(根据《数字服务法》拥有超过 4500 万用户)所使用的推荐系统,会对网络安全、公众舆论、选举等产生强烈影响,也被列入高风险的人工智能。
值得注意的是,《人工智能法案》认为,人工智能系统的概念应明确定义,并与从事人工智能工作的国际组织的工作密切一致,以确保法律的确定性、统一性和广泛接受性,同时提供灵活性以适应该领域的快速技术发展。此外,它应该基于人工智能的关键特征,如学习、推理或建模能力,以便将其与更简单的软件系统或编程方法区分开来。
厘清产业链各主体责任分配
《人工智能法案》针对人工智能价值链责任的义务划分、基础模型提供者和生成式AI等最新问题做了相应回应。
在人工智能价值链责任分配上,法案中提到,任何分发者、进口者、部署者或其他第三方应被视为高风险人工智能系统的提供者,需要履行相应的义务。如在高风险人工智能系统上标明名称、联系方式,提供数据规格或数据集相关信息,保存日志等。
“在AIGC产业链中,具有多种形态。例如,在模型即服务(MaaS)的产业模式下,可能上游基础模型的服务提供者是供应者,中间会有中间层负责对点工具的开发;到了下游也就是具体的应用场景中,可能会有进一步的直接面向个人用户的服务提供者。此外,开源模式下,有人利用开源软件结合数据进行微调和部署,在这个领域当中,这个供应者、分发者、进口者和部署者可能就又是不一样的。”对外经济贸易大学数字经济与法律创新研究中心执行主任张欣介绍,欧盟的《人工智能法案》较为清晰地厘清了AIGC产业链上的主体责任,同时根据主体之间的具体角色、具体特质进行了划分,很大程度上体现了公平的责任。
在吴沈括看来,在立法思路上,欧盟惯常于剖析分解生态当中上下游不同角色之间的作用地位,并根据这些因素划定义务和责任范围。对于责任的划分基于调研得出,上下游不同企业发挥什么样的作用就承担什么样的角色。同时,根据他们对于这个生态的影响和价值,依据比例原则配置相应的义务内容,设定相应的处罚强度。
而在通用人工智能方面,《人工智能法案》也对基础模型提供者的义务进行了规定,如需要评估和降低风险,遵守设计、信息和环境要求,在欧盟数据库中注册。通用型人工智能是指非为特殊目的进行特别设计的具有广泛适用性的人工智能系统,其一般功能包括但不限于图像和语音识别、音频和视频生成、模式检测、问答、翻译和其他功能。
对于GPT这样的生成式基础模型来说,基础模型的设计和开发必须有足够的保障措施,确保其符合欧盟法律。同时,根据透明度规则的要求,只要文本是 AI 生成的,它就必须披露;需要设计模型以防止其生成非法内容;对于训练数据,需要提供版权法所涵盖的详细摘要。
张欣提示,关于人工智能所使用的数据,此次法案存在算法透明度和知识产权两条路径。未来生成式人工智能的产业链发展当中,从知识产权角度来说,对于数据集的训练、所著图片文字如何进行合理的利益分配提供了借鉴的思路。
关切中小企业和初创企业
21世纪经济报道记者梳理发现,在监管方式上,《人工智能法案》除提出监管沙盒外,还提到了高风险人工智能系统数据库。这是由欧盟与各成员国合作建立的一个公共数据库,相关供应商应按照相应要求将规定的数据输入该库中。同时规定,数据库中的信息应向公众免费提供。
在张欣看来,该数据库是对算法透明度、公众知情权、商业秘密三者之间一个较为平衡的做法。目前来看,结合商业秘密的考量,算法可解释性非常低。在这种情况下,对于公众来说要想去理解它的运行逻辑、预见可能产生的风险,其实是非常难的。“这种做法类似于我们国家的算法备案,通过建立数据库向公众进行公开,建立了一个比较好的合理的透明度。在人工智能领域,深度神经网络虽然可解释性有限,但用于训练的数据集通常可以通过数据解释的方式提升整体的透明度。”
“这是一个比较前沿的实践方式,目的是建立有关高风险系统的一个信息数据池,汇聚各种信息和数据,帮助各层级监管执法乃至社会监督的过程当中,对于高风险系统有一个更为直观、更为动态和前沿的认知,而且这个数据库处于持续更新的状态。”吴沈括对21世纪经济报道记者表示。
同时,《人工智能法案》对于中小企业、初创企业也给予了相应的豁免。如“第28(a)条 单方面强加给中小企业或初创企业的不公平合同条款”规定,一个企业单方面强加给中小企业或初创企业的相关合同条款或措施,如果是不公平的,则对后一企业没有约束力。同时监管沙盒的其中一个很重要目标,便是要确保中小企业和初创企业能够轻松访问沙盒,积极参与开发和测试。
就像联合报告员Dragos Tudorache所表示的,“我们一直致力于支持欧洲的人工智能创新,为初创企业、中小企业和行业提供发展和创新的空间”。
支持中小企业创新,在张欣看来非常重要。一方面,大模型的研发可能出现新一轮的技术壁垒,对于监管来说,相关政策在制定过程中需要对相关利益分配进行适当平衡,否则就可能对于中小企业和初创企业产生挤压作用。另一方面,人工智能技术的创新和组织规模、架构之间有着非常重要的相关性。以OpenAI为例,作为一个只有300人团队的中小企业研发了ChatGPT。
吴沈括认为这是欧盟关于平衡安全监管和发展创新之间的一个机制创新。反映了欧盟一贯以来对于中小企业发展的扶持优待政策,同时也跟欧盟境内超过95%以上属于中小企业的经济基础是相匹配的,它的核心是在监管的同时为中小企业的创新,留下必要的发展空间。
针对最近的谈判授权草案,欧洲议会预计将在 6 月 12 日至 15 日的会议期间进行表决。得到批准之后,相关法案便可进入下一立法环节,一旦获得批准,欧盟《人工智能法案》将有望成为全球首部有关人工智能的法规。
张欣表示,欧盟的人工智能法案为相关国家立法提供制度参考,规则与规则之间的嵌套和搭配非常精细,践行了基于风险的人工智能分类分级治理思路。除此之外,该治理规则得到一整套人工智能的监管和治理工具,如认证、评估等进行支撑,
但是她也提出了一个更加值得思考的问题。“欧盟虽然立法精细,但是欧盟的整个人工智能企业、数字化企业的发展却没有那么的先进。所以从更广泛、更宏观的角度来讲,人工智能或者说高新科技领域的立法,和高新科技领域的创新之间,相关性到底是怎么样的,也可能值得我们去观察、思考。”