21世纪经济报道记者 蔡姝越 郭美婷 实习生 谭砚文 麦子浩上海、广州报道
编者按:
在2023年过去的几个月里,各大公司抢滩大模型、GPT商用化探索、算力基础设施看涨……如同15世纪开启的大航海时代,人类交往、贸易、财富有了爆炸性增长,空间革命席卷全球。变革同时,也带来了秩序的挑战,数据泄露、个人隐私风险、著作权侵权、虚假信息......此外,AI带来的后人类主义危机已然摆在桌面,人们该以何种姿态迎接人机混杂带来的迷思?
(资料图片)
此刻,寻求AI治理的共识、重塑新秩序成了各国共同面对的课题。南财合规科技研究院将推出AI契约论系列报道,从中外监管模式、主体责任分配、语料库数据合规、AI伦理、产业发展等维度,进行剖析,以期为AI治理方案提供一些思路,保障负责任的创新。
自生成式AI技术兴起,到如今“百模大战”的局面,该技术的产业链图谱也已初步成型。
(AIGC产业链图谱。制图/南财合规科技研究院、21世纪经济报道记者)
不过,在生成式AI成为一项通用技术前,各链条生产者都需要思考怎样可以将其转变为一个“可控”的工具。
今年3月下旬,一封由特斯拉首席执行官埃隆·马斯克、 苹果联合创始人史蒂夫·沃兹尼亚克等千余名企业家、学者签署的《暂停大型人工智能实验》公开信发布。
信中提到,尽管近几个月世界各地的人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,但包括技术的研发者在内,“没有任何人能真正理解、预测或完全控制这项技术。”
清华大学新闻与传播学院元宇宙文化实验室也在《AIGC发展研究》报告中指出,AIGC强势介入全球产业链,将全面替代程序员、平面设计、客服等工作,为人工成本划定上限,第三世界产业链将因此遭受巨大冲击。
这意味着,大算力支持下的AIGC可能成为割裂跨国公司全球产业链的利刃,也可能成为划破“地球村”幻象的匕首。
因此,在AIGC快速发展的当下,如将其背后的生成式AI技术关进监管的笼子里,厘清产业链各方的责任,已成为世界各国亟需处理的命题。
监管政策梳理:划清产业研发底线
目前,我国已走在了生成式AI技术规制的道路上。今年4月,国家网信办发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《办法》”),是我国第一部针对生成式AI技术的监管文件。
总体而言,《办法》是在现有的深度合成监管框架之下,对《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《网络音视频服务管理规定》《网络信息内容生态治理规定》的细化,除了个人信息保护的一般性义务,还要求人工智能服务提供者进一步履行安全评估、算法备案、内容标识等义务。
对于以上相关政策文件的颁布,北京大成律师事务所高级合伙人肖飒在接受21世纪经济报道记者采访时指出,相关企业应当重视衔接现有算法推荐服务、深度合成服务等其他人工智能监管法规的要求,尽力做到内部合规,结合技术与法律力量提出创造性的合规解决方案,为产业发展赢得更多的制度空间。
对于《办法》等规范人工智能技术发展法案的陆续出台,行业内也大多报以支持的观点。如亮风台高级产品总监魏超群在接受21记者采访时便分享了他的看法。他认为,在生成式AI技术刚起步的时候,配套管理办法的出台对整个产业的健康发展而言,有显著的促进作用。
“一方面,《办法》的出台意味着整个产业有了明确的操作规范,可以指导企业的一整套研发流程。另一方面,也为整个行业设定了研发底线,列举了哪些事情能做,哪些事情不能做。”魏超群指出。
如《办法》第十七条中便要求人工智能服务提供者“提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等”,实现对数据量庞大、规则易变的人工智能技术的治理。
不过,也有观点认为,目前国内的人工智能相关法律法规政策文件仍需要进一步完善。
肖飒便在采访中提到,《办法》虽然对于生成式人工智能带来的风险与冲击作出了回应,但梳理其内容会发现,其在责任主体、适用范围、合规义务等方面的规定都较为宽泛。
如《办法》第五条中,明确了利用生成式人工智能产品的服务提供者(即主体),应当承担内容生产者的责任。
原文提到,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。但对于服务提供者具体应该承担何种法律责任,《办法》中尚未展开。
发展难题:如何平衡监管与技术
如何在技术创新发展的前提下完善人工智能监管体系,加强其与数据合规、算法治理的衔接与协调,是目前亟待解决的问题。
其中,明确AIGC各产业链环节的责任主体,打造“负责任”的AI技术,便是监管需要密切关注的要点之一。
除了《办法》第五条中提到的主体责任分配问题,近日,欧盟也在修改后的《人工智能法案》中提到,在人工智能价值链责任分配上,任何分发者、进口者、部署者或其他第三方,均应被视为高风险人工智能系统的提供者,需要履行相应的义务。如在高风险人工智能系统上标明名称、联系方式,提供数据规格或数据集相关信息,保存日志等。
北京理工大学法学院助理教授裴轶也向21记者指出,企业作为提供AI服务的关键主体,一方面需要保证透明的数据收集和处理——明确告知数据主体数据收集和处理的目的,并获取必要的同意或授权。实施适当的数据安全和隐私保护措施,确保数据的机密性和完整性。另一方面,也需要进行合规的数据共享。在进行多方数据共享或数据交易时,确保合规的数据使用权益和授权机制,遵守适用的数据保护法律和规定。
21记者观察发现,目前已有人工智能公司正在明确自己作为责任主体的义务。
如OpenAI便为用户专门开设了“安全门户”(Security Portal),在此页面中,用户可以浏览公司的合规性文档,包括“数据安全”中的备份、删除、静态加密信息以及“应用安全”中的代码分析、凭证管理等等。
(OpenAI的“安全门户”页面。来源/OpenAI官方网站)
AI绘画工具Midjourney官网发布的隐私政策中,也对用户数据的共享、保留、传输场景和用途做了具体说明,同时,也详细列举了应用在为用户提供服务的过程中,需要搜集身份标识、商业信息、生物识别信息等11种个人信息。
值得一提的是,上海某新兴科技公司法务负责人在和21记者的交谈中表示,目前公司内部人工智能相关业务的服务条款正在制定中,在责任分配的规则上部分参考了OpenAI的做法。
另一方面,作为生成式AI服务的提供者,各企业也需要提起对内部合规的重视。肖飒指出,AIGC相关企业的业务需要依托于海量的数据及复杂的算法,应用场景复杂多样化,企业容易陷入各种风险之中,并且完全依靠外部监管难度非常大,因此相关企业务必加强AIGC内部合规管理。
一方面,监管机构要以全面推行企业合规改革为契机,积极探索在网络数字领域推进涉案企业合规改革和落实第三方监督评估机制,建立健全合规管理的制度机制,有效预防网络违法犯罪。另一方面,也要积极探索以事后合规整改促进事前合规建设的监管路径,推动网络监管部门、互联网企业共同研究制定数据合规规范指引,保障数字经济健康发展。
“监管层最重要的任务在于划定底线,其中‘科技伦理’以及‘国家安全’就是两个不容让渡的底线,在底线范围内,可以尽量给予产业宽容的发展空间,这样避免技术为了合规畏首畏尾、被限制发展。”裴轶向21记者表示。
统筹:王俊
记者:郭美婷 蔡姝越 谭砚文 麦子浩
制图:蔡姝越