近日,一条李玟被AI“复活”的视频引起广泛讨论。在她去世八个月后,有网络博主利用数字技术,还原出她生前一颦一笑,声音和影像均由AI生成。
AI生成视频截图
除了李玟,被AI“复活”的还有高以翔、乔任梁等已故明星。他们衣着各异,面向镜头却几近统一地都是先问好,再诉说对粉丝的思念等暖心话语。发布者自称,这是一种情感抚慰方式,利用高科技,给活着的人提供情绪价值;但是在视频评论区,很多网友却质疑:这种行为打着温情的名义,实则是在消费已经离去的人。那么,用AI“复活”逝者,是否涉及侵权?在人工智能大力发展之下,相关的法律法规如何更完善?中国政法大学数据法治研究院张凌寒教授进行了解读↓↓张凌寒表示,对于死者人格权益的保护,包括肖像权、隐私权和名誉权,民法典已有相关规定。只是现在对于AI如何侵犯死者权益,包括死者在AI技术之下“复活”的情况,提出了一些新的挑战。如果按照传统的民法典规定,没有取得死者近亲属的同意,就是侵权行为,可以通过事后侵权责任追究的方式来对其进行法律责任的规制。此外,在《互联网信息服务深度合成管理规定》(以下简称“规定”)当中,要求“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。张凌寒:显然,粉丝如果想去“复活”明星,很难真正取得死者家属的知情同意,毫无疑问这就是一个侵权行为。
关于我国人工智能领域的治理,张凌寒表示,我国已有的人工智能法规是强制性的,也有符合我国本土特色的制度。但即便如此,现在对人工智能的治理还存在法律上的不足。比如大部分是以部门规章为主,这样效力位阶比较低。另外,很多监管部门基于本身监管职能出台部门规章,缺乏统筹协调的机制和视角。“后续要做的工作就是让这些部门的职能更好地协调,让相关治理更好地落地。”如何让规范和监管跟上,甚至走在前面?
对此,张凌寒表示,人工智能技术发展非常快,让监管和技术发展尽可能同步,听起来似乎是一个不太可能完成的任务。去年,ChatGPT快速发展,用户数量增长很快,现在又出现了很多人工智能大模型。目前,人工智能治理面临最大的困难,就是技术发展的快速性,以及风险的不确定性。如何让监管走到前面,比较稳妥可行的方法是始终划定技术发展的红线和底线,始终要求技术的发展不能突破国家安全、社会公共利益和公民个人权益保护的底线。眼下,人工智能技术迅速发展,也正在为社会创造更多价值。然而,人工智能在改变我们生活的同时,在应用中也出现传播虚假信息、侵害个人信息权益、数据安全等问题。比如,“AI换脸”已经从娱乐蔓延到诈骗,“AI歌手”已经从娱乐涉及侵权。新技术发展的同时,法律体系如何及时跟进?- 2023年9月,十四届全国人大常委会立法规划发布,尽管在立法规划中并未明确列明人工智能立法,但在公布的第一类立法项目工作部署中,也提到要推进科技创新和人工智能健康发展。
由于人工智能发展迅速,针对其中出现的新问题,目前也有相关部门出台规章制度,不断对应用中的乱象进行调整规范。AI“复活”技术
对服务提供者提出怎样的约束和提醒?
张凌寒称,我国对制作方有很多规范要求,其中《规定》称,若能够提供生成音频视频等深度合成,首先要对数据安全进行严格管理,同时要尽到对用户的提示义务,即当用户上传敏感个人信息,用人脸人声进行编辑时,进行提示需取得相关个人同意。与此同时,这对平台或者服务提供者而言比较难,因为有海量用户生成不同内容,若要求其挨个审核,在体量上较为困难。即使有难度,互联网信息服务深度合成的提供者,还是要承担起监管义务。首先在用户协议方面,做好相关提示工作;其次在用户上传名人敏感个人信息时,若没有取得授权同意,就需要做相关屏蔽和处理。