首份AIGC监管文件结束征求意见:给AI立规矩有何考虑?
ChatGPT持续火爆,生成式人工智能成为公众关注的焦点。在国内,多家企业纷纷推出大语言模型——百度文心一言、阿里通义千问、讯飞星火、学而思MathGPT等。
与此同时,生成式人工智能在内容安全、隐私保护等潜在风险也引起监管关注。4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(点击链接),这是国内首份专门针对AIGC的监管文件,其中提出了“利用生成式人工智能生成的内容应当真实准确”等多项规范要求。
南都记者注意到,这份AIGC监管草案于5月10日截止意见反馈。过去一个月,围绕征求意见稿的出台背景及其核心条款,业界学界有不少争论。有观点认为,面对生成式人工智能引发的人格权和知识产权方面的问题,有必要未雨绸缪,给AI立规矩。但也有观点提出,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或指定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。
多家企业推出大语言模型
随着ChatGPT持续火爆,生成式人工智能开始成为热议话题,在国内多家企业也纷纷推出大语言模型。
据南都此前报道,今年3月,百度大语言模型文心一言(ERNIE Bot)正式推出。百度创始人、董事长兼CEO李彦宏称,文心一言具备人类在自然语言上的理解、表达、逻辑推理等多方面的能力,并称其在中文理解方面可以说是“超过了世上任何一个大模型”。
不到一个月后,阿里巴巴也正式推出“通义千问”大模型。阿里巴巴集团董事会主席兼CEO张勇表示,包括钉钉、天猫精灵等阿里巴巴所有产品将会接入“通义千问”大模型,未来也将主要面对企业定制个性化服务。
就在不久前,5月6日,科大讯飞董事长刘庆峰宣布正式推出星火认知大模型,并宣称当前星火大模型在中文领域对话能力、数学能力已超过ChatGPT。
学而思也于近日宣布正在进行数学大模型MathGPT的研发,这一模型以数学领域的解题和讲题算法为核心,将于年内推出相关的产品级应用。
据南都政商数据盘点,目前国内有超过20家企业入局大模型赛道,涉及互联网公司、AI公司、教育行业以及一些互联网“大佬”的初创公司,如王小川的百川智能。另外,超过5家科研院所也在研发大模型产品。
内容生成准确性条款引争议
各家纷纷入局大模型的同时,监管方面也对生成式人工智能作出规范。4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》。
《征求意见稿》显示,为促进生成式人工智能健康发展和规范应用,根据《网络安全法》《数据安全法》《个人信息保护法》等法律法规,制定该办法。
征求意见稿的出台引发多方关注,中国人民大学法学院、中国人民大学未来法治研究院曾在四月底主办“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”(以下简称“研讨会”),政府、企业、高校、产业多方参加了此研讨会。
根据征求意见稿的规定,提供生成式人工智能服务应当要求用户提供真实身份信息;利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,承担该产品生成内容生产者的责任。
征求意见稿也规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
资深数据法律师袁立志认为,这一要求可能与生成式人工智能的固有属性存在冲突。目前的生成式人工智能模型主要是基于既有语料,根据概率来生成新内容,具有一定的“创作性”,且不接入任何实时数据库进行核查验证。在这种情况下,其很难保证生成内容的真实性和准确性。“如果真的严格落实这一要求,生成式人工智能产品可能就无法投入市场了。”在他看来,从应用层面来进行监管更为合适,而非前面的技术层面。
百度公司副总裁吴梦漪在研讨会上表示,从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。她也建议,综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。
中国政法大学数据法治研究院教授张凌寒则关注到,我国多部相关法律法规都针对虚假信息做出了要求服务提供者建立健全辟谣机制等具体制度安排,《征求意见稿》只是强调了生成式人工智能同样不能传播、制造虚假信息——这是我国互联网信息内容领域的普遍要求,并不是新的规定。
监管超前是否阻碍技术创新?
《征求意见稿》规定, 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。保证数据的真实性、准确性、客观性、多样性。
对外经贸大学数字经济与法律创新研究中心主任许可在上述研讨会上表示,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。总之,对生成式人工智能应坚持以“宁小勿大,宁浅勿深”的敏捷治理方式。
吴梦漪认为,需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。
此外,监管超前是否会阻碍技术发展和创新也成为热议焦点。
探讨会上,中国人民大学法学院教授王利明(李铭轩博士代发言)指出,应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或指定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。
腾讯研究院首席数据法律政策专家王融在研讨会上表示,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。
美国就ChatGPT等问责措施征求意见
从域外视角来看,欧盟、美国在大模型的监管上也有一定动作,但目前未出台专门针对生成式人工智能的法律法规。
2021年4月21日,欧盟发布《人工智能法案》(Artificial Intelligence Act)(草案),这是一项旨在建立人工智能(包括大语言模型)的监管框架和市场准入规则的提案,目前仍在审议中。不过,就在上个月,欧洲议会成员已就此提案达成临时政治协议,预计下个月进行全体投票。
3月末,意大利数据保护机构宣布暂时封禁ChatGPT,该机构认为OpenAI为了“训练”平台所依赖的算法收集和处理了大量的个人信息,缺乏法律依据。经过一系列整改,目前,ChatGPT在意大利现已恢复上线。
4月11日,西班牙数据保护机构要求欧盟隐私监管机构评估ChatGPT的数据保护情况。
与欧盟相比,美国政府对人工智能的态度更侧重于发展,因此监管步伐更为迟缓。不过,ChatGPT的出现也带来一些新的安全风险。
4月初,美国总统拜登称,人工智能是否存在潜在的风险还有待观察,并认为科技公司有责任在发布产品前确保安全性。一周后,拜登政府已经开始研究是否需要对ChatGPT等人工智能加强监管。美国商务部就ChatGPT等人工智能技术相关的问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。
DPOHUB招募兼职研究助理
申请条件:在数据隐私、数据安全及数据治理等方面具有丰富的理论积累或实践经验;并具有全英文写作的能力。 优先条件:发表过数据法或科技法相关论文的优先;有英文期刊发表经验的优先。 申请方式:请将您的简历和代表作发送到微信:heguilvshi 或邮箱:[email protected]
微信扫码关注该文公众号作者