【金融行业】人工智能监管国际合作启航——评《布莱切利宣言》
作者:任图南,陈昊,鲁政委
人工智能在给人类带来便利的同时,也潜藏了风险。人工智能发展的关键为算法、数据与应用场景,其风险也集中在算法黑箱、数据安全、偏见歧视、伦理问题等方面,用于生成式人工智能的通用大模型还可能放大风险。因此各主要经济体人工智能监管规则都在加速推进。
人工智能带来的风险本质上是国际性的,人工智能监管亟需国际化合作。我国、美国与欧盟已经在人工智能监管上做出诸多尝试,我国与欧盟的《人工智能法》均已在立法进程当中。2023年10月18日,我国网信办发布的《全球人工智能治理倡议》指出:“各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范。”各国未来或通过“充分性认定”制度或建立国际性组织的方式强化人工智能监管国际协调。
虽然当前我国的人工智能监管规则要求较为分散,但我国高度重视相关工作,并将《人工智能法(草案)》列入了未来国务院2023年立法工作计划。未来我国人工智能监管完善将集中于两个方面:一是法律法规愈加完善;二是相关监管将增强实操性。
2023年11月1日至2日在英国举行了首届人工智能安全峰会(AI safety summit),我国科技部副部长吴朝晖出席会议。包括美国、中国的28个国家(详细名单请见附表)与欧盟共同签署联署了关于人工智能国际治理的《布莱切利宣言》
近年来,全球人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,给世界带来巨大机遇。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战。用于生成式人工智能的通用大模型可能将风险进一步放大,因而使得全球主要经济体逐步意识到人工智能监管的重要性。
人工智能带来的风险本质上是国际性的。一方面,人工智能的发展借助于互联网将极大地突破物理限制,技术流动的速度远超以往,从而可以在全球范围造成影响。另一方面,人工智能风险的严重性远超以往其他技术,其带来的后果可能对全人类造成影响。
因此,人工智能监管亟需全球治理和国际合作。我国、美国与欧盟已经在人工智能监管上做出诸多尝试,欧盟在人工智能监管领域立法规制处于相对领先位置,我国与欧盟的《人工智能法》已在立法进程当中。《布莱切利宣言》是人工智能国际协同监管的起点,未来全球主要经济体的人工智能监管将渐趋成熟。
近年来,人工智能已在多个领域引起变革,成为生产力革命的重要驱动力。人工智能(Artificial Intelligence)是指数字计算机控制的能够执行特定任务的能力,人工智能可以大致分为决策式人工智能和生成式人工智能。决策式人工智能发展已较为成熟,在生活中已广泛应用,其通过学习数据中的条件概率分布,实现对样本的分类或预测,起到辅助决策或代替决策的作用。生成式人工智能则需通过大量数据以及多轮次的模型训练以学习数据的生成方式,主要应用于生成新的文本、图片、音视频等。无论是决策式人工智能,还是近年来兴起的生成式人工智能,都已经与人类的生产生活息息相关,并在诸多领域引起变革。《宣言》具体指出,人工智能已经应用于诸多领域,包括金融、就业、交通、教育、健康、娱乐、环境保护和司法等领域。
人工智能的应用在给人类带来便利的同时,其实也潜藏了风险。人工智能发展的关键要素为算法、数据与应用场景,其风险相应地集中在算法、数据以及人为滥用等方面。
第一,算法黑箱。当前人工智能算法的运行透明度较低,易造成不可解释或不可控制的结果。
第二,数据隐私和安全问题。人工智能系统依赖于大量的数据来进行学习和决策,数据的收集和使用可能会引发隐私和安全问题。
第三,造成偏见歧视。人工智能系统的训练数据可能受到客观或主观的偏见和歧视的影响,进而导致系统的不公平和不平等现象。如果不加以适当的监管和调整,人工智能技术可能会进一步增强社会的偏见和不平等。
第四,人工智能技术可能引发一系列伦理问题。例如,在决策过程中,人工智能系统可能面临道德困境,并需要权衡不同的价值观。此外,像自主无人驾驶汽车这样的技术也涉及到对生命和安全的伦理考量。
第五,人工智能作为一种工具,可能被用于犯罪。《宣言》指出:“潜在的故意滥用或与人类意图一致的意外控制问题可能会产生重大风险。出现这些问题的部分原因在于人们对人工智能尚未完全了解,因此难以预测。”
用于生成式人工智能的通用大模型还容易将风险进一步放大。近期生成式人工智能热潮起于2022年末由美国人工智能企业OpenAI推出的ChatGPT(Chat Generative Pre-trained Transformer),ChatGPT是一种由人工智能驱动的自然语言处理工具,主要基于神经网络中的Transformer架构与注意力(Attention)机制(Vaswani, et. al,2017)
近期生成式人工智能的发展直接加速主要经济体人工智能监管的落地。
在我国,2023年4月17日,我国网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《办法》”),旨在相关技术应用之初便规范生成式人工智能的发展。当前,人工智能仍在发展当中,我国尚无全国层面的统筹法律依据,不过2023年6月7日,国务院办公厅印发《国务院2023年度立法工作计划》(国办发〔2023〕18号),其中将《人工智能法草案》列入国务院2023年立法工作计划。
在美国,2023年4月11日,美国商务部下辖咨询机构国家电信与信息管理局(National Telecommunications and Information Administration,NTIA)就“AI问责机制”(AI Accountability)相关监管问题向社会各界征集意见,NTIA将据此起草AI问责政策相关报告。
在欧盟,2023年5月,欧盟人工智能监管立法提速,欧盟立法者委员会通过《人工智能法案》的谈判授权草案,新增有关面部识别、生物识别监控和其他AI应用使用规则,并提出需要对ChatGPT等生成式人工智能严格监管。
从人工智能技术的本质和运用来看,人工智能带来的风险是国际性的。一方面,人工智能的发展借助于互联网将极大地突破物理限制,技术流动的速度远超以往,人工智能可以在全球范围造成影响。例如,通过人工智能实现的精准营销可以影响其余国家的选举结果。另一方面,人工智能风险的严重性远超以往其他技术,其带来的后果可能对全人类造成影响。例如,人工智能对人类的替代可能会造成失业问题;更有甚者,人工智能的伦理问题则可能会侵犯人类的生命权。
因此,人工智能的治理应强化国际合作。《宣言》号召:“应通过国际论坛促进合作,以应对人工智能带来的广泛风险。各国应考虑采取有利于创新且适度的治理和监管方法,酌情根据国情和适用的法律框架,以最大限度地提高收益并考虑与人工智能相关的风险。”
2023年10月18日,我国网信办曾发布《全球人工智能治理倡议》,指出:“各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。我们欢迎各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能治理。”
未来,全球或将出现人工智能监管的“充分性认定”制度。我们在9月30日发布的报告《欧盟数据跨境监管:缘起、要求与实践》
世界各主要经济体在人工智能监管上已做出诸多尝试,当前欧盟在人工智能监管领域立法规制处于相对领先位置。欧盟2018年通过的《通用数据保护条例》(General Data Protection Regulation,GDPR)首次将自动化决策纳入立法监管,其中第22条规定用户有权拒绝自动化决策(Automated Processing)。欧盟2019年发布《可信AI 伦理指南》(Ethics Guidelines for Trustworthy AI)和《算法问责制和透明的治理框架》(A Governance Framework for Algorithmic Accountability and Transparency)两份监管文件,则提出算法监管的若干标准,强调算法的透明性与可解释性是算法监管前提。欧盟在2020年后密集提出《数字市场法》、《数字服务法》与《人工智能法》三部法律提案,其中《数字市场法》与《数字服务法》已在2022年11月正式施行。《人工智能法》则根据风险程度的等级对人工智能进行分类,分为不可接受风险、高风险、有限风险、最小风险,并配以具体的监管措施。具体而言,《人工智能法》明确对最小风险的人工智能不做干预,要求有限风险的人工智能必须实现透明公开,严格管控高风险的人工智能活动,严格禁止不可接受风险的人工智能活动。
当前,我国的人工智能监管规则要求较为分散,尚未形成统一的监管框架。
在国家法律层面,2021年10月1日施行的《个人信息保护法》,其中第二十四条对算法歧视做出规定,个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。
在金融领域,人民银行在2021年3月发布了《人工智能算法金融应用评价规范》(以下简称“《规范》”)作为推荐性行业标准,提出将安全性评价、可解释性评价、精准性评价、性能评价四个方面作为金融算法的评价标准。《规范》的安全性评价中规定算法所用目标函数设计上不存在肤色、性别、国籍、健康等偏见歧视。
具体到生成式人工智能,2023年04月17日,我国网信办发布《生成式人工智能服务管理办法。
应当指出的是,我国高度重视人工智能的监管立法工作。2023年10月18日,我国网信办发布的《全球人工智能治理倡议》指出,应“逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全”。而国务院办公厅在2023年6月6日发布的《国务院2023年度立法工作计划》(国办发〔2023〕18号)中,也囊括了《人工智能法(草案)》,该法案处于预备提请全国人大常委会审议步骤。
未来,我国人工智能监管将渐趋完善,主要体现在以下两方面:
一是法律法规渐趋完善。《人工智能法》将成为我国人工智能监管的主要法律依据,与之相关的各领域配套算法监管、数据应用、安全审查相关法律和规则将逐渐完善。
二是人工智能监管将逐步增强实操性。由于人工智能技术具有极强的技术性,完善的法律法规落地需要与之相匹配的监管科技能力。《宣言》指出:“人工智能监管需要适当的评估指标、安全测试工具,以及相关监管部门的科技能力。”
注:
本报告内容仅对宏观经济进行分析,不包含对证券及证券相关产品的投资评级或估值分析,不属于证券报告,也不构成对投资人的建议。
长按上方二维码关注我
微信扫码关注该文公众号作者