新闻第95期|暗流涌动:科技竞赛下的AI安全风险
作者 | 郭依贝 华东政法大学本科
张越 浙江大学本科
刘子彤 华东政法大学本科
曹哲远 华东政法大学本科
编辑 | 陈玉昕 香港中文大学 LL.M.
余卓妍 西安交通大学本科
责编|扎恩哈尔•阿黑哈提 新疆农业大学本科
暗流涌动:科技竞赛下的AI安全风险
一、智能之海:AI
AI(人工智能)的涌现,不是从ChatGPT一炮而红才掀开帷幕,而是早在2017年就已开始在科技界崭露头角。从2017到2022,人工智能经过了一个从量变通往质变的过程。通过高效的数据处理和模仿识别能力,AI极大地提高了生产劳动效率,尤其在医疗、金融、教育和交通等领域。随着ChatGPT的更新,更广泛的让人和AI进行实时对话,也令AI的热度进一步高涨。但同时,AI因其自动化技术和高效的数据处理方式对就业市场产生了极大的冲击。更值得忧心的是,如何处理AI对个人隐私的侵犯和对网络信息安全的威胁是一个悬而未决的问题。
近期,中国法律行业中的第一案“AI生成图片著作权侵权案”的判决拓宽了AI创作与知识产权领域法律的探索界限,对AI技术的商业应用、创作者权利以及AI作品的法律地位产生深远影响。另一则新闻,更是把人工智能推向了流量的热潮——知名人工智能公司OpenAI上演当代“宫斗大戏”。这不仅仅是企业内部权力斗争,更是关于AI不同理念的较量。
二、科技界“惊魂四天半”:
知名人工智能公司OpenAI上演“宫斗大戏”
(一) “OpenAI宫斗大戏”始末
据美国时间11月21日晚间消息,人工智能研究公司OpenAI首席技术官米拉·穆拉蒂(Mira Murati)宣布,董事会已经与上周五被解雇的首席执行官山姆·奥特曼(Sam Altman,后简称“奥特曼”)原则上达成了复职协议。[1]这一声明结束了科技界为期四天半的紧张局势,在此期间,作为世界领先的人工智能开发商之一,OpenAI的命运始终悬而未决。
下面,本文将以图表形式(按美国时间)展开这场“宫斗大戏”[2]的介绍。
(二) 内乱表象:
OpenAI以非营利组织主导的股权架构
作为CEO的奥特曼之所以能如此轻易地被赶走,主要是根源于OpenAI非常独特的股权架构。设立之初,OpenAI是家非营利的人工智能研究实验室,其专注于开发对人类友好的AI技术,并郑重承诺其研究成果将是开源的。[3]该承诺不仅凸显了OpenAI对技术创新的追求,更强调了技术的伦理性和普惠性,旨在通过其工作来推动构建一个由高度发达且安全的人工智能技术支持的未来。相应地,OpenAI的股权架构[4](如图1)也意在将公司的非营利研究使命与其营利性业务运营分开,同时允许它接受外部投资,以资助其研究和发展。
(图1)
具体而言,OpenAI的组织结构分为几个相互关联的实体,以表格呈现。
对OpenAI的股权架构进行剖析,可以得出奥特曼被开除的三大原因:
1.创始人兼CEO不持股
作为创始人兼CEO的奥特曼并不持有OpenAI的股份。2023年5月16日,奥特曼在美国参议院关于AI监管的听证会上亲自证实自己并没有持有任何OpenAI的股权,并表示自己在OpenAI领的工资只够买医疗保险,并声称自己“做这件事(OpenAI)只是出于热爱”。[6]
2.投资人只出资不控制
从2019年开始,微软和OpenAI建立了紧密的战略合作关系;2023年1月,微软宣布未来将分阶段累计向OpenAI投资130亿美元。即便如此,微软在OpenAI中也只享有分红权而没有董事会席位,控制力甚微,乃至事后才得知创始人CEO被开除一事。
3.绝对控制权掌握在非营利组织的董事会手中
OpenAI Nonprofit的董事会通过100%控制OpenAI GP LLC,并利用OpenAI GP LLC的运营协议来控制所有LLC成员。这种结构带来了一些弊端,包括管理运营上的复杂性、决策效率降低以及责任划分不清晰等问题。同时,非营利和营利目标之间可能出现利益冲突,这也是奥特曼被开除背后的一大隐情。
(三) 内乱根源:AI商业化与安全性的分歧
内乱背后,实际上是OpenAI迅猛发展的“红”与安全治理迫在眉睫的“黑”之碰撞。[7]人工智能的发展前景下,各大科技巨头掀起新一轮竞赛,作为AI领头羊的OpenAI面临空前压力。对于具有非营利与营利双重属性的OpenAI如何发展,首席执行官奥特曼与首席科学家苏茨克维持有相反的立场。奥特曼主张推进商业化进度,扩大OpenAI的业务范围,并且积极布局未来融资;苏茨克维则一直以来更关注安全,他在今年7月成立了“超级对齐”(Superalignment)部门,[8]宣布 OpenAI 会拿出 1/5 的计算资源制定一套故障安全程序来控制AGI技术,使AI系统的目标与人类利益一致,在未来四年解决“超级智能”的威胁。
这场声势浩大的“OpenAI宫斗大戏”颇具争议。奥特曼的重返不只是OpenAI在商业化道路上的首胜,还意味着包括AI安全在内的“非营利愿景”在日益加速的世界AI竞赛中面临巨大挑战。一边是巨额投入带来的商业化变现压力、对技术进步的信仰,一边是至关重要的AI安全问题,科技公司对此如何衡量,将成为长久的话题。
这场OpenAI内部的权力变动,不仅仅是公司治理和股权架构的变化,更深层地揭示了关于AI风险管控的全球性议题。基于此,有关如何制定有效AI风险管控措施的也与此同时如火如荼地召开。如何令AI在保证技术促进人类福祉的同时最大限度额度减少潜在风险,为将来的科技发展奠定兼职的制度和伦理基础的讨论随着AI安全峰会的召开和布莱切利宣言的诞生悄然发生“量变”。
三、AI安全峰会和布莱切利宣言
1.AI安全峰会 背景及概况
AI技术应用的伦理规范始终是前沿的热点问题。[9]2023年,世界各国的人工智能专家以不同形式呼吁对AI领域的各类潜在风险应当多加关注,多份声明被签署。[10]3月22日,美国生命未来研究所(Future of Life)发布公开信——《暂停大型人工智能研究》,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,希望期间各国能共同制定全球范围内相关的技术共享安全协议。人工智能安全中心组织与联合国秘书长古特雷斯也分别在5月与7月发表声明,表示应对AI风险防范进行提级管理。
在此背景下,首届全球人工智能(AI)安全峰会于11月1日在英国布莱切利庄园拉开帷幕,为期两天。由英国召集的包括美国、欧盟和中国在内的28个国家首次就前沿人工智能领域的机遇、风险和国际行动的必要性达成一致意见,[11]中国科技部副部长吴朝晖率团出席。
峰会首日签署《人工智能安全布莱切利宣言》(Bletchley Declaration)(下称“《宣言》”)中,包括非洲、中东和亚洲在内的全球28个国家以及欧盟都同意迫切需要理解并通过新的全球联合行动共同管理潜在风险,以确保以安全、负责的方式开发和部署人工智能,造福全球社会。
2.《宣言》主要内容
《宣言》在强调人工智能风险监管的紧迫性和必要性的基础上倡导通过国际合作应对人工智能风险。其在肯定了人工智能的积极潜力和广泛应用之外,更多提出了面临的挑战与风险,如对人权的威胁、透明度与可解释性问题、偏见、隐私和数据保护等。为此,《宣言》强调国际合作的必要性,并提出具体措施,包括分门别类的风险管理、建立风险评估体系,共同制定原则和守则;对开发具有潜在危害能力的系统者加强前沿AI的安全责任;维护全球对话的包容性,确保在国际论坛中有开放的国际讨论,继续研究前沿AI安全;支持建立国际包容性的人工智能前沿安全科学研究网络,为政策制定提供科学方法;强调国家、国际组织、企业、民间社会和学术界的合作,特别是在数字鸿沟弥合和提高AI能力建设方面。
3. 影响和意义
作为全球首个针对人工智能的国际性声明,《宣言》代表了全球主要经济体对AI安全的国际性共识,被视为人工智能安全发展的重要里程碑,它坚持以人为本的原则,巩固了国际社会对于识别重大风险、集体防范风险的共识。[13]它也是对深入理解与前沿人工智能相关的新兴风险的呼吁,预期将成为持续对话的起点,凝聚国际合力共同监控人工智能的发展。[14]
尽管《宣言》呈现出国际上的统一立场,但其实际影响尚不明确。主要原因是《宣言》涉及的各国对人工智能治理采取了不同的方法。例如,英国和美国倾向于更自由放任、支持创新的立场,立法干预最小化;而欧盟则制定了更为严格的监管框架。[15] 此外,《宣言》缺乏创建有效监管体系的细节,对近期的风险和加强对AI系统责任的明确规定等问题需要更具体的协议和细化的计划。
但是,本次峰会不仅在治理方向和监管底线等方面推动了各国达成一致,而且共同签署的《宣言》具有潜在成为国际标准的基础或以国际公约形式生效的可能性,这都体现了全球AI峰会和《宣言》的重要价值。[16]
四、结论
科技界“惊魂四天半”的内斗,让AI安全领域之间的理念冲突再一次登上了新闻和流量的顶峰。随着全球对AI安全意识的不断增强,国际社会正逐步建立起应对这些挑战的共同机制。《布莱切利宣言》的签署和AI安全峰会的召开,标志着国际社会在AI风险管控方面取得了显著进展。这些努力不仅旨在建立一个更加安全、负责任的AI发展环境,也为人工智能赋能科技发展奠定了坚实的制度和伦理基础。无论是AI可能带来FOMO(Fear Of Missing Out),还是AI可能带来的其他风险,都需要国际社会持续不断有效的国际合作和国际协议的制定。在这个过程中,也需要找到一种平衡:既能利用AI赋能全球科技的发展,助力人类跨入新时代,又能防范其潜在风险。这需要全球领导者、政策制定者、技术专家、以及公民社会共同参与,建立一个透明、包容和持续发展的AI治理体系。通过全球性的努力和对话,可以更好地理解AI的复杂性和多面性,确保其发展方向符合全人类的长期利益。
脚注
微信扫码关注该文公众号作者