Redian新闻
>
新闻第95期|暗流涌动:科技竞赛下的AI安全风险

新闻第95期|暗流涌动:科技竞赛下的AI安全风险

其他



作者 | 郭依贝 华东政法大学本科

         张越   浙江大学本科

         刘子彤 华东政法大学本科

         曹哲远 华东政法大学本科

编辑 | 陈玉昕 香港中文大学 LL.M.

         余卓妍 西安交通大学本科

责编|扎恩哈尔•阿黑哈提 新疆农业大学本科


暗流涌动:科技竞赛下的AI安全风险


一、智能之海:AI



AI(人工智能)的涌现,不是从ChatGPT一炮而红才掀开帷幕,而是早在2017年就已开始在科技界崭露头角。从2017到2022,人工智能经过了一个从量变通往质变的过程。通过高效的数据处理和模仿识别能力,AI极大地提高了生产劳动效率,尤其在医疗、金融、教育和交通等领域。随着ChatGPT的更新,更广泛的让人和AI进行实时对话,也令AI的热度进一步高涨。但同时,AI因其自动化技术和高效的数据处理方式对就业市场产生了极大的冲击。更值得忧心的是,如何处理AI对个人隐私的侵犯和对网络信息安全的威胁是一个悬而未决的问题。


近期,中国法律行业中的第一案“AI生成图片著作权侵权案”的判决拓宽了AI创作与知识产权领域法律的探索界限,对AI技术的商业应用、创作者权利以及AI作品的法律地位产生深远影响。另一则新闻,更是把人工智能推向了流量的热潮——知名人工智能公司OpenAI上演当代“宫斗大戏”。这不仅仅是企业内部权力斗争,更是关于AI不同理念的较量。


二、科技界“惊魂四天半”:

 知名人工智能公司OpenAI上演“宫斗大戏”



(一) “OpenAI宫斗大戏”始末


据美国时间11月21日晚间消息,人工智能研究公司OpenAI首席技术官米拉·穆拉蒂(Mira Murati)宣布,董事会已经与上周五被解雇的首席执行官山姆·奥特曼(Sam Altman,后简称“奥特曼”)原则上达成了复职协议。[1]这一声明结束了科技界为期四天半的紧张局势,在此期间,作为世界领先的人工智能开发商之一,OpenAI的命运始终悬而未决。


下面,本文将以图表形式(按美国时间)展开这场“宫斗大戏”[2]的介绍。



(二) 内乱表象:

OpenAI以非营利组织主导的股权架构


作为CEO的奥特曼之所以能如此轻易地被赶走,主要是根源于OpenAI非常独特的股权架构。设立之初,OpenAI是家非营利的人工智能研究实验室,其专注于开发对人类友好的AI技术,并郑重承诺其研究成果将是开源的。[3]该承诺不仅凸显了OpenAI对技术创新的追求,更强调了技术的伦理性和普惠性,旨在通过其工作来推动构建一个由高度发达且安全的人工智能技术支持的未来。相应地,OpenAI的股权架构[4](如图1)也意在将公司的非营利研究使命与其营利性业务运营分开,同时允许它接受外部投资,以资助其研究和发展。


(图1)


具体而言,OpenAI的组织结构分为几个相互关联的实体,以表格呈现。



对OpenAI的股权架构进行剖析,可以得出奥特曼被开除的三大原因:


1.创始人兼CEO不持股

作为创始人兼CEO的奥特曼并不持有OpenAI的股份。2023年5月16日,奥特曼在美国参议院关于AI监管的听证会上亲自证实自己并没有持有任何OpenAI的股权,并表示自己在OpenAI领的工资只够买医疗保险,并声称自己“做这件事(OpenAI)只是出于热爱”。[6]


2.投资人只出资不控制

从2019年开始,微软和OpenAI建立了紧密的战略合作关系;2023年1月,微软宣布未来将分阶段累计向OpenAI投资130亿美元。即便如此,微软在OpenAI中也只享有分红权而没有董事会席位,控制力甚微,乃至事后才得知创始人CEO被开除一事。


3.绝对控制权掌握在非营利组织的董事会手中

OpenAI Nonprofit的董事会通过100%控制OpenAI GP LLC,并利用OpenAI GP LLC的运营协议来控制所有LLC成员。这种结构带来了一些弊端,包括管理运营上的复杂性、决策效率降低以及责任划分不清晰等问题。同时,非营利和营利目标之间可能出现利益冲突,这也是奥特曼被开除背后的一大隐情。


(三) 内乱根源:AI商业化与安全性的分歧


内乱背后,实际上是OpenAI迅猛发展的“红”与安全治理迫在眉睫的“黑”之碰撞。[7]人工智能的发展前景下,各大科技巨头掀起新一轮竞赛,作为AI领头羊的OpenAI面临空前压力。对于具有非营利与营利双重属性的OpenAI如何发展,首席执行官奥特曼与首席科学家苏茨克维持有相反的立场。奥特曼主张推进商业化进度,扩大OpenAI的业务范围,并且积极布局未来融资;苏茨克维则一直以来更关注安全,他在今年7月成立了“超级对齐”(Superalignment)部门,[8]宣布 OpenAI 会拿出 1/5 的计算资源制定一套故障安全程序来控制AGI技术,使AI系统的目标与人类利益一致,在未来四年解决“超级智能”的威胁。


这场声势浩大的“OpenAI宫斗大戏”颇具争议。奥特曼的重返不只是OpenAI在商业化道路上的首胜,还意味着包括AI安全在内的“非营利愿景”在日益加速的世界AI竞赛中面临巨大挑战。一边是巨额投入带来的商业化变现压力、对技术进步的信仰,一边是至关重要的AI安全问题,科技公司对此如何衡量,将成为长久的话题。


这场OpenAI内部的权力变动,不仅仅是公司治理和股权架构的变化,更深层地揭示了关于AI风险管控的全球性议题。基于此,有关如何制定有效AI风险管控措施的也与此同时如火如荼地召开。如何令AI在保证技术促进人类福祉的同时最大限度额度减少潜在风险,为将来的科技发展奠定兼职的制度和伦理基础的讨论随着AI安全峰会的召开和布莱切利宣言的诞生悄然发生“量变”。


三、AI安全峰会和布莱切利宣言



1.AI安全峰会 背景及概况 

AI技术应用的伦理规范始终是前沿的热点问题。[9]2023年,世界各国的人工智能专家以不同形式呼吁对AI领域的各类潜在风险应当多加关注,多份声明被签署。[10]3月22日,美国生命未来研究所(Future of Life)发布公开信——《暂停大型人工智能研究》,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,希望期间各国能共同制定全球范围内相关的技术共享安全协议。人工智能安全中心组织与联合国秘书长古特雷斯也分别在5月与7月发表声明,表示应对AI风险防范进行提级管理。


在此背景下,首届全球人工智能(AI)安全峰会于11月1日在英国布莱切利庄园拉开帷幕,为期两天。由英国召集的包括美国、欧盟和中国在内的28个国家首次就前沿人工智能领域的机遇、风险和国际行动的必要性达成一致意见,[11]中国科技部副部长吴朝晖率团出席。


峰会首日签署《人工智能安全布莱切利宣言》(Bletchley Declaration)(下称“《宣言》”)中,包括非洲、中东和亚洲在内的全球28个国家以及欧盟都同意迫切需要理解并通过新的全球联合行动共同管理潜在风险,以确保以安全、负责的方式开发和部署人工智能,造福全球社会。


2.《宣言》主要内容

《宣言》在强调人工智能风险监管的紧迫性和必要性的基础上倡导通过国际合作应对人工智能风险。其在肯定了人工智能的积极潜力和广泛应用之外,更多提出了面临的挑战与风险,如对人权的威胁、透明度与可解释性问题、偏见、隐私和数据保护等。为此,《宣言》强调国际合作的必要性,并提出具体措施,包括分门别类的风险管理、建立风险评估体系,共同制定原则和守则;对开发具有潜在危害能力的系统者加强前沿AI的安全责任;维护全球对话的包容性,确保在国际论坛中有开放的国际讨论,继续研究前沿AI安全;支持建立国际包容性的人工智能前沿安全科学研究网络,为政策制定提供科学方法;强调国家、国际组织、企业、民间社会和学术界的合作,特别是在数字鸿沟弥合和提高AI能力建设方面。

The Declaration fulfils key summit objectives in establishing shared agreement and responsibility on the risks, opportunities and a forward process for international collaboration on frontier AI safety and research, particularly through greater scientific collaboration. Talks today, with leading frontier AI companies and experts from academia and civil society, will see further discussions on understanding frontier AI risks and improving frontier AI safety. Countries agreed substantial risks may arise from potential intentional misuse or unintended issues of control of frontier AI, with particular concern caused by cybersecurity, biotechnology and disinformation risks. The Declaration sets out agreement that there is “potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models.” Countries also noted the risks beyond frontier AI, including bias and privacy.[12]


3. 影响和意义

作为全球首个针对人工智能的国际性声明,《宣言》代表了全球主要经济体对AI安全的国际性共识,被视为人工智能安全发展的重要里程碑,它坚持以人为本的原则,巩固了国际社会对于识别重大风险、集体防范风险的共识。[13]它也是对深入理解与前沿人工智能相关的新兴风险的呼吁,预期将成为持续对话的起点,凝聚国际合力共同监控人工智能的发展。[14]


尽管《宣言》呈现出国际上的统一立场,但其实际影响尚不明确。主要原因是《宣言》涉及的各国对人工智能治理采取了不同的方法。例如,英国和美国倾向于更自由放任、支持创新的立场,立法干预最小化;而欧盟则制定了更为严格的监管框架。[15] 此外,《宣言》缺乏创建有效监管体系的细节,对近期的风险和加强对AI系统责任的明确规定等问题需要更具体的协议和细化的计划。


但是,本次峰会不仅在治理方向和监管底线等方面推动了各国达成一致,而且共同签署的《宣言》具有潜在成为国际标准的基础或以国际公约形式生效的可能性,这都体现了全球AI峰会和《宣言》的重要价值。[16]


四、结论



科技界“惊魂四天半”的内斗,让AI安全领域之间的理念冲突再一次登上了新闻和流量的顶峰。随着全球对AI安全意识的不断增强,国际社会正逐步建立起应对这些挑战的共同机制。《布莱切利宣言》的签署和AI安全峰会的召开,标志着国际社会在AI风险管控方面取得了显著进展。这些努力不仅旨在建立一个更加安全、负责任的AI发展环境,也为人工智能赋能科技发展奠定了坚实的制度和伦理基础。无论是AI可能带来FOMO(Fear Of Missing Out),还是AI可能带来的其他风险,都需要国际社会持续不断有效的国际合作和国际协议的制定。在这个过程中,也需要找到一种平衡:既能利用AI赋能全球科技的发展,助力人类跨入新时代,又能防范其潜在风险。这需要全球领导者、政策制定者、技术专家、以及公民社会共同参与,建立一个透明、包容和持续发展的AI治理体系。通过全球性的努力和对话,可以更好地理解AI的复杂性和多面性,确保其发展方向符合全人类的长期利益。







 脚注

[1]Nilay Patel and Alex Heath: Sam Altman to return as CEO of OpenAI, The Verge, November 22, 2023, https://www.theverge.com/2023/11/22/23967223/sam-altman-returns-ceo-open-ai.

[2]Clare Duffy and Diksha Madhok: OpenAI’s wild week. How the Sam Altman story unfolded, CNN, November 22, 2023, https://www.cnn.com/2023/11/22/tech/openai-sam-altman-chaos-explained-intl-hnk/index.html.

[3]参见https://mp.weixin.qq.com/s/7yHuqOQWGO6jWVVEjggzbQ.

[4]参见OpenAI官网,https://openai.com/our-structure.

[5]注:501(c)(3)是美国《国内税收法典》(Internal Revenue Code of 1986)中的一个组织代号。拥有这个代号的组织,通常是慈善机构、宗教组织、教育机构、科研机构等。这类组织可以有收入,但收入不允许分配给股东,只能继续服务于组织的宗旨。这类组织也就是我们常说的非营利组织。法条原文参见https://www.govinfo.gov/content/pkg/USCODE-2011-title26/pdf/USCODE-2011-title26.pdf.

[6]James Clayton: Sam Altman: CEO of OpenAI calls for US to regulate artificial intelligence, BBC News, May 17, 2023, https://www.bbc.com/news/world-us-canada-65616866.

[7]Keach Hagey, Deepa Seetharaman and Berber Jin: Behind the Scenes of Sam Altman’s Showdown at Open AI, The Wall Street Journal, November 22, 2023, https://www.wsj.com/tech/ai/altman-firing-openai-520a3a8c.

[8]Kai Xiang Teo: OpenAI is so worried about AI causing human extinction, it's putting together a team to control 'superintelligence', Business Insider, July 7, 2023, https://www.businessinsider.com/ai-openai-chatgpt-tackle-superintelligence-human-extinction-sam-altman-2023-7.

[9]张琼方:《炜衡视点丨人工智能法律问题之伦理规范问题》,载微信公众号“炜衡深圳律师事务所”,2023年4月22日

[10]梁凡:《多国密集推出政策,业界呼吁警惕风险,人工智能迎来监管“加速度”》,载“中国经济网”,2023年11月3日,https://baijiahao.baidu.com/s?id=1781494778266111149&wfr=spider&for=pc.

[11]Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration,https://www.gov.uk/government/news/countries-agree-to-safe-and-responsible-development-of-frontier-ai-in-landmark-bletchley-declaration.

[12]Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration,https://www.gov.uk/government/news/countries-agree-to-safe-and-responsible-development-of-frontier-ai-in-landmark-bletchley-declaration.

[13]Expert Reaction To the Bletchley Declaration by Countries Attending the AI Safety Summit, Science, Media Center, November 01, 2023,https://www.sciencemediacentre.org/expert-reaction-to-the-bletchley-declaration-by-countries-attending-the-ai-saf.

[14]Gillian Duncan, Bletchley Declaration Targets 'harms' In a New Age of AI, View form London, November 01, 2023.

[15]Matthew Gooding: Governments Agree Bletchley Declaration on AI Safety at UK Summit, Tech Monitor30, November 1, 2023, https://techmonitor.ai/technology/ai-and-automation/bletchley-declaration-uk-ai-safety-summit#:~:text=Will%20the%20Bletchley%20Declaration%20have,EU%20has%20developed%20an.

[16]《对话北大张平教授:〈布莱奇利宣言〉为国际AI监管标准奠基》,载《南方都市报》,2023.11.10,https://m.mp.oeeee.com/a/BAAFRD000020231110873606.html?layer=2&share=chat&isndappinstalled.

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
关注丨《中国领事保护与协助指南》系列动画——海外安全风险防范篇(五)生物技术与人工智能融合产生新兴生物安全风险从融资和市场,中美科技竞争不只是技术这么简单关注丨《中国领事保护与协助指南》系列动画——海外安全风险防范篇(六)Nature:科学家正掀起治愈自身免疫性疾病的竞赛!!!国家安全机关:开展地理信息数据安全风险专项排查治理忠武路vs青瓦台:演员李善均之死背后的韩国政治暗流新闻第97期|裁判文书时代终结的利弊之思美国参议员指控,中国大蒜构成重大国家安全风险华人注意!这款家庭常备药有安全风险!恐致用药过量!大家千万要小心!第95期六点和72期五点半早起打卡营暗流涌动的台湾政坛新闻第87期 | 《治安管理处罚法(修订草案)》引发争议,车浩、赵宏等教授评论汇总惊!悉尼知名公寓曝安全风险,正紧急整改!就因为这种东西,大量无辜住户惨死,澳洲很多建筑仍在使用...新闻第98期|投石问路:纽约时报诉OpenAI侵权法律分析做生意遇到的敲竹竿官司【纯干货】愛中医群课堂笔记第795期-- “用中药可以解决龋齿吗?”中科创星米磊:未来的硬科技竞赛,知识才是最贵的ESG是一句脏话吗|暗涌下午茶留点给自己!法律科技竞争简史:大厂分食,通收赢家何时出现?新闻第88期 | 完善涉外法律体系,中国首部《外国国家豁免法》要点浅析红色日记 打起架来 1974年 25岁 7.1-15David Jones雅诗兰黛活动:消费满$95,赠价值$315的7件套!冯大刚对话设计师王平仲:科技与美学视野下的厨房「突变」重大项目密集开工,制造业投资“春潮涌动”中国工程院院士吴世忠:2024年网络与信息安全风险前瞻宇宙人(1395期)开幕;中国首颗高精度地磁场探测卫星投入使用;月壤首次亮相澳门;越南Viettel验证自研5GOpenvRAN持续有效防范化解重点领域风险 | 中央经济工作会议强音第5期AI电商,暗流涌动炸锅!悉尼网红公寓楼被曝安全风险!装饰物易高空坠落砸到路人,外墙还有易燃包层!新闻|共议“医械创新之道” —— 第5期“光华生命健康产业沙龙”成功举办!新闻第99期|浅析《联大2758号决议》的法律意义相聚多伦多(二十二)幸或不幸权力是一个很神奇的东西!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。