Redian新闻
>
人工智能竞赛管控

人工智能竞赛管控

博客

10月20日一期的《外交事务》(Foreign Affairs)杂志刊登了一篇由两位名人撰写的文章 -- 亨利·A·基辛格(Henry A Kissinger 下图1 BIOGRAPHY)和爱利森·格拉汉姆(Graham Allison 下图2 TED Talks)。被中国大陆领导和学术界称作“中国人民的老朋友”其中基辛格为基辛格协会(Kissinger Associates)主席,曾任美国国家安全顾问(1969年至1975年),和美国国务卿(1973年至1977年)。爱利森·格拉汉姆(Graham Allison)为哈佛大学Douglas Dillon政府学教授。他是《战争的命运:美国和中国能逃脱修昔底德的陷阱吗?》(Destined for War: Can America and China Escape Thucydides’s Trap?)一书的作者。格拉汉姆关于美中间的“修昔底德的陷阱”之说,在国际研究美中关系的圈子里颇有市场。 该篇文章的题目为“管控人工智能竞赛之路”,主要讨论方兴未艾的美中人工智能竞赛及管控的意义。以下介绍他们的主要观点。

二战后迄今,地球见证长达78周年的和平(大国间无战争)。迫使日本立即无条件投降的广岛和长崎原子弹爆炸后,世界上再没有任何国家使用核武器了。基辛格和格拉汉姆将历史上最长的世界和平及避免核战争、减缓核扩散的成就归功于美国领导下的国际秩序,认为它们将作为美国最重要的成就之一载入史册。今天,世界出现了另一种全新的技术 -- 人工智能。人工智能技术给人类带来了独特挑战,因为它未知、甚至可怕 (下图 YouTube/crystalloids)-- 人工智能技术的机器会取代人类主宰宇宙吗;人工智能会打破国家机器对大规模暴力手段的垄断吗;人工智能会让个人或小团体制造传播能够大面积杀死生命的病毒吗?人工智能是否会危及维护着当今国际秩序的核威慑?

站在人工智能革命前沿的技术领袖们相信,人工智能最终将具有超越人类的能力,人工智能的无限制发展极有可能给包括美国在内的世界带来灾难性后果。因此,各国政府必须立即采取行动对人工智能技术进行立法管控。虽然人类对人工智能的未来发展尚不完全理解,但政府领导人决策时可借鉴核武时代的经验教训。当两个核武超级大国在相互竞争中达到核威慑平衡时,即在一方先发制人的攻击后,被攻击方仍然具有完全摧毁先发制人方的反击能力,美苏领导人都意识到必须共同防止这项技术迅速传播到其他流氓无赖国家,从而威胁美苏自己。

核时代的教训 

1945年原子弹摧毁日本城市后(下图 DAILY BEAST/The Atlantic),科学家们对他们创造的东西所具备的毁灭能力感到后怕。曼哈顿计划的首席科学家奥本海默(Robert Oppenheimer)回忆起《薄伽梵歌》(Bhagavad Gita)中的一句话:“现在我成了死亡,世界的毁灭者。”1955年,包括爱因斯坦在内的11位顶尖科学家签署了《罗素-爱因斯坦宣言》(Russell-Einstein Manifesto),警告核武器的可怕威力,并恳请世界领导人永远不要使用核武器。

当时美国杜鲁门政府的战争部长亨利·史汀生(刚刚帮助德国和日本取得胜利)提议,美国与苏联领导人斯大林和英国首相丘吉尔分享其对原子弹的垄断权,以建立一个防止核武器扩散的大国“共管公寓”。杜鲁门政府于是成立了一个委员会,由美国副国务卿艾奇逊(Dean Acheson)担任主席,制定一项战略来推行史汀生的提议。艾奇逊基本上同意史汀生的观点:防止核军备竞赛以灾难性战争告终的唯一方法是建立一个唯一拥有原子武器的国际权威机构。这要求美国与苏联和联合国安理会其他成员国分享其核秘密,将其核武器移交给新的联合国“原子能开发机构”,并禁止所有国家发展武器或建设自己生产武器级核材料的能力。但苏联没有接受美国的建议,而是继续研发自己的核武器。几年后苏联成功地制造了自己的原子弹,美国和苏联从此进入了“冷战”时期:一场除了炸弹和子弹之外的竞争。这场竞争的一个核心特征是对核优势的追求。在鼎盛时期,这两个超级大国的核武库包括6万多件武器,其中一些弹头的爆炸力超过了有记录以来所有战争中使用的所有武器之和。

几十年来,华盛顿和莫斯科在核武库上花费了数万亿美元。在这场竞赛的最初几十年里,美国和苏联都在技术上取得了飞跃。武器爆炸当量从最初的裂变武器的千吨(相当于1000吨TNT释放的能量)到氢聚变弹的兆吨(相当于100万吨释放的能量。)双方都发明了能够在30分钟内将弹头发射到地球另一端目标的洲际导弹,建立起在数百英里高空绕地卫星识别几英寸内大小的目标侦查系统,和导引己方子弹击中敌方子弹的导航系统。

核威慑概念 

由于美苏双方均拥有可在对方首先发动攻击后向攻击方进行可靠报复的第二次打击能力,肯尼迪总统就苏联在古巴部署的核弹头导弹与苏联领导人赫鲁晓夫对峙时,最终选择了妥协(下图 The Moscow Times)。因为美国情报界估计,即使肯尼迪成功发动了第一次打击,苏联以其当时的核能力进行的报复性反应可能导致6200万美国人死亡。1969年,尼克松总统的安全顾问基辛格(本文作者之一),指出了这一挑战:“任何好战的言论都不能掩盖现有核储备足以摧毁人类的事实……没有比防止核战争灾难更高的责任了。” 

核威慑的概念:向对手展示,任何先发制人的攻击所获得的收益,都将大大低于发动攻击所需成本,从而阻遏对手的攻击。人们逐渐认识到,成功的威慑不仅需要能力,还需要信誉 -- 潜在的被攻击方拥有果断回应的手段和坚定反击的意愿。为此战略家们创造了MAD(mutual assured vulnerability)一词,意为“确保相互摧毁”。里根经常重复的一句话概括了其本质:“核战争不可能获胜,因此永远不能打。”

虽然美苏都试图摆脱这种MAD状况,但他们最终认识到自己无法做到这一点,因而必须从根本上重新定义两国关系。由此,美苏达成了军备控制的协议,包括一系列隐性和显性约束,如不干涉对方对其领土的监视,禁止大气层核试念,限制反弹道导弹防御,消除中程核弹道导弹部队,限制导弹发射器增加,以及减少导弹发射器数量(START,New START)等。也许最重要的是,美国和苏联签署了《核不扩散条约》。因为两国均认识到,向其他国家扩散核武器对两国都构成了威胁,并最终面临核无政府状态的风险。今天,世界上有186个国家承诺不发展自己的核武库。

人工智能的管控 

由于人工智能的未知风险,包括亿万富翁埃隆·马斯克在内的许多人或要求暂停人工智能开发,或提议废除人工智能,或建议由全球政府机构控制人工智能。但这基本上不会发生 -- 从未有一个大国因竞争对手可能会应用一项新技术来威胁其生存和安全,就放弃为自己开发该技术。即使是美国的亲密盟友,如英国和法国,在依赖美国核保护伞的同时,也选择发展自己的国家核能力。

追溯过往经验,“确保相互摧毁”的MAD,曾使人类免于核毁灭。但人工智能与核武器之间存在显著差异,因而不能生搬硬套。首先,不同于政府主导的核技术发展(可不计成本,无视收益),推动人工智能发展的是私营企业家、技术专家和公司,如微软、谷歌、亚马逊、Meta、OpenAI和少数小型初创公司及他们的科学家(下图 The Science Agriculture)。由于这些私人(企业)行为者要权衡风险和回报,国家利益肯定不会是首要考虑对象。

其次,人工智能代表着一个与核武器截然不同的挑战。核武器很难生产,需要复杂的基础设施才能完成从浓缩铀到设计核武器的所有任务。核产品是有形的实物,因此是可数的。可以核实对手在做什么,就会出现制约因素。人工智能是概念性的,主要进化发生在人类的头脑中。人工智能的适用性在实验室中不断发展,其部署也很难观察到,因为它是无形的。

第三,人工智能的发展和传播速度与发展了几十年的军备控制不具可比性。由于人工智能的快速发展和传播速度,政府需要尽快对人工智能进行限制。一些专家认为,机器在未来五年内将开始自己拿主意自我设目标。这就需要在先国家后国际层面,讨论和分析如何将人工智能纳入社会安全结构,以及政府与私营部门之间关系的新动力。

值得庆幸的是,开发出生成型人工智能并使美国成为领先的人工智能超级大国的大公司认识到,他们不仅对股东负有责任,而且对国家和整个人类负有责任。许多公司已经制定了自己的指导方针,用于在部署前评估风险,减少训练数据中的偏见,并限制其模型的危险使用。其他人正在探索如何限制培训,并对云计算提供商提出“了解客户”的要求。朝着正确方向迈出的重要一步是拜登政府7月宣布的一项举措,该举措将七家主要人工智能公司的领导人带到白宫,共同承诺制定指导方针,以确保“安全、保障和信任”。(下图 Panhandle Post)

伴随人工智能的无限制发展的巨大风险要求政府和企业领导人立即行动。每一家拥有大规模计算能力来训练新的人工智能模型的公司,以及每一家开发新模型的公司或研究小组,都应有专人分析其商业人工智能运营对人类和地缘政治的影响。

美国应成立一个跨党派的国家委员会,该国家委员会由私营部门、国会、军方和情报界的无党派前领导人组成。国家委员会应提出更具体的强制性保障措施,包括持续评估训练GPT-4等人工智能模型所需的大规模计算能力,以及在公司发布任何新模型之前,均需对其进行极端风险压力测试。这方面,国家人工智能安全委员会于2021年发布的有关建议,为美国军方和美国情报机构在与中国大陆的人工智能竞争中采取的举措提供了动力和方向。

人工智能竞赛 

在创建自己国内人工智能治理框架的同时,美国也应该与世界上唯二的另一个人工智能超级大国(中国大陆 下图 KNOWLEDGE AT WHARTON/CHINA EXPERIENCE)开始认真对话。中国大陆科技领域的全国冠军 -- 百度(中国顶级搜索引擎)、字节跳动(TikTok的母公司)、腾讯(开发出了微信)和阿里巴巴(电子商务的领导者)-- 正在构建独特中文版本的ChatGPT。根据世界知识产权组织向彭博新闻社提供的数据,中国大陆机构2022年申请了29853件人工智能领域相关专利,比美国同期的申请数量高出近80%。尽管中国在制造先进半导体的技术方面仍然落后,但它拥有在不久的将来迎头赶上,乃至取得领先的必要条件。

因此,拜登和习近平应该尽快会面,就人工智能军备控制进行对话。11月12日至18日在旧金山举行的亚太经合组织会议(APEC峰会)为美中交流提供了一次绝佳机会。拜登和习近平可彼此讨论分享本人对人工智能风险的评估、各自国家为防范人工智能灾难性风险而采取的措施、以及确保各自国内公司不输出风险的措施。或许,拜登和习近平应考虑成立一个由美国和中国大陆人工智能科学家以及其他反思这些发展影响的人组成的咨询小组。拜习会及成立人工智能咨询小组,将促进双方在人工智能科领域展开富有成效的讨论。除美中接触和合作外,英国将于11月主办的人工智能安全峰会,联合国正进行人工智能风险方面的对话。这些,都将成为构建一个全球人工智能秩序的全球对话的组成分。

由于每个国家都在寻求利用人工智能来改善公民的生活,同时确保本国社会的安全,因此需要一个全球人工智能秩序。在全球对话的基础上,各国政府应努力防止人工智能最危险和潜在的灾难性后果,并辅之以参与开发大型人工智能模型的各国科学家与国家委员会成员之间的对话。在拥有先进人工智能项目的国家之间进行正式的全球人工智能秩序政府谈判,以建立一个与国际原子能机构相当的国际(人工智能)机构。由于人工智能的发展及伴随的风险,关系到整个人类的安全问题,而非仅仅美中双边问题。美中应该协商合作并在采纳其他国家意见的基础上,制定人工智能管控规格,使之成为一个国际秩序的指导原则。

虽然人工智能今天带来的挑战与核时代的挑战不可同日而语,但核军备控制给世界带来近80年没有大国战争的和平秩序经验依然值得借鉴。目前,只有两个人工智能超级大国:美国和中国是唯一拥有培养最复杂人工智能模型所需的人才、研究机构和大规模计算能力的国家。这就为世界提供了一个机会 – 像美苏当年防止核扩散、核毁灭那样,美中可以制定指导方针,防止人工智能最危险的进步和应用。美国总统乔·拜登和中国国家主席习近平应该抓住这个机会,在11月旧金山亚洲-太平洋经济合作组织会议后立即举行首脑会议,面对面讨论他们认为今天面临的最重要的问题。似乎美中也明白兹事体大,故已就两国领袖可能的11月面谈进行准备。以史为鉴,美苏能够成功地共同应对核威胁,美中也应该共同应对人工智能带来的挑战,并努力获得成功,即便两极分化日愈加剧。因为一遭不慎,人类可能坠入万丈深渊。

参考资料

Kissinger, H. A. & Allison, G. (2023). The Path to AI Arms Control. FOREIGN AFFAIRS. 链接 https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control

戳这里 Claim your page
来源: 文学城-国华P
相关阅读
“出生证明”上的一些真相八月二七 周日張國燾黄教授还有罗汉崽对丁玲一席话的深思一百 二大娘面对死亡,怕还是不怕?OpenAI 更新企业价值观:强调通用人工智能;阿里云、华为成立人工智能安全委员会;周杰伦演唱会 4 黄牛被抓 | 极客早知道玻璃缸里的孙凤 (28)笑谈邂逅(39)我给刘总当秘书英伟达再推「中国特供版」AI 芯片:人工智能竞争中的猫鼠游戏第十一章第二节 金融资本和货币政策「简报」Shapiro 州长访问卡耐基梅隆大学——人工智能的诞生地,签署关于生成式人工智能的行政命令;拓展:以新方式建模神经元婚礼致辞(特别的女儿)硬核观察 #1210 人工智能聊天机器人被用来越狱其它人工智能跑马以后开心的时光——snoopy, 下午茶, junk art九十九 闲话一个如常,又略不一样的周日Meta花500万美元购买一明星形象,只为打造人工智能助理;中国网络空间安全协会人工智能安全治理专业委员会成立丨AIGC日报罚单血泪史人工智能教程(二):人工智能的历史以及再探矩阵 | Linux 中国突破 | 欧盟《人工智能法案》: 欧盟理事会和欧洲议会达成协议!全球首个人工智能法律只差临门一脚!santa rosa 马拉松记录却顾所来径,苍苍横翠微破坏了我周日好心情的奇女子红色日记 1.17-31五绝 秋夜孟晚舟宣布全面智能化,任正非强调算力为王!华为吹响人工智能号角重磅!拜登签署人工智能领域人才留美新政策,利好留学生!人工智能行业将迎来大增长!大模型时代,如何评估人工智能与人类智能?日本核排污之我见
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。