首届全球人工智能峰会共识:《布莱切利宣言》 全文译注评
2023年11月1日~2日,首届人工智能安全全球峰会在英国英格兰米尔顿凯恩斯布莱切利镇布莱切利园(Bletchley Park)正式开幕。
来自各国的100多名政界和商界名人出席,包括美国副总统哈里斯、欧盟委员会主席冯德莱恩等政要出席。
英国首相苏纳克和美国副总统哈里斯
两位印度裔在唐宁街10号会面
在科技企业中,微软总裁布拉德·史密斯、OpenAI首席执行官山姆·奥特曼、谷歌DeepMind首席执行官德米斯·哈萨比斯、特斯拉首席执行官埃隆·马斯克、Arm的哈斯等出席峰会。
今年6月7日,英国首相苏纳克宣布英国将主办首届人工智能安全全球峰会以来,中国是否会参与该峰会便一直是各方关注的焦点。
中国科技部副部长吴朝晖率领由科技部、外交部、中国科学院、阿里巴巴、腾讯组成的代表团参会,并在开幕式全体会议上发言。
参会28国和欧盟签署《布莱切利宣言》,俄罗斯没有参会
布莱切利宣言
人工智能(AI)带来了巨大的全球机遇:它有潜力提升和促进人类福祉、和平与繁荣。为了实现这一点,我们确认,为了所有人的利益,人工智能应该以安全的方式设计、开发、部署和应用,以人为本,值得信赖和负责任。我们欢迎国际社会迄今为止在人工智能方面的合作,以促进包容性经济增长、可持续发展和创新,保护人权和基本自由,并培养公众对人工智能系统的信任和信心,从而充分发挥其潜力。
人工智能系统已经部署在日常生活的许多领域,包括住房、就业、交通、教育、卫生、可达性和司法,它们的使用范围可能还会增加。因此,我们认识到,这是一个特殊的时刻,需要采取行动,确保人工智能安全发展的必要性,以及人工智能的变革机会,以便在我们的国家和全球范围内以包容性的方式为所有人造福。这包括卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等公共服务,以实现充分享有人权,并努力实现联合国可持续发展的目标。
除了这些机会,人工智能还带来了重大风险,包括在日常生活领域。为此,我们欢迎相关的国际努力,在现有论坛和其他相关举措中审查和解决人工智能系统的潜在影响,并认识到需要解决对人权的保护、透明度和可解释性、公平性、问责制、监管、安全、适当的人为监督、道德、减轻偏见,隐私和数据保护等问题。我们还注意到,操纵内容或生成欺骗性内容的能力可能会带来不可预见的风险。所有这些问题都至关重要,我们确认解决这些问题的必要性和紧迫性。
特别的安全风险出现在人工智能的“前沿”领域,比如那些能力强大的通用人工智能模型,包括基础模型,可以执行各种各样的任务,以及可能表现出造成伤害的能力的相关特定狭义人工智能,这些能力在当今最先进模型中已实现甚至超越。潜在的故意滥用或与人类意图相违背的意外失控问题可能会产生重大风险。这些问题在一定程度上是因为这些能力没有得到充分理解,因此很难预测。我们特别关注网络安全和生物技术等领域的此类风险,以及前沿人工智能系统可能放大虚假信息等风险的领域。这些人工智能模型的最重要功能可能会造成严重甚至灾难性的伤害,无论是故意的还是无意的。鉴于人工智能的快速和不确定的变化速度,以及在技术投资加速的背景下,我们确认,加深我们对这些潜在风险的理解以及应对这些风险的行动尤为紧迫。
人工智能产生的许多风险本质上是国际性的,因此最好通过国际合作来解决。我们决心以包容性的方式共同努力,确保以人为本、值得信赖和负责任的人工智能是安全的,并通过现有的国际论坛和其他相关举措支持所有人的利益,以促进合作,应对人工智能带来的广泛风险,我们认识到,各国应考虑到有利于创新、适度的治理和监管方法的重要性,这种方法可以最大限度地提高效益,并考虑到与人工智能相关的风险。这可能包括在适当的情况下,根据国情和适用的法律框架对风险进行分门别类(注:即建立风险等级测试评估体系)。我们还注意到适时在共同原则和行为守则基础上进行合作的重要性。关于最有可能发现的与前沿人工智能有关的具体风险,我们决心通过现有的国际论坛和其他相关举措,包括未来的国际人工智能安全峰会,加强和维持我们的合作,并扩大与更多国家的合作,以确定、把握并酌情采取行动。
所有参与者都可以在确保人工智能的安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。注意到包容性人工智能和弥合数字鸿沟的重要性,我们重申,国际合作应努力让广泛的合作伙伴适时参与,欢迎发展为导向的方法和政策,以帮助发展中国家加强人工智能能力建设并利用人工智能的有利作用来支持可持续增长和解决发展差距问题。
我们确认,尽管必须在整个人工智能生命周期中考虑安全性,但开发前沿人工智能能力的行为者,特别是开发那些异常强大且具有潜在危害的人工智能系统,对确保这些人工智能系统的安全负有特别重大的责任,包括通过安全测试系统、评估系统和其他适当措施。我们鼓励所有相关行为者在其计划中提供适当的透明度和问责制,以衡量、监测和减轻潜在的有害能力和可能出现的相关影响,特别是防止滥用、失控以及其它风险问题。
注:开发前沿人工智能能力的参与者对确保这些人工智能系统的安全负有特别重大的责任。
在我们合作的背景下,为了为国家和国际层面的行动提供信息,我们应对前沿人工智能风险的议程将侧重于:
· 识别共同关注的人工智能安全风险,建立对这些风险的共同科学和循证把握,并在更广泛全球合作的背景下,把握人工智能对我们社会的影响,并随着人工智能能力的不断增强,保持这种把握。
· 根据这些风险,在我们各国制定各自的基于风险的政策,以确保安全,并适时合作,同时认识到我们的方法可能因国情和适用的法律框架而异。这包括,在开发前沿人工智能能力的私人行为者提高透明度的同时,相应提升评估方法、安全测试工具,以及开发相关的公共部门能力和科学研究。
注:宣言两次提到国情和适用的法律框架不同,能够达成共同宣言已经是不错的成果了。
为了推进这一议程,我们决心支持建立一个具有国际包容性的人工智能前沿安全科学研究网络,该网络包括现有并补充新的多边、诸边和双边合作,包括通过现有的国际论坛和其它相关举措,为政策制定和公共利益提供最佳科学方法。
认识到人工智能的变革性积极潜力,作为确保更广泛的人工智能国际合作的一部分,我们决心维持一场包容性的全球对话,让现有的国际论坛和其他相关举措参与进来,并以开放的方式为更广泛的国际讨论做出贡献,并继续研究前沿人工智能安全,以确保能够负责任地利用该技术的好处,造福所有人。我们期待着在2024年再次相会。
签字方:2023年11月1日~2日人工智能安全峰会出席国家:
澳大利亚
巴西
加拿大
智利
中国
欧盟
法国
德国
印度
印度尼西亚
爱尔兰
以色列
意大利
日本
肯尼亚
沙特阿拉伯王国
荷兰
尼日利亚
菲律宾
大韩民国
卢旺达
新加坡
西班牙
瑞士
土耳其
乌克兰
阿拉伯联合酋长国
大不列颠及北爱尔兰联合王国
美利坚合众国
点评:全球气候问题、AI安全问题是全人类共同面临的问题,本着对人类负责任的精神,达成基本共识,建立相应国际安全机制,是对人类的未来负责。相关阅读,前文:《算力发展简史》、《中美日欧激烈竞争的领域》
《Tortoise Global AI Index》第四次全球人工智能指数,美国排名全球第一,得分为100,中国第二得分为62,新加坡第三得分50。注意:这个指数并非反应国别的人工智能整体实力。从整体实力来看,美国遥遥领先,新加坡不可能排名第三。另外,由于众所周知的原因,美国限制人工智能高端芯片向中国出口,对中国人口智能研究有一定负面影响。
Talent:人才
Infrastructure:基础设施
Operating Environment: 操作环境
Research:研究
Development:发展
Government Strategy:政府策略
Scale:规模
commercial:商业化
Intensity:密度
——地球村公民占全喜译注评
2023年11月4日
来源:庐山真容 微信公众号
版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]。
微信扫码关注该文公众号作者