Redian新闻
>
Hinton、Bengio等联合中国专家达成AI安全共识:AI系统不应违反红线

Hinton、Bengio等联合中国专家达成AI安全共识:AI系统不应违反红线

公众号新闻
机器之心报道

机器之心编辑部

为了应对 AI 发展带来的挑战,国内外研究者展开合作以避免其可能带来的灾难的发生。


现阶段,人工智能的发展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。

我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对 AI 带来的挑战。

现在,AI 领域又一封重磅公开信出现了。上周在颐和园召开的「北京AI国际安全对话」,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主Yoshua Bengio和智源学术顾问委员会主任张宏江担任共同主席,Geoffrey Hinton、Stuart Russell 、姚期智等三十余位中外技术专家、企业负责人开展了一次关于 AI Safety 的闭门讨论。这次会议达成了一项 Bengio、Hinton 与国内专家共同签名的《北京 AI 安全国际共识》。


目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构):

  • Yoshua Bengio 
  • Geoffrey Hinton 
  • Stuart Russell 
  • Robert Trager 
  • Toby Ord 
  • Dawn Song
  • Gillian Hadfield 
  • Jade Leung 
  • Max Tegmark 
  • Lam Kwok Yan 
  • Davidad Dalrymple 
  • Dylan Hadfield-Menell 
  • 姚期智 
  • 傅莹 
  • 张宏江 
  • 张亚勤
  • 薛澜 
  • 黄铁军 
  • 王仲远 
  • 杨耀东 
  • 曾毅 
  • 李航
  • 张鹏
  • 田溯宁
  • 田天


以下为达成的共识内容:

一、人工智能风险红线 

人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。

在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中, 面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。 

自主复制或改进 

任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。

权力寻求 

任何人工智能系统都不能采取不当地增加其权力和影响力的行动。 

协助不良行为者 

所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。 

欺骗 

任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。 

二、路线 

确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。 

治理 

我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。 

国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。 

我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。 

测量与评估 

在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。 

开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。 

技术合作 

国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。 

三、总结 

避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。 



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Seagen、BMS和默沙东狙击的新兴赛道,诺奖得主入局好消息!加拿大三只土拨鼠达成共识,齐预测:今年春天提早来临《泛血管疾病代谢异常管理中国专家共识》盛大发布,开启疾病管理新时代 | 2024 CCIF&CCPCC热搜爆炸!英国KPMG、BDO等多家公司撕Offer,留学生们被虐哭了…Glen、Box Hill等多个华人区上榜!维州政府重磅公布,将大力建设这些区域Hinton、LeCun、Bengio、清华马维英等人当选2023 ACM Fellow!首次将“LDL-C”与“非LDL-C”同时作为首要靶点!《糖尿病患者血脂管理中国专家共识(2024版)》重磅发布!独立站如何摆脱系统不稳定的“漏洞”?这家企业做到了!精选SDE岗位丨Amazon、Apple、Boeing等公司持续热招!精选Quant岗位丨BNY Mellon、Beacon Platform、Barclays等多个公司开放岗位!循证引领,防治结合——《通心络防治冠心病临床应用中国专家共识》推动中医药创新发展与临床应用童年故事(35):小镇钟表匠Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线Hinton、LeCun、Bengio三巨头,马维英、陈海波等华人入选,2023 ACM Fellow公布老年心房颤动诊治中国专家共识(2024)发布,13条专家建议一文掌握!中科院,CMU,Meta等联合出品:去除LLM先验对多模态大模型的负面影响写小说,还是回忆录?精选DS岗位丨Groupon、Johnson & Johnson、Apple等公司开放岗位!“我们中出现了叛徒”:神经系统不只是癌症的受害者,还有带路党负笈不敌温柔乡(1)hé bàng?hé bèng?Visa/Mastercard和美国商家达成限制手续费等若干或许影响深远的协议浓人,nèng死淡人三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法美国专家:华人这种托运行李的方式特别安全!一定要学起来!李想发全员信自我批评,小米等联合制定单层HDR图像标准,微软等巨头对抗苹果,Epic将登陆iOS和安卓,这就是今天的其他大新闻!WWW 2024 | 港理工等联合提出线性时间图神经网络,适用于大规模推荐系统精选DS岗位 | Houzz、Bose Corporation、GSK等公司持续热招!CMVD新分类和诊断标准来袭!中国专家共识重点解读鸿发超市「2000 万美元」买下82街前Walmart超市!开设第4家Hông Phát分店!图灵巨头现身ICLR,顶会现场疯狂追星LeCun、Bengio!中国团队三大技术趋势引爆AGI新想象每日原则:知道适时终结辩论,就该做什么达成共识英文作者会描述一个景物叙事的双重比喻专家称高铁涨价是必要的,花钱可解锁特斯拉续航,索尼绑定PSN惹众怒,谷歌新验证系统不支持火狐,这就是今天的其他大新闻!不明白播客:大选前夜体验台湾民主的细节
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。