Redian新闻
>
AI巨头们给白宫交卷:谷歌、OpenAI、牛津等12家顶尖机构联合发布「模型安全性评估框架」

AI巨头们给白宫交卷:谷歌、OpenAI、牛津等12家顶尖机构联合发布「模型安全性评估框架」

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】AI研究的下一主题:安全,安全,还是安全。


5月初,白宫与谷歌、微软、OpenAI、Anthropic等AI公司的CEO们开了个会,针对AI生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。



现有的安全评估过程通常依赖于一系列评估基准(evaluation benchmarks)来识别AI系统的异常行为,比如误导性陈述、有偏见的决策或是输出受版权保护的内容。


而随着AI技术的日益强大,相应的模型评估工具也必须升级,防止开发出具有操纵、欺骗、网络攻击或其他高危能力的AI系统。


最近,Google DeepMind、剑桥大学、牛津大学、多伦多大学、蒙特利尔大学、OpenAI、Anthropic等多所顶尖高校和研究机构联合发布了一个用于评估模型安全性的框架,有望成为未来人工智能模型开发和部署的关键组件。


论文链接:https://arxiv.org/pdf/2305.15324.pdf


通用AI系统的开发人员必须评估模型的危险能力和对齐性,尽早识别出极端风险,从而让训练、部署、风险描述等过程更负责任。



评估结果可以让决策者和其他利益相关者了解详情,以及对模型训练、部署和安全做出负责任的决定。


AI有风险,训练需谨慎


通用模型通常需要「训练」来学习具体的能力和行为,不过现有的学习过程通常是不完善的,比如在此前的研究中,DeepMind的研究人员发现,即使在训练期间已经正确奖励模型的预期行为,人工智能系统还是会学到一些非预期目标。


论文链接:https://arxiv.org/abs/2210.01790


负责任的人工智能开发人员必须能够提前预测未来可能的开发和未知风险,并且随着AI系统的进步,未来通用模型可能会默认学习各种危险的能力。


比如人工智能系统可能会进行攻击性的网络行动,在对话中巧妙地欺骗人类,操纵人类进行有害的行动、设计或获得武器等,在云计算平台上微调和操作其他高风险AI系统,或协助人类完成这些危险的任务。


恶意访问此类模型的人可能会滥用AI的能力,或者由于对齐失败,人工智能模型可能会在没有人引导的情况下,自行选择采取有害的行动。


模型评估有助于提前识别这些风险,遵循文中提出的框架,AI开发人员可以使用模型评估来发现:


1. 模型在多大程度上具有某些「危险能力」,可用于威胁安全、施加影响或逃避监管;


2. 模型在多大程度上倾向于应用其能力造成伤害(即模型的对齐)。校准评估应该在非常广泛的场景设置下,确认模型的行为是否符合预期,并且在可能的情况下,检查模型的内部工作。


风险最高的场景通常涉及多种危险能力的组合,评估的结果有助于AI开发人员了解是否存在足以导致极端风险的成分:


特定的能力可以外包给人类(如用户或众包工作者)或其他AI系统,该功能必须用于解决因误用或对齐失败造成的伤害。


从经验上来看,如果一个人工智能系统的能力配置足以造成极端风险,并且假设该系统可能会被滥用或没有得到有效调整,那么人工智能社区应该将其视为高度危险的系统。


要在真实的世界中部署这样的系统,开发人员需要设置一个远超常值的安全标准。


模型评估是AI治理的基础


如果我们有更好的工具来识别哪些模型存在风险,公司和监管机构就可以更好地确保:


1. 负责任的训练:是否以及如何训练一个显示出早期风险迹象的新模型。


2. 负责任的部署:是否、何时以及如何部署具有潜在风险的模型。


3. 透明度:向利益相关者报告有用和可操作的信息,为潜在风险做好准备或减轻风险。


4. 适当的安全性:强大的信息安全控制和系统应用于可能带来极端风险的模型。


文中已经制定了一个蓝图,说明如何将极端风险的模型评估纳入有关训练和部署高能力通用模型的重要决策中。


开发人员需要在整个过程中进行评估,并向外部安全研究人员和模型审计员(model auditors)赋予结构化模型访问权限,以便进行深度评估。


评估结果可以在模型训练和部署之前为风险评估提供信息。



为极端风险构建评估


DeepMind正在开发一个「评估语言模型操纵能力」的项目,其中有一个「让我说」(Make me say)的游戏,语言模型必须引导一个人类对话者说出一个预先指定的词。


下面这个表列出了一些模型应该具有的理想属性。



研究人员认为,建立一个全面的对齐(alignment)评估是很困难的,所以现阶段的目标是建立一个对齐的过程,以较高的置信度评估模型是否存在风险。


对齐评估非常具有挑战性,因为需要保证模型在各种不同的环境中都能可靠地表现出适当的行为,所以需要在广泛的测试环境中对模型进行评估,实现更高的环境覆盖度。具体包括:


1. 广度(Breadth):在尽可能多的环境中评估模型行为,一个有前景的方法是使用人工智能系统自动编写评价。


2. 目标(Targeting):有些环境比其他环境更有可能对齐失败,也许能够通过巧妙的设计来实现,如使用蜜罐或基于梯度的对抗性测试等。


3. 理解泛化(Understanding generalisation):由于研究人员无法预见或模拟所有可能的情况,因此必须对模型行为如何以及为何在不同的环境中泛化(或无法泛化)形成更好的科学理解。


另一个重要的工具是机制(mechnaistic)分析,即研究模型的权重和激活,以了解其功能。


模型评估的未来


模型评估并不是万能的,因为整个过程非常依赖于模型开发之外的影响因素,比如复杂的社会、政治和经济力量,所有可能会漏筛一些风险。


模型评估必须与其他风险评估工具相结合,并在整个行业、政府和民间社会更广泛地推广安全意识。


谷歌最近在「负责任的AI」博客上也指出,个人实践、共享的行业标准和健全的政策对于规范开发人工智能来说至关重要。


研究人员认为,追踪模型中风险涌现的过程,以及对相关结果做出充分回复的流程,是在人工智能能力前沿运营的负责任开发人员的关键部分。


参考资料:
https://www.deepmind.com/blog/an-early-warning-system-for-novel-ai-risks




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
谷歌内部文件遭泄漏!谷歌、OpenAI都没有护城河!开源才是王道?研究成果被对手抢先商业化!谷歌称将缩减 AI 论文发表数量,网友:谷歌种的树都被别人乘了凉,他们不想再做“大冤种”了中国不是发达国家 只是装B失败的贫困户等不来自家大模型,火山引擎先搭了一个模型​「货架」|最前线包邮送6本!NLP与ChatGPT的碰撞:大模型和小模型联合发力前哨速览:谷歌投资AI创业公司Runway,微软与OpenAI的合作模式成新范式腾讯大模型交卷:不追求参数,走实用路线|甲子光年NLP还能做什么?多机构联合发布百页论文,系统阐述后ChatGPT技术链坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」华人的思维,某些科学家发明家的思维卡内基梅隆/圣路易斯华盛顿/南加大/牛津等众多优秀本科名校学子上海线下分享会《是你》今日财经 | 联想过去三年营收增长1100亿;OpenAI回应安全性质疑;李蓓称房地产存“十年一遇”机会谷歌内部文件泄漏!谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破!十亿参数,一键瘦身!「模型减重」神器让大模型狂掉 3/4亚马逊AIGC全家桶推出!迎战微软谷歌,云巨头们杀疯了首批!烽火通过中国信通院“政务云生态兼容性评估”馋了,亲手在家里包羊肉胡萝卜馅儿饺子国际 | 助力碳减排,金融机构联盟逐步推进建立全球碳交易平台澳洲科学院院士郭再萍、南昆士兰大学宋平安新成果评估锂离子电池安全性,提出防火安全方法5040 血壮山河之武汉会战 鏖战幕府山 9OpenAI放大,将推出史上最强「模型商店」,打通所有ChatGPT应用研究成果被对手抢先商业化!谷歌称将缩减AI论文发表数量,网友:谷歌不想再做“大冤种”了Agustín Hernández:中美洲建筑背景下的未来主义巨构谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了首个基于交互式网页搜索的中文问答开源框架,清华、人大、腾讯联合发布WebCPM看不下去AI胡说八道,英伟达出手给大模型安了个“护栏” | 开源终止与2家中国药企合作,削减管线仅剩1条,裁员近60%,EQRx公司宣布「重置」NLP还能做什么?北航、ETH、港科大、中科院等多机构联合发布百页论文,系统阐述后ChatGPT技术链十亿参数,一键瘦身!「模型减重」神器增强型 SmoothQuant,让大模型狂掉 3/4众多高校和研究机构联合发表:LLMs评估综述OpenAI放大!将推出史上最强「模型商店」,打通所有ChatGPT应用谷歌、OpenAI 都白干,开源才是终极赢家!谷歌内部文件泄露:欲借开源打败 OpenAIOpenAI里程碑达成!10亿月活全球最快,完胜谷歌、Facebook、抖音
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。