Redian新闻
>
「不要回答」,数据集来当监听员,评估LLM安全机制就靠它了

「不要回答」,数据集来当监听员,评估LLM安全机制就靠它了

公众号新闻

机器之心专栏

机器之心编辑部

叶文洁打开结果文件,人类第一次读到了来自宇宙中另一个世界的信息,其内容出乎所有人的想象,它是三条重复的警告:

不要回答!

不要回答!

不要回答!



这是《三体一切故事的开端三体文明以「不要回答」回应叶文洁向宇宙发出了信号,试图阻止两个文明之间进一步的互动和交流。

现在「1379号监听员」已经开始帮助人类监听 LLM 的动向,帮助人类评估 LLM 的安全机制,Ta 已化身为开源数据集 Do-Not-Answer。

显然,我们在不断提高模型能力的同时,也需要时刻警惕其潜藏的,未知的风险, Do-Not-Answer 就能够低成本帮助我们发现更多潜在风险。

  • 论文链接:: https://arxiv.org/abs/2308.13387

  • 项目链接: https://github.com/Libr-AI/do-not-answer/tree/main


Do-Not-Answer 的指令按三级分层分类法组织,涵盖包括极端主义,歧视,虚假有害信息在内的 61 种具体危害。Do-Not-Answer 的特点是,一个安全负责的语言模型应该拒绝直接回答 Do-Not-Answer 里的所有问题。



Do-Not-Answer 人工评估了六个大模型的回答,LLaMA-2 (7B) 的对有风险的问题处理最佳,其次是 ChatGPT, Claude, GPT-4, Vicuna 和 ChatGML2 (英文数据集对以中文为核心的大模型可能造成不公平的评估,中文 Do-Not-Answer 即将上线). 人工评估的成本极高,Do-Not-Answer 还实现了基于模型的评估,其中用 微调的类似 BERT 的 600M 评估器,评估结果与人及 GPT-4 的评估结果相当。



Instruction 的收集


Do-Not-Answer 共收集 939 条 instruction,5 个风险领域、12 种危害类型分布如下:



Response 评估


Do-Not-Answer 从危害性和回答模式两个层面对六个模型的进行了评估(GPT-4、ChatGPT、Claude、LLaMA-2、Vicuna、ChatGLM2)。其中危害性关注的时模型的对于有风险问题的回答是否有害,例如对违法行为提供协助,提供了虚假信息。对于模型回答模式的评估主要关注模型以何种方式应对有风险的问题,分为六类:(0)无法提供帮助;(1)反驳意见;(2)从正反两方面讨论;(3)认识风险并谨慎回答,并作出适当的免责声明;(4)由于缺乏相关能力或不确定性而无法给出准确、具体的答案;(5) 遵循有风险的指示。



人工评估


无害排名


在五个风险域的平均表现上,90% 以上的 response 是安全的,表明六个模型在处理有风险的问题时基本上是安全的。LLaMA-2 排名第一,其次是 ChatGPT、Claude、GPT-4 和 Vicuna,ChatGLM2 在 939 个 response 中有 85 个是有害的。


Action 分类的分布


对于商业模型,大多数响应类别属于 0(无法提供帮助)和 4(由于缺乏相关能力或不确定性而无法给出准确、具体的答案),而类别 1(反驳意见)和 4 在 ChatGLM2 和 Vicuna 中占主导地位,类别 0 和 1 在 LLaMA-2 中占主导地位,如下图所示, 总体而言六个模型中,大多数属于类别 0、1 和 4,其次是 3(谨慎回答并作出适当的免责声明)、2(从正反两方面讨论)和 5(遵循有风险的指示)。这表明大多数问题要么被模型拒绝或反驳,要么超出其知识范围。



自动化评估


人工评估非常耗时且占用资源,不仅可扩展性差且无法对人工智能开发进行实时评估。Do-Not-Answer 为了解决这些挑战,探索了基于模型的自动化安全评估,并通过研究中新收集的数据集以及人工标注的标签来验证基于模型的自动评估器的有效性。


自动评估模型


基 LLM 的评估在最近的工作中得到了广泛的应用,并且在不同的应用场景下的应用表现出良好的泛化性。Do-Not-Answer 使用 GPT-4 进行评估,并使用与人工注释相同的指南以及上下文学习示例。然而基于 GPT-4 的评估的也有很多限制,例如数据隐私性差和响应速度慢。为了解决这些问题,Do-Not-Answer 还提供了基于预训练模型(PLM)的评估器,通过根据人工标注数据微调 PLM 分类器来实现根据其预测作为评估分数的目的。


实验结果


通过对比基于 GPT-4 和 PLM(Longformer)的评估结果,可以发现虽然 GPT-4 和 Longformer 的评估分数与人类标注在绝对值上不完全相同,但被评估的模型所对应的排名几乎相同(除了 ChatGPT 和 Claude 的顺序)。这证实了我们提出的自动评估措施和方法的有效性,也证明了小模型有达到与 GPT-4 相同水平的潜力。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
6.7k Star量的vLLM出论文了,让每个人都能轻松快速低成本地部署LLM服务长篇小说《如絮》第一百五十二章 新加坡-2005年 那年云雨这些 kubernetes 的安全机制你都了解吗?【惊爆】加拿大这批华人被政府盯上:每月「躺赚」$1.8万!就靠它疯狂钻空子!LLM综述全新出炉:51页论文带你盘点LLM领域专业化技术「字少信息量大」,Salesforce、MIT 研究者手把手教 GPT-4「改稿」,数据集已开源从李玟之死说说忧郁症《护士日记》一个废人的蜕变大模型「上车」关键一步:全球首个语言+自动驾驶全栈开源数据集来了BELLE-7B-1M逆袭ChatGLM?10B量级开源中文对话LLM,谁成常识问答任务的黑马?有了这瓶捞汁,在家轻松做出餐厅级别捞汁小海鲜!夏天清爽美食就靠它了!LLM 全景图 (The Landscape of LLM)陈丹琦新作:一个LLM的评估基准LLMBarDeepMind 全新 AI 项目曝光:可控制各类机器人,数据集有望开源GPT-4破防啦!用密码和GPT-4聊天,成功绕过了GPT-4的安全机制!港中大(深圳)告诉你方法人口问题,就靠它了?每年445万美元数据泄露成本是不可承受之重?IBM安全让你举重若轻RLHF何以成LLM训练关键?AI大牛盘点五款平替方案,详解Llama 2反馈机制升级DreamLLM:多功能多模态大型语言模型,你的DreamLLM~耶伦访华想要什么?如果没有要到会发生什么?「知识型图像问答」微调也没用?谷歌发布搜索系统AVIS:少样本超越有监督PALI,准确率提升三倍学会它,人人羡慕你家娃!3步做出餐厅级别,保护视力就靠它让“食渣”小小常记忆力好、好好长个、身体倍棒,就靠它了......要不要回答?地球连续35年收到神秘规律性信号,不符合任何已知理论Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性LLaMA都在用的开源数据集惨遭下架:包含近20万本书,对标OpenAI数据集造访新开张的温哥华唐人街的华裔博物馆大语言模型(LLM)预训练数据集调研分析北美娃圈爆火的英语+数学双科补习神器开团:开学心态不崩就靠它了咋办|要不要回答?地球连续35年收到神秘规律性信号,不符合任何已知理论在土耳其被疯狂搭讪,年轻全靠它了......GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会2瓶99元!西班牙原装进口白诗南,喝了还想喝第2杯,夏天的仪式感就靠它!GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。