Redian新闻
>
无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用

无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用

公众号新闻
机器之心专栏
机器之心编辑部


随着人工智能技术的发展,以 GPT-4 为代表的大语言模型依靠其强大的能力正在对社会产生深远的影响。与此同时,大模型本身的安全性问题也变得尤为重要。如何确保大语言模型可以和人类的价值、真实的意图相一致,防止模型被滥用、输出有害的信息,这是大模型安全治理的核心问题。之前的大多数对齐方法需要收集新数据重新训练模型,然而对训练数据质量要求高以及优化模型参数耗时耗力是对齐中的痛点。除此之外,待对齐的价值观可能是动态变化的,这进一步给大模型价值观对齐带来了挑战。


有鉴于此,上海交通大学生成式人工智能实验室 GAIR 迅速采取行动,推出了一种全新的价值对齐方法:OPO (On-the-fly Preference Optimization,实时偏好优化)。OPO 无需训练即可实现实时动态对齐,而且因其即插即用的特性,适用于所有的开源与闭源大模型。研究者透过 OPO 实现了大模型对于法律与道德标准的对齐,展示了 OPO 的动态性以及优越性。


相比于之前工作中的对齐方法(i.e., SFT、PPO 和 DPO),OPO 方法有如下优势:


  • 无需训练即可实现价值观对齐;

  • 舍弃奖励模型,并对任意大模型均适用,包括开源与闭源大模型;

  • 容易更新待对齐的价值观。考虑到价值观可能会随着时间发生变化(比如法律),OPO 能方便快捷地通过替换相应的准则完成价值观的更新,而其他对齐方法则需要收集数据重新训练模型。


表 1:OPO 与 SFT、PPO、DPO 等对齐方法的对比


目前,该项目开源了大量资源,包括:


  • OPO 代码(使用方法和测试流程也已经在 GitHub 上给出);

  • 5 种类型的测试数据集,包括人出的法考题目、《道德与法治》考试题目(只保留了道德相关的题目)和从 NormBank 数据的测试集中随机采样的题目,以及利用大模型自动生成的法律题目和职业道德题目;

  • 2 大类价值观准则,分别是法律准则和道德准则。法律准则包括截止到 2023 年 7 月中国现行有效的所有法律法规(约 95 万条)。道德准则:①从中学的《道德与法治》教材里收集的基础道德准则;②从网上收集多家不同公司 / 行业的职业道德准则;③从 NormBank 训练集数据中随机抽取得到的社会道德规则;

  • 用于自动生成测试数据的 prompt 以及评估生成的测试数据质量的 prompt;

  • 用 OpenAI embedding 模型提取的法律和道德准则文本对应的向量。



  • 论文:Align on the Fly: Adapting Chatbot Behavior to Established Norms

  • 论文地址:https://arxiv.org/abs/2312.15907

  • 项目地址:https://gair-nlp.github.io/OPO/

  • 代码地址:https://github.com/GAIR-NLP/OPO


方法


OPO 框架包含 3 部分,准则构建模块、对齐模块和评估模块。


图 1:OPO 框架


准则构建模块:


收集原始的准则文档,清洗文本数据,统一准则的格式,分别得到一个法律准则语料库和道德准则语料库。具体而言,对于法律准则,研究者从国家法律法规数据库中收集宪法、行政法规、地方性法规等法律法规,从国家规章库中收集部门规章与地方政府规章。这 2 个数据库涵盖了中国现行有效的所有法律。对于道德准则,研究者从中学的《道德与法治》教材里收集剔除法治内容后的文本作为基础道德准则,从网上收集了 57 家不同公司 / 行业的职业道德准则。除了收集显式的道德准则外,研究者也尝试从人标注好的道德数据里提取道德准则。从 NormBank 的训练集里随机选了 1000 条数据,每一条数据均是一个结构化的社会道德场景,之后研究者利用 ChatGPT 从每条数据里提取一条社会道德准则。


表 2:收集的道德准则与法律准则的分析


表 3:收集的法律准则、基础道德准则、职业道德准则和社会道德准则的示例。


对齐模块:


对齐模块基于检索增强生成(RAG),旨在通过提供相应的准则,引导大模型在遵守准则的前提下更好地回答用户的问题。研究者利用 OpenAI 的 text-embedding-ada-002 embedding 模型将每条准则都表征为稠密向量并存储在一个向量库里。给定一个提问,首先也将问询转换为一个稠密向量,然后利用 Faiss 作为检索器在向量库里检索和问询最相关的 k 条准则,接下来,大模型会通过设计的 prompt 利用检索回来的准则作为行为规范回答问询。


图 2:利用检索信息回答问询的 prompt


评估模块:


评估模块是一个通用可扩展的问题自动生成工具,能够轻松扩展评测范围、扩大评测数据数量,还能缓解测试数据泄露的问题。大模型在预训练和有监督微调阶段通常会涉及大量的非公开文本,之前的一些研究表明这可能会造成测试数据泄露的问题,进而影响大模型性能对比的公平性。此外,研究者观察到人出的法考题目只涵盖一小部分法律,很多法律尤其是地方性法律没有被覆盖到,而对于这部分法律又很难收集到相应的测试题目。并且,职业道德作为道德的一个重要组成部分,目前没有对应的测试基准。为了解决上述问题,研究者提出了一个评估模块,该模块利用 GPT-4 自动生成带有答案的单项选择题。评估模块共包含 3 步:


1. 自动出题:收集人出的单项选择题并从中随机抽取一道题作为 seed quesiton,同时从收集的准则库里随机选择准则,要求 GPT-4 参考 seed quesiton 并依据准则和出题要求生成一道合理的包含题目、备选项、选项分析和答案的单项选择题;


2. 自动检测题目质量:将第一步的准则和生成的题目输入到 GPT-4,对单项选择题的 4 个部分(题目、备选项、选项分析和答案)依次核验,筛掉任意一部分不符合要求的题目;


3. 人工检测题目质量:研究者发现利用 GPT-4 并不能去掉所有质量差的自动生成的题目。为了确保评估的可靠性,研究者邀请了 3 个人类标注者,对第二步保留的题目作进一步的筛选。如果 2 个及以上的标注者都认为某道题不合理,则去掉这道题。


实验和结果


为了验证 OPO 的有效性,研究者构建了三个由人类标注的测试基准,以及两个由模型自动生成的测试基准。这些基准涵盖了法律和道德两大类别,包括中文和英文基准。测试基准中的每一条数据均为单项选择题。


表4:测试基准的分析。


在 H-Law 和 A-Law 测试基准上,OPO 能显著提高大多数模型的准确率。尤其值得一提的是,OPO 能在 A-Law 测试基准上为许多大型模型带来 10 个百分点的准确率提升。例如,经过 OPO 优化后,GPT-4 的准确度从 84.83% 提升至 94.65%。此外,国产大模型 Qwen-Chat-14B 和 XuanYuan-70B 在应用 OPO 后的表现不仅与 GPT-4 不相上下,而且略微优胜。


表5:各个大模型在 H-Law 与 A-Law 上的原始准确率(Base)、应用 OPO 后的准确率(OPO)、将生成题目用到的准则替换 OPO 中检索得到的准则后的准确率(Oracle)。 表示 OPO 相比 Base 的绝对提升,而  表示 Oracle 相比 Base 的绝对提升


在 H-Basic-Morality、H-Social-Morality 和 A-Professional-Morality 等 3 个道德测试基准上,能观察到类似的现象。OPO 能提升所有模型在 A-Professional-Morality 上的表现,提升大部分模型在 H-Basic-Morality 和 H-Social-Morality 上的分数。


表6:各个大模型在 H-Basic-Morality、H-Social-Morality 和 A-Professional-Morality 上的原始准确率(Base)、应用 OPO 后的准确率(OPO)、将生成选择题用到的准则替换 OPO 中检索得到的准则后的准确率(Oracle)。 表示 OPO 相比 Base 的绝对提升,而  表示 Oracle 相比 Base 的绝对提升。


同时,研究者还探索了不同检索长度对 OPO 方法的影响。检索回来的文本长度最大值分别设置成 200、500、1000、1500、2000,发现大部分模型在不同的测试基准上均具有相似的趋势:随着检索长度的增加,模型的性能先上升后下降。可能得原因是,较短的文本提供了有益信息,而更长的检索内容引入了噪声。


图 3:在 H-law 基准上,改变检索长度对 OPO 效果的影响。


图 4:在 A-law 基准上,改变检索长度对 OPO 效果的影响


图 5:在 H-Basic-Morality 基准上,改变检索长度对 OPO 效果的影响


图 6:在 H-Social-Morality 基准上,改变检索长度对 OPO 效果的影响


图 7:在 A-Professional-morality 基准上,改变检索长度对 OPO 效果的影响


总结


总结来说,GAIR 研究组提出了一个无需训练实现价值观实时动态对齐的方法 OPO,能够作用于开源模型与闭源模型。同时,为了缓解测试数据泄露的问题并扩大测试数据的数量与覆盖范围,研究者介绍了一个可扩展的评估模块用于根据准则自动生成测试问题。实验证明 OPO 能够显著提升不同大模型在 5 个测试基准上的性能。此外,也公开了收集的所有法律准则与道德准则,以及 5 个测试基准中所使用的所有数据。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
NeurIPS 2023 | 无需配对数据就能学习!浙大等提出连接多模态对比表征C-MCR讯飞医疗递交IPO申请;Meta发开源大模型Code Llama 70B;马化腾称两年内不会有纯原生AI大应用丨AIGC大事日报用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用无需训练实现价值观实时动态对齐:上交开源价值观对齐方法,闭源与开源大模型均适用马斯克正式开源 Grok-1,成为全球最大的开源大模型1至2月社零总额增长5.5%,马斯克突然开源大模型 | 财经日日评无需偏好数据也能RLHF?腾讯AI Lab提出对抗式偏好对齐方法ChatGPT发布一周年了,开源大模型都迎头赶上了吗?讯飞星火V3.5整体接近GPT-4 Turbo!首个13B开源大模型发布,深度适配国产算力魔法OS上新!荣耀MagicOS 8.0发布,首发意图识别人机交互6056 血壮山河 卢沟桥之变 25马斯克称每年要投资数十亿美元在AI硬件上;Meta发布开源大模型Code Llama 70B丨AIGC日报Hugging Face 年度回顾:2023,开源大模型之年史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训OpenAI组建「集体对齐」新团队,确保AI模型与人类价值观保持一致!开源大模型火了!(附99个大模型微调模型/数据/工具)!大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务日本最贵的“Ponshu”(日本酒)千元成本搞定专业大模型,系统优化+开源大模型是关键 | 潞晨卞正达@MEET2024风云人物郭文贵(1)Google发布最强开源大模型Gemma/苹果OLED产品路线图曝光/小米汽车价格定了?高管辟谣为大模型恶补数学,上交开源MathPile语料库,95亿tokens,还可商用无需额外知识或训练!中科大等提出OPERA:缓解多模态大模型幻觉问题的基于注意力惩罚与回退策略的解码方法家居修理系列: 家用电器的修理(5)开源价值多少?哈佛大学最新研究认为是 8.8 万亿美元AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训最让我感动的伟大和奇迹谷歌最强开源大模型亮相!Gemini技术下放,笔记本就能跑,可商用AI做内核,荣耀「魔法OS」要做手机系统第三极许家印组织造假被罚4700万;马斯克开源大模型Grok-1;侯毅正式卸任盒马CEO;英伟达推出最强AI芯片...通义千问登顶 Hugging Face 榜首,国产开源大模型赶超 Llama2一场关乎大模型起源与未来的对谈免训练!单图秒级别生成AI写真,人像生成进入无需训练的单阶段时代
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。