仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]
论文地址:https://arxiv.org/pdf/2405.07863 奖励模型 / 偏好模型建模: https://github.com/RLHFlow/RLHF-Reward-Modeling 迭代 RLHF: https://github.com/RLHFlow/Online-RLHF Huggingface RLFlow: https://huggingface.co/RLHFlow
离线偏好数据集收集:首先随机采样一个 prompt,并使用 SFT 模型以及更加强大的语言模型 (GPT-4, Claude, LLaMA2-Chat-70B) 收集两个回复,最后让人类 / GPT-4 标注其更喜欢的回复; 在离线数据集上使用 DPO/Slic/IPO 等损失函数进行有监督学习。
模型选择:首先依据历史数据对模型进行训练,从而得到两个模型; 数据收集:对每条 prompt, 用两个模型采样 2 条回复,并让外部偏好模型进行标注,总共收集 m 个偏好数据对加入历史数据集中。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章