Redian新闻
>
第四范式开源强化学习研究通用框架,支持单智能体、多智能体训练,还可训练自然语言任务!训练速度提升17%

第四范式开源强化学习研究通用框架,支持单智能体、多智能体训练,还可训练自然语言任务!训练速度提升17%

公众号新闻

OpenRL 是由第四范式强化学习团队开发的基于PyTorch的强化学习研究框架,支持单智能体、多智能体、自然语言等多种任务的训练。OpenRL基于PyTorch进行开发,目标是为强化学习研究社区提供一个简单易用、灵活高效、可持续扩展的平台。目前,OpenRL支持的特性包括:

               

 简单易用且支持单智能体、多智能体训练的通用接口

               

 支持自然语言任务(如对话任务)的强化学习训练

               

 支持从 Hugging Face 上导入模型和数据

               

 支持LSTM,GRU,Transformer等模型

               

 支持多种训练加速,例如:自动混合精度训练,半精度策略网络收集数据等

               

 支持用户自定义训练模型、奖励模型、训练数据以及环境

               

 支持 gymnasium 环境

               

 支持字典观测空间

               

 支持 wandbtensorboardX 等主流训练可视化工具

               

 支持环境的串行和并行训练,同时保证两种模式下的训练效果一致

               

 中英文文档

               

 提供单元测试和代码覆盖测试

               

 符合Black Code Style和类型检查

目前,OpenRL已经在GitHub开源:https://github.com/OpenRL-Lab/openrl



OpenRL初体验

OpenRL目前可以通过 pip 进行安装:

pip install openrl

也可以通过conda安装

conda install -c openrl openrl

OpenRL为强化学习入门用户提供了简单易用的接口, 下面是一个使用PPO算法训练CartPole环境的例子:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
env =make("CartPole-v1", env_num=9)# 创建环境,并设置环境并行数为9
net =Net(env)# 创建神经网络
agent =Agent(net)# 初始化智能体
agent.train(total_time_steps=20000)# 开始训练,并设置环境运行总步数为20000

使用OpenRL训练智能体只需要简单的四步:创建环境 => 初始化模型 => 初始化智能体 => 开始训练

在普通笔记本电脑上执行以上代码,只需要几秒钟,便可以完成该智能体的训练:

此外,对于多智能体、自然语言等任务的训练,OpenRL也提供了同样简单易用的接口。例如,对于多智能体任务中的MPE环境,OpenRL也只需要调用几行代码便可以完成训练:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
deftrain():
# 创建 MPE 环境,使用异步环境,即每个智能体独立运行
env = make(
"simple_spread",
env_num=100,
asynchronous=True,
)
# 创建 神经网络,使用GPU进行训练
net = Net(env, device="cuda")
agent = Agent(net)# 初始化训练器
# 开始训练
agent.train(total_time_steps=5000000)
# 保存训练完成的智能体
agent.save("./ppo_agent/")
if __name__ =="__main__":
train()

下图展示了通过OpenRL训练前后智能体的表现:



加载配置文件

此外,OpenRL还同时支持从命令行和配置文件对训练参数进行修改。比如,用户可以通过执行python train_ppo.py --lr 5e-4来快速修改训练时候的学习率。

当配置参数非常多的时候,OpenRL还支持用户编写自己的配置文件来修改训练参数。例如,用户可以自行创建以下配置文件(mpe_ppo.yaml),并修改其中的参数:

# mpe_ppo.yaml
seed:0# 设置seed,保证每次实验结果一致
lr:7e-4# 设置学习率
episode_length:25# 设置每个episode的长度
use_recurrent_policy:true# 设置是否使用RNN
use_joint_action_loss:true# 设置是否使用JRPO算法
use_valuenorm:true# 设置是否使用value normalization

最后,用户只需要在执行程序的时候指定该配置文件即可:

python train_ppo.py --config mpe_ppo.yaml


训练与测试可视化

此外,通过OpenRL,用户还可以方便地使用 wandb 来可视化训练过程:

OpenRL还提供了各种环境可视化的接口,方便用户对并行环境进行可视化。用户可以在创建并行环境的时候设置环境的渲染模式为"group_human",便可以同时对多个并行环境进行可视化:


env = make("simple_spread", env_num=9, render_mode="group_human")
此外,用户还可以通过引入 GIFWrapper来把环境运行过程保存为gif动画:


from openrl.envs.wrappers import GIFWrapper
env = GIFWrapper(env, "test_simple_spread.gif")

智能体的保存和加载

OpenRL提供 agent.save()agent.load() 接口来保存和加载训练好的智能体,并通过agent.act() 接口来获取测试时的智能体动作:

# test_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.envs.wrappers import GIFWrapper # 用于生成gif
def test():
# 创建 MPE 环境
env = make( "simple_spread", env_num=4)
# 使用GIFWrapper,用于生成gif
env = GIFWrapper(env, "test_simple_spread.gif")
agent = Agent(Net(env)) # 创建 智能体
# 保存智能体
agent.save("./ppo_agent/")
# 加载智能体
agent.load('./ppo_agent/')
# 开始测试
obs, _ = env.reset()
while True:
# 智能体根据 observation 预测下一个动作
action, _ = agent.act(obs)
obs, r, done, info = env.step(action)
if done.any():
break
env.close()
if __name__ == "__main__":
test()

执行该测试代码,便可以在同级目录下找到保存好的环境运行动画文件(test_simple_spread.gif):



训练自然语言对话任务

最近的研究表明,强化学习也可以用于训练语言模型, 并且能显著提升模型的性能。目前,OpenRL已经支持自然语言对话任务的强化学习训练。OpenRL通过模块化设计,支持用户 加载自己的数据集 自定义训练模型自定义奖励模型,自定义wandb信息输出 以及 一键开启混合精度训练 等。
对于对话任务训练,OpenRL提供了同样简单易用的训练接口:
# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
deftrain():
# 添加读取配置文件的代码
cfg_parser = create_config_parser()
cfg = cfg_parser.parse_args()
# 创建 NLP 环境
env = make("daily_dialog",env_num=2,asynchronous=True,cfg=cfg,)
net = Net(env, cfg=cfg, device="cuda")
agent = Agent(net)
agent.train(total_time_steps=5000000)
if __name__ =="__main__":
train()

可以看出,OpenRL训练对话任务和其他强化学习任务一样,都是通过创建交互环境的方式进行训练。


加载自定义数据集

训练对话任务,需要对话数据集。这里我们可以使用Hugging Face上的公开数据集(用户可以替换成自己的数据集)。加载数据集,只需要在配置文件中传入数据集的名称或者路径即可:

# nlp_ppo.yaml
data_path: daily_dialog # 数据集路径
env: # 环境所用到的参数
args: {'tokenizer_path': 'gpt2'} # 读取tokenizer的路径
seed: 0 # 设置seed,保证每次实验结果一致
lr: 1e-6 # 设置policy模型的学习率
critic_lr: 1e-6 # 设置critic模型的学习率
episode_length: 20 # 设置每个episode的长度
use_recurrent_policy: true

上述配置文件中的data_path 可以设置为Hugging Face数据集名称 或者 本地数据集路径。此外,环境参数中的 tokenizer_path 用于指定加载文字编码器的 Hugging Face名称 或者 本地路径。


自定义训练模型

在OpenRL中,我们可以使用Hugging Face上的模型来进行训练。为了加载Hugging Face上的模型,我们首先需要在配置文件nlp_ppo.yaml中添加以下内容:

# nlp_ppo.yaml
# 预训练模型路径
model_path: rajkumarrrk/gpt2-fine-tuned-on-daily-dialog
use_share_model: true # 策略网络和价值网络是否共享模型
ppo_epoch:5# ppo训练迭代次数

data_path: daily_dialog # 数据集名称或者路径
env:# 环境所用到的参数
args:{'tokenizer_path':'gpt2'}# 读取tokenizer的路径
lr:1e-6# 设置policy模型的学习率
critic_lr:1e-6# 设置critic模型的学习率
episode_length:128# 设置每个episode的长度
num_mini_batch:20

然后在train_ppo.py中添加以下代码:

# train_ppo.py
from openrl.envs.common import make
from openrl.modules.common import PPONet as Net
from openrl.runners.common import PPOAgent as Agent
from openrl.configs.config import create_config_parser
from openrl.modules.networks.policy_value_network_gpt import(
PolicyValueNetworkGPT as PolicyValueNetwork,
)
deftrain():
# 添加读取配置文件的代码
cfg_parser = create_config_parser()
cfg = cfg_parser.parse_args()
# 创建 NLP 环境
env = make("daily_dialog",env_num=2,asynchronous=True,cfg=cfg,)
# 创建自定义神经网络
model_dict ={"model": PolicyValueNetwork}
net = Net(env, cfg=cfg, model_dict=model_dict)
# 创建训练智能体
agent = Agent(net)
agent.train(total_time_steps=5000000)
if __name__ =="__main__":
train()

通过以上简单几行的修改,用户便可以使用Hugging Face上的预训练模型进行训练。如果用户希望分别自定义策略网络和价值网络,可以写好 CustomPolicyNetwork 以及 CustomValueNetwork后通过以下方式从外部传入训练网络:

model_dict ={
"policy": CustomPolicyNetwork,
"critic": CustomValueNetwork,
}
net = Net(env, model_dict=model_dict)


自定义奖励模型

通常,自然语言任务的数据集中并不包含奖励信息。因此,如果需要使用强化学习来训练自然语言任务,就需要使用额外的奖励模型来生成奖励。在该对话任务中,我们可以使用一个复合的奖励模型,它包含以下三个部分:       

 意图奖励:即当智能体生成的语句和期望的意图接近时,智能体便可以获得更高的奖励。               

 METEOR指标奖励:METEOR 是一个用于评估文本生成质量的指标,它可以用来衡量生成的语句和期望的语句的相似程度。我们把这个指标作为奖励反馈给智能体,以达到优化生成的语句的效果。          

 KL散度奖励:该奖励用来限制智能体生成的文本偏离预训练模型的程度,防止出现reward hacking的问题。

我们最终的奖励为以上三个奖励的加权和,其中 KL散度奖励 的系数是随着KL散度的大小动态变化的。想在OpenRL中使用该奖励模型,用户无需修改训练代码,只需要在 nlp_ppo.yaml 文件中添加reward_class参数即可:

# nlp_ppo.yaml
reward_class:
id: NLPReward # 奖励模型名称
args:{
# 用于意图判断的模型的名称或路径
"intent_model": rajkumarrrk/roberta-daily-dialog-intent-classifier,
# 用于计算KL散度的预训练模型的名称或路径
"ref_model": roberta-base,# 用于意图判断的tokenizer的名称或路径
}

OpenRL支持用户使用自定义的奖励模型。首先,用户需要编写自定义奖励模型(需要继承 BaseReward 类)。接着,用户需要注册自定义的奖励模型,即在train_ppo.py添加以下代码:

# train_ppo.py
from openrl.rewards.nlp_reward import CustomReward
from openrl.rewards import RewardFactory
RewardFactory.register("CustomReward", CustomReward)

最后,用户只需要在配置文件中填写自定义的奖励模型即可:

reward_class:
id: "CustomReward" # 自定义奖励模型名称
args: {} # 用户自定义奖励函数可能用到的参数


自定义训练过程信息输出

OpenRL还支持用户自定义wandb和tensorboard的输出内容。例如,在该任务的训练过程中,我们还需要输出各种类型奖励的信息和KL散度系数的信息, 用户可以在nlp_ppo.yaml文件中加入vec_info_class参数来实现:

# nlp_ppo.yaml
vec_info_class:
id:"NLPVecInfo"# 调用NLPVecInfo类以打印NLP任务中奖励函数的信息
#设置wandb信息
wandb_entity: openrl # 这里用于指定wandb团队名称,请把openrl替换为你自己的团队名称
experiment_name: train_nlp # 这里用于指定实验名称
run_dir:./run_results/# 这里用于指定实验数据保存的路径
log_interval:1# 这里用于指定每隔多少个episode上传一次wandb数据
# 自行填写其他参数...

修改完配置文件后,在train_ppo.py文件中启用wandb:

# train_ppo.py
agent.train(total_time_steps=100000, use_wandb=True)

然后执行python train_ppo.py –config nlp_ppo.yaml,过一会儿,便可以在wandb中看到如下的输出:

从上图可以看到,wandb输出了各种类型奖励的信息和KL散度系数的信息。

如果用户还需要输出其他信息,还可以参考 NLPVecInfo 类 和 VecInfo 类来实现自己的CustomVecInfo类。然后,需要在train_ppo.py中注册自定义的CustomVecInfo类:

# train_ppo.py 
# 注册自定义输出信息类
VecInfoFactory.register("CustomVecInfo", CustomVecInfo)

最后,只需要在nlp_ppo.yaml中填写CustomVecInfo类即可启用:

# nlp_ppo.yaml
vec_info_class:
id: "CustomVecInfo" # 调用自定义CustomVecInfo类以输出自定义信息


使用混合精度训练加速

OpenRL还提供了一键开启混合精度训练的功能。用户只需要在配置文件中加入以下参数即可:

# nlp_ppo.yaml
use_amp: true # 开启混合精度训练


对比评测

下表格展示了使用OpenRL训练该对话任务的结果。结果显示使用强化学习训练后,模型各项指标皆有所提升。另外,从下表可以看出,相较于 RL4LMs , OpenRL的训练速度更快(在同样3090显卡的机器上,速度提升 17% ),最终的性能指标也更好:

最后,对于训练好的智能体,用户可以方便地通过 agent.chat() 接口进行对话:

# chat.py
from openrl.runners.common import ChatAgent as Agent
defchat():
agent = Agent.load("./ppo_agent", tokenizer="gpt2",)
history =[]
print("Welcome to OpenRL!")
whileTrue:
input_text =input("> User: ")
if input_text =="quit":
break
elif input_text =="reset":
history =[]
print("Welcome to OpenRL!")
continue
response = agent.chat(input_text, history)
print(f"> OpenRL Agent: {response}")
history.append(input_text)
history.append(response)
if __name__ =="__main__":
chat()

执行 python chat.py ,便可以和训练好的智能体进行对话了:

总结

OpenRL框架经过了OpenRL-Lab的多次迭代并应用于学术研究和AI竞赛,目前已经成为了一个较为成熟的强化学习框架。OpenRL-Lab团队将持续维护和更新OpenRL,欢迎大家加入我们的开源社区,一起为强化学习的发展做出贡献。更多关于OpenRL的信息,可以参考:               

 OpenRL官方仓库:https://github.com/OpenRL-Lab/openrl/

 OpenRL中文文档:https://openrl-docs.readthedocs.io/zh/latest/


致谢

OpenRL框架的开发吸取了其他强化学习框架的优点:           

 Stable-baselines3: https://github.com/DLR-RM/stable-baselines3  

 pytorch-a2c-ppo-acktr-gail: https://github.com/ikostrikov/pytorch-a2c-ppo-acktr-gail           

 MAPPO: https://github.com/marlbenchmark/on-policy     

 Gymnasium: https://github.com/Farama-Foundation/Gymnasium 

 DI-engine: https://github.com/opendilab/DI-engine/       

 Tianshou: https://github.com/thu-ml/tianshou          

 RL4LMs: https://github.com/allenai/RL4LMs

未来工作

目前,OpenRL还处于持续开发和建设阶段,未来OpenRL将会开源更多功能:               

 支持智能体自博弈训练               

 加入离线强化学习、模范学习、逆强化学习算法         

 加入更多强化学习环境和算法               

 集成Deepspeed等加速框架            

 支持多机分布式训练

欢迎更多同学加入OpenRL的讨论和使用:     

 QQ群(367627006):

               

 实习和全职发送邮件到:[email protected]      

 点击加入slack群组:https://join.slack.com/t/openrlhq/shared_invite/zt-1tqwpvthd-Eeh0IxQ~DIaGqYXoW2IUQg             

 点击加入Discord群组:https://discord.gg/Hsjtu5Q47y       

 点击加入GitHub Discussion:https://github.com/orgs/OpenRL-Lab/discussions


OpenRL Lab团队

OpenRL框架是由OpenRL Lab团队开发,该团队是第四范式公司旗下的强化学习研究团队。第四范式长期致力于强化学习的研发和工业应用。为了促进强化学习的产学研一体化,第四范式成立了OpenRL Lab研究团队,目标是先进技术开源和人工智能前沿探索。成立不到一年,OpenRL Lab团队已经在AAMAS发表过三篇论文,参加谷歌足球游戏 11 vs 11比赛并获得第三的成绩。团队提出的TiZero智能体,实现了首个从零开始,通过课程学习、分布式强化学习、自博弈等技术完成谷歌足球全场游戏智能体的训练:

截止2022年10月28日,Tizero在及第评测平台上排名第一:



作者介绍:

黄世宇,第四范式强化学习研究员。博士毕业于清华大学计算机系,博士导师是朱军和陈挺教授,本科期间在CMU交换,导师为Deva Ramanan教授。主要研究方向为强化学习,多智能体强化学习,分布式强化学习。曾在腾讯AI Lab、华为诺亚、商汤、RealAI工作。



往期推荐



Deno推出高性能键值数据库Deno KV

电子垃圾Chromebook

提升效率,从挑选文件管理器开始



🌟 活动推荐


2023 年 5 月 27-28 日,GOTC 2023 全球开源技术峰会将在上海张江科学会堂隆重举行。

为期 2 天的开源行业盛会,将以行业展览、主题发言、特别论坛、分论坛、快闪演讲的形式来诠释此次大会主题 ——“Open Source, Into the Future”。与会者将一起探讨元宇宙、3D 与游戏、eBPF、Web3.0、区块链等热门技术主题,以及 OSPO、汽车软件、AIGC、开源教育培训、云原生、信创等热门话题,探讨开源未来,助力开源发展。

长按识别下方二维码立即查看 GOTC 2023 详情/报名。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大模型只是起点:朝向多智能体和人类紧密协作的未来|戴雨森对话吴翼讲座预告 | 软件工程学院博学论坛第十五期:自然语言处理与大型语言模型的挑战与探索男人出差归来,知道妻子和闺蜜在家,看看门口鞋,他抓下闺蜜假发北京语言大学 | 语言监测与智能学习研究组2023年研究生招募现场拔网线!第四范式版GPT能力首秀,有点不一样南澳散记 (增订本) :第二十四章:吃蟹杂谈网易数帆低代码开发平台升级:加入智能大模型,可用自然语言描述快速开发应用用ChatGPT和强化学习玩转《我的世界》,Plan4MC攻克24个复杂任务第四范式招聘:社招全职,大模型/语音/计算机视觉等方向ACL 2023 | 复旦邱锡鹏组提出模块化Prompt多任务预训练,可快速适应下游任务第四范式决定把AI大模型扔到一块无人地第四范式入局 AI 大模型!「式说 3.0」正式亮相,参数不固定,断网也能跑学习生成式大语言模型,东北大学自然语言处理实验室有一堂课CVPR 2023 | 一键去除视频闪烁,该研究提出了一个通用框架CVPR 2023 | 基于CLIP的微调新范式!训练速度和性能均创新高!7天花5万美元,我们成功复制了 Stable Diffusion,成本大降88%!训练代码已开源强化学习再登Nature封面,自动驾驶安全验证新范式大幅减少测试里程7 天花 5 万美元,我们成功复制了 Stable Diffusion,成本大降 88%!训练代码已开源腾讯展示“车云一体”应用框架,汤道生:要做好汽车产业的数字化升级助手第四范式胡时伟:To B 大模型的意义,就是让「好战略」落地为「强执行」AI 智能编程工具 aiXcoder 推出企业版,采用百亿级规模参数大模型进行个性化训练,支持私有化部署PackedBert:如何用打包的方式加速Transformer的自然语言处理任务速度提升24倍,30分钟完成室内大场景逆渲染,如视研究成果入选CVPR 2023迈富时、第四范式、米高化工、耐看娱乐、武汉有机5家港IPO上市备案补充材料要求(2023年5月12日—2023年5月18日)GPT-4推理提升1750%!普林斯顿清华姚班校友提出全新「思维树ToT」框架,让LLM反复思考云安全学习-密钥泄露与CF利用框架美食坊海鲜阁粤式饮早茶与小15岁女友分手后,又牵手刘晓庆的伍卫国,如今选择不婚不育中兴新支点 OS 桌面环境正式开源,仅 104 M,速度提升 20%ICLR 2023|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架希腊罗德岛(Rhodes),面纱揭开中兴新支点OS桌面环境正式开源,仅104M,速度提升20%第四范式戴文渊:最适合大模型的商业模式是什么北极九章CEO刘沂鑫:从自然语言一步直达数据洞察——数据驱动增长的新范式|量子位·视点分享回顾思维链加持,现场拔网线,第四范式「式说」大模型改造软件来了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。