Redian新闻
>
Qlib来啦:模型训练篇

Qlib来啦:模型训练篇

科技


量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据领域的主流自媒体公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,荣获2021年度AMMA优秀品牌力、优秀洞察力大奖,连续2年被腾讯云+社区评选为“年度最佳作者”。

源代码请点击阅读原文

在QIML公众号官方GitHub查看


QIML官方GitHub上线

https://github.com/QuantWorld2022


希望大家多Follow,多给星⭐️



通过config实例化操作


我们在上一篇介绍了qlib中数据相关的模块,使用这些模块,我们就能读取数据-处理数据-计算特征。

Qlib来啦:数据篇(一)

Qlib来啦:数据篇(二)

在需要使用Data Loader、Data Handler或Dataset的时候,我们可以直接使用“配置”的方式进行实例化。看下面的实例,比如我们要实例化一个QlibDataLoader:


  • "class": 指定需要实例化的类;

  • "module_path": str格式, 表明该类的路径;

  • "kwargs": "class"初始化的参数;

  • init_instance_by_config: 根据“配置”进行类实例化的函数。


# 初始化配置
import qlib
from qlib.constant import REG_CN
data_uri = '/Users/lusong/.qlib/qlib_data/cn_data_wind/'
qlib.init(provider_uri=data_uri, region=REG_CN)

# 使用"配置"进行实例化
from qlib.utils import init_instance_by_config
qdl_config = {
    "class": "QlibDataLoader",
    "module_path": "qlib.data.dataset.loader",
    "kwargs": {
        "config": {
            "feature": (['EMA($close, 10)', 'EMA($close, 30)'], ['EMA10', 'EMA30'] ),
            "label": (['Ref($close, -1)/$close - 1',],['RET_1',]),
        },
        "freq": 'day',
    },
}

# 以下这种写法也可以,注意class/module_path和上面的区别,这里没有module_path
# qdl_config = {
# "class": "qlib.data.dataset.loader.QlibDataLoader",
# "kwargs": {
# "config": {
# "feature": (['EMA($close, 10)', 'EMA($close, 30)'], ['EMA10', 'EMA30'] ),
# "label": (['Ref($close, -1)/$close - 1',],['RET_1',]),
# },
# "freq": 'day',
# # "inst_processor": inst_processor,
# },
# }

qdl = init_instance_by_config(qdl_config)
market = 'sh000300' # 沪深300股票池代码,在instruments文件夹下有对应的sh000300.txt
qdl.load(instruments=market, start_time='20210101', end_time='20210110')



对于一些常用的因子或特征,我们可以写成一个继承自DataHandlerLP的类,以便后面重复调用。接下来,我们就以MACD和RSI两个指标为例,实现一个自定义DataHandlerLP的类。


# 实现一个自定义的特征集,MACD、RSI

from qlib.data.dataset.handler import DataHandlerLP

class MyFeatureSet(DataHandlerLP):
    def __init__(self,
                 instruments="sh000300",
                 start_time=None,
                 end_time=None,
                 freq="day",
                 infer_processors=[],
                 learn_processors=[],
                 fit_start_time=None,
                 fit_end_time=None,
                 process_type=DataHandlerLP.PTYPE_A,
                 filter_pipe=None,
                 inst_processor=None,
                 **kwargs,
                )
:

        data_loader = {
            "class": "QlibDataLoader",
            "kwargs": {
                "config": {
                    "feature": self.get_feature_config(),
                    "label": kwargs.get("label", self.get_label_config()), # label可以自定义,也可以使用初始化时候的设置
                },
                "filter_pipe": filter_pipe,
                "freq": freq,
                "inst_processor": inst_processor,
                },
            }
        super().__init__(
            instruments=instruments,
            start_time=start_time,
            end_time=end_time,
            data_loader=data_loader,
            infer_processors=infer_processors,
            learn_processors=learn_processors,
            process_type=process_type,
        )
        
    def get_feature_config(self):
        
        MACD = '(EMA($close, 12) - EMA($close, 26))/$close - EMA((EMA($close, 12) - EMA($close, 26))/$close, 9)/$close'
        RSI = '100 - 100/(1+(Sum(Greater($close-Ref($close, 1),0), 14)/Count(($close-Ref($close, 1))>0, 14))/ (Sum(Abs(Greater(Ref($close, 1)-$close,0)), 14)/Count(($close-Ref($close, 1))<0, 14)))'
        
        return [MACD, RSI ], ['MACD', 'RSI']

    def get_label_config(self):
        return (["Ref($close, -1)/$close - 1"], ["LABEL"])

# 初始化的过程中已经完成的数据的load
my_feature = MyFeatureSet(instruments='sh000300', start_time='2021-01-01', end_time='2021-06-30')

# my_feature.get_feature_config()
my_feature.fetch() # my_feature.fetch(col_set='feature') / my_feature.fetch(col_set='label')



实际上qlib内部也提供了两个特征集:Alpha158和Alpha360:


  • Alpha158

  • Alpha360


处理数据过程中,可以自定义infer_processors和learn_processors。



准备数据及模型,进行训练


在Qlib的框架下,使用机器学习进行量化研究主要有以下步骤:


  • 数据准备 Dataset


  • 模型配置


  • 训练及结果分析


我们之前的数据篇已经完成了数据准备的部分,这其中的核心就是因子(或指标),当然我们可以先使用内置的Alpha158或Alpha360。关于模型的准备及实现,主要分为两个部分,首先是借助常用的机器学习或深度学习框架(推荐Pytorch)实现预测模型,然后再继承qlib.model.base.Model,实现模型的训练和测试过程。这两部分我们后面会结合源码给大家更详细的解释。


Qlib之所以受欢迎,很大程度是因为其本身已经实现了大量的模型。具体实现的模型可以在qlib.contrib.model,顺便说一下qlib.contrib这个子模块主要都是基于qlib核心模块实现的一些便利性功能,比如Alpha158就是qlib.contrib.data.handler路径下。


接下来我们使用Alpha158数据集,及内置ALSTM模型,说明一下模型训练的过程。(由于时间原因,并没用运行至结束)


from qlib.contrib.data.handler import Alpha158
from qlib.data.dataset import TSDatasetH
from qlib.contrib.model.pytorch_alstm_ts import ALSTM

# 配置数据
train_period = ("2015-01-01", "2019-12-31")
valid_period = ("2020-01-01", "2020-12-31")
test_period = ("2021-01-01", "2022-03-01")

dh = Alpha158(instruments='sh000300',
              start_time=train_period[0],
              end_time=test_period[1],
              infer_processors={}
              
             )
ds = TSDatasetH(handler=dh,
                step_len=40, # 时间步数
                segments={"train": train_period,
                          "valid": valid_period,
                          "test": test_period})

# 配置模型
model = ALSTM(d_feat=158,
              metric='mse',
              rnn_type='GRU',
              batch_size=800,
              early_stop=10) # 其他参数使用默认设置


# 模型训练, 使用fit方法
model.fit(dataset=ds,
          save_path=None) # 保存模型的路径,默认存在当前路径



通过以上步骤,训练模型后,可以使用model.predict()对test的数据集进行测试:


model.predict(dataset=ds, segment='test')


而以上从数据到模型的实例化,这一切都可以通过使用“配置“文件的方式进行实现,包括数据集和模型都可以用下“配置”的方式来实例化:


ds_config = {'class': 'TSDatasetH',
             'module_path': 'qlib.data.dataset',
             'kwargs': {
                 'handler': {
                     'class': 'Alpha158',
                     'module_path': 'qlib.contrib.data.handler',
                     'kwargs': {'start_time': "2015-01-01",
                                'end_time': "2022-03-01",
                                'fit_start_time': "2015-01-01",
                                'fit_end_time': "2019-12-31",
                                'instruments': 'sh000300',
                                # 与之前的示例相比,这里新增了infer_processors和learn_processors
                                'infer_processors': [
                                    {'class': 'RobustZScoreNorm',
                                     'kwargs': {'fields_group': 'feature', 'clip_outlier': True}},
                                    {'class': 'Fillna', 'kwargs': {'fields_group': 'feature'}}],
                                'learn_processors': [{'class': 'DropnaLabel'},
                                                     
                                                     # 对预测的目标进行截面排序处理
                                                     {'class': 'CSRankNorm', 'kwargs': {'fields_group': 'label'}}],
                                
                                # 预测的目标
                                'label': ['Ref($close, -1) / $close - 1']}},
                 
                 'segments': {'train': ["2015-01-01", "2019-12-31"],
                              'valid': ["2020-01-01", "2020-12-31"],
                              'test': ["2021-01-01", "2022-03-01"]},
                 'step_len': 40}}

model_config = {'class': 'ALSTM',
                'module_path': 'qlib.contrib.model.pytorch_alstm_ts',
                'kwargs': {
                    'd_feat': 158,
                    'hidden_size': 64,
                    'num_layers': 2,
                    'dropout': 0.0,
                    'n_epochs': 200,
                    'lr': '1e-3',
                    'early_stop': 10,
                    'batch_size': 800,
                    'metric': 'loss',
                    'loss': 'mse',
                    'n_jobs': 20,
                    'GPU': 0,
                    'rnn_type': 'GRU'
                }}

# 实例化数据集及模型
ds = init_instance_by_config(ds_config)
model = init_instance_by_config(model_config)

# 模型训练
model.fit(dataset=ds)


当然,也可以将配置写在外部文件里(如yaml),然后读取进notebook里。在qlib/examples/benchmarks文件夹下有很多现成的配置文件,这里的文件与qlib.contrib.model里的模型一一对应。现在,我们读取一个配置文件进来看一下:


import yaml
with open('./workflow_config_alstm_Alpha158.yaml', 'rb') as f:
    config = yaml.load(f, Loader=yaml.FullLoader)


这些配置文件通常配合qlib的workflow模式在命令行运行,每个文件对应了一个模型从数据到训练的全部配置。



Recorder的作用


至此,我们已经明白了官方的示例中复杂的配置是怎么来的。但当我们官方的入门示例时(qlib/example/workflow_by_code.py)时,看到了最后这段代码,又呆住了:


with R.start(experiment_name="workflow"):
    R.log_params(**flatten_dict(CSI300_GBDT_TASK))
    model.fit(dataset)
    R.save_objects(**{"params.pkl": model})

    # prediction
    recorder = R.get_recorder()
    sr = SignalRecord(model, dataset, recorder)
    sr.generate()

    # Signal Analysis
    sar = SigAnaRecord(recorder)
    sar.generate()

    # backtest. If users want to use backtest based on their own prediction,
    # please refer to https://qlib.readthedocs.io/en/latest/component/recorder.html#record-template.
    par = PortAnaRecord(recorder, port_analysis_config, "day")
    par.generate()


这里提到了一个Recoder的概念,Recoder本身是用来管理机器学习模型的训练过程,记录中间训练结果的。我们知道机器学习模型训练时间一般较长,我们不能非常及时的看到结果,所以需要记录一些中间结果。有时还有因为种种原因中断训练,那这时可以使用Recoder恢复并继续之前的训练,而不需要从头开始。Qlib内置的Recoder实际上使用的是mlflow,这是一个开源机器学习训练流程管理器。


Qlib中使用R作为QlibRecorder的简称,每次开始实验都会在指定目录(默认当前目录)新建一个mlruns文件夹,用于存放每次实验的中间结果:



在以上的代码中R.start()只能与with搭配使用,其他情况下可以使用R.start_exp()来开始一个实验。R.start的参数有:


  • experiment_name: 实验名称


  • experiment_id: 实验id,默认为0开始自增的整数


  • recorder_id: 如果已存在,且resume参数为True,则会根据指定的recoder_id,继续训练;如果resume为False,则会覆盖当前recorder_id目录下的记录。如果不存在,则在该实验下创建一个新的以该id为名称的目录。为空的时候,会随机生成一个新的recorder_id


  • resume:是否继续之前某个recorder_id的训练,与上面recorder_id参数配合使用


QlibRecorder在创建mlruns文件夹后,内部的文件夹创建规则是这样的:


1、每次运行以experient_id创建一个文件夹,当experient_id为指定时,默认以0开始的自增整数作为文件夹名称。



2、每个子文件夹表示一个实验,一个实验内部可以有多次实验,以recorder_id命名文件夹。



3、每个实验文件夹内的meta.yaml记录了该实验的experiment_id\name等信息。


Record Template


模型训练完之后的一些分析,可以通过Record Template来完成,正如上面的这些代码,完成了预测到策略分析的过程:



Record Template说白了就是把一些分析的逻辑,及分析结果的存储写在一个类里面进行实现,使得过程可重复,易管理保存。和我们之前介绍的实现自我定义的一些特征集(上文的MyFeatureSet)有类似的目的。我们只要看一下SigAnaRecord的源码就明白了: 



可以,看出以上代码中,generate方法就是实现了:


  • 根据训练好的模型生成预测pred,并保存在pickle文件中

  • 获取了测试集的label,保存在pickle文件中



总结


结合这三次的分享,大家对于qlib的官方案例qlib/example/workflow_by_code.py应该能够完全明白了。下次我们看一下介绍模型结果到策略回测的实现。


附录:如何使用Tensorboard查看模型结构


from qlib.contrib.model.pytorch_alstm_ts import ALSTMModel
from torch.utils.tensorboard import SummaryWriter
import torch


# 生成传入模型的样例数据
sample_data = torch.randn(2,20,6) # [batch, seq_len, d_feat]
alstm = ALSTMModel()

# default `log_dir` is "runs" - we'll be more specific here
writer = SummaryWriter('./runs/qlib_model')
writer.add_graph(alstm, sample_data)

writer.close()

# 在终端中运行(当前文件夹)以下命令,会有如下输出,然后再在浏览器打开localhost:6006
# tensorboard --logdir='./runs'



源代码请点击阅读原文

在QIML公众号官方GitHub查看


QIML官方GitHub上线

https://github.com/QuantWorld2022


希望大家多Follow,多给星⭐️

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
龙卷风健康快递 153气候学家“联名上书”:模型的使用夸大了全球变暖的影响【宏观经济】园区与科创金融:模式与案例梅根大动作:模仿戴安娜!成为朱莉!皮特隔空打了个喷嚏...《声生不息》:模范生的答卷谁说学生模型就得小?稀疏化DAN模型推理可提速600倍Qlib来啦:策略篇(一)年挣五万也能过日子Ladder Side-Tuning:预训练模型的“过墙梯”ES08# ElasticSearch中的SQL查询超50篇论文串联起从VQA到多模态预训练大模型的前世今生—Part 2重振PointNet++雄风!PointNeXt:通过改进的模型训练和缩放策略重新审视PointNet++阿里开源自研工业级稀疏模型高性能训练框架 PAI-HybridBackend悲从中来,洒泪遥送我亲爱的妈妈Qlib来啦:数据篇(二)新一期的《交际沟通训练营18.0》开始报名啦!我从2000公里外收养的这只小土狗狗,后续故事来啦:)SQL注入测试大模型只有参数和算力?这款国产大模型证明:落地为王!业界首发行业大模型,提出落地3大关键路径,百度的大模型原来是这么用的你的SU模型太low了,这才是高质量模型库!英国骄傲月限定来啦:彩虹硬币/邮票/奶昔/白T...买起来!代价无暇顾及WXC大事 完成小事要紧​ACL 2022 | 普林斯顿陈丹琦组:模型剪枝的加速方法SQLite 基本命令使用方式端智能实践分享:模型评估和编译心心念的口语训练教材来啦,解锁地道的英语发音,全靠它!聊聊DatabricksSQL和Apache Kyuubi超50篇论文串联起从VQA到多模态预训练大模型的前世今生—Part 1[模型] 1/12模型 S-WORKS VENGE变色龙用 Spark SQL 进行结构化数据处理 | Linux 中国​ACL 2022杰出论文:为什么生成式大规模预训练模型难以量化?15岁少女参加减肥训练营,暴瘦20公斤又全数反弹?! 教训惨痛!零门槛开发AI模型!国际AI科学家联合开源算法训练平台YMIR
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。