Redian新闻
>
Qlib来啦:数据篇(二)

Qlib来啦:数据篇(二)

财经


量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据领域的主流自媒体公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,荣获2021年度AMMA优秀品牌力、优秀洞察力大奖,连续2年被腾讯云+社区评选为“年度最佳作者”。

源代码请点击阅读原文

在QIML公众号官方GitHub查看


前言


上一篇Qlib的分享中,我们主要介绍了如何将外部数据导入qlib中,转换为qlib的数据格式。


Qlib来啦:数据篇(一)


顺便要给大家介绍一下我们之前的Backtrader系列。一经推出,收获无数好评。

Backtrader来啦:数据篇

2021-04-28

Backtrader来啦:指标篇

2021-05-13

Backtrader来啦:交易篇(上)

2021-05-27

Backtrader来啦:交易篇(下)

2021-06-07

Backtrader来啦:策略篇

2021-06-25

Backtrader来啦:可视化篇(重构)

2021-07-19

QIML一直在专业和质量上为大家提供最好的内容!


QIML公众号官方GitHub:

https://github.com/QuantWorld2022


希望大家多Follow,多给星⭐️


接上文。我们还需要补充一点的是,上次我们只导入了日度的价格数据。但实际上任何在研究中需要使用的数据(当然必须是股票某个属性的数据)都可以导入其中,你可以选择构建一张超宽的表使用dump_all一次性导入,也可以分批使用dump_fix导入。当数据加载后,我们就可以利用这些数据进行研究。


import qlib
from qlib.constant import REG_CN
data_uri = '~/qlib_data/cn_data_wind/'
qlib.init(provider_uri=data_uri, region=REG_CN)


Qlib中关于数据主要有以下三个模块:


  • Data Loader: 从数据源加载数据,数据源可以是已经转换为qlib内置格式的数据(如上面data_uri里面的数据),也可以是其他外部数据;


  • Data Handler: 对数据进行预处理,比如常见的缺失值、标准化等;


  • Dataset: 为模型的训练准备数据,类似Pytorch中的Dataset。




Data Loder


Data Loader用于加载数据,Qlib中主要有两类Data Loader:


  • QlibDataLoader:从已转换好的内置数据源中加载数据;


  • StaticDataLoader:从外部数据源加载数据。


QlibDataLoader


使用QlibDataLoader加载数据需要两个步骤:


  • 实例化,主要是通过config参数配置需要加载的数据,可以是原始数据,也可以是用算法表达式计算的数据;


  • 实例化之后,使用load函数获取数据。


我们看以下案例:


# 导入QlibDataLoader
from qlib.data.dataset.loader import QlibDataLoader
# 加载原始特征,比如收盘价、最高价
qdl = QlibDataLoader(config=(['$close', '$high'],['close', 'high']))
qdl.load(instruments=['SH600519'], start_time='20190101', end_time='20191231') # 可以通过freq参数设置周期,默认freq='day'




在以上的案例中,有以下几个注意点:


  • config参数用来配置需要加载的特征,对于qlib内置数据中原有的特征需要使用"$"符号进行引用;


  • instruments可以为股票代码的列表,也可以是某个股票池代码,前提是该股票池成分股文件存在于qlib数据文件夹"instruments"中。


除了直接加载原始特征,有时我们需要对不同的原始特征做一些运算生成新的特征,比如我们想计算收盘价的均线。这时我们可以使用qlib的算式表达式功能,直接在加载时进行计算,具体请看下面案例。


# 这次我们加载沪深300成分股的10日和30日收盘价指数加权均价
market = 'sh000300' # 沪深300股票池代码,在instruments文件夹下有对应的sh000300.txt
close_ma = ['EMA($close, 10)', 'EMA($close, 30)'] # EMA($close, 10)表示计算close的10日指数加权均线
ma_names = ['EMA10', 'EMA30']
qdl_ma = QlibDataLoader(config=(close_ma, ma_names))
qdl_ma.load(instruments=market, start_time='20210101', end_time='20210110')



qlib把类似“EMA”称为算子(operator),qlib中全部支持的算子可以在以下源码中找到:/qlib/data/ops.py


有时我们需要对计算的数据进行分组,最常用的是分为特征组“feature”和“label”组,此时我们可以传入dict格式的参数至config中,具体看下面实例:


market = 'sh000300' # 沪深300股票池代码,在instruments文件夹下有对应的sh000300.txt
close_ma = ['EMA($close, 10)', 'EMA($close, 30)'] # EMA($close, 10)表示计算close的10日指数加权均线
ma_names = ['EMA10', 'EMA30']
ret = ["Ref($close, -1)/$close-1"] # 下一日收益率, Ref($close, -1)表示下一日收盘价
ret_name = ['next_ret']
qdl_ma_gp = QlibDataLoader(config={'feature':(close_ma, ma_names), 'label': (ret, ret_name)})
qdl_ma_gp.load(instruments=market, start_time='20210101', end_time='20210110')



QlibDataLoader其他参数: filter_pipe


在加载数据的过程中,我们不仅可以使用算子表达式进行特征计算,还可以使用“filter_pipe”参数进行相关过滤。比如我们想要加载沪深300中每一天10日均线大于30日均线的股票并返回它们的均线数据,该怎么实现呢?


from qlib.data.filter import ExpressionDFilter
# QlibDataLoader其他参数: filter_pipe
market = 'sh000300' # 沪深300股票池代码,在instruments文件夹下有对应的sh000300.txt
close_ma = ['EMA($close, 10)', 'EMA($close, 30)'] # EMA($close, 10)表示计算close的10日指数加权均线
ma_names = ['EMA10', 'EMA30']

# 使用表达式定义过滤规则
filter_rule = ExpressionDFilter(rule_expression='EMA($close, 10)>EMA($close, 30)')

# 导出数据
qdl_fil = QlibDataLoader(config=(close_ma, ma_names), filter_pipe=[filter_rule,])
qdl_fil.load(instruments=market, start_time='20210101', end_time='20210110')



StaticDataLoader


QlibDataLoader用于加载已经转换为qlib格式的数据。如果直接从外部文件中读取数据,可以使用StaticDataLoader。


# 准备pickle数据文件
qdl = QlibDataLoader(config=(['$open', '$high', '$low', '$close'],['open', 'high', 'low', 'close']))
df = qdl.load(instruments='sh000300', start_time='20210101', end_time='20211231') # 可以通过freq参数设置周期,默认freq='day'
df.to_pickle('./sh000300.pkl')

# 使用StaticDataLoader导入数据
from qlib.data.dataset.loader import StaticDataLoader

# 实例化StaticDataLoader,主要是config函数,这里直接传入数据文件的路径
sdl_pkl = StaticDataLoader(config='./sh000300.pkl')
sdl_pkl.load() # 默认返回全部数据



# 也可以传入instruments和起止时间
sdl_pkl.load(instruments=['SH600000','SH600010'], start_time='2021-10-01', end_time='2021-10-15')



如何读取csv文件


以上我们读取的是pickle文件,如果是csv文件是否可以呢?


# 准备csv文件
df.to_csv('./sh000300.pkl')
sdl_csv = StaticDataLoader(config='./sh000300.csv')
sdl_csv.load() # 默认返回全部数据



报错了,分析源码可以看出,当config是路径时,只支持pickle文件。但是当config是字典格式时{‘feature_group’: 'path'}可以支持csv\pickle\h5三种文件格式,(不知道作者出于什么考虑)。我们可以选择修改源码,或者直接使用dict格式的config参数,如下:


sdl_csv = StaticDataLoader(config={'feature': './sh000300.csv'})
sdl_csv.load()['feature'] # 默认返回全部数据



当然以上是通过文件读取,如果数据已经以dataframe的形式存在内存里,我们可以直接构建StaticDataLoader:


sdl_df = StaticDataLoader(config=df)
sdl_df.load() # 默认返回全部数据




Data Handler

通过Data Loader加载特征后,模型训练前需要对特征数据进行一些预处理,比如缺失值、标准化等处理。这是Data Handler主要任务。我们先看一个案例:


from qlib.data.dataset.handler import DataHandlerLP
from qlib.data.dataset.processor import CSZScoreNorm, DropnaProcessor

qdl = QlibDataLoader(config=(['$close/Ref($close, 1)-1'],['Return']))
df = qdl.load(instruments='sh000300', start_time='20210101', end_time='20210430')

# 是否有空值
print()df.isna().sum()) #返回有45行空值

# 原始数据分布
df.xs('2021-01-05').hist()



# 实例化DataHandler
dh = DataHandlerLP(instruments='sh000300', start_time='20210101', end_time='20210120',
             learn_processors=[DropnaProcessor(), CSZScoreNorm()],
             data_loader=qdl)

df_hdl = dh.fetch(data_key=DataHandlerLP.DK_L) # 获取处理后的数据,处理过程为先去空值,再截面标准化。

# 查看是否还存在空值
print(df_hdl.isna().sum()) # 返回0,表示没有空值行

# CSZScoreNorm截面标准化处理后的数据分布
df_hdl.xs('2021-01-05').hist()




从以上的例子可以看出,实例化Data Handler需要以下几个参数:


  • 基本信息,如instruments,start_time,end_time;


  • infer_processors,数据处理器,列表格式。由Dataloader加载的数据会依次经过该列表中的processor进行处理(后面会详细介绍);


  • data_loader,数据加载器实例。


Data Handler实例化之后,通过fetch方法获取处理后的数据,这里的参数DataHandlerLP.DK_L会在Learn Processor VS Infer Processor详细介绍。


Processor

Data Handler中对于数据的预处理的具体工作是由Processor完成的,Qlib中支持以下Processors,这些Processor都继承自Processor类。我们也可以通过该继承实现自定义的processor。


  • DropnaProcessor: processor that drops N/A features.
  • DropnaLabel: processor that drops N/A labels.
  • TanhProcess: processor that uses tanh to process noise data.
  • ProcessInf: processor that handles infinity values, it will be replaces by the mean of the column.
  • Fillna: processor that handles N/A values, which will fill the N/A value by 0 or other given number.
  • MinMaxNorm: processor that applies min-max normalization.
  • ZscoreNorm: processor that applies z-score normalization.
  • RobustZScoreNorm: processor that applies robust z-score normalization.
  • CSZScoreNorm: processor that applies cross sectional z-score normalization.
  • CSRankNorm: processor that applies cross sectional rank normalization.
  • CSZFillna: processor that fills N/A values in a cross sectional way by the mean of the column.


我们以上面使用的DropnaProcessor和CSZScoreNorm介绍processor的处理逻辑,首先看一下DropnaProcessor和CSZScoreNorm的源码:


class DropnaProcessor(Processor):
    def __init__(self, fields_group=None):
        self.fields_group = fields_group

    def __call__(self, df):
        return df.dropna(subset=get_group_columns(df, self.fields_group))

    def readonly(self):
        return True

class CSZScoreNorm(Processor):
    """Cross Sectional ZScore Normalization"""

    def __init__(self, fields_group=None, method="zscore"):
        self.fields_group = fields_group
        if method == "zscore":
            self.zscore_func = zscore
        elif method == "robust":
            self.zscore_func = robust_zscore
        else:
            raise NotImplementedError(f"This type of input is not supported")

    def __call__(self, df):
        # try not modify original dataframe
        if not isinstance(self.fields_group, list):
            self.fields_group = [self.fields_group]
        for g in self.fields_group:
            cols = get_group_columns(df, g)
            df[cols] = df[cols].groupby("datetime").apply(self.zscore_func)
        return df


可以看出,Processor中均实现了__call__方法,通过把原始数据df传入__call__完成数据的预处理。我们单独实例化Fillna和Zscorenorm进行数据处理,验证一下结果是否同上面Data Handler返回的一致。


# copy df数据
df_test = df.copy()

# 实例化Processor
dropna_processor = DropnaProcessor()
czs_processor = CSZScoreNorm()

# 处理数据
for process_func in [dropna_processor, czs_processor]:
    df_test = process_func(df_test)

# 查看是否还有空数据
df_test.isna().sum() # 返回0,表示没有空值行

# CSZScoreNorm截面标准化处理后的数据分布, 和上面的结果一致。
df_test.xs('2021-01-05').hist()



Learn Processor VS Infer Processor


在上面的实例中,我们设置的Data Handler的参数learn_processors对数据进行预处理。查看源码可以发现,Data Handler关于数据处理的参数有以下三个:


  • infer_processors:通过fit时间段的数据学习相关参数,在非fit时间段进行数据处理。
  • learn_processors:不需要fit直接进行数据处理
  • shared_processors:共享的处理器。
  • Data Handler会在处理过程中,保存原始数据和处理后的数据,在fetch数据时,会根据参数data_key返回不同的数据:
  • data_key = DatahandlerLP.DK_I, 返回_infer_df
  • data_key = DatahandlerLP.DK_L, 返回_learn_df
  • data_key = DatahandlerLP.DK_R, 返回原始数据(未处理过)
  • infer_processors、learn_processors及shared_processors配合process_type参数,可以改变数据预处理的顺序:



infer_processors和learn_processors最大的区别是infer_processors中processor会根据历史数据学习,然后在讲学习到的知识应用的未来数据的处理中。这类processor都有fit的方法,qlib内置的processor中如ZScoreNorm就是一个infer_processor,我们看一下源码:



接下来,我们通过一个详细的实例梳理以上的知识点。


# 分别定义shared_processors, learn_processors, infer_processors
shared_processors = [DropnaProcessor()]
learn_processors = [CSZScoreNorm()]
infer_processors = [ZScoreNorm(fit_start_time='20210101', fit_end_time='20210110')]

dh_pr_test = DataHandlerLP(instruments='sh000300',
                           start_time='20210101',
                           end_time='20210120',
                           process_type=DataHandlerLP.PTYPE_I,
                           learn_processors=learn_processors,
                           shared_processors=shared_processors,
                           infer_processors=infer_processors,
                           data_loader=qdl)


按照以上设定,_infer_df应该是去空值,且在时序上标准化处理了;_learn_df应该是去空值,且在截面上标准化处理了,我们验证一下:


# 原始数据
_raw_df = dh_pr_test.fetch(data_key=DataHandlerLP.DK_R)

# 处理后的数据
_infer_df = dh_pr_test.fetch(data_key=DataHandlerLP.DK_I)
_learn_df = dh_pr_test.fetch(data_key=DataHandlerLP.DK_L)

# 由于shared_processors为去空值,可以看出_infer_df和_learn_df中的空值都没有了
_infer_df.isna().sum() # 返回0,表示没有空值行
_learn_df.isna().sum() # 返回0,表示没有空值行

# 返回False,说明两者不相等
_learn_df.xs('20210105').head() == _infer_df.xs('20210105').head()



Dataset


Dataset主要是为模型训练注入数据,其中主要的参数有:


  • handler:实例化的Data Handler;


  • segment:训练、验证、测试数据集的划分。


from qlib.data.dataset import DatasetH
# 实例化Data Loader
market = 'sh000300' # 沪深300股票池代码,在instruments文件夹下有对应的sh000300.txt
close_ma = ['EMA($close, 10)', 'EMA($close, 30)'] # EMA($close, 10)表示计算close的10日指数加权均线
ma_names = ['EMA10', 'EMA30']
ret = ["Ref($close, -1)/$close-1"] # 下一日收益率, Ref($close, -1)表示下一日收盘价
ret_name = ['next_ret']
qdl_ma_gp = QlibDataLoader(config={'feature':(close_ma, ma_names), 'label': (ret, ret_name)})

# 实例化Data Handler
shared_processors = [DropnaProcessor()]
learn_processors = [CSZScoreNorm()]
infer_processors = [ZScoreNorm(fit_start_time='20190101', fit_end_time='20211231')]

dh_pr_test = DataHandlerLP(instruments='sh000300',
                           start_time='20190101',
                           end_time='20211231',
                           process_type=DataHandlerLP.PTYPE_I,
                           learn_processors=learn_processors,
                           shared_processors=shared_processors,
                           infer_processors=infer_processors,
                           data_loader=qdl_ma_gp)

ds = DatasetH(dh_pr_test, segments={"train": ('20190101', '20201231'), "test": ('20210101', '20211231')})


配置好Dataset之后就可以使用prepare方法准备数据,prepare重要的参数有:


  • col_set,选择需要处理的数据列,默认是全部;


  • data_key,返回数据的类型,参考上面关于data_key参数的解读。


# 在模型训练前调用prepare,准备训练数据
ds.prepare('train')

# 在模型测试时调用prepare,准备测试数据
ds.prepare('test')



总结


掌握了数据三剑客对于后面有效训练模型至关重要,今天的分享就到这里,相关notebook会上传至Github,点击阅读原文!


希望大家多Follow,多给星⭐️

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
如此臆想中国,也算“脑洞大开”!| “且看美国毁三观”系列评论(二)网络与复杂系统(二)洋河,再度崛起(二)简单粗暴省税之退休计划篇 (二) 三张图看清能不能存IRA大字诀布雷维克的幽灵(二):文化马克思主义?​中国视角看俄罗斯政治理念(二)“国际秩序”、新欧亚主义连载:数据殡葬师——一个美国中年理工男的原创元宇宙科幻小说(九)惨了!澳洲最新研究:数百万新冠康复者,面临致命急性病风险!发病率是官方数据2倍“域外黑手”赚大钱,是美国的荣耀? | 且看“谎言帝国”系列评论(二)Qlib来啦:策略篇(一)大数据:数字经济助推器相逢本是一场梦(二)也说几句俄乌战争我从2000公里外收养的这只小土狗狗,后续故事来啦:)数据跨境安全网关条款评注(二): “互联网接入”、“线路”与“服务器托管”——翻墙产业“关键”基础设施你应该知道的死亡教育:与光同尘 我心安宁(二)北京“秘境”(二)土改的结果,把地富搞穷了, 贫下中农也没富, 最倒霉的是从城里跑回老家分到土地的亚历山大,亚历山大娃,谢尔盖2022 年,一个书单里的远见与未见(二)唐山事件:舆情,及其背后的社会、心理、伦理(二)看电视连续剧《人世间》战争引擎,走向“续命”和“争霸”不归路! | “且看北约”系列评论(二)连载:数据殡葬师——一个美国中年理工男的原创元宇宙科幻小说(十)足球追梦人孔兵(二)Qlib来啦:模型训练篇英国骄傲月限定来啦:彩虹硬币/邮票/奶昔/白T...买起来!VR陀螺五一宅家系列(二):元宇宙里看了场NBA,体验前排观赛视角浴血香江︱从草根到特首:李家超的人生逆袭之路(二)京城联的豪华少儿外教团队——足球追梦人孔兵(二十二)用 Spark SQL 进行结构化数据处理 | Linux 中国做题家们的悲歌(二):生理与心理的终身缺陷大波士顿地区顶尖美初推荐(二)!中国说到做到,美国出尔反尔—— | 且看美国人权系列(二)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。