AI智能总结
基于GRU、TCN模型的深度学习因子选股效果研究 ——权益配置因子研究09 本报告导读: 张雪杰(分析师)0755-23976751zhangxuejie@gtht.com登记编号S0880522040001 本报告使用GRU和TCN模型训练深度学习因子,测试选股效果。模型效果上,GRU略好于TCN+GRU,略好于TCN;预测10日收益模型略好于预测5日模型。深度学习因子与低波动、低流动性因子相关性较高。构建指数增强选股策略,控制市值行业无暴露,2017年以来沪深300增强年化超额11.8%,本年超额-0.4%;中证500指数增强策略年化超额13.6%,本年超额2.7%;中证1000增强年化超额21.7%,本年超额9.9%;中证2000增强年化超额27.1%,本年超额9.3%。 朱惠东(分析师)0755-23976176zhuhuidong@gtht.com登记编号S0880525070025 投资要点: 风格轮动量化模型和月度观点介绍2025.07.13解码企业生命周期:股票投资的新范式探索2025.06.09量化赋能多路径破局绝对收益2025.06.03核心指数定期调整预测及基于全市场的套利策略研究2025.05.25从涨停板、"打板策略"到赚钱效应引发的情绪择时指标2025.05.22 模型训练过程说明。输入数据集:30日行情、60日行情、30周行情,6个特征(高、开、低、收、均价、换手率)。预测标签:t+1日至t+6日的5日均价涨跌幅、t+1日至t+11日的10日均价涨跌幅。训练过程:2017年以来,每年训练一个模型供下一年使用,使用前9年数据为训练集,第10年数据为验证集。损失函数:预测值和收益率的相关系数取负。使用模型:TCN、TCN+GRU、GRU。 单因子选股效果。多头组在中小市值股票池(中证1000、中证2000)超额更高,选股效果更好,因子值是否市值行业中性化影响较小;沪深300中因子原始值的效果明显好于市值行业中性化后因子值。市值行业中性化后因子超额收益明显减少,部分说明深度学习因子捕捉到风格轮动、行业轮动的规律。模型表现上,GRU略好于TCN+GRU,略好于TCN;预测10日收益模型超额收益略高于预测5日收益模型。 感谢实习生阳文韬、饶师媛、刘子睿对本文的贡献。 复合因子选股效果。深度学习因子与低波、低流动性因子相关性较高,反转因子也有一定相关性。与分钟高频因子、快照因子相关性不高,与基本面因子相关性较低。等权加权后的复合因子效果均好于单因子。构建指数增强策略,设置成分股不少于80%,单边换手率不超20%约束,控制市值行业无暴露,2017年1月以来,沪深300指数增强年化超额11.8%,超额最大回撤-6.0%;截至2025年6月30日,本年超额-0.4%,超额最大回撤-3.1%。中证500指数增强年化超额13.6%,超额最大回撤-7.1%;本年超额2.7%,超额最大回撤-4.2%。中证1000指数增强年化超额21.7%,超额最大回撤-9.3%;本年超额9.9%,超额最大回撤-2.1%。中证2000指数增强年化超额27.1%,超额最大回撤-5.2%;本年超额9.3%,超额最大回撤-3.4%。允许市值行业适当暴露(市值暴露最大偏离0.5个标准差,行业权重最大偏离2.5%),2017年1月以来,沪深300指数增强年化超额8.8%,超额最大回撤-9.90%;截至2025年6月30日,本年超额-1.7%,超额最大回撤-3.6%。中证500指数增强年化超额14.6%,超额最大回撤-9.2%;本年超额5.2%,超额最大回撤-1.6%。中证1000指数增强年化超额22.3%,超额最大回撤-8.3%;本年超额9.0%,超额最大回撤-1.6%。中证2000指数增强年化超额26.2%,超额最大回撤-5.2%;本年超额5.3%,超额最大回撤-3.6%。如果考虑双边0.3%交易费用,每年收益减少约3%。风险提示:量化模型基于历史数据构建,而历史规律存在失效风险。 请务必阅读正文之后的免责条款部分 目录 1.基于GRU和TCN训练深度学习因子..........................................................31.1.GRU和TCN模型介绍.............................................................................31.1.1.GRU模型............................................................................................31.1.2.TCN模型............................................................................................51.2.模型训练过程说明....................................................................................72.单因子选股效果展示......................................................................................92.1.不同股票池的因子rankIC........................................................................92.2.不同股票池的因子分组超额收益、因子收益......................................103.复合因子选股效果........................................................................................143.1.与常用选股因子相关性分析..................................................................143.2.不同股票池中复合因子选股效果..........................................................153.2.1.沪深300指数成分股.......................................................................163.2.2.中证500指数成分股.......................................................................173.2.3.中证1000指数成分股.....................................................................193.2.4.中证2000指数成分股.....................................................................213.2.5.中证全指指数成分股.......................................................................224.总结................................................................................................................245.参考文献........................................................................................................256.风险提示........................................................................................................25 在之前的权益配置因子研究系列报告中,我们依次研究了超预期因子、分钟高频因子、3秒快照因子在不同股票池的选股效果,介绍了中证500、中证1000和中证2000等指数增强策略的构建,实现了基于CNE6的A股风险模型(风险因子、协方差矩阵估计)。本篇报告使用GRU和TCN模型训练深度学习因子,并对其选股效果进行测试。首先,介绍GRU和TCN模型和训练过程。然后,采用日行情、周行情数据作为输入训练深度学习因子,并在各股票池进行单因子测试,展示选股效果。最后,等权加权得到复合因子,测试其在各股票池的指数增强策略表现。 1.基于GRU和TCN训练深度学习因子 深度学习模型在选股上应用越来越广泛。我们使用GRU、TCN模型训练深度学习因子。GRU模型虽然是循环神经网络RNN中比较简单的一个模型,但被证实有效后,以其预测效果好训练速度快的特点,在业内得以广泛使用。TCN模型是基于卷积神经网络(CNN)架构,通过因果卷积、扩张卷积和残差连接等技术,有效捕捉时间序列中的长期依赖关系的模型。下面对两个模型进行简要介绍。 1.1.GRU和TCN模型介绍 1.1.1.GRU模型 门控循环单元(Gated Recurrent Unit,GRU)是一种改进的循环神经网络(RNN)结构,由Cho等人(2014)提出,旨在解决传统RNN在处理长序列时的梯度消失/爆炸问题,并简化LSTM的复杂结构,同时保持对长期依赖关系的建模能力。GRU通过门控机制动态控制信息的保留与遗忘,广泛应用于时间序列预测、自然语言处理(如机器翻译、文本生成)和语音识别等领域。 数据来源:Olah(2015)Understanding LSTM Networks。 数据来源:Olah(2015).Understanding LSTM Networks。 GRU模型GRU包含两个门控单元:更新门(Update Gate)和重置门(Reset Gate),均为sigmoid激活函数(输出0~1的权重)。其计算过程如下: 更新门(Update Gate,𝑧௧): 作用:决定前一步隐藏状态(ℎ௧−1)有多少保留到当前状态(ℎ௧)。 公式:𝑧௧=ܹ(ߪ∗ [ℎ௧−1ݔ ,௧]) 行为: 若𝑧௧≈1,则直接传递前一步隐藏状态(类似“记忆”)。若𝑧௧≈0,则忽略前一步状态,依赖当前输入。 重置门(Reset Gate,ݎ௧): 作用:决定前一步隐藏状态有多少用于生成候选隐藏状态(ℎ௧̃)。 公式:ݎ௧=ܹ(ߪ∗ [ℎ௧−1ݔ ,௧]) 行为:若ݎ௧≈0,则忽略前一步状态,仅依赖当前输入(类似“重置”记忆)。若ݎ௧≈1,则前一步状态与当前输入共同决定候选状态。 GRU模型关键特性与优势: 1)缓解梯度消失:通过门控机制保留长期依赖信息,避免梯度在反向传播时迅速衰减。2)并行计算:虽然仍按时间步展开,但每个门控的计算可并行化(相比LSTM更高效)。3)参数效率:合并细胞状态与隐藏状态,减少冗余参数,适合小数据集或 轻量级应用。 4)灵活性:可双向(Bi-GRU)或堆叠多层(Stacked GRU)以增强上下文建模能力。 GRU模型应用场景与实例: 1)时间序列预测:股价预测、气象数据建模。2)自然语言处理:a)机器翻译(如Google早期神经翻译模型)。b)文本生成(如诗歌、对话系统)。3)语音识别:声学模型中的序列到序列(Seq2Seq)架构。4)生物信息学:DNA序列分析、蛋白质结构预测。 1.1.2.TCN模型 时间卷积网络(Temporal Convolutional Network,TCN)是一种专为时间序列