摘要: 相较于单任务学习,多任务学习可以通过参数共享的形式减少单任务学习中的过拟合问题,提升模型泛化能力。多任务学习能够高效训练多个标签,可以利用标签间的共性学习到通用特征,减少单个任务过拟合的风险,提升模型的泛化能力,同时也能够利用标签间的差异性,实现知识动态迁移与协作训练,通过增大训练样本的方式,降低单个任务的训练难度,改善训练结果。 本文通过构建多目标预测模型实现中信一级行业的行业轮动策略,模型较单任务目标预测具有显著的提升。我们采用2013年1月4日至2023年12月25日的中信一级行业指数数据,构建模型特征值,对中信一级行业未来一周及未来一个月的收益率相对强弱进行预测,构建固定交易周期的行业轮动策略,不同交易周期下多目标预测模型行业轮动策略均优于单目标预测模型。 接下来我们比较了四个常用模型间的效果差异(XGBoost,LightGBM,单任务学习STL,多任务学习MTL)。预测未来一周收益率方面,多任务学习具有明显的优势,能够较准确地预测对应行业的收益率排序,从而获得层次清晰的分组回测结果,XGBoost和单任务学习次之,LightGBM预测效果较差。预测未来一个月的收益率方面,LightGBM预测效果最优,多任务学习仍旧优于单任务学习,呈现出更强的预测能力。 将决策树模型与神经网络模型结果进行复合,策略稳定性小幅上升。在预测周期为一周的情况下,“XGBoost+多任务学习MTL”的组合模型在一定时间段内具有优势;在预测周期为1个月的情况下,组合模型均优于XGBoost模型与多任务学习模型。 风险提示:本报告结论完全基于公开的历史数据进行计算,分析结论并不预示其未来表现,也不能保证未来的可持续性,亦不构成投资收益的保证或投资建议;模型假设风险;模型估测不准确风险;部分私募基金不公布产品业绩,可能导致文中私募统计数据出现偏误。 文章来源 本文摘自:2024年6月9日发布的《多任务学习在行业轮动策略中的应用》孙雨,资格证书编号;S0880521090002 王继恒,资格证书编号:S0880522100003 更多国君研究和服务 亦可联系对口销售获取 重要提醒 本订阅号所载内容仅面向国泰君安证券研究服务签约客户。因本资料暂时无法设置访问限制,根据《证券期货投资者适当性管理办法》的要求,若您并非国泰君安证券研究服务签约客户,为保证服务质量、控制投资风险,还请取消关注,请勿订阅、接收或使用本订阅号中的任何信息。我们对由此给您造成的不便表示诚挚歉意,非常感谢您的理解与配合!如有任何疑问,敬请按照文末联系方式与我们联系。 法律声明