您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[民生证券]:量化分析报告:大语言模型(LLM)在量化金融中的应用展望 - 发现报告
当前位置:首页/其他报告/报告详情/

量化分析报告:大语言模型(LLM)在量化金融中的应用展望

2023-03-23叶尔乐民生证券足***
量化分析报告:大语言模型(LLM)在量化金融中的应用展望

本公司具备证券投资咨询业务资格,请务必阅读最后一页免责声明 证券研究报告 1 量化分析报告 大语言模型(LLM)在量化金融中的应用展望 2023年03月23日 ➢ 当前大语言模型(LLM)成为市场关注焦点,本报告将从各个角度展望LLM在量化金融领域的应用。LLM的代表模型GPT-4是一个基于预训练的给定上文推测下文(单词)的神经网络。通过自回归语言模型,GPT实现了从单词推断到完整回答的功能。 ➢ 如果仅仅是根据上文“猜”下文,GPT-4又是如何产生逻辑性的? 第一个重要的原因在于超大量样本训练带来的智能涌现,通过大规模样本的输入和训练,量变引起质变导致GPT学会了部分逻辑。第二个重要的原因在于RLHF技术,以人类偏好引导GPT进行语言输出实现了有效的人机交互。 ➢ LLM的三大特点:“零示例推理者”;不是高级版本的搜索引擎;解决的不仅仅是“语言问题”。GPT模型通过“思考链”的模式推理,对原先无法回答的问题进行“分而治之”的解答,最终得到正确答案的概率大幅提升。GPT的能力并不来自对训练数据的直接“记忆”和“搜索”。除了传统的文本理解、文本分类、情感分析、文本对话、文本摘要等工作以外,GPT还可以进行指令编程、逻辑推理、文学创作等等功能,并且未来通过多模态有望处理更丰富的任务。 ➢ LLM对量化研究的启示:LLM的出现无疑会提升整体量化研究的效率。量化金融未来可能形成“黑箱”为基础,“白箱”为交互的发展模式。提出一个好问题仍是未来量化研究的重要要素。 ➢ LLM在量化金融中的应用展望: 1、可以用于提炼研报重点,将投资者从纷繁复杂的信息中解放出来; 2、可以帮助基本面投资者进行定量分析、策略构建、代码编程; 3、通过它及时知晓市场当下的投资热点和主题,节省复盘时间; 4、高效的文本比对能力可以被广泛应用于各种政策研究中; 5、可对大量上市公司发布的投资者交流纪要进行学习和总结,凝练重要投资信息; 6、公司间相似性,产业链关系刻画,辅助构建产业图谱; 7、“思考链”模式更精准的识别投资者情绪,给出更准确的情绪标签; 8、基金调研文本的归纳与标签化,辅助定性评价; 9、ESG领域对非标准文本和高管讲话的深度理解和分类; 10、对人类反应的有效模拟可助力行为金融学发展。 ➢ 风险提示:1)本文中所有大语言模型的问答均为测试案例,不构成任何投资建议。2)技术发展与应用落地不及预期。 [Table_Author] 分析师 叶尔乐 执业证书: S0100522110002 邮箱: yeerle@mszq.com 相关研究 1.量化周报:震荡延续,创业板50ETF规模持续大幅提升-2023/03/19 2.量化专题报告:量化捕捉宏观驱动下的行业戴维斯双击机会-2023/03/16 3.量化周报:社融大增,市场转牛概率提升-2023/03/12 4.量化专题报告:绝对收益的炼成:公募固收类基金收益全解析-2023/03/06 5.量化周报:震荡延续但风险较低-2023/03/05 量化分析报告 本公司具备证券投资咨询业务资格,请务必阅读最后一页免责声明 证券研究报告 2 目录 1 大语言模型的特点与功能 ......................................................................................................................................... 3 1.1 LLM的基础原理 ................................................................................................................................................................................. 3 1.2 LLM的功能特点 ................................................................................................................................................................................. 6 2 大语言模型在量化金融中的应用展望 ........................................................................................................................ 9 2.1 LLM对量化研究的启示 ..................................................................................................................................................................... 9 2.2 LLM在量化金融中的应用展望 ........................................................................................................................................................ 9 3 参考文献 .............................................................................................................................................................. 22 4 风险提示 .............................................................................................................................................................. 24 插图目录 .................................................................................................................................................................. 25 量化分析报告 本公司具备证券投资咨询业务资格,请务必阅读最后一页免责声明 证券研究报告 3 1 大语言模型的特点与功能 1.1 LLM的基础原理 近期随着OpenAI的GPT-4模型发布、百度文心一言发布、微软Copilot发布,大语言模型(LLM,Large Language Model)成为市场关注焦点。对于AI模型运用较多的量化金融领域,LLM将会带来怎样的改变?本报告将从各个角度进行LLM在量化金融领域应用的展望。 在展望未来应用之前,我们首先以GPT模型为例简要解释LLM的基础原理。2023年3月16日,OpenAI发布了GPT-4的技术报告,其中用一句话来介绍GPT-4即:GPT-4是一个基于预训练的Transformer模型,用于预测某一文本的下一个字词(token)。也就是说GPT-4是一个给定上文推测下文(单词)的神经网络。同时,相比于GPT的早期版本,GPT-4的输入拓展到了图片。 图1:GPT-4的基本功能 资料来源:民生证券研究院绘制 那么GPT-4是如何通过预测下个单词来达成回答一段话的功能的?主要是将生成的单词重新加回到上文中作为新的输入,使得模型继续生成下一个单词,循环往复达到回答一段话的功能(称为Autoregressive LM,自回归语言模型),类似我们在使用智能输入法的过程中,输入法给出的对下一个单词的不断预测。其基础模型Transformer来自2017年谷歌在NIPS上提出的论文“Attention is all you need”。其克服了传统序列推导模型(Sequence transduction model)采用RNN时面临的问题,成为了解决此类问题新的通用模型。 量化分析报告 本公司具备证券投资咨询业务资格,请务必阅读最后一页免责声明 证券研究报告 4 如果GPT-4仅仅是根据上文“猜”下文,其又是如何产生逻辑性的?我们知道GPT-4模型不仅可以进行简单的对话聊天,还可以实现指令识别、总结、推断、模仿等一系列更为高级的智能。甚至还可以在人类知识水平测试中达到与普通人类似的水准。那么这些智能是如何通过大语言模型训练得到的? 图2:GPT模型在人类知识水平测试中的表现(分位数下限) 资料来源:”GPT-4 Technical Report”,民生证券研究院 图3:GPT-4的“看图做物理题” 资料来源:”GPT-4 Technical Report”,民生证券研究院 第一个重要的原因在于超大量样本训练带来的智能涌现。语言是人类知识传承的载体,语言中本身蕴含着人类指令识别、总结、推断、模仿的行为,通过大规模样本的输入和训练,量变引起质变导致GPT学会了部分逻辑,称为Scaling law,也被解读为“涌现”现象。“涌现”是自然界较为普遍的一种现象,指的是某种规则单独表达时不存在,但是在大规模互相作用下出现的特殊模式,比如仅 量化分析报告 本公司具备证券投资咨询业务资格,请务必阅读最后一页免责声明 证券研究报告 5 采用一个简单的复二次多项式f(z)=z^2+c进行大量迭代计算便可以得到模式复杂且在宏观上特征显著的Mandelbrot集。在大语言模型中,训练量或者参数量提升到一定临界值后,会导致模型的表现大幅增强,而在数量级不够的情况下无论怎么训练表现都将难有起色。在2022年的论文“Emergent Abilities of Large Language Models”中研究者就测试得到了支持该论据的实验结果。各类模型的预测效果随着训练量或者参数量达到某一临界值后出现了质的飞跃。 图4:各LLM预测效果与训练量(FLOPs)关系 图5:各LLM预测效果与模型参数量关系 资料来源:“Emergent Abilities of Large Language Models”,民生证券研究院 资料来源:“Emergent Abilities of Large Language Models”,民生证券研究院 GPT-4的模型发展也是一定程度上依靠训练量和参数量的大幅提升。GPT-3相比于GPT-1,训练数据量增加了9000多倍,模型参数量增加了约1500倍。海量的预训练数据集加上少量的优质范例数据辅助监督学习,使得大语言模型具备了基础智能。 图6:GPT各代模型数量级差异 资料来源:OpenAI,民生证券研究院,注:缺失数据为未公布 第二个重要的原因在于RLHF技术(Reinforcement learning for human feedback)。海量样本下的预训练保证了GPT能够获取海量的知识,但无法保证GPT能够以人类习惯的方式进行表达和交互,整体的表达可能有“瞎编”、“拼接”、“生硬”等问题。因此,以人类偏好引导GPT进行语言输出是实现有效人机交互的重要步骤。在2020年发表的论文“Learning to summarize from human feedback”中OpenAI提出了利用人工标注样本方式对GPT进行强化学习的方法。通过人工比对GPT给出