您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[德邦证券]:传媒行业AIGC专题一:探析AIGC的技术发展和应用 - 发现报告
当前位置:首页/行业研究/报告详情/

传媒行业AIGC专题一:探析AIGC的技术发展和应用

文化传媒2023-02-10德邦证券别***
传媒行业AIGC专题一:探析AIGC的技术发展和应用

请务必阅读正文之后的信息披露和法律声明 [Table_Main] 证券研究报告 | 行业专题 传媒 2023年02月10日 传媒 优于大市(维持) 证券分析师 马笑 资格编号:S0120522100002 邮箱:maxiao@tebon.com.cn 研究助理 市场表现 相关研究 1.《传媒互联网行业周报:ChatGPT加速商业化,AIGC或带来泛娱乐和互联网的革新》,2023.2.5 2.《分众传媒(002027.SZ)首次覆盖报告:当风轻借力,一举入高空》,2023.2.1 3.《腾讯控股(0700.HK)22Q4业绩前瞻及观点更新:宏观经济波动致收入端承压,降本增效成果释放带来利润端高增速》,2023.1.31 4.《百度集团-SW(9888.HK)22Q4及2022年全年业绩前瞻:疫情扰动或致经营短期承压,展望后续收入业绩双端修复》,2023.1.30 5.《春节档期票房超65亿,行业持续 复 苏 估 值 业 绩 双 升 可 期 》,2023.1.28 AIGC专题一:探析AIGC的技术发展和应用 [Table_Summary] 投资要点:  AIGC成为新的内容生产方式,跨模态生成值得重点关注。区别于PGC与UGC,AIGC是利用人工智能技术自动生成内容的新型生产方式。按照模态区分,AIGC可分为音频生成、文本生成、图像生成、视频生成及图像、视频、文本间的跨模态生成,细分场景众多,其中,跨模态生成需要重点关注。  自然语言处理(NLP)赋予了AI理解和生成能力,大规模预训练模型是NLP的发展趋势。NLP的两个核心任务分别是自然语言理解(NLU)和自然语言生成(NLG)。以ELMo、BERT、GPT为代表的预训练模型,降低了NLP的技术门槛。ELMo解决了“一词多义”的问题;BERT通过MLM(类似于完形填空)和NLP(判断句子是否相连)进行预训练,增强了上下文的理解能力。GPT通过预测下一个词,获得了生成能力;GPT-3在此基础上使用了更大的数据和更大模型,无需针对下游任务进行传统的微调,并且采用了小样本学习提升生成效果。  ChatGPT是NLP发展中具有里程碑式意义的模型之一。ChatGPT是OpenAI从GPT-3.5系列中的模型进行微调产生的聊天机器人模型。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。  生成模型赋予了AI创造力,扩散模型是最前沿的技术之一。AIGC的快速发展归功于生成算法领域的技术积累。GAN的核心思想是“生成”与“对抗”,相比传统的深度神经网络,GAN能产生更好的生成样本,但是仍需解决应用中的问题。扩散模型较GAN更接近人的思维模式,是基于马尔科夫链,通过学习噪声来生成数据。扩散模型实现了跨模态应用,包括OpenAI的GLIDE和DALL·E 2、谷歌的Imagen、Stability AI的Stable Diffusion等。  人工智能由单模态智能,向多种模态融合方向发展。建立统一的、跨场景、多任务的多模态基础模型或将成为人工智能发展的主流趋势之一。CLIP模型将语言信息和图像信息联合训练,能够链接文本和图片,成为跨模态生成应用的一个重要节点,“CLIP+其他模型”在跨模态生成领域成为一种较为通用的做法。2022年,微软提出的BEiT-3多模态基础模型,在视觉-语言任务处理上具备出色表现,包括视觉问答、图片描述生成和跨模态检索等。多模态提高了基础模型的灵活性,使其在其他模态的应用中发挥新的潜质。  未来,值得关注的技术要素包括:长文本生成、开放式文本生成、NeRF模型、扩散模型、跨模态大型预训练模型(支持的模态数据类型、模态对齐架构设计、支持的下游应用)、小样本学习及自监督算法、强化学习及环境学习等。  投资建议:把握AIGC技术催化和商业落地的投资机会。技术发展有望促进生产效率提升,并进一步创造新的消费和需求,有利于文娱内容和互联网行业。在AIGC和ChatGPT方面,我们建议持续关注技术发展和应用情况,把握技术催化和商业化落地带来的投资机会:1)具备AIGC和ChatGPT的技术探索和应用的公司:百度集团-SW、商汤-W、万兴科技、拓尔思等;2)具有海量内容素材且具有AIGC探索布局的,图片/文字/音乐/视频内容及平台公司腾讯控股,阅文集团、美图公司、视觉中国、中文在线、汉仪股份、昆仑万维、天娱数科、风语筑等。  风险提示:技术发展不及预期、监管政策变化、知识产权相关问题等。 -29%-24%-20%-15%-10%-5%0%5%2022-022022-062022-10沪深300 行业专题 传媒 2 / 20 请务必阅读正文之后的信息披露和法律声明 内容目录 1. AIGC的跨模态生成值得重点关注 ................................................................................ 5 2. 基于大模型预训练的NLP赋予了AI理解和生成能力 ................................................. 5 2.1. ELMo将输出的词向量作为特征,解决了“一词多义” ........................................... 7 2.2. BERT通过上下文预训练,提高了理解能力 ........................................................ 8 2.3. GPT-3利用超大数据和超大模型,省去了微调的过程 ......................................... 9 2.3.1. ChatGPT趋近人类价值观及意图,有望进一步商业化 ............................. 11 3. 基于大模型的主流生成模型赋予了AI创造力 ............................................................ 12 3.1. GAN是基于“生成”与“对抗”提出的生成模型 ....................................................... 13 3.2. 扩散模型更接近人的思维模式,实现了跨模态应用 .......................................... 13 3.2.1. 扩散模型实现了从文本到图像的跨模态应用 ............................................. 14 4. 人工智能由单模态智能,向多种模态融合方向发展 ................................................... 16 5. AIGC技术不断发展,有望带来更多商业化价值 ........................................................ 16 6. 投资建议:把握AIGC技术催化和商业落地的投资机会 ............................................ 18 7. 风险提示 .................................................................................................................... 19 行业专题 传媒 3 / 20 请务必阅读正文之后的信息披露和法律声明 图表目录 图1:内容生产模式的四个发展阶段 ................................................................................ 5 图2:自然语言处理的发展历史 ....................................................................................... 6 图3:大规模预训练模型大幅提升研发效率 ..................................................................... 6 图4:BERT的每一层都是双向模型;GPT为单向模型;ELMo为单项模型叠加 ........... 7 图5:大规模预训练语言模型的发展趋势之一是参数量不断增加 .................................... 7 图6:ELMo基于RNN,双向RNN可以利用前后文信息................................................ 8 图7:ELMo将词嵌入作加权和,给出最终的词向量 ....................................................... 8 图8:ELMo解决了一词多义问题,且兼顾语义与词性 ................................................... 8 图9:BERT的结构是Transformer中的Encoder部分 ................................................... 9 图10:BERT采用了预训练+微调的两阶段模型 .............................................................. 9 图11:NSP任务中输入向量生成示意图 ......................................................................... 9 图12:GPT模型结构 ....................................................