您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[亿欧智库]:2023中国AIGC商业潜力研究报告 - 发现报告
当前位置:首页/行业研究/报告详情/

2023中国AIGC商业潜力研究报告

信息技术2023-07-10亿欧智库机构上传
2023中国AIGC商业潜力研究报告

2023中国AIGC商业潜力研究报告亿欧智库https://www.iyiou.com/researchCopyright reserved to EO Intelligence, July2023 前言在人工智能发展的漫长历程中,如何让机器学会创作一直被视为难以逾越的天堑,“创造力”也因此被视为人类与机器最本质的区别之一。然而,人类的创造力也终将赋予机器创造力,把世界送入智能创作的新时代。从机器学习到智能创造,从PGC,UGC到AIGC,我们即将见证一场深刻的生产力变革,而这份变革也会影响到我们工作与生活的方方面面。本报告将向所有关注未来科技的相关机构、从业者、创业者、投资人传递亿欧对AIGC的市场潜力场景的洞察和优秀企业案例。üAI跨入生成式阶段ü预学习引发AI技术质变,摆脱过去AI的高门槛、训练成本高、生成内容单一的痛点。ü基于大模型的泛化能力,知识蒸馏与微调后进入专用领域的应用,覆盖短头、长尾的场景。ü多模态打破多种信息之间的边界,提升AIGC内容多样性与技术多样性,拓宽应用的场景。原因1原因2原因3ü中国生成式AI与国外先进水平存在一定差距,但凭借国内应用场景的多样性,具备AIGC的数据积累优势,有望追上先进步伐。中外差距üAIGC大模型生态圈解析ü短期内,扩大算力是AIGC的刚需。üFPGA及ASIC有望在远期成为主力AI芯片。算力成本为大模型成本65%算力为大模型能力的下限ü为防止中国大模型出现“数据马太效应”,大模型亟需高质量的标注数据进行训练,提高生成能力。数据为大模型能力的上限ü目前大模型以服务B端为主,其中平台服务模式的占比相对较高高质量的算法使大模型能力贴近上限数据成本为大模型成本23%算法成本为大模型成本12%亿欧智库:基础原子能力潜力指数亿欧智库:多模态原子能力潜力指数ü亿欧智库:AIGC商业潜力边界模型2030年中国AIGC市场规模将接近万亿01-导览02-导览03-导览04-导览0.510.690.761.171.87代码视频音频图像文本0.160.180.200.220.25知识图谱AIGS合成数据虚拟人聊天机器人认知谬误边界基础设施边界技术可行性边界经济价值边界2亿欧智库:AIGC原子能力商业潜力评估模型规模潜力利润潜力泛化与通用场景专业场景基础原子能力多模态原子能力 目录CONTENTSAIGC概述1.1人工智能概念梳理1.2生成式人工智能因素分析1.3中外人工智能对比1.4AIGC原子能力变化01AIGC生态底座价值链分析2.1AIGC生态底座价值拆解2.2算力价值分析2.3数据价值分析2.4算法价值分析2.5AIGC生态服务商总结2.6大模型生态底座产业图谱02AIGC原子能力商业潜力分析3.1AIGC原子能力覆盖行业梳理3.2AIGC基础模态原子能力分析3.3AIGC多模态原子能力分析3.4AIGC原子能力商业潜力评估总结3.5原子能力产业图谱3.6优秀企业案例03AIGC商业潜力规模预判4.1AIGC商业潜力边界模型4.2边界突破趋势4.3AIGC未来商业潜力规模预测04 目录CONTENTSAIGC概述1.1人工智能概念梳理1.2生成式人工智能因素分析1.3中外人工智能对比1.4AIGC原子能力变化01AIGC生态底座价值链分析2.1AIGC生态底座价值拆解2.2算力价值分析2.3数据价值分析2.4算法价值分析2.5AIGC生态服务商总结2.6大模型生态底座产业图谱02AIGC原子能力商业潜力分析3.1AIGC原子能力覆盖行业梳理3.2AIGC基础模态原子能力分析3.3AIGC多模态原子能力分析3.4AIGC原子能力商业潜力评估总结3.5原子能力产业图谱3.6优秀企业案例03AIGC商业潜力规模预判4.1AIGC商业潜力边界模型4.2边界突破趋势4.3AIGC未来商业潜力规模预测04 5资料来源:卡内基梅隆大学、朱松纯《浅谈人工智能:现状、任务、架构与统一》、公开资料、亿欧智库整理AI跨入3.0+深度加强学习范式,利用奖惩模型强化生成能力uAIGC(AIGeneratedContent)是基于GAN、预训练大模型、多模态技术融合的产物,通过已有的数据寻找规律,并通过泛化能力形成相关内容。从商业角度看,AIGC是一种赋能技术,通过高质量、高自由度、低门槛的生成方式为内容相关场景及生产者进行服务。u早期决策式AI依赖逻辑判断的纯粹性,万物都能完美观察、任何测量不存在误差的前提不符合真实世界的“不确定性”;概率范式基于经验主义与理性主义一定程度上解决了“不确定性”;深度加强学习可以利用合理的数据丰度与奖惩模型达到类人类智能的水平,实现高质量内容与内容创作自动化;通用型AI具备泛人类智能,可以像人类一样执行各种任务。自迭代能力伦理道德协作能力执行能力感知能力学习能力决策能力认知能力1.0逻辑范式2.0概率范式3.0深度学习范式3.0+深度强化学习范式4.0??范式AI综合能力AI范式决策式AI生成式AI通用型AIAI在早期工作在于关注逻辑、自动定理证明和操纵各种符号,该类AI理解基础的物理知识,具备一定的逻辑能力,通过分析数据和信息,帮助使用者更好的做出判断与决策。但基于逻辑的AI缺乏感知能力,对真实世界普遍存在的“不确定性”较难处理。概率与统计可以初步解决“不确定性”,但是概率范式需要经验主义先于理性主义进行填充。以Bayes模型为例,需要经验主义者先设定先验数据。以数据为中心,深层次的网络堆叠为架构,样本数据及数据种类的丰富,训练的模型泛化能力就越强,效果越好。同时深度学习训练的AI已经可以很好的执行任务。不过,强化学习的效果却不一定受到数据丰度的影响。强化学习遵循Markov原则,只要奖惩设计合理就能实现不错的效果。Markov奖惩模型:智能体环境奖励行动状态具备泛人类智能的AI,可以像人类一样执行各种任务。目前位置 6资料来源:公开资料、亿欧智库整理历次AI寒潮沉淀的技术,终在算法、算力、数据三者共振的情况下诞生出大模型u在1956年的达特茅斯会议上,“人工智能”的概念被首次提出,六十多年以来,历经逻辑推理、专家系统、深度学习等技术的发展,人工智能也经历了数次沉浮,有如日中天的发展时期,也有因技术不足热度退去后的寒潮。而每一次寒潮后,也会经历技术的蛰伏发展,为人工智能带来里程碑式的进步。亿欧智库:AI发展的2.5次寒潮1970年代第1次寒潮当时主要研究集中在逻辑抽象、逻辑运算和逻辑表达等方面,出现许多逻辑证明相关的逻辑程序语言,如著名的Prolog。但是当时研发出来的人工智能系统缺乏实用性,几乎无法解决任何实际问题,无法达到人们期望,政府逐步减少投资,高潮衰落,进入第一次寒冬。1990年代第2次寒潮出现神经系统与专家网络。神经系统在解决复杂问题上能力不足,且训练时需要的数据量较大。专家系统的实用性只局限于特定领域,同时升级难度和维护成本都居高不下。日本推出第五代计算机计划——抛弃冯诺依曼架构,采用新的并行架构,采用新的存储器,新的编程语言,以及能处理自然语言、图像的新操作方式,但局限于理论和计算机算力,以及知识完全依靠人工输入和维护,最终宣告项目失败。2010年代第2.5次寒潮存在计算能力不足的瓶颈,以深度学习为驱动力的人工智能技术更多仍停在分类、聚类和预测阶段,能够完全复制人类思维方式的强人工智能依旧发展缓慢。互联网公司对AI的开发便捷程度与先进程度超过许多AI公司,因为互联网可以使用自己的不公开的内部数据进行训练。感知器l神经网络的第一个里程碑算法l可以解决简单的线性分类问题l为后期更复杂的算法奠定基础Hopfield神经网络l一种具有循环、递归特性,结合存储和二元系统的神经网络l提供了模拟人类记忆的模型l在机器学习、联想记忆、模式识别、优化计算等方面有着广泛应用多层前向BP网络l非线性映射能力:适合于求解内部机制复杂的问题l自学习和自适应能力:训练时能自适应的将学习内容记忆于网络的权值中l容错能力:局部神经元受到破坏后对全局的训练结果不会造成很大的影响深度学习l弥补了传统BP神经网络的缺陷,利于可视化和分类,识别精度上升,训练难度下降l无需人工提取规则特征,机器通过海量数据,即可自动实现规则的特征提取,有机器本身完成最复杂的算法归纳芯片&服务器&数据l计算机硬件设施飞速发展,GPU、TPU等新一代芯片及FPGA异构计算服务器,提供强大算力l互联网、物联网发展迅猛,为人工智能提供了规模空前的训练数据,数据可获得性大幅提升ChatGPT出现亿欧智库:AI技术发展里程碑共振:振动频率相同的物体、当一个发生振动时、引起其他物体振动 7资料来源:arXiv、亿欧智库整理预学习引发AIGC技术质变u预学习的出现解决了过去生成式大模型的痛点,但预学习本身存在模型尺寸、小样本数量、微调能力的不可能三角,解决方法也不尽相同:对于极大模型,使用知识蒸馏;对于少样本学习能力,进行数据增强;对于监督训练表现欠佳的模型,进行提示学习。u以GPT为例,在目前阶段,厂商通常的做法是扩大模型尺寸。亿欧智库:预学习大模型引发AIGC技术质变亿欧智库:预学习之不可能三角与对应解决方案预学习大模型的出现解决了过去各类生成式模型使用门槛高、训练成本高、内容生成简单和质量偏低的痛点,满足真实内容消费场景中的灵活多变、高精度、高质量等需求。预学习思路:•将大量低成本收集的训练数据集中,学习其中的共性•然后将其中的共性移植到特定任务的模型中,再进行微调,去学习该特定任务的特性部分合理的模型尺寸(小于10亿参数量)先进的小样本先进微调能力训练任务共性学习特性学习微调特定任务•知识蒸馏•大模型是网络的集合,拥有良好的性能和泛化能力,小模型网络规模较小,表达能力有限•降低模型时延,压缩网络参数:利用大模型学习的知识指导小模型训练,使得小模型与大模型性能相当,而参数数量可大幅降低,从而实现模型压缩与加速•提升模型精度:训练一个更高精度的大模型,用大模型对原模型知识蒸馏,获得更高精度•数据增强•缺少足够的标记数时,可以生成伪标签和伪数据实例,利用这些额外数据,模型能够进行有效的监督训练。•提示学习•利用离散提示(离散文本模板)或连续提示(连续参数嵌入)进行微调,在微调期间仅更新离散提示或连续提示中的一种,提高准确度 8资料来源:公开资料、亿欧智库整理AI大模型底座驱动AIGC概念落地u在AIGC概念实际落地的过程中,只有基础大模型与通用技术是远远不够的,还需要能与场景融合匹配,更需要支持应用落地的工具平台和开放包容的创新生态,三者协同优化,加速AIGC落地。u在全应用流程中,主要通过大量的无标注文本进行共性学习,获得预训练大模型,此后再根据应用场景特征进行微调,更好与项目任务适配。亿欧智库:AI大模型驱动AIGC概念落地工具平台生态大模型特性学习共性学习通过海量无标注文本和自监督学习,进行共性学习,得到预训练大模型通过任务相关少量数据进行精调,进行特性学习通过工具平台支撑生态应用落地•通过学习海量无标注文本与数据进行预训练和自学习监督,提高AI大模型在前期学习的范围与深度,提升模型水平,赋能大模型在后续具体任务中的应用共性学习•在共性学习“预训练”的基础上,根据具体应用场景的特性,使用少量数据进行微调,高精度地完成任务特性学习•大模型:在技术发展和产业应用方面占据重要地位,主要包含基础、任务和行业大模型,三层大模型相互促进,共同支撑产业转化与发展•工具平台:推出了基于大模型的AI开发平台、工具套件、大模型API等,让更多开发者能够低门槛地将大模型应用于自己的业务中,从而助力开发者效率提升•生态:释放大模型的潜力,推动AIGC技术的广泛应用和产业化•大模型支撑生态发展,而生态反哺大模型进行技术进步模型+工具平台+生态模式需要协同优化,以更好帮助AIGC在不同领域快速落地 9资料来源:CSDN、中信建投证券、亿欧智库整理多模态打破多种信息之间的边界并生成质量稳定的内容,提升AIGC内容多样性u相比于信息模态单一的单模态模型,多模态模型可以同时处理更多模态的信息并将它们相互转化。u现今多模态模型以图文多模块为主。Tr