您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[天津大学]:人工智能:历史、现状和未来 - 发现报告

人工智能:历史、现状和未来

信息技术2025-12-31朱鹏飞天津大学F***
人工智能:历史、现状和未来

汇报提纲: 三起两落:人工智能发展史一 智能涌现:大模型时代二 东数西算:算力基础设施三 数据为王:低空感知平台四 百花齐放:人工智能应用场景五 未来已至:拥抱智能时代六 汇报提纲: 三起两落:人工智能发展史一 智能涌现:大模型时代二 东数西算:算力基础设施三 数据为王:低空感知平台四 百花齐放:人工智能应用场景五 未来已至:拥抱智能时代六 人工智能的诞生 达特茅斯会议:1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,约翰·麦卡锡、马文·闵斯基(人工智能与认知学专家)、克劳德·香农(信息论的创始人)、艾伦·纽厄尔(计算机科学家)、赫伯特·西蒙(诺贝尔经济学奖得主)等科学家正聚在一起,讨论用机器来模仿人类学习以及其他方面的智能。 达特茅斯会议首次正式提出人工智能一词,ArtificialIntelligence,AI,一直被沿用至今,因此,1956年也就成为了人工智能元年。图灵测试:如果机器能回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则机器通过测试,并被认为具有人类智能。 图灵测试至今仍然被当做人工智能水平的重要测试标准之一 人工智能经历了半个多世纪的发展历程,涌现出了众多影响深远的技术、产品 人工智能的黄金时代(1956—1974) 日本早稻田大学Waseda University1972年完成了WABOT-1机器人原型,搭载着机械手脚、人工视觉、听觉装置 美国国防高级研究计划署DARPA/ARPADefense Advanced Research Projects Agency 亚瑟塞缪尔1901-1990Arthur Lee Samuel机器学习之父1959年开发的西洋跳棋程序打败了当时的西洋棋大师 达特茅斯会议之后,人工智能研究进入了20年的黄金时代 人工智能的第一次寒冬(1974—1980) 计算能力有限 计算量爆炸 莫拉维克悖论 莱特希尔报告1973James Lighthill揭开人工智能寒冬序幕 人类的高级逻辑思维需要运算量较少,而本能和直觉相关的能力却需要巨大运算量 即使3岁婴儿也已经观看过数亿张围像,听过数万小时的声音 人工智能繁荣期(1980—1987) 专家系统Expert System模拟人类专家决策能力的计算机软件系统根据人类专家编写的知识库,依照计算机程序设定的推理规则,回答专业特定领域的问题或提供知识 神经网络复兴1982 约翰·霍普菲尔德John Hopfield发明了具有全新学习能力的Hopfield网络杰弗里·辛顿GeoffreyHinton和大卫·鲁梅哈特David Rumelhart发明了可以训练的反向传播神经网络 VaMORs德国慕尼黑联邦国防军大学1986年真正意义上第一辆自动驾驶汽车 CYC汇集人类全部常识的专家系统www.cyc.comXCON专家系统创造商业价值 专家系统开始在特定领域发挥威力,也带动整个人工智能技术进入了一个繁荣阶段 人工智能第二次寒冬(1987—1993) Elephants Don't Play Chess专家系统并不是人工智能的正确路径人工智能应该具有身体从对世界的感知中学习智慧 朱迪亚·皮尔Judea Pearl1936~贝叶斯网络Bayesian networks算法发明人1988年将概率论方法引入人工智能推理2011年图灵奖得主 雅恩·乐昆1960~Yann LeCun卷积神经网络创始人美国国家工程院院士1989年,AT&T贝尔实验室的雅恩·乐昆和团队使用卷积神经网络技术,实现了人工智能识别手写的邮政编码数字图像 LISP机器市场崩溃和弗诺·芬奇技术奇点理论使得人工智能领域再一次进入寒冬 人工智能稳健发展期(1993—2015) 2006年,杰弗里辛顿奠定了深度学习的核心技术,出版了《Learning Multiple Layers of Representation》 1997年,IMB的计算机深蓝Deep blue战胜了人类世界象棋冠军卡斯帕罗夫 2007年,李飞飞发起了ImageNet,在挑战赛上设计的深度卷积神经网络,被认为是深度学习革命的开始 2009年,吴恩达及其团队开始研究使用图形处理器进行大规模无监督式机器学习,自主识别图形中的内容 2016年和2017年,谷歌研发的AlphaGo连续战胜曾经的围棋世界冠军韩国李世石和中国的柯洁 2024年,以ChatGPT和Kimi为代表的大语言模型涌现出强大的学习能力 汇报提纲: 三起两落:人工智能发展史一 智能涌现:大模型时代二 东数西算:算力基础设施三 数据为王:低空感知平台四 百花齐放:人工智能应用场景五 未来已至:拥抱智能时代六 参数规模、技术架构、支持模态、应用领域都在迅速的发展 国家政策对大模型的关注与引导 《安徽省人民政府关于印发打造通用人工智能产业创新和应用高地若干政策的通知》安徽省人民政府办公厅2023年10月 《成都市加快大模型创新应用推荐人工智能产业高质量发展的若干措施》成都市经济和信息化局等部门2023年8月 《杭州市人民政府办公厅关于加快推进人工智能产业创新发展的实施意见》 《北京市加快建设具有全球影响力的人 工 智 能创 新 策 源 地 实 施 方 案(2023-2025年》 杭州市人民政府办公厅2023年7月 北京市人民政府2023年5月 2024年《政府工作报告》中提出开展“人工智能+”行动 《上海市推动人工智能大模型创新发展若干措施(2023-2025)》 国务院国资委召开“AI赋能产业焕新”中央企业人工智能专题推进会。 《广东省人民政府关于加快建设通用人工智能产业创新引领地的实施意见》 第十四届全国人大第二次会议2024年3月 上海市经济和信息化委员会等部门2023年10月 国务院国资委2024年2月 AIGC可以生成高质量的海报、广告等逼真的图像,对设计行业造成巨大的冲击 提示词:a dragon made of bubbles, perfectly rendered 8k 国内外最新的模型-GPT4 最新的大模型展现出来的问答能力接近人类,对教育和创作都是革命性工具 OpenAI视觉语言大模型VLM的引入,FIGURE01机器人可以与人进行完整的对话 汇报提纲: 三起两落:人工智能发展史一 智能涌现:大模型时代二 东数西算:算力基础设施三 数据为王:低空感知平台四 百花齐放:人工智能应用场景五 未来已至:拥抱智能时代六 算力大规模部署和应用是当前国家重大战略和科学前沿 2022年2月,“东数西算”工程批复完成,在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏8地启动建设国家算力枢纽,并设立10个国家数据中心集群,构建全国一体化大数据中心协同创新体系,推动我国算力统筹布局,高质量发展。 到2025年,算力规模超过300EFLOPS,智能算力占比达到35%,东西部算力平衡协调发展。应用赋能方面,围绕工业、金融、医疗、交通、能源、教育等重点领域,各打造30个以上应用标杆。 提出要推进AI领域的模型与算法创新工作,加快推动国家新一代人工智能公共算力开放创新平台建设,支持高性能计算中心与智算中心异构融合发展。 算力大规模部署和应用已经成为必然趋势 算力规模1——国家层面 李正茂“算力时代三定律”指出,算力每投入1元,带动3~4元GDP经济增长。据IDC和清华大学等联合编制的计算力指数指出,该指数平均每提高1点,国家的数字经济和GDP将分别增长3.6%和1.7%。 截至目前,全国在用数据中心机架总规模超过760万标准机架,算力总规模达到197EFLOPS(每秒浮点运算次数),位居全球第二。 算力规模2——省份层面 上海市、江苏省、广东省、河北省、北京市位于第一梯队,在用算力规模均超过13EFLOPS,第一梯队算力规模全国占比超过45%。 当前,在国家统筹规划下,已有超过30个城市在规划和建设人工智能计算中心,为企业、高校、科研单位等提供算力服务。 山东省、贵州省、浙江省、内蒙古自治区、山西省位于第二梯队,在用算力规模均超过5EFLOPS。 从在建算力来看,江苏省、河北省、山西省处于绝对领先位置。 目前,智算中心的规划门槛为100PFLOPS,布局 方面以东部为主,但在“东数西算”的大战略下,未来西部也将成为重要的算力布局区域。 东部地区算力规模较短时问内难以被西部地区超越 算力规模3——企业层面 中国移动优化“4+N+31+X”算力集约化梯次布局,2023年累计投产算力服务器超80.4万台,净增超9.1万台,算力规模达到9.4EFLOPS,预计2023年资本开支合计约为1832亿元。 中国电信优化“2+4+31+X+O”算力布局,2023上半年智算新增1.8EFLOPS,达到4.7EFLOPS,增幅62%,扩大通用算力,通算新增0.6EFLOPS,达到3.7EFLOPS,增幅19%,算力投资将达195亿元。 中国联通资本开支重点聚焦5G、宽带、政企、算力四张精品网建设。算力精品网方面,联通云池覆盖200多个城市,资本开支水平达769亿元,其中算网投资占比将超过19%,同比增长超过20%。 三大运营商的机架数和算力规模大幅提升 算力规模3——企业层面 一些互联网大厂在全球范围内也拥有大量的数据中心和算力资源,用于支持其搜索引擎、云计算和其他人工智能应用。例如,阿里云智能计算平台飞天就为全球数百万企业提供超过1000万台服务器的算力资源。 阿里、百度、华为、腾讯等中国顶级的科技企业锻造这些模型,需要大量的数据、较长的周期、巨大的成本,因此这些企业在未来很长时间内,依然会是中国算法算力产业的核心巨头,几乎不可能被替代。 互联网大型企业拥有大量的数据中心和算力资源 算力规模4——高校层面 北京大学“未名一号”现有的计算总核心数达33584个,理论计算峰值高达4.39PFLOPS。截至2023年11月,已助力北京大学发表论文超过1600篇,平台支撑北京大学545项科研课题,部分项目(447个)总金额累计31.36亿元。 上海交通大学“思源一号”高性能计算集群总算力6PFLOPS,是目前国内高校第一的超算集群,TOP500榜单排名第132位,GPUA100显卡92张,张量算力达到44PFLOPS,算力超过哈佛、剑桥等国际名校。“思源一号”累计服务一级学科30多个,支撑发表高水平论文600多篇。 算力规模5——学部层面 天津大学智能与计算学部搭建了136张A800组成的计算集群,张量算力达到65PFLOPS,可开放给所有师生申请使用。 算力规模6——课题组层面 课题组在读硕士生21名,博士生9名,拥有包括A6000和3090GPU在内的80余张显卡,张量算力为2PFLOPS,同时从AutoDL购买了在线算力作为缓冲算力资源池,购买服务器费用花费100万左右。 算力需求——小模型训练、推理 训练:参考业界流行的视频训练算法,训练一个模型需要2560TFLOPS FP16算力(8卡/周,单卡算力为320 TFLOPSFP16),运算时间为7天左右,且通常需要训练大于8~10次才能找到一个满意的模型。考虑2天的调测,安装和模型更新时间,则一个模型的训练周一为10天。综上,至少需占用要2560*8=20480 TFLOPS FP16算力,才能在10天内找到一个满意的训练模型;按照目标检测,分割,跟踪等常规模型统计,预计一年有30+任务需要分别训练,总算力需求20PFLOPS FP16。 推理:如当前业务需要接入3000路视频的需求来计算,共需要的AI推理卡的数量为:3000/16≈188块。考虑到数据加工集群建模的并行效率(一般集群的并行效率为90%左右),留出适当的资源后需要的GPU卡的数量为:188/0.9≈209块。 小模型训练推理需要一定的算力支持 算力需求——大模型训练