AI智能总结
AI:一份为政府制定的路线图 激发并赋能下一代政府 世界政府峰会是一个致力于塑造全球各国政府未来的全球平台。每年,峰会都会为下一代政府设定议程,重点关注它们如何能够利用创新和技术来解决困扰全人类的普遍挑战。 世界政府峰会是一个汇集政府、未来主义、技术和创新的知识交流中心。它作为人类发展领域政策制定者、专家和开拓者的思想领导平台和网络中心。 峰会是通往未来的门户,因为它充当分析人类面临未来趋势、关注点和机遇的舞台。它也是一个展示创新、最佳实践和智能解决方案的竞技场,旨在激发创造力应对这些未来挑战。 目录 引言06 为何制定人工智能路线图如此紧迫08 AI机遇14 18AI风险 平衡风险与回报:政府在其中的作用24 结论36 引言 人工智能(AI)正经历一个爆发式增长时期。然而,这项变革性技术也带来了重大挑战,引发了关于工作流失、偏见、隐私和环境影响的担忧。 本报告探讨了人工智能的当前格局,考察了其巨大潜力以及需要应对的关键风险。我们深入分析了政府在这一强大技术管理中的作用,重点聚焦于在发挥其益处的同时缓解其负面影响。采用全面的方法,辅以有效的政策和法规,对于确保人工智能成为积极变革的力量、推动经济增长、社会进步和更可持续的未来至关重要。 Section 1 你:为什么建筑AI路线图何等紧急 人工智能正处于拐点。如今,比以往任何时候都更有能力让生活的方方面面发生变革。正是这种巨大的潜力,促使全球各国政府正在制定和讨论综合战略,以指导人工智能工具的负责任部署,保护企业及消费者权益,同时促进创新。 虽然这感觉是突发的,但人工智能的崛起已持续数十年,得益于计算能力的急剧增长。例如,2023年11月,基于阿联酋的G42和美国的Cerebras共同完成了Condor Galaxy 1——一台比上一代最强大四倍的超级计算机。1到2024年底,将有九台这样的超级计算机被整合成一个前所未有的单一网络。超级计算机的实现得益于图形处理单元(GPU),它们最初是为改善计算机图形而设计,服务于视频游戏行业。 GPU此后已被用于执行人工智能所要求的快速数学计算。Condor Galaxy 1使用超过72,000个这样的GPU。虽然中美在超算能力上领先世界,但并非所有政府都有相同的资源来部署此类计算资源。欧盟联合超算计划等举措有助于缓解此类挑战,同时还有基于云的超算,尽管后者通常不被政府使用,因为存在数据安全问题。 来源:Dongarra 等人 (2023) — 由 Our World inData 进行了少量处理 这些数据以美元/太字节(TB)表示。已根据通货膨胀进行调整。 易于获取,而弹性云计算则允许在计算机处理、内存和存储方面对需求进行灵活性调整。 其他推动人工智能增长的因素还包括存储成本和计算能力的低成本。云存储现在已经非常普及且易于 此外,人工智能数学基础方面的进步,尤其是机器学习或统计学习,正推动该技术向前发展。研究人员已开发出数学技术,用于将复杂、非线性的问题转化为线性公式 使用数值解,并已应用弹性云的力量来解决这些问题。像亚马逊、脸书、谷歌和领英这样的面向消费者的公司正在使用这些先进的算法来为他们的客户提供个性化体验。 现在,各种类型的企业正投入数十亿美元于生成式人工智能,这是人工智能的一个子领域,它使用户能够根据各种用户提示或输入轻松快速地生成新内容。这些模型生成的内容包括文本、图像、声音、动画和3D模型(图4)。 这使组织能够更轻松、更快速地利用大量未标记数据来创建基础模型。GPT-3和Stable Diffusion是基础模型的例子,它们赋予用户驾驭语言的能力,用于诸如根据文本提示生成文章(ChatGPT)或根据文本描述创建逼真图像(Stable Diffusion和ChatGPT的Sora)等任务。2 生成式AI模型利用神经网络识别现有数据中的模式和结构,以生成新内容。它们采用不同的学习方法,包括无监督或半监督学习进行训练。 定制构建的生成式人工智能基础模型能够实现多种其他智能解决方案,如图5所示。 环境• 已发布的报告总结和最新风险分析 • 卫星图像分析和生成 医疗保健 • 基于患者需求和状况生成的医疗AI内容和建议 • 完全自动化的药品研发 体育• 根据性能和对阵对手生成不同的团队和体育策略 • 个性化体育评论 运输• 基于交通分析和驾驶行为生成定制化驾驶员信息 • 对交通报告进行总结以实现更快速决策 5物流• 通过分析可用空间,生成仓库布局设计及存储策略。 生成式AI的关键突破之一在于它体现了通用型技术所具备的三大关键特征——它具有普遍性,能够实现快速改进,并推动进一步创新。这些技术足够强大,能够在广泛的行业中显著影响生产力和经济增长。与蒸汽机或电力等以往的通用型技术不同,由于生成式AI的扩散和采纳相对容易,其影响预计将更快。 我认为我们正在见证历史上最具颠覆性的力量;我们将拥有某种事物,它将是第一个比最聪明的人类更聪明的东西。有一个时刻到来,不再需要任何工作。 埃隆·马斯克与里希·苏纳克的对话3 第二节 The AI机遇 人工智能为增加价值的能力正在多个行业展现出来。该技术可以创造新的商业模式和收入来源,同时也革新现有的流程和运营以实现效率和卓越。 人工智能是人类正在努力的最重要的事情之一。它比我不知道的东西,比如电或火,更为深刻。 Sundar Pichai4 在壳牌公司,例如,部署基于人工智能的预测性维护,针对全球超过“500,000个炼油厂阀门”,据估计每年可节省数亿美元维护成本并提高运营效率。5壳牌计划在全球上游、中游和下游运营中部署多项人工智能应用,潜在节省额可能达到每年数十亿美元。 其对医疗保健的影响,通过医疗诊断及其在专业和支持服务中的作用,例如生成式人工智能提高了呼叫中心代理和软件开发人员的生产力。事实上,由于其广泛应用于各行业以改善绩效和改造商业模式,人工智能通常被称为通用目的技术(GPT)。 Oliver Wyman近期与能源巨头阿美(Aramco)合作,进一步展现了人工智能的强大力量。通过整合先进分析、人工智能和机器学习工具,阿美成功应对市场波动,并将业绩显著超越竞争对手,超出部分达到每桶2美元。6 ChatGPT引发AI狂热 虽然企业和研究人员多年来一直在利用人工智能,但Open AI在2022年底推出ChatGPT使得这项技术进入了公众的视野。这个大型语言模型(LLM)对大多数消费者来说可能是一种新奇的事物,但其突然崛起也使组织和政府意识到该技术的可能性——无论正面还是负面。事实上,对人工智能及其相关事物的狂热导致那些在财报中提及人工智能的公司在股市上表现优于那些没有提及的公司。7 近期案例研究一致表明AI提升生产力的能力。大量实例说明AI对科学进步的贡献——如其在控制聚变反应堆等离子体和理解蛋白质折叠中的应用——以及 自那时以来,已出现多个类似的LLM,包括谷歌的Gemini、百度的Ernie以及由微软支持的OpenAI发布的ChatGPT升级版本。人工智能正从“开发者” 由于自然语言处理,技术知识领域转变为一个“人类”领域,是人工智能发展过程中的一个转折点。 第三节 AI风险 尽管人工智能潜力巨大,但它确实存在真实且极其显著的风险,这些风险足以抵消其所有益处,甚至更多。许多领导者认为这些风险对人类共同繁荣来说意义重大,在长远来看甚至具有存在性。 从目前关于人工智能风险的所有论述(而这方面的论述很多)来看,有一件事是明确的:没有人能给出所有答案。另一件对我来说很明确的是,人工智能的未来并不像某些人想的那样黯淡,也不像另一些人想的那样光明。 比尔·盖茨8 人工智能对国家战略重要领域所有关键方面的影响潜力,已促使全球各国政府领导人采取行动,包括发布国家战略和行动计划,创建人工智能协调机构以监控相关活动。据人工智能政策观测站称,各国还发放研究资助并参与公私合作。: 包含超过1,000项政策举措的数据库来自经济合作与发展组织(OECD)管理的69个国家。9 在医疗保健领域也存在人工智能偏见,这会导致基于种族、民族、性别、年龄或其他人口统计因素的某些人群现有健康差距加剧。 此外,不平等和不安定的加剧可能会进一步引发社会不稳定和政治极端主义。所谓深度伪造——由人工智能生成的照片和视频——也可能传播虚假信息和动乱。这些因素将使公众更加难以区分事实与虚构。《世界经济论坛2024年全球风险报告》强调,人工智能生成的虚假信息和错误信息是未来两年预期中最严重的全球风险之一。 政府和社会普遍关注的是对就业的影响。10尽管毫无疑问人工智能将创造新的就业机会和需求新的职业培训,但失业是不可避免的。高盛估计,最新一波人工智能可能影响高达3亿个就业岗位。11 从妥协的隐私权和对政府信任的侵蚀来看,显然存在民主国家弱化的危险。如果没有适当的监管机制,人工智能可能成为对隐私和真正民主发展以来最大的威胁。 即便AI对劳动市场的整体影响从长远来看是积极的,但在过渡阶段,经济困顿和失业率可能会上升。麻省理工学院经济学家达龙·阿西莫格鲁认为,除非在AI开发范式上有所转变——包括构建对人类工人有用而非取代他们的AI工具——否则AI对劳动市场乃至整个社会的总体净影响可能并非积极。他并非孤军奋战。12 这不是猜测。目前已经发生了许多与人工智能相关的事件,这些事件侵蚀了人们对政府和大型企业的信任。这包括医疗和敏感信息的泄露、深度伪造技术令人信服地传播虚假信息,以及政府人工智能系统的失败(例如美国底特律因错误的人脸识别匹配导致的不正确逮捕和监禁)。15 关于版权侵权问题也引发了争议,出版商、艺术家甚至编码人员的原创作品未经许可便被使用,这导致针对人工智能巨头的法律诉讼。13 人工智能通过引入能够突破安全系统的复杂算法,深刻地改变了网络安全领域。 此外,人工智能可能赋予缺乏技术专业知识的人员发动复杂网络攻击的能力,从而可能加剧这些威胁的频率和严重性。这些潜在风险的严重性,以及我们对这些风险有限的理解程度,已得到学术界、工业界和政府领导人的广泛认可。就连比尔·盖茨、埃隆·马斯克、史蒂夫·沃兹尼亚克以及被誉为人工智能教父的杰弗里·辛顿等知名科技先驱,也对人工智能的进步和实施表达了担忧,并倡导采取监管措施来应对这些安全威胁。 AI偏见是另一个重大问题,它会持续并放大其训练数据中存在的固有偏见。例如,面部识别技术的种族歧视已被广泛研究,生成式AI产生的图像明显加剧了现有的刻板印象。美国国家标准与技术研究院(National Institute of Standards and Technology)发布的一项研究表明,在一对一匹配中,亚洲人和非裔美国人的面部图像相比白人面部图像存在更高的误报率。这种差异范围在10到100倍之间。14 图8 AI 事件和争议的数量 AIAAIC数据库中新报告的人工智能事件和争议数量在2021年是2012年的26倍。 与数据主权、文化独立以及由于生成式AI的广泛采用而导致的大额资金外流相关的风险(图9)。 Specifically related to generative AI and their foundation models, governments are seeking localcustom-built foundation models to mitigate 图9 政府寻求避免的本地定制生成式人工智能基础模型风险 财务影响 • 保护模型将使用的文化环境• 控制输出内容以符合文化优先事项 • 避免对特定文化或规范体系存在偏见 • 避免因广泛采用生成式AI而造成大量资金外流 • 通过提供API连接到基础模型来变现AI服务,并启用新的产品和服务 • 将基础模型集成到现有产品中以增强其功能 • 在国家边界内控制和管理工作• 尊重隐私法律,确保数据处理符合当地法规 • 对依赖巨型模型制造商及其收集和处理的数据减少依赖 示例:对基础模型进行每次API