您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[普华永道]:生成式人工智能的风险和机遇管理2023英文版 - 发现报告
当前位置:首页/行业研究/报告详情/

生成式人工智能的风险和机遇管理2023英文版

信息技术2023-12-22普华永道申***
生成式人工智能的风险和机遇管理2023英文版

高管们的剧本 - 从治理开始管理生成 AI 的风险和机遇2023 年 10 月受信任的 AI负责任地加速。中国大陆和香港 目录Introduction 2商业有什么危险 ? 4如何识别您的 Gen - AI 用例 6管理新的和放大的风险 8 董事会成员和董事可以做什么 10 高管可以做什么 11底线 13联系我们了解更多 15 普华永道风险保证如何帮助 14管理生成式 AI 的风险和机遇 1 管理生成 AI 的风险和机遇2Introduction2022 年 11 月发生了真正革命性的事情。突然之间 , 任何拥有互联网连接的人 , 只具备在聊天应用程序中进行对话的能力 , 都可以运用人工智能 ( AI ) 的变革力量。在一周之内 , 在 ChatGPT 的帮助下 , 超过一百万的用户制作了简短的文章 , 编写了计算机代码 , 制作了艺术品 , 并将长篇资料汇总成可能比原著更好 , 更简洁的作品。同时 , 恶意威胁行为者测试了生成 AI ( Gen - AI ) , 以编写恶意软件 , 更可信的网络钓鱼电子邮件和更有说服力的假身份 , 并迅速广泛传播 - 大规模欺诈 , 侵犯隐私 , 虚假信息和网络攻击的潜在预兆。在 ChatGPT 首次亮相几个月后,生成 AI 继续越来越深入地融入我们的生活和业务。我们看到了有史以来活跃消费者用户增长最快的情况。我们已经看到了从 OpeAI 的 GPT3 到 GPT4 的功能飞跃 - 在编码和中级专业写作中记录的成就。很快,科技公司推出 / 重新推出了竞争产品 ; 初创公司发布了定制应用程序的模型 ; 包括普华永道在内的公司已经宣布了大量投资,以创建自己的 “CompayGPT ” 供内部使用和新服务产品。但是生成 AI 带有警告标签。 “具有人类竞争情报的 AI 系统可能对社会和人类构成深远的风险 , ” 包括专家在内的有关公民警告说。即使是这项技术的顶级提供商也承认这些风险。 管理生成 AI 的风险和机遇3管理它们是成功的关键。如果您的公司希望推出成功的生成式人工智能计划并获得竞争优势 , 您将需要评估该技术可能在整个企业范围内带来的风险。为此 , 您将需要一个风险管理框架 , 该框架还可以让您抓住机会。基于风险的生成 AI 方法将使您与监管机构 , 消费者和其他利益相关者站在正确的数字基础上。在部署生成 AI 时赢得信任将使您能够迅速充分利用这种改变游戏规则的技术所提供的好处。公司是否面临以速度换取信任的风险 ?46% 中国 vs 68%香港78%Only48%受访者正在投资包括人工智能在内的新兴技术 ( 来源 : 普华永道 , 2023 年 )中国受访者认为使用人工智能的产品和服务利大于弊 ( 来源 : IPSOS , 2022 )员工认为越来越多地使用人工智能将使他们的职业生涯变得更好 ( 来源 : IPSOS , 2022 ) 生意有什么危险 ?作为人工智能 (AI) 的一个强大子集 , 它正在对业务产生真正的变革性影响。它可以自动化和增强几乎所有业务运营的各个方面 , 包括客户服务、软件开发和数据分析。它可以通过个性化与客户的互动来改善您与客户的互动方式。它可以自动执行大量任务 , 例如处理保险索赔和通信或执行某些软件开发任务。它可能使您的团队更容易理解非结构化数据 , 包括合同、发票、客户反馈、保单、保险调整员注释、绩效评估、医疗记录等。通过自动化常规任务, 生成 AI 工具可以让员工创造性地工作、创新并更全面地理解复杂的主题和任务, 从而实现更高级的批判性思维。随着对这项技术的需求持续增长 , 其功能也在不断增长。仅在四个月内 , 人工智能语言系统在复杂程度和使用上都取得了显着进步 , 而且它们不太可能很快停止。可持续地实现这种增长的关键将是从最初阶段招募风险专家。这样做可以帮助您建立对生成 AI 项目的信心。您的风险经理必须管理新的和放大的风险,以及一系列业务、法律和监管挑战。白宫,美国国会,联邦贸易委员会,中国网络空间管理局和欧盟 ( EU ) 相继采取行动来规范生成 AI 。与此同时,一些国家 (意大利、加拿大、西班牙、法国、德国) 开始调查,以回应关于生成人工智能未经同意收集、使用和披露个人信息的投诉或担忧,这违反了数据保护法。针对更广泛的生成 AI 技术,中国网络空间管理局 ( CAC ),国家发展和改革委员会 ( NDRC ),教育部 ( MOE ) ,科技部 ( MST ),工业和信息化部 ( MIIT ),公安部 ( MPS ) 和国家广播电视管理局 ( NRTA ) 于 2023 年 7 月 10 日联合发布了《生成 AI 法规》,该法规于 2023 年 8 月 15 日生效。CAC 于 2023 年 10 月 18 日发布了全球 AI 治理倡议。习主席在中共中央政治局会议上还表示 , “关键是要优先发展通用人工智能 , 建立创新生态系统 , 并注重风险防范 ” 。* 基于美国的研究管理生成 AI 的风险和机遇 4 管理生成 AI 的风险和机遇5生成 AI 对您的业务意味着什么以下是您的公司开始利用 Gen - AI 时需要考虑的关键重点领域。功能转换 : 重新构想操作。部署生成 AI 以实现快速投资回报的 “最佳点 ” 是显而易见的 : 部署它以自动化和改进各种运营方面,如营销、财务、供应链和税收合规。通过利用 Ge - AI,您可以最大限度地利用现有资源,增强决策能力,并提升客户和员工的体验。Ge - AI 可以简化数据和文档集的组织,简化人类研究工作。它还可以生成初始版本的财务,风险和合规性报告,制作个性化的客户服务响应,并识别由人类编写的报告中的违规行为。然而,为了确保可靠的结果,至关重要的是在负责任的 AI 框架中保持强有力的监督。负责任的 AI : 建立信任和管理风险。为了让 Ge - AI 真正彻底改变您的业务,可信度至关重要。这需要采用负责任的 AI,这是一种专门为确保 AI 的可信赖和道德应用而精心设计的方法。通过整合技术、流程和技能,负责任的人工智能解决了与生成人工智能相关的各种风险,如网络威胁、隐私问题、法律影响、性能问题、偏见和知识产权风险。为了有效地实施负责任的 AI,理想的方法是按设计信任,从一开始就将其集成到您的系统中,并根据学到的经验教训不断完善它。劳动力 : 为新的工作方式培养技能。Ge - AI 具有增强知识型员工能力的潜力,使他们能够在更短的时间内取得比现有能力更大的成就。但是,要充分利用这一潜力,必须为员工提供提高技能的机会,为他们提供必要的技能,以利用新工具并采用新的工作方式。重要的是不要被 Ge - AI 的简单性欺骗,而是必须获得如何负责任地使用它的知识。随着你的组织接受人工智能,新的角色将会出现,比如工程师和模型机械师,可能会形成一个 “人工智能工厂 ” 来支持人工智能系统的实施和维护。云和数据 : 为增长奠定基础。Gen - AI 释放了非结构化数据的潜力 , 从而实现更好的决策 , 收入增长和业务扩展。对于公司而言 , 在考虑 Gen - AI 的情况下规划其数据和应用程序现代化至关重要 , 因为它将从根本上改变基于云的业务应用程序的构建和运行方式。新的商业模式 : 数据货币化和行业重塑。Ge - AI 提供了这种潜力,既可以建立新的商业模式,又可以破坏基本的价值链。当您利用 Ge - AI 提供的当前运营效率时,请考虑它如何在不久的将来改变您的行业和业务。 管理生成 AI 的风险和机遇6Top - Down自下而上工业部门Gen - AI 技术已证明其在解决特定行业问题方面的价值 , 例如医疗保健 , 科学研究和金融领域的问题。哪些 Gen - AI 技术可用于您的行业 ? 生成能力如何提高您相对于竞争对手的竞争优势 ?任务类型某些类别的任务 , 例如摘要 , 转换和问答 , 最适合于生成模型的技术机制。这些职责如何在您的业务流程中发挥作用 ?业务职能Gen - AI 技术可以集成到研发 , 营销 , 销售 , 客户支持 , 运营 , 法律和后台程序中。生成应用程序如何才能最好地服务于更大的利益 ?输出数据模态生成技术涉及文本 , 代码 , 图像 , 音频 , 视频等的全新创建。团队和员工每天都在制作什么样的内容 ?如何识别您的 Gen - AI 用例从客户服务到软件开发和数据分析 , 绝大多数业务运营的各个方面都可以通过生成 AI 进行自动化和增强。组织可以使用以下观点来识别用例。对于我的部门和职能来说 , Gen - AI 适合什么 ? Gen - AI 做得很好 , 它如何为我服务 ? 管理生成 AI 的风险和机遇7您的 IT 和风险专业人员可以通过 Generative AI 帮助您的公司以负责任的方式加速发展。他们可以帮助确认它是适当的私人 , 公平的 , 具有管理的有害偏见 , 有效和可靠 , 负责和透明 , 可解释和可解释。换句话说 , 它是可信的。 管理生成 AI 的风险和机遇8管理新的和放大的风险我们看到组织需要了解和管理的技术固有的四大风险 :数据风险错误传播 , 知识产权 ( IP ) 或合同问题 ( 由于缺乏将数据用于此类目的的批准 ) , 或由用于训练生成 AI 模型的低质量数据引起的误导性和有害内容。模型和偏差风险在语言模型开发中违反道德和负责任的 AI 原则 , 导致歧视性或不公平的输出。提示或输入风险由于向 AI 模型提供了不复杂的提示或问题 , 导致了误导性、不准确或有害的响应。用户风险由于用户在不知情的情况下成为错误信息和其他有害内容的创建方 , 造成了意想不到的后果。例如 , 他们可能会将 AI 产生的幻觉 — — 错误或无意义的反应 — — 作为事实。您也可能会遇到其他风险 , 具体取决于您的公司如何使用生成式 AI - 特别是如果您计划创建连接到基础模型的专有模型并添加专有或第三方数据。您的风险专业人士将激活生成 AI 以实现可信赖的结果 , 因此 , 设计信任而不仅仅是速度 , 是您对客户 , 投资者 , 业务合作伙伴 , 员工和社会的价值主张。风险领域专家应考虑隐私、网络安全、监管合规、第三方管理、法律义务、知识产权等方面的全部风险 , 并相互合作管理整体企业风险。同时 , 你应该与你的人才 / 人力资源领导者一起开发各级培训计划 , 让每个人都熟悉生成 AI 的风险和回报。监测人类的表现 , 以防止 “技能萎缩 ” 、自满或质量随时间下降。既定框架,例如香港政府资讯科技总监办公室 ( OGCIO ) 发布的道德人工智能框架,香港个人资料私隐专员办公室 ( PCPD ) 发布的道德发展和使用人工智能指南 ,《关于银行业和保险业数字化转型的指导意见》,中国银行保险监督管理委员会发布。使用机器学习的 IS0 / IEC 23053 : 2022 AI 系统框架是设计和部署可信 AI 应用程序的良好开端。 拥有有效的 AI 治理策略至关重要,因为除了风险专业人士之外,组织内外的许多人都可以影响您负责任地使用生成 AI 的能力。他们包括数据科学家,数据工程师,数据提供商,领域专家,社会文化分析师,多样性,公平性,包容性和可访问性领域的专家,受影响的社区,用户体验设计师,治理专家,系统资助者,产品经理,第三方实体,评估人员以及法律和隐私专业人员。可信 AI 的关键 AI 治理注意事项 生成 AI 带来的关键风险以及风险高管可以采取的行动在以下部分中。管理生成 AI 的风险和机遇userid: 414195, docid: 149312, 日期: 2023 - 12 - 22, sgpjbg. com关键输入和依赖项明确的角色和职责多元化和包容性的团队敬业的领导W orkforce 和技能规划定义的政策和程序风险管理框架定义的风险容忍度第三方风险管理安全有效性和可靠性安全性和弹性透明度和问责制可解释性和可解释性隐私公平 (有害偏见管理)绩效和业务价值2. 模型验证基于风险的测试方法 , 具有设计的评估指标和接受标准。性能监控 ( 即漂移 )福利管理变更和