AI智能总结
风险与弹性实践 g随着人工智能的进步,监管机构和风险职能部门急于跟上步伐 AI及其超级突破,即生成AI,都是关于快速发展的,规则制定者面临着跟上的压力。 本文是Andreas Kremer,Angela Luget,Daniel Mikkelsen,Henning Soller,Malin Strandell - Jansson和Sheila Zingg的合作成果,代表了麦肯锡风险与弹性实践的观点。 快速推进生成AI (gen AI)让世界各地的监管机构竞相了解、控制和保证安全 技术-同时保持其潜在优势。在各个行业中,一代AI采用对风险和合规功能提出了新的挑战:如何在不断发展且不均衡的监管框架中平衡使用这项新技术。 当他们的平台被发现产生幻觉时(当人工智能产生虚假或不合逻辑的信息时)的市场价值。 gen AI的激增增加了风险的可见性。新一代AI的关键问题包括如何开发该技术的模型和系统以及如何使用该技术。 当政府和监管机构试图定义这样的控制环境应该是什么样子时,开发方法是分散的,并且经常错位,使组织难以导航并造成大量不确定性。 一般来说,人们担心新一代人工智能系统的运行可能缺乏透明度,用于培训它们的数据,偏见和公平问题,潜在的知识产权侵权,可能的隐私侵犯,第三方风险以及安全问题。 在本文中,我们解释了AI和genAI的风险,以及该技术为何受到监管审查。我们还提供了战略路线图,以帮助风险职能部门应对不平衡和不断变化的规则制定格局-不仅关注genAI,而且关注所有人工智能。 在这些担忧中增加了虚假信息,例如错误或操纵的输出以及有害或恶意的内容,难怪监管机构正在寻求减轻潜在的危害。监管机构寻求为从事开发或使用通用人工智能的公司建立法律确定性。同时,规则制定者希望鼓励创新,而不必担心未知的影响。 为什么GenAI需要监管? 目标是建立统一的国际监管标准,以刺激国际贸易和数据传输。为了实现这一目标,已经达成了共识:一代人工智能开发社区一直站在倡导尽快对技术发展进行一些监管控制的最前沿。眼前的问题不是是否进行法规,而是如何进行。 AI的突破性进展Gene AI迅速引起了公众的兴趣,ChatGPT成为有史以来增长最快的平台之一,在短短五天内就达到了100万用户。考虑到广泛的AI用例,这种加速并不令人惊讶,这些用例有望提高生产率,加快获取知识的速度,以及每年2.6万亿美元至4.4万亿美元的预期总经济影响。1 当前AI的国际监管格局 但是,正确采用AI和genAI是有经济动机的。如果开发这些系统的公司开发的平台没有得到充分完善,则可能会面临后果。失误可能会代价高昂。例如,主要的genAI公司已经损失了大量 虽然迄今为止还没有国家通过全面的人工智能或通用人工智能法规,但主要的立法努力包括巴西、中国、欧盟、 为人民服务,维护人的尊严和个人自主权,并以人类可以适当控制和监督的方式发挥作用。 新加坡,韩国和美国。不同国家采取的方法与现有数据保护和网络安全法规支持的广泛AI法规有所不同(欧盟和韩国)到特定部门的法律(美国)和更一般的原则或基于准则的方法(巴西,新加坡和美国)。每种方法都有其自身的优点和缺点,随着时间的推移,一些市场将从基于原则的准则转向严格的立法(图表1)。 —问责制。监管机构希望看到确保对人工智能系统的责任、问责制和潜在补救意识的机制。在实践中,他们正在寻求最高管理层的支持、组织范围的教育和个人责任意识。 虽然方法各不相同,但全球监管环境中的共同主题已经出现: —技术坚固性和安全性。规则制定者正在寻求通过确保AI系统的健壮性来最大程度地减少意外和意外的伤害,这意味着它们可以按预期运行,保持稳定并可以纠正用户错误。他们应该有回退解决方案和补救措施,以解决满足这些标准的任何故障,并且他们应该能够抵御恶意操纵系统的企图。第三方。 —透明度。监管机构正在寻求AI输出的可追溯性和清晰度。他们的目标是确保用户在使用任何AI系统时都能被告知,并向他们提供有关其权利以及系统功能和局限性的信息。 —人类机构和监督。理想情况下,人工智能系统应该被开发和用作工具 附件1 —多样性、非歧视和公平。监管机构的另一个目标是确保人工智能系统没有偏见,并且输出不会导致歧视或对人的不公平待遇。 尽管人工智能的指导原则有一些共同之处,但实施和确切的措辞因监管机构和地区而异。许多规则仍然是新的,因此容易频繁更新(图表2)。这使得组织在规划长期人工智能战略时驾驭法规变得具有挑战性。 —隐私和数据治理。监管机构希望看到人工智能系统的开发和使用,这些系统遵循现有的隐私和数据保护规则,同时处理符合高质量和完整性标准的数据。 这对组织意味着什么? 组织可能会等着看人工智能法规的出现。但是现在是采取行动的时候了。如果不迅速采取行动,组织可能会面临巨大的法律、声誉、组织和财务风险。由于隐私问题,多个组织和个人提起的侵犯版权诉讼以及诽谤诉讼,包括意大利在内的多个市场已经禁止了ChatGPT。 —社会和环境福祉。人们强烈希望确保所有人工智能都是可持续的、环境友好的(例如,在能源使用方面),对所有人都有益,并不断监测和评估对个人、社会和民主的长期影响。 更多的减速带是可能的。随着人工智能的负面影响越来越广为人知和公开,公众的担忧也在增加。反过来,这导致了公众对创建或使用人工智能的公司的不信任。 组织在规划其长期AI战略时面临着应对各种法规的挑战。 附件2 在这个阶段的失误也可能是代价高昂的。例如,根据欧盟提出的人工智能法规,组织可能会面临执法的罚款-高达全球年收入的7%。另一个威胁是客户或投资者信任下降造成的财务损失,这可能会转化为较低的股价,客户流失或客户获取速度较慢。如果人工智能的正确治理和组织模型没有及早建立,那么由于监管变化、数据泄露或网络安全事件,补救可能会变得必要,这一事实增强了快速行动的动机。之后修复系统。这一事实既昂贵又难以在整个组织中一致实施。 组织,并与第三方和监管机构合作。这种方法应包括定义AI和通用AI管理中的所有角色和责任,以及制定事件管理计划,以解决AI和通用AI使用可能出现的任何问题。治理结构应该足够健壮,以承受人员和时间的变化,但也应该足够敏捷,以适应不断发展的技术、业务优先级和监管要求。 数据、模型和技术管理。AI和gen AI都需要强大的数据、模型和技术管理。 法律义务的确切未来仍不清楚,可能因地区而异,并取决于AI在价值链中扮演的具体角色。尽管如此,组织仍有一些无悔的举动,可以在今天实施,以领先于迫在眉睫的法律变化。 —数据管理。数据是所有AI和General AI模型的基础。数据输入的质量也反映了模型的最终输出。正确可靠的数据管理包括对数据源的了解,数据分类,数据质量和血统,知识产权和隐私管理。 这些先发制人的行动可以分为四个关键领域,这些领域源于现有的数据保护或隐私和网络努力,因为它们有很多共同点: —模型管理。组织可以为AI和geer AI开发建立强有力的原则和保障,并使用它们来最大限度地降低组织的风险,并确保所有AI和geer AI模型都坚持公平和偏见控制、适当的功能、透明度、清晰度和支持人类监督。对整个组织进行正确使用和开发AI和ge AI的培训,以确保将风险降至最低。制定组织的风险分类和风险框架,以包括与ge AI相关的风险。在风险管理中确立角色和职责,建立风险评估和控制,并建立适当的测试和监控机制,以监控和解决AI和Geeral AI风险。数据和模型管理都需要敏捷和迭代过程,并且应该。 透明度。创建模型的分类和清单,根据法规对其进行分类,并将整个组织的所有使用情况记录在一个中央存储库中,该存储库对组织内外的人员都很清楚。创建AI和ge AI使用的详细文档,包括内部和外部,其功能,风险和控制,并创建有关模型如何开发,可能具有哪些风险以及如何使用的清晰文档。 治理。实施人工智能和通用人工智能的治理结构,确保在 在开发项目开始时,不要被视为简单的打勾练习。 AI和gen AI将继续对许多组织产生重大影响,无论他们是AI模型的提供者还是AI系统的用户。尽管监管格局迅速变化,但这些监管格局尚未跨地域和部门保持一致,并且可能感到无法预测,但组织可以改善他们现在提供和使用AI的方式,从而带来切实的好处。 —网络安全和技术管理。建立强大的网络安全和技术,包括访问控制、防火墙、日志、监控等,以确保安全的技术环境,防止未经授权的访问或滥用,并及早发现潜在事件。 个人权利。教育用户:让他们意识到他们正在与AI系统交互,并提供明确的使用说明。这应该包括建立一个提供透明度并使用户能够行使其权利的联系点,例如如何访问数据,模型如何工作以及如何选择退出。最后,采用以客户为中心的方法来设计和使用AI,该方法考虑所使用数据的道德含义及其对客户的潜在影响。由于并非所有合法的事情都一定是道德的,因此重要的是要优先考虑AI使用的道德考虑。 未能谨慎处理AI和geAI可能会导致法律、声誉、组织和财务损失;然而,组织可以通过关注透明度、治理、技术和数据管理以及个人权利来做好准备。解决这些领域将为未来的数据治理和风险降低奠定坚实的基础,并帮助简化网络安全、数据管理和保护以及负责任的人工智能方面的运营。也许更重要的是,采用保护措施将有助于将组织定位为可信赖的提供商。 安德烈亚斯·克雷默是麦肯锡柏林办事处的合伙人;Angela Luget是伦敦办事处的合伙人丹尼尔·米克尔森是高级合伙人;Henning Soller是Franfurt办事处的合伙人;马林·斯特兰德尔-扬森是斯德哥尔摩办事处的高级知识专家;和Sheila Zingg是苏黎世办公室的顾问. 作者希望感谢Rachel Lee,Chris Schmitz和Angie Selzer对本文的贡献。本文由海湾地区办公室高级编辑David Weidner编辑。