如何治理提升速度 目录 引言:AI安全机制推动增长引擎................ 2 智能系统需要更智能的治理......5 CEO们推动问责制 .......................... 12 操作指南 .......................................... 15 人工智能领导力的新重心。.........................................18 IBM如何提供帮助 客户可以利用IBM在深度行业、功能和专业技术方面的专长;企业级的技术解决方案;以及基于科学的研究创新,发掘人工智能、分析和数据的潜力。 更多详细信息: IBM咨询®的人工智能服务 ibm.com/consulting/artificial-intelligence IBM软件的AI解决方案 ibm.com/watsonxIBM研究®的AI创新 research. ibm.com/solutions/人工智能 关键点 那些蓬勃发展的组织将是把治理视为一个活的框架的组织——适应性、韧性和不断进化的组织,其进化的速度与技术本身一样快。 高管们将超过四分之一(27%)的人工智能效率提升归功于强有力的治理,而在人工智能伦理方面投入更多的人报告了34%更高的运营利润。1 相反,当治理失败时,人工智能也会失败。 四分之一失败的AI项目源于治理薄弱,超过一半的组织仍然缺乏对AI风险、伦理和治理的明确方法。 赞助和责任正上升至最高。 三分之二的组织中,CEO们现在直接参与到人工智能治理中。 简介 AI guardrails power the growth engine 在人工智能时代,治理不是机会的阻碍,而是绩效的助推器。 这是由IBM商业价值研究院(IBM IBV)对1000名全球高级商业和技术领导者进行的一项新调查的明确信息,管理层将其超过四分之一(27%)的效率提升归功于强大的治理。相关IBV研究显示,在人工智能伦理上投入更多资金的公司,在人工智能方面的利润提高了34%,以及更快的发布速度和更强的安全性。 或许出乎意料,人工智能治理——通常被视为阻碍创新的障碍和合规性检查后的次要考虑——已经成为实现商业影响和成果的关键因素。坦白说,市场本应该预见到这一点,因为人工智能的进步速度太快,以至于只有问题出现时才会作出响应。通过将治理作为一种战略工具,有远见的领导者正在在风险扎根之前解决它们——同时也促进了创新。 人工智能发展得太快,现有的监管机制只能应对问题。 简介智能系统首席执行官推动行动指南新中心需要更聪明责任对于引力治理人工智能领导力 那么领先的机构是如何正确地进行AI治理的——其他人又该如何迎头赶上呢?在本报告中,基于17个行业和7个地区的执行层意见,我们探讨了关键因素。我们解释了在不断向大规模代理化AI发展的世界中,更具适应性的治理是如何运作,以及为什么它会使您的业务更快。我们提供了两个公司如何建立坚实的中央AI治理功能的案例研究。我们还深入讨论了C级高管尤其是CEO在将AI治理转化为AI驱动的企业成功中的作用。最后,我们提供了一个包括推荐第一步的行动指南。在整个过程中,我们提供了关于现今AI风险和益处的科研成果,以及对有效AI治理的最大挑战。 随着人工智能系统变得更加自主和不可预测,静态的治理模式将破裂——包括为速度较慢、更透明系统构建的传统模型风险管理方法。能够繁荣发展的组织将是那些将治理视为一个活生生的框架——适应性强、弹性大,并随着技术本身一样快速发展的组织。 简介智能系统首席执行官推动行动指南新中心需要更聪明责任对于引力治理人工智能领导力 定义基本人工智能治理术语 机构对这些术语的使用方式不同。以下可作为清晰性的共同基准考虑。2 人工智能伦理:一个跨学科领域,研究如何优化人工智能的积极影响,同时减少风险和负面后果。人工智能伦理问题的例子包括数据责任和隐私、公平性、可解释性、鲁棒性、透明度、环境可持续性、包容性、道德代理、价值一致性、问责制、信任以及技术滥用。 人工智能治理:一个组织通过其公司指令、员工、流程和系统进行治理的行为,以指导、评估、监控和采取纠正措施,贯穿人工智能生命周期,并确保人工智能系统按照组织的意图、利益相关者的期望以及相关法规的要求运行。 可观测性:持续监控和可见性,以确保道德合规的AI在实际应用中保持标准。这允许组织实时检测和管理风险,维护详细的审计记录以实现问责制,并提供透明度。同样重要的是,可观测性促进了持续改进——利用实时性能数据优化模型,并在每一轮中使监督更加智能。3 人工智能驱动的可观测性:一种利用机器学习在大规模上解释遥测数据的监控方法,揭示难以通过人工检测到的模式、异常和潜在风险。它使团队从应对事件转变为预测和预防事件。 可信的人工智能:人工智能系统,通过以人为本的方法建立信任,该方法具有五个要求:可解释性、公平性、鲁棒性、透明度和隐私性。 负责任的人工智能可信赖的、以环保和社会责任的方式进行应用的AI。 智能系统需要更智能的治理 几乎所有参与我们调查的组织都表示,他们计划在明年内采用先进的AI形式,如智能体系统。然而,优先考虑为AI建立一个坚实的治理基础却远非普遍现象。事实上,在最近IBM IBV的研究中,58%的受访者表示,他们的组织没有明确的数据和治理框架。4 一个关键原因在于,AI治理面临的挑战是传统IT治理从未需要解决的:目标不会停滞不前。AI的发展速度不断重塑规则、重塑数据流动、业务流程,甚至决策本身。当技术及其应用每季度都在演变时,试图锁定固定政策是徒劳的。而复杂性不仅仅在于速度。传统的IT治理管理着应用、用户和数据的交集;AI增加了一个第四维度——模型本身,以及它们与这三者的动态关系。这一额外层次不仅增加了风险,还改变了治理的几何形状。 58%的受访者他们的组织没有明确的数据和治理框架。 在这个环境中,需要的是更智能、更适应、更整合的治理。代理人工智能的自主决策可以在数小时内升级风险,而不是数月。只有适应性治理才能跟上。自主、目标导向的人工智能代理不仅执行指令,还做出独立决策,将行动串联起来,并实时适应。这种速度和不可预测性可能会压倒静态治理框架,将昨天的安全措施变成明天的漏洞。 一个旨在优化供应链的自主代理可能会通过具有可疑劳动实践的地区进行路线规划。一位客户服务AI助手可能会通过将呼叫者转移到无果的电话树来结束艰难的对话。一个财务分析系统可能会发展出微妙的有偏倾向,提供有失偏颇的建议。这些运营现实可能造成昂贵的失败和破坏信任,破坏高潜力AI倡议。 相比之下,自适应人工智能治理系统能够在整个企业中实现实时改进。正如我们的研究显示,治理成熟度较高的组织在安全指标上提高了23%,在员工指标(例如满意度与参与度)上提高了20%,以及人工智能采用率增加了18%——这很可能是由于增加了更强的稳固性、清晰度和信心。 自主决策的智能体AI可能在数小时内加剧风险,而不仅仅是数月。只有适应性治理才能跟上。 图1 在焦虑曲线之内: 高管担心人工智能风险 治理不能仅仅是一个合规性讨论。它必须是一个基于价值的讨论——一个增长推动者。 图3 治理陷入困境之处 五项常见的组织障碍 IBM如何学会快速行动而不破坏信任 如何在人工智能领域快速前进而不失控制?在IBM,治理模式被重新构想,围绕五个支柱: 1从你现在所在之处开始。IBM通过在现有基础上建设,开始正式对AI进行监管。“我们从GDPR开始,”全球隐私和负责任AI市场战略项目总监Michelle Jutras Steiner说。“我们有一个强大的隐私治理计划,很快意识到我们所构建的可以成为AI治理的支柱。”IBM数据治理和隐私工程总监Nicole Jackson在此项工作中投入了大量精力。她以非常明确的方式阐述了这一点:“如果你有糟糕的数据,你将会有糟糕的AI。这真的是如此简单。” 一个共同的认识——对AI的信任始于对数据的信任——为公司范围内的转型奠定了基础。 2IBM创建了一个单一集成库存跟踪,覆盖了超过5,500个应用程序和流程,以及2,000多个数据集和AI模型。这种统一的视角使团队能够确切了解正在使用的模型、它们依赖的数据以及它们在其生命周期中的表现。 这种可观测性使得治理能力从被动变为主动。公司可以识别依赖关系、自动化评估并大规模管理风险。影响是显著的:IBM拥有的数据和第三方数据的数据清理时间都减少了超过一半。 3让每个人都有份。而不是建立一个单一的技术治理委员会,IBM的负责任技术委员会汇集了来自各个业务单元、研究、人力资源、市场营销和合规方面的领导者来指导战略(见图4)。为了进一步实现AI治理的运营化并将责任嵌入到整个组织中,各业务单元指定的领导者负责完成评估、确保合规以及进行符合AI治理政策的审查。这使得监管转变为创新的推动者,而非开发的终点检查点。 用人工智能来治理人工智能。 IBM的watsonx.governance解决方案为监管带来自动化和可观察性,提供对模型性能、溯源和合规性的实时洞察。公司有效利用人工智能来治理人工智能,确保持续监控和更快、数据驱动的决策。 持续学习——并教导。 超过1,600家技术供应商接受了技术伦理培训,内部团队参与如“AI日常伦理”和“AI从业者可信AI”等计划。这些举措使负责任的AI成为一种共享能力,而不是一个专业职能。 图4 IGP运营模式治理速度与商业同步 一个AI治理的互动模型并非企业职能,而是一个涉及多个企业职能的系统。 超过1600家技术供应商接受了技术伦理培训。 CEO们推动责任担当 超过一半(63%)的参与我们研究的组织报告称,他们的首席执行官参与了确保组织有效的人工智能治理。这一比例在人工智能治理成熟度更高的组织中更高;这些组织中81%的首席执行官参与了确保有效的人工智能治理。大约三分之一的企业的首席执行官直接负责或直接对人工智能治理负责。 这标志着从委托治理向高级战略领导的转变。这并非微观管理——而是战略需求。值得注意的是,治理成熟度更高的组织,其首席执行官在治理中的参与度更高,这指出了AI对企业的重要性。AI决策影响着企业运营的各个方面,从客户互动到供应链管理再到财务规划。风险和机遇过于广泛和重大,不能仅限于运营团队。 政策本身并不能保证遵守——您必须激发那些让它们生动起来的行为。 研究表明,现在75%的高管将人工智能伦理视为一种竞争优势,最有效的组织将“损失厌恶”(风险规避和合规)与“价值创造”(构建能力、推动创新和增强信任)相结合。5 CEO在设定基调和发展方向上的参与向整个组织发出了信号。当最高层领导认真对待人工智能治理时,这种重视会层层传递到每个部门和职能。 案例研究 一家领先的医疗和消费品零售商凭借全面的AI伦理和治理策略推动成功6 一位领先的健康与消费者用品零售公司高级董事实施了一项AI项目,通过供应商和内部产品提供解决方案。与他的最近一次对话涵盖了三个主要运营领域: 严格的治理流程。零售商的AI治理小组是一个集中机构,负责确保所有AI项目完成审批所需的步骤。在此精神下,它组织会议,让项目团队展示他们如何将合规措施与小组的控制计划相一致。如果获得批准,项目将得以推进。主任指出,作为一个与大量合作伙伴、供应商、客户和其他生态系统打交道的庞大企业,该组织在构建AI能力时必须格外小心。 人工智能伦理引擎无论零售商投资于基于SaaS、供应商或开源的产品,他们都会确保在部署前满足所有道德参数。其内部审计流程被称为“AI道德引擎”。在与供应商合作时,组织首先进行背景调查,考察其行业、客户、声誉和能力。这个过程可能持续两到四个月。一旦零售商选定供应商,就会进行试点。如果成功且满足道德措施,合作将继续进行。 利益相关者成功。该组织在人工智能能力方面进行了大量投资,以提升客户互动体验并推动市场策略和客户增长。负责人指出:“单靠人工智能或单靠人类都无法成功,但如果将这两者