商用 AI: 通过更智能的治理、最大化AI 投资回报率 01 →简介02 →扩展 AI 的挑战03 →所有 AI 均需进行治理04 →全面的 AI 治理05 →watsonx.governance 可实现负责任、透明且可解释的 AI06 →AI 治理实际应用07 →后续步骤 01简介 人工智能治理对于实现可扩展性至关重要 随着生成式 AI 成为新的现实、企业正通过人工智能驱动的创新来抢占先机。但其中的关键问题仍在于:您的 AI 是否得到了充分治理?治理是确保企业所有基于 AI 的创新理念都未偏离正轨、且符合全球道德与监管标准的关键所在。 设计融入组织的 DNA 中、而不仅仅是在政策中加以说明。为此、需要提供持续、可证明的证据、以证明控制措施正按预期运行、而不是仅仅依赖年度合规性检查。此类持续保证对于满足当今的监管要求以及应对不断变化的风险态势均至关重要。AI 潜力方面退缩。本电子书将帮助您了解更多有关人工智能治理的原则、并让您的企业走上发展的快车道。阅读完整案例或免费试用watsonx.governance → 与 AI 相关的风险正在上升——合规与监管问题、数据偏见与可靠性问题、以及当用户不了解 AI 模型如何运作或管理时导致的日益严重的信任缺失。AI 智能体是未来的发展方向随着数字化转型步伐的加快、企业正转而采用AI 智能体、将其作为智能自动化的下一演进方向。根据 Gartner 的一项研究、83%1的受访者预计 AI 智能体将在 2026 年之前提高流程效率和产出。而 IBM 的一项研究则表明、71%2的人 群认为 AI 智能体将自主适应不断变化的工作Gartner 预测、到 2028 年、至少 15%3的日常工 作决策将由智能体 AI 自主做出、而这一比例在2024 年为 0%。 高级管理层的高管们承认、他们的组织需要做得更好。 60% 的 CEO 表示、他们正在强制实施额外的 AI 策略以降低风险。4 60% 虽然 63% 的首席风险官和首席财务官表示他们关注监管与合规风险、但仅有 29%的人群认为这些风险已得到充分解决。4 63% 易委员会 (SEC) 提交的文件中指出、AI 监管存在风险。5 27% 02扩展 AI 的挑战 什么阻碍了组织的发展?两个字:信任。高管们认为、网络安全、隐私和准确性是实施生成式 AI 的最大障碍。随着态势的变化、他们预计会在未来 3 年内将对 AI 伦理的投资至少增加40%6。 缺乏治理可能会导致多种效率低下问题。例如、它可能会导致范围蔓延、阻碍模型的及时部署、致使模型质量参差不齐以及引发未识别的风险。鉴于 AI 开发和部署的复杂性、实施强大、透明和自动化的治理框架对于缓解这些潜在问题至关重要。 驾驭人工智能治理:当前的障碍人工智能治理环境配备了一系列工具、但很多 模型在开发过程中都面临透明度、一致监控和准确编目的问题。缺乏全面、自动化、端到端的生命周期管理系统、往往会妨碍可扩展性并导致操作不透明。对可解释的 AI 结果的追求仍难以实现、尤其是随着黑匣模型的兴起。此类模型虽被广泛部署、但往往会掩盖其输出背后的逻辑——甚至对于构建它们的开发人员来说也是了解 IDC 对扩展 AI 的主要障碍的看法立即阅读 → 在 AI 领域、驾驭风险与声誉管理的复杂态势可谓令人望而生畏。各种头条新闻持续渲染着不透明 AI 系统所存在的危险、即这些系统在现实场景中使用时可能会产生不公正、莫名其妙或带有偏见的结果。这些有缺陷的结果(通常会受到与种族、性别或年龄相关的隐藏偏见的影响)可能会产生深远的影响、从而既影响客户、又影响品牌的诚信度。例如、以医疗保健等领域的高风险为例。影响患为了最大程度降低与 AI 相关的风险、组织必须致力于构建透明、公平且包容的系统。可解释的AI 在检测和防止存在偏见的决策方面发挥着关键作用、同时还能增强隐私保护、安全性以及客户信任。构建值得信赖且无偏倚的 AI、不仅对于提升运营效果至关重要、同时对于避免争议和声誉损害也至关重要。了解有关 AI 风险管理的更多信息 → 者诊断或治疗计划的 AI 系统必须具备透明性与公平性。不正确或存在偏见的 AI 建议可能会导致误诊或不当治疗、甚至可能产生危及生命的后果。 了解如何简化AI 合规性阅读我们的博客 → 模型文档非常重要、但在时间压力下、数据科学家经常忽视这一领域、尤其是在缺乏明确治理要求的组织中。 适应不断变化的 AI 监管环境成功采用 AI 要求组织遵守快速发展的地方、区 域及国家法律和法规。不合规可能会使您的组织面临数千万美元的罚款、7、目前全球范围内正在讨论的某些最严格的 AI 法规就证明了这一点。例如、《欧盟 AI 法案》的现行草案设想的罚款金额最高可达 3,500 万欧元、相当于某公司全球收入的 7%。8 的模型文档、包括元数据和谱系。 新兴型智能体 AI 固有的内在特性 放大后智能体 AI 强化的已知问题 探索如何释放智能体 AI潜能并管控风险 – 行动目标偏差 – 无监督自主行为 – 数据偏见– 冗余操作– 对 AI 智能体外部资源的攻击– 工具选择幻觉– 共享知识产权/个人身份信息/机密数据 – 歧视性行为– 过度依赖或依赖不足– 未授权使用– 利用信任落差– 无法解释或追踪的行为– 透明度缺失 – 可复现性– 可跟踪性 – 问责制 – 攻击面扩大– 有害且不可逆转的后果 – 合规性– 风险控制与系统维护– 无限反馈回路– 共享模型缺陷 03所有 AI均需进行治理 对于所有 AI(包括无人监督的智能体)而言、治理都是不可或缺的。尽管缺乏标记数据、这些智能体仍需接受监督、以确保其行为合乎道德、无偏倚、从而培育 AI 应用程序的信任度和可靠性。 以某一无监督的 AI 智能体为例、其任务是对客户进行细分以实现有针对性的营销。如果缺乏适当的治理、该智能体可能会无意中根据敏感属性(如种族或收入)对客户进行分组、从而导致潜在的歧视性行为。治理措施可能包括:通过引入这些治理策略、您可以减轻无意偏见的风险、并确保无监督 AI 智能体公平、有效地运行。深入了解 IBM 如何帮助治理智能体 AI 了解更多 → 1.算法审计:定期审查智能体的聚类流程、确保 其不依赖于受保护的属性2.公平指标:实施相关指标、评估智能体的输出是否存在偏见或歧视迹象3.人机交互:包括人工监督、以验证并在必要时调整智能体的决策 了解如何负责任地扩展 AI 在统计学领域、生成式模型长期以来一直用于分析数值数据。10但随着深度学习的兴起、其功能已扩展至包括图像、音乐、语音、视频、文本甚至代码的生成。当前用例已涵盖各个行业—从营销和客户服务到零售和教育。虽然生成式模型已将 AI 推至众多商业议程的阅读博客 → 生成式模型生成式 AI 模型包括基础模型 (FM) 和大型语言 模型 (LLM)。此类模型有可能释放数万亿美元的经济价值、9、因为它们能凭借其出色的性能来提高生产力、并可适应各类任务。此类模型具备高度可定制性、可扩展性和成本 效益。它们能够查询大量数据、并可实时持续学习。现有的生成式应用程序所需专业知识较少、且有助于消除众多繁琐、耗时的任务。 首位、但其功能引入了新的复杂性、且可能对组织和社会等对象构成风险。 04全面的 AI 治理 像任何其他举措一样、成功的 AI 治理取决于人员、流程和技术的交互。 要正确实施 AI、您需要一个强大的跨职能团队。AI 正日益被众多领导者视为战略优先事项、而参与采用 AI 的团队成员数量似乎也在日益增长。其中部分人员可能对 AI 生命周期的概念尚不熟悉、而其他人员则正在寻找参与 AI 计划的新动力。满足所有这些群体的需求至关重要、同时不能给数据科学家带来过重的负担、因为他们通常没有足够时间安排或管理审批并响应信息请求。首先、应协调利益相关者并确保关键方的支持。采取措施确保根据公司现有的业务控制措施和监管框架、定义正确的指标、关键绩效指标(KPI) 和目标。最后、监控为您的 AI 模型确定的具体指标。了解如何构建人工智能治理的整体方案阅读博客 → 然后、让他们参与构思并就成果和负责任的 AI采用达成共识。 全面的 AI 治理 这些原则得到了信任支柱的支持、而这些支柱是我们 AI 伦理的基本特性。 经适当校准、AI 可以帮助人类做出更公平的选择。 可解释性好的设计不会为了创造无缝体验而牺牲透明性。 当系统被用来做出关键决策时、AI 必须是安全、 透明度可以增强信任、提高透明度的最佳途径是信息披露。 AI 系统必须优先考虑和保障使用者的隐私和数据权利。 新的与现有的 AI 模型均可采用这些工作流程、以免出现上述流程延迟问题。最后、建立一个监控框架、以便在模型的指标超过可接受的阈值时提醒所有者和用户。 人工智能治理涉及追踪并记录数据来源、关联 的模型和元数据、以及用于审计的整体数据管道。您的文档应包括用于训练每个模型的技术、使用的超参数、以及各测试阶段所收集的指标。此详细程度可提高透明度、并让利益相关者了解模型在整个生命周期中的行为、包括影响其开发的数据以及可能产生的潜在风险。首先、对您组织当前的 AI 技术和流程进行基准 测试和评估。某些流程和利益相关者可能已协调一致并可进行扩展、而其他部分则可能需要更换。接下来、创建一组符合合规要求的自动化治理工作流程。 – 使用预先配置的 AI 法规列表、简化合规流程、减少识别义务和管理不合规风险所耗费的时间。将外部法规转化为自动化执行、并通过事实说明文档强化审计和报告合规性。– 使用自动化事实说明书记录数据集来源、模型元数据和管道信息。此自动化功能可收集模型事实、让数据科学团队能够腾出时间处理其他重要任务、同时为审计和诉讼提供支持。从 watsonx.governance 开始 → 如何开始?– 简化针对跨模型、应用程序和智能体的 AI 管 理、监控与治理工作。通过主动识别偏见、偏差以及再培训需求、增强预测能力。提升资产质量、透明度和可解释性、同时降低风险。– 提高 AI 运行速度、助力企业扩展运营和实现自动化、同时确保结果透明、可解释、无偏倚且无偏差。– 运用风险管理手段、实现可扩展的风险识别、控制、跟踪与报告。通过模型再训练或重建、主动检测并修复偏见、偏差和行为转变。– 同时评估多个 AI 资产、加快生产进程、减少开发人员和数据科学家的手动工作量。– 通过预设警报、在未经授权的影子 AI 部署升级前将其标记出来、从而掌握安全漏洞、错误配置和风险指标情况。 05watsonx.governance可实现负责任、透明且可解释的 AI 了解 IBM® watsonx.governance—它是一个强大的人工智能治理工具包、旨在指导、管理和监控您的 AI 计划、帮助您降低风险、履行合规义务、并最大限度地提高 AI 投资的投资回报率。 该工具包基于 IBM watsonx 构建、使用软件自动化增强法规遵从性、支持合乎道德的 AI实践。它能提供全面的治理、无需进行昂贵的平台迁移。在预生产阶段、IBM watsonx.governance 可验证业务风险。部署后、它会持续监控公平性、质量和模型偏差、确保合规性。审计人员可访问模型行为洞察分析和预测解释、团队则可通过查看模型功能与训练细节获益。watsonx.governance 涵盖整个 AI 生命周期、借助集中的 AI 事实记录、为设计、开发、部署与监控方面的团队提供帮助。它可通过跨数据、模型、元数据和管道的可追溯性简化审计、并记录有关训练技术、超参数和测试指标的信息。它有望增强对预计模型行为的透明度、深化对有影响力的数据的洞察分析、并主动识别风险。IBM 在 2024 年 IDC MarketScape全球机器学习运营 (ML Ops) 评比中被评为领导者。阅读报告 → 请考虑以下组件: watsonx.governance 是一款开放且与平台无关的产品。您可以治理使用 IBM 或第三方平 利