您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[微软]:2025面向决策者的负责任AI指南智能应用最佳做法 - 发现报告

2025面向决策者的负责任AI指南智能应用最佳做法

信息技术2025-03-12-微软Z***
AI智能总结
查看更多
2025面向决策者的负责任AI指南智能应用最佳做法

智能应用的最佳实践 目录 引言满足打造负责任AI的需求 第1章负责任地使用AI所面临的障碍 第2章如何运用八条指南 第1至3条指南 :评估和准备8第4至6条指南 :设计、构建和记录12第7至8条指南 :验证和支持15 结语18 引言 满足打造负责任AI的需求 AI为许多组织带来了机遇,让他们能够实现智能应用的创新或现代化,并实现了前所未有的效率提升、个性化和见解。借助AI、机器学习和数据分析,智能应用有望改变企业为客户创造和提供价值的方式。 IDC的一项调查发现,对于未来12个月, “大约三分之一的受访者认为,组织更愿意从供应商处购买AI软件,或将内部支持与供应商提供的AI软件用于特定用例或应用程序领域。”1 但是,组织需要确保他们对采用AI的渴望不会掩盖以合乎道德的方式使用AI的责任。当组织开始实施智能应用战略时,你必须警惕创新对社会、环境和声誉的影响。负责任地使用AI需要谨慎寻找平衡点。 在数据驱动型智能可以重新定义行业和用户体验的时代,这种平衡至关重要。你必须能够使用AI功能,同时避免可能造成伤害的行动。对于许多组织来说,实现这种平衡存在几个障碍。 这种偏好表明,制定AI成功战略是大势所趋。 采用AI实现智能应用创新所面临的障碍 对于许多组织而言,应对这些挑战将是一种全新的体验。尽管集成AI存在潜在风险,但大多数高管认为它所带来的收益值得组织积极把握这一机遇。克服这些认知风险的关键是实施指南,这样,你就能够以负责任的方式使用AI,同时了解智能应用的潜在影响。 负责任AI原则 这些是Microsoft确定的对AI开发和使用至关重要的六项原则。 公平性 AI系统应公平对待所有人。 安全可靠 使用AI进行创新的好处 AI系统应可靠、安全地运行。 借助与众不同的智能应用和服务快速 进入市场 AI系统应保障安全并且尊重隐私。 构建和部署解决方案和数字化体验,取得长期业务成果,并将组织打造为行业领导者。 包容性 AI系统应赋予每个人权力并让人们参与进来。 提高效率,同时减少技术债务 透明性 设法优化资源并避免不必要的成本。 AI系统应该是可以理解的。 吸引并赋能开发人才 问责制 为技能水平各异的团队提供用于快速构建的工具。 人们应该对AI系统负责。 “68%的高管认为,生成式AI带来的好处大于风险,而只有5%的人认为风险大于好处。”2 - Gartner 如何运用八条指南 “由于风险成本与AI的崛起有关,评估这些风险以及让各级员工参与制定和实施控制措施的能力将带来新的竞争优势。”3 总之,负责任AI的主旨就是推动组织内的文化转变。要真正实现负责任AI,组织需要做出包括领导力、治理、流程和人才等方面在内的各种变革。 本电子书概述的八条指南侧重于智能应用开发和交付流程,目的是提供一种正式的方法来预测和降低AI系统的风险。由于每个用例具有自身独特的背景和一系列不同的挑战,因此本指南不可用作检查清单,也未规定具体的设计选择。 - McKinsey 此外,组织必须从瞬息万变的监管环境的角度来看待智能应用开发。因此,不应将这些指南视为实现法规或法律遵从性的工具。团队应始终与内部相关部门紧密合作,以确保所创建的AI应用遵守司法管辖区内的所有适用法律和法规,在此基础上进行应用的开发、使用或营销。 这些指南根据应用开发生命周期的关键阶段编排结构,同时认识到智能应用开发通常会循环往复这些阶段 : 1评估和准备2设计、构建和记录3验证和支持 这些指南将帮助你在绩效、组织目标和价值观之间实现更深入的协同。在整个应用开发生命周期中,领导者应牢记组织的价值观和AI伦理原则,只要组织已正式制定这些内容就应认真实行。当然,出现需要智能应用团队做出主观判断的问题是不可避免的。在这种情况下,你应该依靠价值观和原则来指导自己的思路。你还应该从组织内外寻求不同的观点,以获得所有利益相关者提供的意见。 在智能应用中实现负责任AI的八条指南 负责任AI确保以尊重人类价值观、权利和尊严的方式设计、开发和部署应用。负责任AI还有助于防范或减少AI的潜在危害,如偏见、歧视、侵犯隐私或恶意操纵。 通过负责任AI指南构建应用并实现其现代化 这八条指南可以帮助应用开发团队将负责任AI原则融入流程之中。查看下表,了解这些指南如何与上述负责任AI原则相辅相成。 应用指南 每一条指南都附带一系列问题,可帮助你的团队参与到负责任AI中。这些问题可促进批判性思维,帮助团队主动发现风险。虽然某些问题对不同应用的适用程度并不完全相同,但它们均具备广泛的适用性。这些问题并非涵盖所有方面,但反映的最佳实践源于Microsoft和Boston Consulting Group在开发和提供负责任AI应用时获得的经验。文中包含多个图示性用例,用于演示智能应用开发如何使用这些问题来提供负责任的解决方案。 在应用开发的所有阶段(例如评估和准备)中,你应定期将应用开发团队召集在一起讨论相关问题,并审查以前的答案。如果团队无法充分回答某个问题,则团队应花一些时间制定具体的行动计划。应用开发团队应将这些最佳实践作为起点来开展讨论和制定规划。 第1至3条指南 评估和准备 第1条指南 :评估价值 措施 :评估应用开发价值,同时考虑组织价值观和业务目标。 需要提出的问题 : 拟议智能应用的主要用例和好处是什么?哪些用途明显超出范围?此智能应用的预期业务成果是什么?如何评估业务影响?智能应用运营及其输出在业务决策中的使用可能对核心组织价值观有怎样的影响? “通过在开发过程中尽早设计和测试人类与AI系统的交互(甚至在团队进行工程投资之前),可以帮助避免代价高昂的故障和重新设计。”4 - Microsoft Research 第2条指南 :创建团队 第3条指南 :分析影响 措施 :组建能够呈现多元视角的团队,并在团队中明确规定角色和职责。 措施 :根据领域专家和可能受影响的群体的意见评估应用的潜在影响。 需要提出的问题 : 需要提出的问题 : 你 的 团 队 是 否 为 多 元 化( 例 如 性 别、 年 龄、种族)、多领域并且涵盖各种职能专业知识的团队?你缺少哪些视角或专业知识?如何从各种来源(包括位于团队或组织之外的来源)引入这些视角或专业知识?团队是否结构合理,以便领域专家能够影响相关的设计选择? 此应用有哪些可预见的故障模式?哪些边缘场景可能导致失败和伤害?可预见的应用故障、滥用或恶意攻击会对社会和环境产生什么影响?应用潜在的计划外用途有哪些?哪些外部中小型企业或团体可以为做出明智的设计选择提供意见,从而降低对直接或间接受智能应用影响的个人造成负面社会影响和伤害的风险? 评估并准备场景 :自动执行贷款审批决策 智能应用用例 金融机构希望实现贷款申请审批流程的自动化,以提高效率并接触新的客户群。由于智能应用有可能影响个人的经济利益和生活质量,智能应用领导者将会立刻认识到他们必须谨慎行事。 应用第1条指南 :评估智能应用开发价值,同时考虑组织价值观和业务目标 应用第2条指南 : 组建能够呈现多元视角的团队,并在团队中明确规定角色和职责 在组建团队之前,智能应用领导者会与数据科学家和用户研究人员讨论潜在的方法。在通过白板进行一小时的讨论之后,得出以下评估结论 : 智能应用领导者根据初始评估组建团队。团队中应包括: 多名拥有将公平性工具应用于机器学习模型的相关经验的数据科学家。 应将用例设计为能够针对接受审查的贷款,预测申请人在贷款有效期内的收入潜力,从而预测还款的可能性。 一位拥有《平等信用机会法》(Equal CreditOpportunityAct)领域专业知识的律师,以确保团队充分了解监管环境。 应使用三个KPI来度量业务影响 :相对于历史基准的违约率、贷款总量的增加程度以及批准/拒绝决策的速度。 拥有丰富经验的两名贷款专员,指导各种客户完成申请流程。这将促进团队设计能够增强贷款专员的决策能力,并实时集成贷款专员反馈的智能应用。 历史数据可能会反映种族、性别或其他偏见。探索性数据分析需要包括对数据集组成内容进行偏见评估的步骤,以便实施适当的缓解措施。 一位熟知以下事实的智能应用领导者 :系统将处理敏感的个人身份信息(PII),因此系统安全和隐私至关重要。领导者必须获得批准,才能聘请具有网络安全和AI专业知识的外部顾问,用以在团队组建过程中就最佳系统体系结构、数据存储和隐私差异性提供指导。 种族、性别和其他受保护类别的代理变量可能会加剧偏见并影响结果,从而违背公司在公平性和法律方面的价值观,这会带来极大的风险。智能应用团队必须主动介入这些主题。 一位用户研究人员,以便确保从构思到最终智能应用,全程以客户需求为先,从而使客户的了解和满意度与业务目标相互协调。 一位可提高智能应用在不同用户群中的可用性和可访问性的设计人员。 一支成员具备各种背景和生活经验的多元化团队。 应用第3条指南 :根 据 领 域 专 家 和 可 能 受 影 响 的 群体的意见评估智能应用的潜在影响 聚焦智能应用用例 :金融服务和医疗保健 在初步讨论期间,贷款专员分享他们与金融机构的现有客户群互动的经验。当贷款专员详细介绍多年来与各种客户的互动时,希望智能应用领导者意识到,AI可能会吸引新的客户群体,这些群体的需求和期望可能与历史数据中记录的需求和期望不同。 智能应用在金融服务和医疗保健等行业中具有广泛的用例,在这些行业中,需要以高度合乎道德的方式处理个人信息和敏感信息,同时兼顾隐私标准和法规遵从性。 金融机构 :AI算法可实时分析大量的交易数据,准确检测异常和欺诈活动,从而帮助识别表明存在欺诈的可疑交易和模式。 团队聘请了一位经济学家,对于银行业务拓展会触及的人群,这位经济学家具有相关的银行往来关系专业知识。 团队还与供应商合作,针对新客户群体中的潜在借款人部署调查,以便更好地了解更优质的信贷渠道可能会给收入潜力带来怎样的影响(以基于或不基于历史数据中反复出现的群体的方式),从而了解还款的可能性。 保险公司 :通过分析历史索赔数据、客户档案和外部数据源,AI算法可以将可疑索赔标记出来进行调查,从而帮助保险公司减少保险欺诈造成的损失。 医疗保健欺诈检测 :AI模型可以分析病历、计费数据和索赔历史记录,从而识别违规行为以及计费欺诈、处方欺诈和医疗保健身份盗窃等行为。 贷款专员注意到,即使有了新的客户群,有一件事可能始终不变,那就是贷款申请遭到拒绝是一种令人不快,甚至可能痛苦的体验。应该由技术娴熟且经验丰富的专业人员以更恭敬的方式给出拒绝的结果。基于此见解,智能应用团队决定,所有拒绝决策都将由贷款专员传达给申请人。 第4至6条指南 设计、构建和记录 第5条指南 :降低风险 第4条指南 :发现风险 措施 :评估数据和系统结果以确保包容性并最大限度地降低损害公平性的风险。 措施 :设计有助于降低对社会和环境的潜在负面影响的AI应用。 需要提出的问题 : 需要提出的问题 : 你将使用哪些公平性指标(例如统计平等性、均等几率)、测试和运输标准?智能应用团队将如何验证训练数据(包括通过API收集的数据),如何获取可能受系统输出影响的不同群体和人员类型? 假设可能产生负面影响(例如,系统故障、计划外使用、滥用、攻击或正常使用的副作用)。哪些设计流程(例如,以人为本的设计)和选择可以减少、缓解或控制这些影响? 哪些设计选择将有助于最大限度地降低智能应用输出和相关决策对环境的不利影响?哪些设计选择对于确保合法和透明的数据收集以及尊重用户隐私至关重要? 智能应用团队将如何衡量在各种可能受影响的群体或交叉群体中,AI应用的成果是否满足选定的目的(即避免目标泄露)、公平性指标、测试和运输标准? 智能应用团队将如何确保在部署后仍然遵守公平性指标、测试和标准? 第6条指南 :人为控制 在零售、电子商务、旅游和酒店业中的智能应用用例中,需要包容性和