AI智能总结
公司副总裁兼总经理,全球人工智能、自动化、数据和分析研究实践,IDC IDC研究副总裁,对话式人工智能与智能知识发现 目录 执行摘要 3 4 调查的关键发现…………………...………...………...………...………...………...………...………...………...………...… 负责任的AI工具. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11 AI 采用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18重要用例. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20 建议和推荐. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22. . . . . . . 结论. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .28 生成式人工智能. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .30负责任的AI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31负责任的AI属性. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31 附录1:补充数据. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33. . . . . . 37关于IDC分析师 38赞助商信息 执行摘要 每个组织都需要在人工智能时代具备核心责任感,因为这有助于组织加速实现人工智能的效益。一个具备核心责任感的组织具有以下基础要素: •核心价值观与治理:它定义并阐述负责任的AI(RAI)使命和原则,得到高管层的支持,同时建立跨组织的明确治理结构,以建立对AI技术的信心和信任。 •风险管理及合规性:它强化了对既定原则和现行法律法规的合规性,同时监控未来的法律法规,并制定政策以降低风险,并通过具有定期报告和监控的风险管理框架来实施这些政策。 •技术:它利用工具和技术来支持公平性、可解释性、鲁棒性、问责制和隐私等原则,并将这些原则构建到人工智能系统和平台中。 •劳动力:它使领导层能够将RAI提升为关键业务要务,并为所有员工提供培训,使他们能够清晰地理解负责任的人工智能原则以及如何将这些原则转化为行动。培训更广泛的员工对于确保RAI的采用至关重要。 本文旨在提供信息和证据,证明负责任的AI方法通过将AI部署与组织标准和社會期望相结合,促进創新,从而為組織及其客戶帶來可持續的價值。 从风险到回报:负责任人工智能的商业案例 引言 根据IDC的2024年2月报告全球半年度人工智能系统支出指南,版本1,该平台追踪各行各业的AI软件、硬件和服务,预计全球企业将 在2024年投资2330亿美元于AI解决方案。 AI解决方案正在通过提升运营效率和重塑工作性质,变革着金融、制造、农业和医疗保健等多元化行业。企业对正在迅速展开的生成式AI(GenAI)的应用,能够革新客户体验、提升员工生产力、增强创造力和内容创作,并加速流程优化。 然而,人工智能也带来了真实的风险和意想不到的后果。人工智能系统可能由于有偏见的训练数据或算法设计而无意中加剧或放大社会偏见。人工智能系统通常在从各种来源收集的大量数据上进行训练。人工智能程序输出可能遇到版权侵权问题。人工智能幻觉是人工智能模型生成的错误或误导性结果。这些错误可能由多种因素引起,包括训练数据不足、模型做出的错误假设、缺乏背景知识或用于训练模型的训练数据中的偏见。因此,缺乏依据可能导致模型生成看似合理的输出,但实际上是事实错误、不相关或无意义的,并进一步削弱信任。 从风险到回报:负责任人工智能的商业案例 随着人工智能技术的日益复杂化,其使用相关的安全风险及潜在的滥用可能性也随之增加。例如,黑客/恶意行为者可以通过污染基础数据来控制生成式人工智能(GenAI)基础模型输出。或者,他们可以使用伪装成用户输入的恶意指令的提示注入攻击,诱使大型语言模型(LLM)覆盖开发者指令,目的是操控模型以生成期望的回应。越狱技术——即试图绕过或规避嵌入在LLM中的安全过滤器与限制——也是恶意行为者常用的手段。 根据IDC的2024年3月微软 — 负责任的AI调查(n = 2,309) (由微软赞助), 该调查收集了关于组织态度和负责任人工智能现状的见解,91%的受访者目前在其组织中正在使用人工智能技术,并预期到2024年,人工智能将在客户体验、业务韧性、可持续性和运营效率方面带来超过24%的改进。使用负责任人工智能解决方案的受访者表示,其有助于数据隐私、客户体验、自信的业务决策、品牌声誉和信任。 人工智能不仅为企业带来了前所未有的机遇,也带来了难以承担的责任。为确保与客户和利益相关者的信任与公平,并遵守新兴的政府法规(例如欧盟人工智能法案),组织需要专注于负责任的人工智能。 91% are currently在其组织中使用人工智能技术由于人工智能(AI)在2024年,客户体验、业务弹性、可持续性和运营效率预计将提升超过24%。 欧盟人工智能法案旨在规范企业开发、使用和适用人工智能的方式,该法案于2024年5月获得通过并于2024年8月生效。该立法采用基于风险的监管方法,这意味着技术的不同应用将根据其对社会构成的风险等级进行差异化监管。 对于被视为“高风险”的AI应用,例如,已引入严格的义务。这些义务包括充分的风险评估和缓解系统、高质量的训练数据集以最小化偏见风险、活动常规记录,以及强制向当局共享详细模型文档以进行合规性评估。 欧盟人工智能法案的影响远超欧盟范围。该法案适用于任何在欧盟拥有运营或影响的组织,这意味着无论你身在何处,都可能受到该法案的约束。所有属于该法案范围的人工智能模型——包括通用型人工智能系统——的监管工作将由欧洲人工智能办公室负责,该监管机构于2024年2月由委员会设立。 本质上,组织需要在核心层面承担起责任,并在整个项目生命周期中积极运营人工智能治理,支持协作式风险管理,并遵循不断发展的与人工智能相关的法规及其政策与价值观。 从风险到回报:负责任人工智能的商业案例 随着消费者对人工智能影响的认知日益加深,他们要求提高人工智能的透明度并负责任地使用人工智能。许多组织正将负责任的人工智能纳入其企业社会责任战略中,认识到负责任的人工智能实践能够提升其声誉并促进社会福祉。企业采用负责任的人工智能是为了降低与人工智能相关的风险,例如偏见、安全漏洞和未预期后果。这种积极主动的方法有助于保障其运营和声誉。那些优先考虑负责任人工智能的公司通常被视为创新领域的领导者。通过解决社会和道德问题,它们能够在市场上脱颖而出,吸引更多客户和合作伙伴。 技术专家、法律专家和其他利益相关者之间正在形成日益增长的协作趋势,以开发全面负责任的AI框架。这种跨学科方法确保了AI开发过程中考虑了不同的观点。随着欧盟AI法案和美国AI权利法案等法规的日益增多,企业正在优先考虑负责任的AI实践,以确保合规并避免法律后果。这些趋势凸显了行业对负责任的AI在确保可持续技术进步中发挥关键作用的认识。 IDC将RAI定义为在确保公平性、可靠性、安全性与隐私及保障、包容性、透明度和问责制的前提下设计、开发并部署人工智能的实践。为建立对人工智能的信任,组织必须超越定义RAI原则,将原则付诸实践。人工智能治理本质上是一套流程、政策和工具,它将数据科学、工程、IT、合规、法律和业务团队等不同利益相关方聚集起来,以确保人工智能系统在机器学习(ML)/生成式AI生命周期的每个阶段都得到构建、部署、使用和管理,从而最大化收益并防止损害。人工智能治理使组织能够在机器学习(ML)/生成式AI生命周期的每个阶段将人工智能系统与业务和法律要求保持一致。 IDC将RAI定义为一种确保公平、可靠和安全、隐私和安全、包容性、透明度和问责制的AI设计、开发和部署实践。 调查的关键发现 根据IDC的Microsoft — 负责任的AI调查over 30% of the respondents note that缺乏治理和风险管理方案是采用和扩展人工智能的首要障碍。(see图1,下一页)。 同样重要的是要注意的是,超过75%的采用负责任人工智能解决方案的受访者表示,它有有助于数据隐私、客户体验、自信的业务决策、品牌声誉和信任(see图2,第9页)。基本上,通过采取主动措施,并利用RAI工具和技术来识别、缓解和监控整个AI生命周期中的风险,他们可以减轻意外的负面后果。 随着组织在广泛的各种解决方案中购买、开发和应用人工智能,它们也在应对发展负责任的AI政策、程序和实践的需要。根据调查,组织在全球范围内发展和遵循全面负责任的AI实践仍处于早期阶段。虽然人工智能并非新生事物,组织已有一段时间在使用人工智能驱动的解决方案。只有更成熟的AI组织才主动且负责任地拥抱它。生成式人工智能(GenAI)一直是推动更广泛人工智能应用发展的催化剂,但也引发了一系列问题,包括数据安全、知识产权泄露、幻觉、版权侵权以及来自恶意行为者的威胁。从地域角度来看,欧洲、中东和非洲(EMEA)、拉丁美洲以及亚太地区在治理结构和用于执行治理的技术方面落后于北美地区。缺乏人力资本、数据可用性、资金、信任问题和法规已成为阻碍人工智能成熟的主要因素。(see图3,page 10). 系