AI智能总结
人工智能治理的未来 目录 主题 2226303446385042541418原则2:安全原则三:算法偏见原则 4:数据隐私原则五:透明第六原则:人工监督原则七:治理和问责原则八:技术卓越原则9:人类承诺原则10:与人工智能和平共处原则11:促进人工智能意识,共创包容未来原则12:致力于遵守条约和适用法律阿联酋宪章:12项人工智能原则6原则一:加强人机关系10KPMG 可信赖人工智能框架8 前言 我们认识到,一套清晰、可执行的AI原则构成了符合道德和负责任的AI发展的基石。这些原则不仅对于建立公众信任和确保组织问责至关重要,而且也有助于促进惠及公民、企业和政府的包容性创新。 随着全球监管框架的演变,例如2024年通过的欧盟人工智能法案,基于欧洲委员会的可信赖人工智能伦理指南,基于原则的治理已成为人工智能监管的基础方法。阿联酋通过其人工智能2031战略以及发布于2024年7月旨在发展和使用人工智能的阿联酋人工智能宪章,展现了区域和全球领导力,该宪章阐述了十二项关键原则,以确保人工智能安全、公平和透明地部署。 这份白皮书详细解读了阿联酋人工智能宪章的12项原则,针对人工智能全生命周期的实施提供了可操作的建议,并对照KPMG可信人工智能框架进行映射,为人工智能治理、风险管理以及监管合规提供了实用见解,同时为建设与阿联酋国家优先事项相一致、具有韧性和以人为本的人工智能系统提供了蓝图。 阿联酋宪章特别强调人类监督、包容性、安全性和法律合规性——这些价值观与经合组织、联合国教科文组织以及欧盟等全球人工智能伦理标准相契合。随着人工智能监管日益严格,主动遵循这些原则的组织将更有能力负责任地引领发展,降低风险,并充分释放人工智能创新的全部潜力。 要超越美好的愿望,组织必须将这些原则嵌入到运营现实中。这意味着要演变现有的治理模式,以支持人工智能的独特需求——例如数据来源追踪、模型问责制、可解释性、偏见审查和人工监督。治理框架必须从静态政策转变为与快速发展的AI生命周期保持一致的动态控制机制。 将阿联酋人工智能宪章融入企业治理也提供了战略优势。它标志着为未来合规做好准备,能够实现风险意识创新,并确保人工智能部署不仅合法,而且与公众期望和社会价值观相一致。较早将这些原则付诸运营的组织将更善于管理伦理困境,回应监管机构的询问,并与用户、监管机构和更广泛的社会建立持久信任。 主动践行这些原则不仅确保了合规准备,也带来了清晰的业务价值。尽早将负责任的AI实践嵌入到组织中的,可以自信地加速创新,降低合规成本,并提升作为值得信赖、具有远见卓识的领导者的声誉。通过构建透明、包容和以人为本的AI系统,企业可以解锁新的机遇,获得利益相关者的信任,并在日益AI驱动的经济中实现差异化。 在全球范围内,欧盟、加拿大、美国和新加坡等司法管辖区正迅速将人工智能伦理纳入具有约束力的立法和运营框架。这预示着一个全球性转变,即人工智能治理将不再是非强制性的——而是数字竞争力和企业韧性的核心组成部分。 阿联酋宪章:12项人工智能原则 阿联酋旨在加强人工智能与人类之间的和谐互利关系,确保所有人工智能发展都优先考虑人类福祉和进步。 2. 安全: 阿拉伯联合酋长国高度重视安全,确保所有人工智能系统符合最高的安全标准。该国鼓励修改或移除有风险的系统。 3. 算法偏见: 阿拉伯联合酋长国旨在应对人工智能算法带来的挑战,包括算法偏见,以促进所有社区成员的公平公正环境。这推动了人工智能技术的负责任发展,使其包容且易于人人使用,支持多元化并尊重个体差异。它确保了平等的技术利益,并在无排斥或歧视的情况下提升了生活质量。 4.数据隐私: 根据阿联酋对隐私权的立场,虽然数据对人工智能的发展至关重要,支持并促进人工智能创新,但社区成员的隐私仍然是最受重视的。 5.透明度: 阿拉伯联合酋长国寻求对人工智能及其系统如何运作和做决策形成清晰的认识,这有助于建立信任,增强责任,并促进在使用这些技术的问责制。 6.人工监督: 该宪章强调了人类判断和人类监督相对于人工智能的不可替代的价值,并与伦理价值观和社会标准保持一致,以纠正可能出现的任何错误或偏见。 7. 治理和问责: 阿联酋采取负责任和主动的立场,强调人工智能治理和问责制的重要性,以确保该技术得到合乎道德和透明的使用。 8. 技术卓越: 人工智能应成为创新的灯塔,反映阿联酋在数字化、科技和科学卓越方面的愿景。阿联酋通过采用人工智能的科技卓越性,寻求全球领导地位,以驱动创新,增强竞争力,并通过针对复杂挑战的创新和有效解决方案提高生活质量,从而为社会整体带来可持续的进步。 9. 人类承诺: 人工智能中的人类承诺体现了阿联酋的精神,这对于确保该技术的发展服务于公共利益至关重要。它专注于提升人类的福祉和保护基本权利,强调将人类价值观置于技术革新的核心,以确保对社会产生积极而持久的影响。 10. 与人工智能和平共处: 与人工智能和平共处对于确保技术不损害人类安全或基本权利,同时增进我们社区的幸福感和进步至关重要。 11. 推动人工智能意识,共创包容未来: 创建一个包容的未来至关重要,确保每个人都能从人工智能进步中受益,并保证社会各阶层都能公平地获得这项技术和其优势。 12. 对条约和适用法律的承诺: 阿联酋强调在人工智能的发展和使用中遵守国际条约和地方法律的重要性。 KPMG 可信赖人工智能框架 随着人工智能日益成为关键决策和日常运营的有机组成部分,普华永道开发了其可信人工智能框架,以帮助组织应对这一不断变化的格局。该框架为人工智能生命周期带来了结构、问责制和清晰度,确保人工智能系统从战略到部署都符合伦理道德、透明度,并与人类价值观保持一致。 基于安永在各个行业的全球经验,该框架基于十个核心原则。这些原则包括公平性和透明度,确保人工智能系统具有包容性和可理解性;可解释性和问责制,促进人类监督和责任;以及隐私、安全和安全,保护个人和系统。此外,该框架强调数据完整性和可靠性,以确保人工智能的持续性能,以及可持续性,以确保人工智能的进步有助于更广泛的社会和环境目标。 阿联酋人工智能宪章反映了对负责任人工智能发展的类似承诺,通过十二条指导原则表达了国家愿景,这些原则与 KPMG 可信赖人工智能框架中的原则紧密一致。下表说明了阿联酋人工智能原则如何映射到KPMG 的一个或多个可信赖人工智能原则: 阿联酋人工智能原则对齐的KPMG全球可信人工智能原则 阿联酋人工智能宪章与KPMG可信人工智能框架之间的紧密契合为行动提供了坚实的基础。可信人工智能原则已经通过定义的方法论在人工智能生命周期中得到实施——涵盖战略和设计、数据赋能、模型开发、测试和评估,以及部署和监控。在此经过验证的基础之上,本白皮书应用了相同结构化的方法处理阿联酋的十二条人工智能原则。对于每一条,都概述了实际步骤,以帮助组织嵌入符合伦理、以人为本的人工智能实践,并将原则转化为具体成果。 原则1 强化人机联系 阿联酋旨在加强人工智能与人类之间的和谐互利关系,确保所有人工智能发展都优先考虑人类福祉和进步。 用现实世界的术语理解原理 这一原则旨在确保人工智能系统增强和扩展人类能力,通过创造更智能、更具包容性的解决方案,赋予人类超越自身潜能的力量。人工智能应与伦理原则保持一致,尊重人的尊严、权利和价值观。最终,阿联酋的目标是营造一个人工智能与人类协作的环境,以改善生活质量、提高生产力和推动社会进步。 现实世界中的例子: • 医疗人工智能:医疗保健中使用的AI系统,辅助医生更准确、高效地诊断疾病,最终改善患者结果。 • 智慧城市:将人工智能驱动技术融入城市规划以改善基础设施、优化交通流量并提升居民生活质量。 将此原则嵌入人工智能治理 为加强人机联系,应重点开发能够增强人类能力、提升福祉并为员工、顾客和社会带来积极影响的AI系统。确保您的AI计划与最佳实践保持一致,并在开发与实施的每个阶段审慎考虑其对人类价值观、尊严和权利的更广泛影响,同时体现阿联酋的文化和社会价值观。考虑将人机协同决策机制纳入其中,以进一步加强人机关系,确保有效的监督、信任和问责。 原则1 最佳实践与方法论 策略与设计 • 以人为本设计:设计人工智能系统,通过持续收集多样性反馈并将其用于改进和增强人工智能的影响力,以增强人类能力。 • 透明算法:构建模型,使人类能够轻松地理解、信任并与人工智能系统协作。透明度有助于确保人类监督得以维持。 • 人工智能伦理目标:为人工智能发展制定明确的伦理准则,优先考虑人的福祉并解决潜在的负面影响,确保与全球标准及阿联酋的文化价值观保持一致。 • 消减偏差:确保人工智能模型不带可能损害人类进步的偏见,包括确保跨不同群体间的公平对待,并维护社会价值观。 • 人机回路集成:应尽早嵌入人机协同机制,以强化决策能力,确保问责制,并使人工智能系统与核心人类价值观保持一致。 测试与评估 • 人类影响评估:评估人工智能系统对人类福祉的潜在积极和消极影响,确保结果与预期效益保持一致。• 用户反馈:结合用户反馈来优化人工智能系统,确保它们与人类需求和进步相关。 数据赋能 • 数据敏感性:通过确保数据收集和处理尊重人类隐私和尊严,建立信任,确保个人和敏感数据的负责任使用。• 幸福指标:在评估用于训练人工智能模型的训练数据时,应考虑诸如福祉、安全性和用户体验等因素。• 丰富多样的数据表示:使用反映多样化人类体验的数据集,确保人工智能系统能够服务于广泛的社会需求。 部署和监控 • 持续协作:与人类用户和利益相关者保持积极合作,以确保已部署的 AI 系统能够持续带来益处并促进人类进步。 •监测人工智能对人类的影响:追踪人工智能对社会产生的长期影响,确保人工智能系统继续优先考虑和增强人类福祉。 模型开发 •适应人类需求:持续适应人工智能技术以满足不断变化的需求人类用户的价值,尤其是作为社会上下文会变化。 • 人机协作功能:开发人工智能系统,通过提供洞察力和支持来增强人类能力,而不取代人类决策。 将原理扩展到智能代理系统 关键工具、技术与进一步阅读 智能代理系统必须设计为补充而非取代人类角色。它们应通过情境感知和反馈机制增强人类决策力和生产力。确保直观的人类交互和透明度将有助于维持信任。组织必须优先考虑代理-人工智能界面中的用户体验。用户在情感和认知层面的影响应被持续监控并改进。 工具和技术: • 以人为本的人工智能设计框架 • 人机协作工具包(例如:微软小慧、Salesforce Einstein) • 用户体验研究和认知负荷测试工具(例如:Optimal Workshop) • 普华永道可信人工智能框架 • 普华永道可信人工智能风险和控制矩阵(RCM) 拓展阅读: • 斯坦福 HAI:人机协作研究 • 哈佛伯克曼克莱恩中心:增强伦理 • 微软:计算的未来——AI 与人类价值观 原则2 安全 阿联酋高度重视安全,确保所有人工智能系统符合最高安全标准。该国家鼓励修改或移除有风险的系统。 用现实世界的术语理解原理 人工智能安全是指确保人工智能系统按预期运行,不对个人、企业或社会造成危害。这包括技术稳健性、风险缓解以及纳入安全措施以防止或应对意料之外的结果或故障。欧盟人工智能法案通过强制对高风险人工智能应用设定严格的安全标准, exemplifies this approach。优先考虑安全对于最大限度地降低风险、保持运营连续性和阿联酋公众信任至关重要。 现实世界中的例子: • 自动驾驶汽车:人工智能驱动的汽车在低能见度条件下无法识别行人,导致事故和监管审查。 • 医疗人工智能:诊断人工智能错误解释医学影像,导致错误的治疗和潜在的法律责任风险。 将此原则嵌入人工智能治理 确保人工智能安全需要结构化方法——从风险评估到持续测试和失效安全机制。像KPMG的可信人工智能风险框架这样的工具通过提供结构化方法论来支持这一过程,以识别、评估和减轻与人工智能相关的风险,包括与安全相关的风险,并符