您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ACCA&EY]:人工智能评估:增强AI使用信心 - 发现报告

人工智能评估:增强AI使用信心

信息技术2025-08-01ACCA&EYL***
AI智能总结
查看更多
人工智能评估:增强AI使用信心

我们是ACCA(特许公认会计师协会),是全球公认的专业会计团体,提供资格认证并在全球范围内提升会计标准。 ey在为客户、人才、社会和地球创造新价值的同时,正在构建一个更好的工作世界,并建立资本市场信任。 依托数据和人工智能及先进技术,EY团队帮助客户自信地塑造未来,并为当今和未来的紧迫问题提供解决方案。EY团队在鉴证、咨询、税务、战略和交易等全方位服务领域工作。凭借行业洞察、全球互联的多学科网络和多元化的生态合作伙伴,EY团队可以在150多个国家和地区提供服务。全力以赴,自信地塑造未来。 成立于1904年,旨在扩大会计行业的从业途径,我们长期以来一直倡导包容性,如今自豪地支持一个超过多样化的社群252,500成员和526,000未来成员在180国家。 我们富有远见的资质、持续学习和洞见,在各个行业的雇主那里都受到尊重和重视。它们赋予个人商业和金融专业知识以及道德判断力,以创造、保护和报告组织和经济体所提供的可持续价值。 EY指的是全球组织,并可能指恩斯特·杨全球有限公司的一个或多个成员事务所,每个成员事务所都是独立法人。恩斯特·杨全球有限公司是一家英国担保有限公司,不向客户提供服务。关于EY如何收集和使用个人信息以及数据保护立法下个人所拥有的权利的信息,可通过ey.com/privacy获取。EY成员事务所在当地法律禁止的情况下不提供法律实践服务。 以我们的宗旨和价值观为指导,我们的愿景是发展世界需要的会计行业。与政策制定者、标准制定者、捐赠者社区、教育工作者和其他会计机构合作,我们正在加强和建设一个驱动可持续未来的行业。 关于我们组织的更多信息,请访问ey.com. 在 accaglobal.com 上了解更多 前言。 人工智能正处于一个拐点。商业领袖、政策制定者、学者和公民开始释放人工智能的变革性机遇。与此同时,他们也在应对如何管理人工智能的复杂性和显著风险。 随着人工智能(AI)遍布整个经济领域,相信其所说内容的能力不仅重要——它对公共利益至关重要。AI评估是创建使用AI的可持续、长期价值这一旅程的重要组成部分。 本文探讨了人工智能评估可以发挥的作用。它审视了当前对人工智能评估的理解、开发稳健评估的挑战,以及为在未来最大化其价值所需的关键要素。 EY团队在推动成功的人工智能应用方面处于前沿。通过对人工智能系统进行严格评估,这些团队可以帮助确保人工智能得到安全有效地开发和部署。如此一来,他们可以在企业、政府和整个社会建立起对人工智能的信心。 海伦·布兰德女爵士首席行政官,特许公认会计师公会 (ACCA) 玛丽-劳尔·德拉鲁EY全球副总裁—鉴证服务 它还强调了企业领导者及政策制定者需考虑的关键因素,包括人工智能评估在加强公司治理和风险管理方面所起的重要作用。文中还探讨了自愿评估在建立人工智能信任方面的价值,以及评估框架中明确定义的目标和组成部分的重要性。该报告强调了开展评估所认可的标准或准则的价值。 本文讨论了这些人工智能评估——无论是自愿的还是强制的,并且如果是谨慎和独立进行的——如何在建立企业、政策制定者和公民最大化人工智能潜力、最小化其风险所必需的信任和信心基础方面发挥关键作用,适用于所有行业和地区。 ACCA很高兴能与EY和IFAC合作开展此项工作,并希望该论文能成为那些寻求进一步发展和完善其观点与方法人士讨论的催化剂。ACCA今年推出了其更新的全球政策优先事项,涵盖多个领域,包括弥合技能差距和推动可持续发展——而人工智能评估与之相关,鉴于该领域需要技能提升以及评估在驱动人工智能生态系统信任方面所起的作用。 有效的AI评估可以在支持公司治理中发挥重要作用,包括通过确定AI系统是否按预期运行、是否符合适用的法律法规和标准,以及是否根据内部政策 và 道德标准进行管理。 我们相信,通过强调人工智能治理的重要性以及人工智能评估在确保人工智能系统的治理是量身定制、稳健和有效的过程中所起的作用,本文可以为商业领袖和政策制定者做出积极的和有价值的贡献。 我们认为这是一个长期议程,并期待与政策制定者及其他人在这个引人入胜且重要的领域合作。 我想感谢 ACCA 和 IFAC 的专业人士在此报告中的合作。我期待继续与他们和其他人合作,支持商界领袖和政策制定者使用人工智能,帮助他们建设一个无与伦比进步和繁荣的未来。 前言。 作为专业会计师,我们的基础是提供信任。如今,随着人工智能成为企业运营的核心部分,我们在建立信任方面的作用从未如此重要。 AI带来速度、规模和新的可能性。但它也带来了复杂性。AI背后的系统通常是晦涩难懂的,它们的决策难以追踪。 李怀特国际会计师联合会(IFAC)首席执行官 这就是为什么对人工智能系统进行有效的评估很重要,这也是为什么这份报告如此及时。它提醒我们必须认识到这项工作不仅仅是执行清单。人工智能评估应该是稳健的、清晰的和有意义的。它们需要由具备正确技能和伦理基础的专业人士来主导。 无论技术变得多么先进,它都不能反映、质疑或问‘这是对的吗?’相比之下,作为一名专业会计师,我们的工作始终是退一步,进行批判性思考,服务公共利益。 会计师已具备评估系统、解读数据、应用一致框架和行使审慎判断的能力。随着人工智能改变工作方式,我们也必须进化,拥抱技术,同时深化使我们职业不可或缺的人类特质:怀疑精神和批判性思维。 让我们建设一个技术值得信任、人们始终处于进步核心的未来。 For further information: 安斯加·科内博士毕马威全球人工智能伦理与监管领袖,毕马威有限责任合伙企业ansgar.koene1@be.ey.com Narayanan Vaidyanathan,政策发展主管,ACCAnarayanan.vaidyanathan@accaglobal.com 内容。 越来越多的企业采用人工智能(AI)来实现其战略目标。这种采用正在加速企业转型并解锁新的商业机会。 随着企业对人工智能的采用日益增长,它们也需要确保其部署的人工智能系统是安全、可靠和有效的。因此,对人工智能系统的信任至关重要,以便人工智能能够充分发挥其增强创新、生产力和增长的潜力。 为了建立那种信心,许多商业领袖、政策制定者和其他利益相关者正在使用,或正在考虑使用,人工智能评估。人工智能评估有时被称为“人工智能审计”或“人工智能保证”。这些评估可以帮助公司建立和使用治理良好、遵守任何适用法律法规、并符合商业领袖寻求和期望的质量标准的人工智能系统。 本文识别并讨论了有效的AI评估的组成部分。它通过调查在商业和政策制定者致力于建立对AI信心的关键司法管辖区中的相关AI评估框架——包括自愿性和监管性框架——来完成这一目标。我们的调查确定了三种正在兴起的AI评估类型,公司单独使用或组合使用: ‘随着企业对人工智能的采用日益增长,他们需要确保其部署的人工智能系统是安全、可靠且有效的。’ ■治理评估– 评估围绕人工智能系统的内部治理结构 ■合格评定– 为了确定符合任何适用的法律、法规和标准 ■绩效评估– 用于衡量AI系统与预定义的质量和性能指标。 我们也识别出这些人工智能评估有效性的潜在挑战,包括模糊的术语、评估对象定义不足、方法学和评估标准,以及进行这些评估需要专业人才的需求。 对于政策制定者,我们建议他们采取以下行动。 ■考虑自愿(或强制)人工智能评估可以在建立对人工智能系统的信任、支持成功采用和促进人工智能治理方面发挥什么作用。 为应对这些挑战并促进有效且有用的AI评估,我们最后总结了针对商业领袖和政策制定者的几点考虑。 ■清晰定义评估框架的目的和组成部分,并在可能的情况下,定义开展评估所应遵循的公认标准或标准。 具体来说,我们建议商业领袖考虑以下几点。 ■人工智能评估在提升公司治理和风险管理中可以发挥的作用。 ■解决人工智能评估包含内容及其局限性所存在的期望差距。 ■无论——即使在缺乏监管要求的情况下——自愿评估是否能在员工和客户中建立对人工智能系统的信任。 ■识别合适的措施,以增强市场提供高质量和一致性评估的能力。 ■在使用自愿评估的情况下,最合适的评估类型(例如治理、合规或绩效评估)是什么,以及它是否应该由内部进行还是由第三方进行。 ■制定评估标准,务求在实用范围内与其他司法管辖区标准保持一致和兼容,以降低人工智能评估成本,并促进对评估可信度的跨境信任。 简介。 2022年11月,OpenAI发布了ChatGPT,引发了公众对AI现有及潜在能力的广泛认可,同时也引发了关于AI发展与部署相关风险的担忧。 自那时起,公司、政策制定者以及其他相关人员都在加大力度应对一个普遍且根本性的挑战:如何开发和部署适合用途且受到员工、顾客、市场和整个社会信任的人工智能应用。 人工智能的开发和部署——包括像ChatGPT这样的生成式人工智能系统,以及最近出现的代理式人工智能1鉴于人工智能带来的重大机遇,这一趋势将继续增长。例如,EY Parthenon估计,到2033年,仅生成式人工智能就能将全球国内生产总值(GDP)提升17万亿美元至34万亿美元(Daco 2024)。但成功的采用取决于对技术的信任和信心,尤其考虑到与人工智能相关的有害事件的增加。事实上,经济合作与发展组织(OECD)的报告 那么,不良事件每月平均率继续上升,从2022年11月的32例增长近20倍至2025年1月的614例(经济合作与发展组织政策观察站2025年)。德勤人工智能情绪指数研究到2025年4月发现,58%的受访公民担心组织未能对自己的AI负面使用负责,52%担心组织未能遵守AI内部政策和监管要求(Sáiz等人 2025;Schuler 2025)。 在人工智能的快速发展中,商业领袖、政策制定者、学者、投资者、保险商和其他利益相关者正在提出紧迫而根本性的问题。 在人工智能的快速发展中,商业领袖、政策制定者、学者、投资者、保险公司和其他利益相关者正提出紧迫而根本性的问题。 在这篇论文中,我们使用“AI评估”一词来指代“对定义主题的Structured evaluations”2为了得出一个结果、判断或结论’。3 ■ 我们如何识别和管理其风险?■我们如何评估一个AI系统是否可靠和有效?■我们如何确定一个AI系统是否符合适用于有效性及质量的相关法规和其他标准? 人工智能评估可以定制以满足不同利益相关者的需求和要求,包括监管机构、商业领袖、投资者、保险公司和消费者。人工智能评估可以是自愿或强制性的、定性的或定量的,并由内部或外部机构进行,涵盖一系列报告和披露指标。人工智能评估也可以针对特定用例、风险级别或技术运营领域。 众多人工智能治理框架正在涌现,以帮助解决这些问题。这些框架中的许多都包含了旨在验证技术治理、符合相关政策、运营完整性或有效性、遵守相关法律法规和指导方针、内部政策或标准的评估。 对人工智能系统进行严格评估可以通过验证其开发和部署满足治理、合规性或有效性相关标准来增强对这项技术的信心。 当前人工智能评估的公共政策格局. 本节考察了相关的AI政策,并总结了公司在实施这些政策、AI评估提供者和其他利益相关者所面临的挑战。 政策制定者在这一新兴领域非常活跃,正在制定人工智能评估的强制性政策框架和自愿性政策框架。根据经合组织的报告,截至2025年1月,近70个国家的政策制定者已经提出了超过1000项人工智能政策倡议,包括立法、法规、自愿性倡议和协议。4斯坦福大学2025年的一份报告发现,已有39个以上的国家将其中204项倡议纳入法律(斯坦福大学 2025)。虽然难以获得确切统计,但人工智能评估是众多已被提议或纳入法律的人工智能政策倡议的一部分(IAPP 2024)。2025年7月,美国特朗普政府发布了其人工智能行动计划,该计划指出评估可以是衡量人工智能系统性能和可靠性的关键工具。5下表突出了一些知名的AI评估政策框架,并说明了政策制定者正采取一系列方法。世界上更广泛的政策举措列表可以在附录II. 以及自愿性人工智能评估政策框架,包括