您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Workday]:2024全球研究报告:弥合人工智能信任差距 - 发现报告

2024全球研究报告:弥合人工智能信任差距

2024-09-17-Workday董***
2024全球研究报告:弥合人工智能信任差距

封盘人工智能信任差距 2024 报告 引言 “解决这一挑战的规模可能看似令人望而生畏,但我们的经验告诉我们,我们可以采取谨慎的步骤。有效的负责任人工智能组织框架应考虑四个基本支柱:原则、实践、人员和政策。公司还必须确保就其在每个这些领域的做法进行透明沟通。 在Workday,我们相信,仅通过建立在信任基础之上,才能成功释放人工智能的人类潜能。工作的未来从这里开始——以信任为核心。 作为一家价值观驱动的组织,我们从第一天起就将信任放在首位。在保护客户的关键数据方面,安全和保护是我们的首要任务。今天,我们致力于采取同样以信任为中心的方法来处理Workday AI。 我们也认识到,人工智能领域的复杂性意味着值得信赖的人工智能不仅仅关乎拥有一个可靠的软件提供商。信任需要在人工智能旅程的每一步中赢得并保持。这关乎道德发展、负责任的实施、透明的指南和智能治理:前瞻性的政策,旨在促进人工智能创新的同时维护社会和伦理价值观。 我们正面临建立一个信任的关键时刻。在这个时刻,建立对负责任地开发和使用人工智能的信心是不可或缺的,并且必须渗透到组织的各个层面。 吉姆·斯特拉顿 人工智能成功的转折点将是一个组织通过透明度建立信任的能力。挑战在于,人工智能创新需要与对智能治理和沟通坚定不移的承诺相平衡。 首席技术官,Workday 关于该研究。 此数据来自全球研究“缩小人工智能信任差距”,由Workday委托FT Longitude进行的调查。该调查涵盖了全球1,375位商业领袖和4,000名员工。此分析揭示了组织层级的一个全面视角,突出了领导层和更广泛的员工群体的观点。Workday的领导者和员工未包括在调查范围内。如需了解有关研究的更多信息,请参阅第10页. 更多内容来自该专家 “为了建立信任,组织必须采取基于风险的方法来实施负责任的人工智能治理,并依赖多元化的利益相关者来塑造相关政策和实践。组建一个专门的独立负责任的人工智能团队,并由跨学科领域的专家和高级管理层提供指导,是最佳实践。 调查结果。 在劳动力各个层面都正在形成信任差距——但员工们最为怀疑。 虽然在工作场所采用人工智能仍处于初期阶段,但我们已经看到,信任将是实现其全部潜力的关键。随着人工智能的实施从可能性领域转向现实,整个劳动力层次上都出现了一个信任差距,员工对人工智能的信任程度甚至低于领导岗位的人: 在领导层,只有62%的人欢迎AI,并且只有62%的人对自己的组织能够以负责任和值得信赖的方式进行AI实施充满信心。在员工层面,这些数字进一步下降,分别降至52%和55%。这就是AI信任差距。 凯利·特林德尔 人工智能信任差距:缺乏对该组织在职场内实施负责任人工智能部署意图和能力的信心与理解。 首席负责人工智能官,Workday 这和我们的全球调查的其他关键发现揭示了组织在继续推进人工智能的过程中需要考虑的重要现实。继续阅读以发现: 更多内容来自该专家 • 在领导者与员工就人工智能情感达成一致的地方• 人工智能实施方面的信任开始出现分歧的地方• 缩小信任差距的机遇领域 第一部分:对人工智能的潜力和负责任使用的看法一致。 在研究伊始,我们假设商业领袖和员工在他们对人工智能整体热情方面将存在普遍的一致性。令人鼓舞的是,这一假设得到了证实:领导者和员工在多个领域保持一致,包括人工智能在业务转型方面的潜力,以及降低风险和确保人工智能可信度的努力。 两位领导者和员工都相信并期待一个由人工智能驱动的转型场景*。 领导层和员工认为每种人工智能情景可能发生的比例。 领导与员工中对每个AI场景都将发生持乐观态度的比例。 **转型场景:想象一下,人工智能被广泛地应用于各公司和您的组织中。在您的办公场所,以及许多其他办公场所,人工智能已成为日常生活的一部分。在这个场景中,人工智能使您组织中的员工显著减少了手工劳动。在这个场景中,所有正确的事情似乎都发生了。您自己一直在使用人工智能来自动化日常和无聊的任务。新员工很高兴地发现这些工具已经在您的组织中得到了应用。在其他公司,也有类似的关于提高生产力的故事。由于这种生产力的提高,公司正在考虑扩大人工智能的应用。流行的新闻报道描述了采用人工智能的公司的创造力提升和员工参与度的增加。** 两组均同意人工智能的实施应优先考虑人类控制。 在我看来,任何具有重大风险的AI应用都应该保持在人类控制之下。 人工智能应得以开发和利用,以便易于进行人类审查和干预。 调查问题:您在多大程度上同意或不同意以下关于人工智能的说法?受访者针对每一条陈述在1(强烈不同意)到5(强烈同意)的范围内选择一个选项。数据代表在此尺度上选择4(同意)或5(强烈同意)的受访者。 两组均指出法规和框架是最为重要的。为确保可信的人工智能。 组织框架用于道德AI(责任使用政策以及公平与透明度指南)。 人工智能和数据在关键应用(如自动驾驶汽车、医疗保健和金融系统)中的监管。 调查问题:在这个可能的未来,AI 已经成为您的工作场所以及许多其他场所的日常生活的一部分,以下哪项对于确保 AI 可信最为重要?受访者选择了 1 到 3 个选项。数据表示最高评价的选项。 “我们知道这些技术如何为人们的经济机会带来益处——这就是我们的业务。但是,人们不会使用他们不信任的技术。技能是前进的道路,而不仅仅是技能,还需要有经过深思熟虑、道德和负责任的AI实施,这种实施具有监管保障,有助于促进信任。 第二部分:谈及人工智能的发展,领导层与员工之间的信任差距愈发扩大。 虽然大多数领导和员工都认同人工智能的价值及其谨慎实施的必要性,但当涉及到以促进人工审查和干预的方式开发人工智能时,现有的信任差距变得更加明显。 员工们不确信他们的公司采取以人为本的方针。 70%领导者们表示,人工智能应被开发成易于人类审查和干预的方式,然而…… 42%员工中有很大一部分认为,他们的公司对哪些系统应该完全自动化以及哪些需要人工干预没有清晰的了解。 钱德勒·C·莫斯副总裁,公共政策,Workday 在所有层面,都存在着担忧,即人类福祉不是领导层的优先事项。 当谈到在人工智能实施中优先考虑员工利益的认知时,信任水平显著下降,相当一部分员工和领导者对此方面缺乏信心。 1/4的员工(23%)对其组织: 更多内容来自该专家 • 在实施人工智能时,将员工利益置于自身之上(相较于17%的领导者)• 优先考虑在关注人们的前提下进行创新,而非追求速度创新(相较于17%的领导者)• 确保人工智能以负责任和值得信赖的方式进行实施(相较于17%的领导者) 我们的AI愿景以及未来工作的前景。 •我们开发人工智能技术,以增强人类潜能,对社会产生积极影响。•我们遵循一个稳健且负责任的AI框架,确保对人类干预所需之处有深入的理解。•我们倡导透明度和公平性,并致力于履行对数据隐私和保护的承诺。•我们希望帮助团队提高生产力和增强,而不是取代工人。•我们致力于开发人工智能以解决真实的商业问题。 调查问题:考虑到贵组织目前的能力和AI的应对方法,您在以下方面有多自信?受访者就每个陈述选择一个选项,范围从1(完全不自信)到5(非常自信)。数据代表在此范围内选择1(完全不自信)或2(不太自信)的受访者。 第三部分:关于人工智能治理和使用的相关数据对员工来说并不易于获取。 尽管员工呼吁制定法规和道德框架以确保人工智能的可靠性,但在涉及合作制定人工智能法规和分享负责任的AI指导方针时,所有层面的劳动力都普遍缺乏意识。 我们的负责任人工智能哲学。 •我们与客户、合作伙伴和立法者紧密合作,以制定和遵守负责任的人工智能(RAI)实践。•所有新的AI技术均由我们的专业RAI团队评估,以确定其敏感度或风险水平。•AI解决方案针对敏感用途是根据我们的RAI指南构建的,该指南涵盖了包括公平性、人工监督、可解释性、可靠性和透明度在内的领域。 “当我思考人工智能的未来时,我想到的是不同学科领域的融合——从人文学科、社会科学、工程学、法学、政策、人力资源、信息技术——以确保我们现在有足够的时间从过去的技术革命中学习,以便这次革命能够为所有人创造最好的可能未来。 闭幕词:Workday如何弥合人工智能信任差距。 Workday已在过去近十年中以身作则,致力于负责任地开发AI技术,服务于我们的客户,在我们公司内部负责任地部署这些技术以造福员工,并倡导对AI技术的监管,以造福周围的世界。 我们向员工保持透明和开放的态度。伦理人工智能方法无论其建设方式、使用方式,还是我们倡导的监管方式,我们的承诺都是对我们核心价值观的体现,包括关注我们的员工、客户服务、创新和诚信。 关于缩小客户间的信任差距,我们倡导并利用基于风险的策略。负责任的AI治理方法利用最佳实践,包括NIST人工智能风险管理框架中描述的实践,以确保在推广负责任的人工智能创新的同时,保留创新带来的益处。 Kathy Pham副总裁,人工智能与机器学习,Workday 我们认为,为了弥合我们周围世界的AI信任差距,必要的有意义且可行的AI监管是必须的,政策倡导是这一努力的核心。自2019年以来,我们一直通过推动利用细致入微、基于风险的AI政策方法;包括可行的问责工具;支持全球协调;以及认识到AI在推动大规模技能发展中的作用的政策,来为AI监管奠定基础。 更多内容来自该专家 附录:人工智能场景。 规規與管控制度 关于人工智能及其潜在危害,公众普遍表示担忧。大众媒体上的文章质疑我们是否妥善管理了人工智能造成的危害。一些司法管辖区,包括贵地,已经通过制定新的法规作出回应。这些法规限制了公司在商业的各个方面使用人工智能的程度,包括招聘、晋升和公开提交的财务报表。现在公司在这些领域不能使用人工智能,因为其使用在法律上被禁止。 衰落与崩溃。 在多家其他公司发生了几起备受瞩目的AI事件。似乎所有可能出现的问题都发生了。在其中一个案例中,一位雇主使用AI来做出晋升和招聘决策,导致了明显的偏见和失业。员工们通过起诉该公司来做出回应,随后又有其他采用类似技术的公司遭遇了类似的诉讼。关于“AI罢工”爆发在各种公司的热门新闻报道层出不穷。大型工会已围绕AI偏见的原因组织新成员。贵组织的员工因为对AI偏见的担忧而拒绝使用AI。求职者通常会拒绝工作邀请,因为他们对贵公司关于AI使用的政策不满意。 现状/增长。 您的组织员工正在使用人工智能,但结果参差不齐。在这种情况下,有些任务变得更快更简单,但仍然有大量的人工操作人工智能尚未自动化。在您的公司中,您已经看到人工智能提高了某些事物的速度,但您个人并没有体验到全面提高生产力的承诺。在大众媒体中,有文章质疑人工智能是否值得投入。一些知名CEO对他们的AI采用表示失望,而其他人则认为,为了获得全部的投资回报,企业必须坚持到底。 转型。 人工智能使贵组织的员工显著降低了手工劳动。在这种情况下,所有正确的事情似乎都发生了。您本人一直在使用人工智能来自动化常规和乏味的任务。新员工对于在贵组织发现这些工具感到非常高兴。在其他公司,也有类似的生产力提升故事。由于这种提高的生产力,公司正在考虑扩展人工智能的使用。流行的新闻报道描述了采用人工智能的公司在创造力和员工参与度上的提升。 关于该研究。 这项数据来自由Workday委托、FT Longitude于2023年11月进行的一项全球调查。我们调查了来自3个核心地区的15个国家的5,375名商业领袖和员工。其中包括1,375名C级和董事级商业高管以及4,000名员工(部门经理、主管、工人以及手工/技术或其他角色)。北美地区有1,480名受访者;欧洲、中东和非洲(EMEA)地区有3,465名受访者;亚太地区和日本(APJ)有430名受访者。所有被调查的组织都有500名或更多的员工。Workday的领导和员工并未包括在研究范围内。 是时候关闭人工智能信任差距了。 要了解更多关于Workday AI以及我们如何努力缩小AI信任差距的信息,请访问workday.co