AI智能总结
全球研究 KPMG.com.au 吉莱斯皮,N.,洛基,S.,柯蒂斯,C.,普尔,J.和阿克巴里,A.(2023年)。对人工智能的信任:一项全球研究。昆士兰大学和毕马威澳大利亚。DOI: 10.14264/00D3C94 昆士兰大学的研究人员Nicole Gillespie教授,Steve Lockey博士,Caitlin Curtis博士和Javad Pool博士。 昆士兰大学团队领导了这项研究的设计、实施、分析和报告。 毕马威(KPMG)顾问 詹姆斯·马博特、丽塔·芬特纳·范·弗利辛恩、杰西卡·温德姆和理查德·博尔。 我们感谢这项研究提供的有见地的意见、专业知识和反馈Ali Akbari博士,Ian Opperman博士,Rossana Bianchi,Shazia Sadiq教授,Mike Richmond和Morteza Namvar博士以及昆士兰大学信任,道德和治理联盟的成员,特别是Natalie Smith博士,Martin Edwards副教授,Shannon Colville博士和Alex Macdade。 这项研究得到了澳大利亚政府向昆士兰大学人工智能合作实验室提供的研究支持计划赠款和毕马威信托基金主席赠款(ID 2018001776)的支持。 昆士兰大学(UQ)承认传统所有者及其对土地的保管权。我们向他们的祖先和后代致敬,他们继续文化和精神联系 到国家。我们认可他们对澳大利亚和全球社会的宝贵贡献。 责任受专业标准立法批准的计划的限制。 1.人们在多大程度上信任AI系统吗?11 2.人们如何看待人工智能的好处和风险? 3.谁是可信的开发、使用和管理人工智能吗?29日 4.人们对管理、治理的期望是什么 5.人觉得人工智能在工作吗?43 6.人们了解人工智能程度如何?53 7.信任和接受人工智能的关键驱动因素是什么? 8.随着时间的推移,人们对人工智能的信任和态度发生了怎样的变化? 人工智能(AI)已成为日常生活和工作中无处不在的一部分。人工智能正在实现快速创新,从而改变工作方式和服务交付方式。例如,ChatGPT等生成AI工具正在产生深远的影响。鉴于对个人、组织和社会的许多潜在和已实现的好处,人工智能在所有部门的投资都在继续增长。,组织利用人工智能功能来改进预测、优化产品和服务、增强创新、提高生产力和效率以及降低成本,以及其他有益的应用。 然而,人工智能的使用也带来了风险和挑战,引发了人们对人工智能系统(包括数据、算法和应用程序)是否值得信任的担忧。这些担忧是由备受瞩目的人工智能使用案例引起的,这些案例是有偏见的、歧视性的、操纵性的、非法的或侵犯人权的。实现人工智能带来的好处和对这些技术的投资回报需要保持公众的信任:人们需要确信人工智能正在以负责任和值得信赖的方式开发和使用。 社会对人工智能的持续接受和采用是建立在这种信任之上的。 这项研究首次深入研究了公众对人工智能使用的信任和态度,以及对全球人工智能管理和治理的期望。 我们调查了来自全球所有地区的17,000多个国家/地区的17,000多人:澳大利亚、巴西、加拿大、中国、爱沙尼亚、芬兰、法国、德国、印度、以色列、日本、荷兰、新加坡、南非、韩国、英国和美利坚合众国。这些国家在 其区域内的人工智能活动和准备情况。每个国家样本根据年龄、性别和区域分布在全国范围内代表人口。 我们向受访者询问了对人工智能系统的总体信任和态度,以及在人工智能正在迅速部署并可能影响许多人的四个应用领域中的人工智能使用:医疗保健、公共安全和安保、人力资源和消费者推荐应用。 该研究对公众对人工智能系统的信任和接受程度提供了全面、及时、全球性的见解,包括谁被信任开发、使用和管理人工智能,人工智能使用的感知利益和风险,社区对人工智能发展、监管和治理的期望,以及如何 组织可以支持对其AI使用的信任。它还阐明了人们对在工作中使用人工智能的看法、目前对人工智能的理解和认识,以及对人工智能系统信任的关键驱动因素。我们还探讨了随着时间的推移,对人工智能的信任和态度的变化。 接下来,我们总结了主要的发现。 责任受专业标准立法批准的计划的限制。 大多数人对信任AI系统持谨慎态度,对AI的接受度较低或中等:但是,信任和接受取决于AI应用程序 各国人们以类似的方式看待人工智能的风险,网络安全被评为全球最大风险。 在各个国家,五分之三的人(61%)对信任人工智能系统持谨慎态度,他们要么表示矛盾,要么不愿意信任。芬兰和日本的信任度特别低,只有不到四分之一的人表示信任人工智能。相比之下,巴西、印度、中国和南非等新兴经济体(BICS)具有最高级别的信任,大多数人信任AI系统。 虽然如何看待人工智能收益风险比存在差异,但各国对人工智能风险的看法相当一致。 全球只有不到四分之三(73%)的人表示担心人工智能的潜在风险。 这些风险包括网络安全和隐私泄露、操纵和有害使用、失业和去技能化、系统故障、人权受到侵蚀以及不准确或有偏见的结果。 人们对人工智能系统产生准确可靠的输出并提供有用的服务更有信心,对人工智能系统的安全性、保障性和公平性以及它们维护隐私权的程度持怀疑态度。 在所有国家,人们将网络安全风险列为他们最关心的一两个问题,将偏见列为最低关注点。自动化导致的失业也是印度和南非最关心的问题,而系统故障在日本也是最关心的问题,这可能反映了他们对智能技术的相对严重依赖。 对AI系统的信任是上下文的,取决于特定的应用程序或用例。在我们研究的应用中,人们通常不太信任和接受人工智能在人力资源中的使用(即用于帮助招聘和晋升决策),而更信任人工智能在医疗保健中的使用(即用于辅助医疗诊断和治疗),这对他们有直接的好处。 这些发现强调了保护人们的数据和隐私以确保和维护信任的至关重要性,并支持管理和减轻各国人工智能风险的全球方法和国际标准。 全球对可信赖人工智能原则的强烈认可:信任取决于维护和确保这些原则到位 人们通常更愿意依赖人工智能系统,而不是与人工智能系统共享信息,特别是推荐系统(即用于个性化新闻、社交媒体和产品推荐)和安全应用程序(即用于协助公共安全和安保决策)。 我们的调查结果显示,全球公众强烈支持部署人工智能系统的组织应坚持的原则和相关做法,以便获得信任。欧盟委员会最初提出的每一项可信人工智能原则在所有17个国家/地区,数据隐私、安全和治理都被视为最重要的信任。这表明人们希望部署人工智能系统的组织能够坚持以下高标准: 许多人对人工智能的使用感到矛盾,一方面报告乐观或兴奋,另一方面报告担忧或恐惧。总体而言,三分之二的人对人工智能的使用感到乐观,而大约一半的人感到担忧。虽然乐观和兴奋是 在许多国家,尤其是BICS国家,恐惧和担忧是澳大利亚、加拿大、法国和日本人民的主要情绪,法国人对人工智能最恐惧、担忧和愤怒。 数据隐私、安全和治理技术性能、精度和鲁棒性公平,不歧视和多样性人类机构和监督 人们认识到人工智能的许多好处,但只有一半的人认为好处大于风险 人们对人工智能的警惕和矛盾可以部分解释为他们对收益和风险的不同看法。大多数人(85%)认为人工智能会带来一系列好处,并认为提高效率、创新、有效性、资源利用率和降低成本等“过程”好处大于加强决策和改善人类结果的“人”利益。 透明度和explainability问责制和可竞争性降低风险和影响 人工智能知识的支持 然而,平均而言,只有二分之一的人认为人工智能的好处大于风险。 西方国家和日本的人们尤其不相信利大于风险。相比之下,BICS国家和新加坡的大多数人认为收益大于风险。 责任受专业标准立法批准的计划的限制。 人们希望这些原则能够适用于我们研究的每个人工智能使用应用程序(例如,人力资源、医疗保健、安全、推荐器和一般的人工智能系统),这表明它们的普遍应用。这种强有力的公众认可为开发和使用人工智能提供了蓝图,以支持全球信任。 人们希望人工智能受到某种形式的外部独立监督的监管,但认为目前的法规和保障措施是不够的。 绝大多数人(71%)希望人工智能受到监管。除印度外,所有其他国家的大多数人都认为监管是必要的。这一发现证实了先前的调查这表明对人工智能监管的强烈愿望并不奇怪,因为大多数人(61%)认为人工智能对社会的长期影响是不确定和不可预测的。 组织可以通过支持和实施保证机制,直接建立信任和消费者使用人工智能系统的意愿,帮助人们确信这些原则得到了维护。当保证机制到位时,四分之三的人会更愿意信任人工智能系统,这些机制表明了合乎道德和负责任的使用,例如监控系统的准确性和可靠性、独立的人工智能伦理审查、人工智能伦理认证、遵守标准和人工智能行为准则。鉴于目前许多司法管辖区对行业监管和治理的依赖,这些机制尤为重要。 人们广泛支持多种形式的监管,包括政府和现有监管机构的监管,专门的独立人工智能监管机构,以及共同监管和行业监管,普遍同意需要某种形式的外部独立监督。 尽管人们对人工智能监管寄予厚望,但只有五分之二的人认为目前的法规、法律和保障措施足以使人工智能的使用安全。这与以前的调查一致表现出公众对人工智能监管的不满,鉴于我们的建模所证明的当前保障措施与对人工智能的信任之间的密切关系,这是有问题的。这凸显了加强和传达管理人工智能和数据隐私的监管和法律框架的重要性。 人们对大学和国防组织开发、使用和管理人工智能最有信心,而对政府和商业组织最不有信心。 人们对他们的国家大学和研究机构以及他们的国防组织最有信心,以公众的最佳利益开发、使用和管理人工智能(76-82%的人有信心)。 相比之下,他们对政府和商业组织这样做的信心最低。三分之一的人对政府和商业组织开发、使用和监管人工智能缺乏信心。鉴于政府和商业组织使用人工智能的范围越来越大,以及公众期望这些实体将负责任地管理和监管,这是有问题的。 然而,各国之间存在巨大差异,印度和中国的人最有可能认为适当的保障措施已经到位(74-80%同意),其次是巴西和新加坡(52-53%)。相比之下,日本人 韩国是最不相信的(13-17%的人同意),西方国家的大多数人也是如此。这些在法规充分性方面的差异可能部分解释了BICS国家人们对人工智能的更高信任和接受度。 它的使用。这意味着政府和企业可以在人工智能的使用和治理方面与更受信任的实体合作。 各国对政府使用和管理人工智能的信任度存在显著差异,大约一半的人对政府缺乏信心。 大多数人对使用人工智能来增强工作并为管理决策提供信息感到满意,但希望人类保持控制权。 南非、日本、英国和美国的政府,而中国、印度和新加坡的大多数政府对他们的政府充满信心。这种模式反映了人们对政府的普遍信任:我们发现人们对政府、商业组织和其他机构的普遍信任与他们对这些实体使用和管理人工智能的信心之间存在很强的联系。这些发现表明,采取行动 大多数人对在工作中使用人工智能来增强和自动化任务感到满意,但不太舒服。 当人工智能专注于他们作为员工时,例如用于人力资源和人员管理(例如监控和评估员工,并支持招聘)。平均而言,一半的人愿意在工作中信任人工智能,例如依靠它提供的输出。澳大利亚、加拿大、法国和德国的人对在工作中使用人工智能最不舒服,而BICS国家和新加坡的人最舒服。 一般来说,加强对机构的信任是信任特定人工智能活动的重要基础。 责任受专业标准立法批准的计划的限制。 大多数人认为人工智能在管理决策中的使用是可以接受的,并且实际上更喜欢人工智能的参与而不是单独的人类决策。然而,首选选项是25%-75%或50%-50%的人工智能与人类协作,人类保留更多或同等的控制权。这表明人们明显倾向于将人工智能用作决策辅助工具,并且缺乏对工作中全自动人工智能决策的支持。 他们对人工智能有更多的了解,能够更好地识别何时使用人工智能,并且对学习人工智能更感兴趣。他们看到了人工智能的更多好处,但在对人工智能的看法上与其他群体相同 人工智能的风险。他们更有可能相信人工智能将创造就业机会,但也更加意识到人工智能可以执行他们工作的关键方面。他们对开发、