您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[德勤]:合乎道德地应用人工智能 - 发现报告
当前位置:首页/行业研究/报告详情/

合乎道德地应用人工智能

医药生物2022-02-02Deloitte德勤梦***
合乎道德地应用人工智能

人工智能点火用 Kay Firth-Butterfield 点燃你的 AI 好奇心合乎道德地应用人工智能来自德勤的 AI 研究所——这是 AI Ignition,每月与您的主持人 Beena Ammanath 讨论人工智能的人性方面。我们将深入探讨人工智能、机器学习、神经网络和其他尖端技术的过去、现在和未来。这是你的主人,比纳。比纳阿曼纳特(Beena):大家好,我的名字是 Beena Ammanath,欢迎收看 AI Ignition 的另一集。今天,我有幸与 Kay Firth-Butterfield 交谈。她是人工智能和机器学习的负责人,也是世界经济论坛执行委员会的成员。欢迎,凯。很高兴有你参加今天的节目。你好吗?Kay Firth-Butterfield(凯):我很好,谢谢。在这些非常困难的时期,你过得如何?比纳:你只能在这样的时候看到积极的东西。我很健康。我的家人很健康。这就是你所希望的。我们忙于工作,在学校。所以我做得很好,考虑到世界上正在发生的一切。凯:是的,正如你所说,我们需要看看这些积极因素。确实是的。比纳:凯,我很高兴能和你坐下来进行这次谈话。你在世界经济论坛上扮演了一个非常有趣的角色。我们已经互动了几次。我只是好奇。如今,Kay 的一天是什么样的?凯:嗯,显然与去年这个时候 Kay 生活中的一天非常不同,因为去年这个时候我刚从印度、哥伦比亚、俄罗斯、瑞士和英国呆了两个月回来在一些非常有趣的活动中,例如 WIRED。现在,我还在说话,所以我还在做很多演讲和这些精彩的活动,但我是在家里的办公室里做的,根本不用出去。实际上这绝对是美妙的,因为这意味着我们可以进行这些对话。我可以有一天在澳大利亚演讲,然后在欧洲演讲。所以实际上,我认为这是非常有能力的,因为如果我一直在飞机上,更多的人知道我们实际在做的事情 去各个地方。所以我认为一天看起来像这样的事情之一通常是这样的演讲或互动。一天的另一部分是设想和领导。那么我们作为一个团队在做什么,我们要去哪里。授权所有与我们合作的人,在这个非常有趣且重要的人工智能、人工智能伦理和人工智能领域真正做到最好。我认为第三件事是,我一直在寻求合作。我们希望确保每个人的最佳想法都存在,当我们考虑下一步做什么时,我们不仅仅是在重新发明轮子。比纳:您在多个国家、多个地区和多个行业工作。人工智能是一个如此广泛的话题。在这个 AI 世界中发生了哪些令人兴奋的事情,您对此感到兴奋并且您真正专注于这些事情?凯:当然,因此我们目前倾向于做更多的基础建设工作。所以你会经常听到我说,我们不能继续用 AI 构建伟大的东西,并将其用于我们想要的所有有益目的,除非我们确保我们在一些坚实的基础上构建它。因此,确保我们看到存在道德或公正问题,例如偏见或可解释性,以及我们现在处理的那些事情,以便我们在石头基础上建造房屋。这就是我们的大部分工作,你说得对,我们现在在五大洲设有办事处从事这项工作,我们与政府、企业、非营利组织、慈善基金会、国际组织,当然还有企业合作,以确保我们在房间里有合适的利益相关者来真正考虑它,这样政府就不会在他们实际上不需要监管的地方进行监管,而软法律会更好。因此,例如,我们与英国进行了一些合作,我们与他们合作制定了人工智能采购规则,以及采购办公室实际需要的工作手册,以便制定出高级原则的内容。这于 7 月在英国生效,现在我们正在与美国、澳大利亚政府、拉丁美洲和中东和北非地区的其他一些政府合作。因此,这是为了确保我们所做的事情经过深思熟虑,并且拥有如此多的利益相关者,以至于可以运输到不同的地方。比纳:您所描述的关于奠定基础的内容非常重要。现在,您从行业角度看到了什么?显然,你会看到所有这些不同的行业。您是否认为某些行业在奠定正确的基础方面处于领先地位,或者在 AI 的这些基础方面仍有很多改进的机会?凯:我认为真正的科技公司,当然还有像你们这样的专业服务公司,在围绕道德 AI 或负责任的 AI 的思考方面确实处于领先地位,或者就像我通常所说的那样,使用其中一些工具所带来的问题。那是因为你必须成为这个市场的先行者。所以现在我们看到了其他公司,我相信所有公司最终都会成为人工智能公司,但现在我们看到其他一些公司可能在一个或多个垂直领域使用人工智能,就像这可能会损害已经走过这段旅程的其他一些公司的品牌价值,这对他们也有潜在的危险,所以他们正在进入,好吧,我们接下来如何处理这个道德问题?比纳:是的,我认为这是我思考它的一种方式,并告诉我你如何看待技术的影响,因为如果你考虑一下,有三个平行的流在移动,以不同的速度增长。本身就有核心技术,不管是量子计算还是下一波深度学习算法,都有核心技术在研发,有 该技术的应用,这是第二个流,跨越所有这些行业和使用它的不同功能。然后是第三部分,即后果和风险,我们在其中考虑道德。当您应用仍在开发中的技术并将其应用到实际用例中时,显然会产生没有人考虑过的影响,因此很高兴听到您对道德和世界经济论坛的关注。看到你在道德方面所做的工作,并真正提出了这些指导方针,真是太棒了,因为那是一本今天不存在的剧本。是否有任何行业或任何领域,你认为人工智能不会触及或不会产生像我们听说过的金融服务或医疗保健等其他一些行业那样大的影响,几乎每个行业似乎都受到人工智能的影响。在您看来,您认为会有哪些行业或工作不会受到 AI 的影响?凯:是的。 好吧,我认为这取决于您应用于该问题的时间线。 但是,如果可以的话,在我回答这个问题之前,。 我想回过头来说,我完全同意你刚才谈到的关于人工智能的那三个流派。 而且我认为每家公司都会在某个阶段处于其中一个流中。 而且,作为一个世界,我们必须决定我们想要治理什么以及我们想要如何治理它。 例如,我们是否想要管理应用程序,我们是否想要考虑高风险示例,因此显而易见的示例可能是面部识别。 我们可能会说用于执法的面部识别,我们认为这是一种高风险,因此我们确实需要比对奶牛的面部识别更仔细地看待它,这实际上发生在印度以帮助农业。 因此,我认为我们必须考虑非常仔细的渐变。 这是一个微妙的工作场所,但回到你的问题,我总是说我觉得我的理发师将是最后一个因为自动化而失去工作的人之一。 然后在封锁期间,我在一份报纸上读到一些东西,当然是在网上,有人创造了但做得不太好,但有人创造了理发机。 不清楚它是否是自主的,但肯定是一个机器人在剪头发。所以这就是为什么我说我认为这取决于时间线,因为目前我们的机器人在操纵事物方面并不是非常擅长,但显然在更长的时间内,即使是那些我认为目前看起来非常安全的工作也会被自动化。 所以,芭蕾,那是我一直在想的,芭蕾,也许还有歌剧和唱歌,我们可能不想去听机器人跳舞,但也许我们愿意。比纳:那里有很多东西要解开,最终,必要性推动了很多创新。我将分享这个,但我上周最终剪掉了自己的头发,我认为结果还不错,我可能永远不会去理发店,或者两到三年一次。凯:我的意思是,当然,结果还好。和我在一起,我只是让我的不断成长和成长。比纳:我们当然看到了。唱歌和跳舞的机器人很吸引人。我认为创意艺术不太可能受到影响,但我见过的一个有趣的应用是他们试图重现声音,尤其是已经去世的歌手的声音。就像弗兰克辛纳屈能唱一些新歌一样。我的意思是,我喜欢他的声音,不是每个人都是他的粉丝,但如果 AI 能够继续发布新歌以及围绕它的整个道德含义,那就太好了,这就是整个道德主题和技术应用的后果对我来说很迷人。而且我知道您非常关注治理方面,并且您对道德也有很多思考。什么是思考道德的良好、结构化的方式?您学到了哪些最佳实践, 你见过哪些方法确实有效并涵盖了道德的不同方面。凯:是的,当然,我想也许我们只需要解开弗兰克辛纳屈的声音。 我也很喜欢弗兰克·辛纳屈,但我想知道实际上让他唱新歌是否是一种深造的形式,我们应该考虑一下。 而且,我显然是个歌剧迷,这就是我提出这个问题的原因,但我想听一个启用人工智能的帕瓦罗蒂唱歌吗?我不完全确定。 是的,这就是——它几乎是那种不可思议的山谷感觉。 无论如何,回到治理,也许这本身就是一个治理问题,可能必须去找遗产的受托人来帮助他们思考这个问题。 所以,是的,什么是最佳实践。 我认为最好的办法是确保如果你是一家公司或政府,你有一个使用人工智能的计划。 所以,我当然一直在对国家说,你真的需要一个国家人工智能战略,因为像德勤这样的公司不会计划引入人工智能之类的东西,并在没有背后战略的情况下使用它。 我认为这对国家来说应该是一样的,特别是因为各国将不得不考虑他们如何使用它,它如何与他们的系统互动,以及在执法中使用面部识别等问题可能会对国家或他们的公民来说,这一步太远了。 所以拥有这种战略思想,所以对于国家来说,我认为这非常重要,但正如我所说,对于公司也是如此。因此,我们所做的其中一件事是为董事会创建一个工具包,以帮助这些董事了解人工智能是什么,并了解监督他们公司中正在发生的人工智能应用程序意味着什么。 当然,很多导演真的不了解这项新技术。 所以我们希望那是——我们说这是一种治理形式,但它的存在是为了帮助这些董事更好地治理他们的公司。 当然,现在我们正在转向最高管理层版本,我们很高兴在该最高管理层版本的工具包中得到德勤的帮助,非常感谢。在我说谢谢的同时,我提到了我们与英国政府所做的采购工作,这也是与德勤的合作伙伴关系。因此,很高兴您不仅谈论它并思考它,而且实际上与我们合作解决其中一些治理问题。比纳:是的。我认为由于我们的审计 DNA 和咨询 DNA,将信任置于我们所做的一切事情的中心,特别是在 AI 方面,这非常重要。因此,我们实际上开发了一个框架,从整体上审视人工智能伦理,并跨越所有不同的行业。例如,当您查看消费者空间时,偏见可能很重要,但如果您正在查看预测工厂流程机器何时可能出现故障,则偏见可能无关紧要。因此,您必须根据用例考虑不同的后果和道德影响。正如您所说的面部识别,这是一个很好的例子,人工智能是如此特定于上下文,使用人工智能的细微差别和伦理取决于人工智能的应用和使用。我们喜欢与世界经济论坛合作,因为它让我们预览了如何推动更广泛的影响,因为我个人确实相信,要让人工智能充分发挥其潜力,我们需要拥有正确的基础,道德必须成为其中的一部分基础。您还提到了我们为 C-suite 和我们正在处理的董事会成员所做的工作。对于那些在人工智能之旅中处于早期阶段的公司,或者甚至在人工智能之旅中还处于早期阶段、没有人工智能战略、仍在思考如何做、人工智能如何发展的国家,你有什么建议?在他们的业务或日常工作中使用。你的指导是什么?凯:嗯,我认为我对一家公司的指导是,首先,阅读我们生产的工具,显然是工具包之类的东西,但如果你正在考虑使用,而且很多公司都在考虑使用 AI在人才获取方面。如果你做得不好,那会给你带来很多麻烦。我们都 知道银行的故事,它的算法最终只针对来自某所大学或几所大学的白人男性,因为它训练有素。 实际上,我们的公司需要多样性,如果我们不查看我们想使用 AI 的每个地方,我们可能会做一些非常疯狂的事情,并且会犯非常严重的错误。 所以不要,我想说,不要被“每个人都会使用人工智能”或“你必须得到人工智能”所逼迫。” 让购买人工智能成为一个深思熟虑的选择,并事先了解道德问题,并考虑你将在哪里使用它,你将如何使用它,以及你将如何从基础构建它。 因此,例如,您可能想要一位首席 AI 道德官,并寻找像德勤这样的公司和其他已经完成了部分工作的公司,这样您就可以从这些工具中汲取经验,并从论坛的工具中汲取经验。 所以我认为这将是我对公司和国家最好的建议,是的,现在我们已经有了大约 30 到 40 多个国家的战略,所以它们是值得学习的例子。 我们写了一份白皮书,实际上告诉一个国家如何起草国家人工智能战略。 而且,我们开始看到各国说,“好吧,我们的国家人工智能战略中有这个伦理章节。 我们如何实现它?”因此,我们一直在与印度合作,思考如何实施它。所以去吧——它目前正在接受公众审查,去审查它,看看你的未来可能在哪里。比纳:凯,你经历了一段有趣的旅程来获得今天的角色。您能否与我们的听众分享一下您是如何担任当前角色的?你的背景是