您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[德勤]:值得信赖的人工智能:它是什么以及应该由谁来实现 - 发现报告
当前位置:首页/行业研究/报告详情/

值得信赖的人工智能:它是什么以及应该由谁来实现

信息技术2022-04-06Deloitte德勤晚***
值得信赖的人工智能:它是什么以及应该由谁来实现

德勤云播客Deloitte Consulting LLP 董事总经理兼首席云战略官 David Linthicum标题:值得信赖的人工智能:强大的技术需要强大的道德护栏在云播客上2022 年 4 月描述:人工智能(AI)——尤其是当它支持云时——可以成为力量倍增器和强大的创新工具。然而,考虑无处不在的人工智能的伦理问题和影响至关重要。在这一集中,David Linthicum 与德勤的 Beena Ammanath 讨论了围绕人工智能的使用建立道德护栏的原因,以及现在和将来应该由谁负责开发和维护这些护栏。时长:00:23:54大卫·林西库姆:欢迎回到 On Cloud 播客。今天在节目中,Beena Ammanath 也加入了我的行列。她是德勤人工智能研究所的执行董事。所以,Beena,你有一个相当大的简历,你做了一些了不起的事情。您为什么不自我介绍一下,告诉我们您在德勤的工作以及您是如何来到德勤的以及您的日常工作是怎样的?而且,还有什么你在做的其他事情?看起来你在写一本书,你在板上。你是一个非常忙碌的女人。 比纳阿曼纳特:谢谢你,大卫。你是对的。我当然没有以这种方式规划我的职业生涯,但到目前为止,它已经成为一个非常有趣的旅程。所以,我的背景,我的核心教育,是计算机科学,我是从数据库领域开始的。数据,领导 SQL 开发人员,然后成为 DBA 等等,管理大型数据团队。事情就这样发生了,虽然我在大学的时候学过人工智能,但主要是理论。碰巧的是,数据被证明是一个非常发展、有趣的领域,而且我们在理论上研究的很多东西在我的有生之年和我自己的职业生涯中开始成为现实。因此,我看到了数据从传统事务数据库到 BI 和数据仓库的演变,然后是大数据和机器学习和 AI。一路走好。在加入德勤之前,我是 Hewlett-Packard Enterprise 的 AI 首席技术官。在此之前,我在 GE 领导数据科学和创新。同样,我并没有以这种方式规划我的职业生涯,但每次我对某个或某个领域感到好奇时,就该去探索数据和 AI 环境中的那个空间了。我在德勤的日常工作实际上是领导我们的德勤人工智能研究所,我们有许多其他德勤人工智能研究所版本,从中国到德国、英国、南非、荷兰和日本。所以,真正的是将 AI 生态系统的所有维度从一个应用的 AI 镜头汇集到一个地方。因此,这确实包括您应该在本地还是在云端部署算法。优缺点都有什么?并且还要考虑一些比较模糊的维度,比如人工智能的伦理和多样性,或者正在形成什么样的法规。对于当今使用 AI 的公司和组织来说,任何最重要的事情。大卫·林西库姆:所以,你有一本刚刚出版的书,可信赖的人工智能,它可以帮助企业在人工智能系统的世界中驾驭信任和道德,所以告诉我们吧。比纳阿曼纳特:是的,这真的来自我的背景和我在所有这些不同行业工作的经验。显然有很多关于人工智能伦理的头条新闻,很多时候我们听到人工智能空间背景下的偏见和公平。现实是现实世界中的人工智能空间比这要广阔得多。是的,如果您使用人类数据——如果有人类影响,偏见和公平绝对是至关重要的。但是,如果您在制造工厂中使用 AI 来预测机器故障,那么其含义并不在于公平和偏见,而是在于算法的安全性,在于能够提供可靠和强大的 AI。因此,值得信赖的 AI 真正专注于查看 AI 道德的所有不同维度,以及如何在企业或任何正在开发或仅使用 AI 的组织的背景下在现实世界中实施它。大卫·林西库姆:是的,其中一件事——我已经参与人工智能很长一段时间了。这是我大学毕业后的第一份工作,我快 60 岁了,所以它已经存在了一段时间。但在研究它是如何演变的过程中,对我来说显而易见的一件事是,需要有某种道德指南针或围绕人工智能使用的伦理框架。我的意思是,在我的职业生涯中,我构建了许多非常聪明的系统,并且完成了他们的工作,而且几乎把他们的工作做得太好了。换句话说,它确实嵌入了它所拥有的数据的偏见。发生了一些错误的事情,我们让它以我们不希望它表现的方式表现。因此,从本质上讲,您必须调整系统的行为方式以及基于做正确的事情并确保您在道德背景下使用事物而获得的答案;我想以隐私为例。那么,人工智能伦理的起源是什么?它可以追溯到多远,我们当时关心的是什么,而不是我们现在关心的是什么?比纳阿曼纳特:是的,这是一个相对较新的话题。我喜欢用这个比喻来形容我们正处于这个非常有趣的时期。想想我们之前的一代人在发明汽车时一定经历了什么。引擎被创造出来,我们能够更快地从 A 点到达 B 点,所以它被用于现实世界,但不一定要修好道路。我们没有安全带,或者我们没有速度限制。这就是我们今天使用人工智能的地方。仍在进行研究,并且已经发生了几十年,但它仍在不断发展。人工智能和技术远未充分发挥其作为核心技术的潜力。这是第一个流。哪里有研究,哪里有研究小组、学术界和大学,但与此同时,它被用于现实世界,应用于现实组织。而且,因为你可以从技术中获得价值,即使它还没有完全成熟,这是第二流,所以它被应用到任何地方。然后第三个流真的是因为它的扩展速度如此之快,而且总的来说,因为技术还不够成熟,所以对它有负面影响。我把它归为可信赖的范畴。有道德影响,有监管影响,有——因为我们没有速度限制,我们没有完全开发的道路来确保人工智能保持在轨道上,第三个中会有很多事情发生流,它也在增长。因此,我想说,当我们 12 年前开始使用机器学习时,它真正开始迅速扩展,没有围绕道德进行的对话,或者关于这项技术的负面影响或如何减轻它的第三流。真的是在过去的六七年里,对话才开始升温,因为现在你看到这些汽车到处行驶,它们到处行驶,人类正受到负面影响。但现在道德和信任的第三股流确实在扩大,并且有关于法规的对话。我们已经看到很多关于它的法规提案。所以,我认为这在过去几年中肯定已经发生了变化,而且我们——我预计我们将在未来四到五年内出台很多法规。你会看到更多关于这项技术的法规出台。大卫·林西库姆:确实是的。而且我认为人们甚至可以自我调节,能够在公司内部制定政策,以符合道德的方式利用这项技术,你想想看,云与人工智能的发展有很大关系因为突然间人工智能变得便宜而有效。我总是开玩笑说,当我大学毕业时,建立一个人工智能系统大约需要 2000 万美元,而现在做同样的事情并拥有更好的技术需要 20 美元。所以,换句话说,我们手里有武器,新的力量倍增器,真的可以把业务提升到一个新的水平,但我们必须非常小心,不要一路伤害业务,或者伤害人,或伤害整个社会。现在是那种核心的道德挑战吗?比纳阿曼纳特: 绝对地。我们拥有非常强大的技术,而云绝对是人工智能的一个重要因素。如果没有云技术,人工智能就不会真正发展到如此地步。所以,它正在为许多人工智能解决方案提供支持,我在笑,大卫,因为我记得那些你必须使用的大型超级计算机,你必须预定时间并尝试获得这种计算能力是人工智能的核心。现在,您几乎可以随身携带计算能力。因此,设计和开发这些系统的可用性也是用户部分。它不仅限于大型组织或研究小组。每个人都可以使用它,那么您如何确保这些护栏到位?您如何确保定义了车道和定义了速度限制,并且我们为这些 AI 解决方案配备了安全带?大卫·林西库姆:这对我来说是一个引人入胜的话题,因为我对此知之甚少,而现实情况是,我认为 IT 中的普通员工没有考虑到在使用某些新兴技术或重新出现技术时所面临的道德挑战在这种情况下,人工智能就是其中之一。那么,在他们如何评估自己所处的位置以及制定道德准则、政策、影响立法者等诸如此类的事情时,他们的思考过程应该是什么?比纳阿曼纳特:是的,你确实提出了一个很好的观点,我很乐意分享我在德勤的角色之一,除了领导德勤人工智能研究所之外,我还真的在关注新兴/再新兴技术的伦理。与人工智能有关的原因,现在有很多意识,我们已经有足够多的头条新闻围绕它,每个人都专注于修复它。但是还有其他技术非常迅速地出现,无论是 NFT,还是元界、区块链,而且这些技术也在快速增长。所以,我的另一个角色的一部分是真正考虑定义第三条车道,可以这么说。这些新兴技术的伦理意义是什么?我们如何才能领先于它?在人工智能和伦理方面,我们正在追赶,但元宇宙的一些意想不到的后果会是什么?谁会被抛在后面?它会导致更多的不平等吗?它会驱动更多有偏见的系统吗?我们不知道,我认为这是我们利用新兴技术能够审视和考虑道德影响并在早期定义这些护栏方面领先于游戏的机会。抱歉,我对我的简历进行了一些介绍,因为我确实想分享一个团队,他们真正专注于思考人工智能之外的新兴技术的伦理影响。所以,就组织应该关注什么而言,我认为因为我们正处于一个有趣的时刻,所有的法规和规则都没有完全定义,最佳实践手册没有被完全采用,有——将会有一个在法规开始发挥作用的同时需要进行某种程度的自我调节的时期,我相信因为人工智能仍然与上下文和领域知识密切相关,所以总是需要某种程度的自我调节。因此,监管机构和法规,以及正在处理的方式,实际上不仅着眼于广泛的技术,而且还着眼于应用的角度。当你使用面部识别时,想想它,当你听说人工智能及其使用时,这是最具争议的话题之一。当您将面部识别用于识别罪犯时,它绝对是可怕的。但是,如果同样的技术正在帮助您营救人口贩运受害者,您如何平衡呢?这些是我们作为技术人员需要参与和参与的决策,我们需要成为关键利益相关者,以根据技术做出这些特定于上下文的决策。所以,你需要对技术的认识,但也有它的社会方面。道德确实属于哲学范畴,但它正在影响当今的企业,企业有责任在保持自我监管的同时提供一定程度的自我监管——了解来自政府或政策制定者的监管。大卫·林西库姆:是的,它也是我们正在使用的技术的衍生产品。回到我构建 AI 系统的时候,拥有 1 GB 的数据用于训练数据是一个神话。这几乎是闻所未闻的,现在我们可以拥有数 PB 的信息来利用训练数据。各种信息,我们可以找出不同的数据聚合来解决道德隐私问题,因为以前,仅仅读取个人信息,我们知道我们无法读取个人信息,但在很多情况下,人工智能技术可以直接获取个人信息来自匿名信息,也就是说,这意味着我们可以利用大量信息来确定人们可能不想被特定企业知道的关于他们自己的事情。但这似乎既是一个机会也是一个诅咒,我们必须制定一些政策来有效地利用它,而不是让它成为邪恶的力量。比纳阿曼纳特:是的,作为技术人员——看,我也是一名训练有素的技术人员。作为技术专家,我们在某种意义上接受过培训,可以看到所有的价值创造,技术可以做的积极的事情,并且只是因为它可以被构建而构建它。我认为我们是需要注意的那一刻。借口,“哦,我只是一个建造的技术专家。”我们必须超越这一点。我们必须更加注意。这是侏罗纪公园的经典台词,“只是因为你的科学家可以在没有想到他们应该建造的情况下建造它。”我是在解释它,但我认为有了如此强大的技术,我们作为技术人员需要承担更多的责任,并投入 10% 的额外时间来思考可能出错的方式。 “是的,我构建了这个非常酷的解决方案,它将为我的公司、我的组织和我的团队带来惊人的价值。”但是花十分钟,三十分钟,不管你能给什么。将其作为您的清单的一部分,您可以在其中主动思考这可能会出错的方式是什么?现在,显然该列表不会那么全面,但至少它是一个起点。至少,即使你可以覆盖 50% 的可能出错的方式并放置——对其进行编码以便覆盖这些场景,放置这些防护栏。如果您正在构建一个聊天机器人,请设置这些护栏以确保它不会出错。所以,我认为作为技术人员,我们必须超越仅仅为了酷炫、闪亮的物体、你可以建造的东西而考虑技术,还要考虑它可能出错的方式并主动解决它,因为技术人员是真正聪明的人。我们可以构建真正聪明的东西,但让我们让它们对每个人都变得聪明,而不仅仅是为特定的一群人。而且我认为这就是技术 DNA、技术专家 DNA 必须改变的地方,无论你是否工作——无论你使用哪种技术,无论是人工智能、传统软件工程还是云工程师。我们都必须更加注意,因为我们正在构建这些工具,我们不能退居二线并期望其他人发现或期望它会产生意想不到的后果。我们必须更加注意。 大卫·林西库姆:绝对地。所以,我在这里引导我的听众。他们在我脑海中问这个问题应该由谁来制定这