您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ITIF]:预防原则破坏人工智能进步的十种方式 - 发现报告
当前位置:首页/行业研究/报告详情/

预防原则破坏人工智能进步的十种方式

信息技术2019-02-04ITIF市***
预防原则破坏人工智能进步的十种方式

信息技术与创新基金会页面的页面1预防原则破坏人工智能进步的十种方式丹尼尔·卡斯特罗和迈克尔·麦克劳克林 2019 年 2 月专注于减轻对人工智能的投机性担忧将限制其发展和采用。相反,政策制定者应该鼓励创新,同时为出现的具体问题制定有针对性的解决方案。关键的外卖如果政策制定者将“预防原则”应用于人工智能,即安全总比后悔好,他们将限制创新并阻止采用——破坏经济增长、竞争优势和社会进步。为了获得人工智能的全部好处,政策制定者应该遵循“创新原则”,即绝大多数新创新都是有益的,风险很小,因此政府应该鼓励它们。政策制定者不应该先发制人地对人工智能实施严厉的监管来防止假设的危害,而应该等待为特定问题制定有针对性的解决方案。 信息技术与创新基金会页面的页面2总结人工智能 (AI) 有可能带来显著的社会和经济效益,包括减少意外死亡和伤害、做出新的科学发现和提高生产力.1] 然而,越来越多的活动家、学者和专家认为人工智能本质上是有风险的,会造成实质性的负面影响,例如消除工作、侵蚀个人自由和降低人类智力.2] 有些人甚至认为人工智能是非人性化的, 反乌托邦,对人类构成威胁.3]因此,世界在人工智能方面分为两个阵营:支持这项技术的人和反对技术的人。不幸的是,后者阵营越来越主导人工智能的讨论,不仅在美国,而且在世界许多国家。毫无疑问,倾向于恐惧而不是乐观的国家更有可能制定限制人工智能开发和采用的政策和做法,这将损害其经济增长、社会进步和全球竞争力。预防原则与创新原则虽然有些人主张采取几乎完全不干涉的方式来监管新技术,但那些认识到政府有合法作用的人采取两种不同的行动方法:预防原则和创新原则。预防原则是,如果技术创新可能带来危害公众或环境的风险,那么提出该技术的人应该承担举证责任。如果他们不能,政府应该限制新技术的使用,直到证明安全为止。那些支持预防原则的人坚持陈词滥调,即即使没有明确证据表明有形和迫在眉睫的伤害威胁,也要进行政府干预,坚持陈词滥调,即“安全总比后悔好”。4 对于某些技术,如核电,该原则是有道理的,因为出错的风险可能是灾难性的。然而,对于大多数创新领域来说,预防原则弊大于利,因为它产生了假设的最坏情况,错误地表明技术进步会带来严重且不可逆转的威胁5。相比之下,创新原则认为,由于绝大多数技术创新有益于社会,并且构成适度且并非不可逆转的风险,政府的作用应该是为广泛的创新铺平道路,同时在必要时建立护栏以限制危害。创新原则认识到,市场力量、侵权法、现有法律法规或轻触式针对性干预通常可以管理新技术带来的风险。然而,该原则并不主张禁止对新技术进行监管。相反,它主张采取逐案处理的方法,仅在合理预期其他力量不足以满足以及潜在危害超过轻微的情况下才提出法规建议。此外,在需要监管的情况下,它强调了设计监管干预措施和构建监管执法的重要性,以尽量减少对创新的危害,同时仍然实现监管目标。最后,它更侧重于 信息技术与创新基金会页面的页面36 换句话说,投机性关切不应阻碍具体利益。也许比任何政府都更重要的是,美国联邦政府在早期对互联网的监管中坚持创新原则,这种方法促进了美国数字经济创新和增长的成功时代.7相比之下,欧洲更严厉的做法限制并继续限制数字创新。例如,欧洲许多司法管辖区都限制使用 Uber 等拼车应用程序,因为担心这会对当地出租车行业产生影响8。如果政策制定者希望他们的国家实现人工智能的全部好处,他们应该接受创新原则来促进它,而不是限制、延迟或约束其进展的预防原则。鉴于人工智能的采用初期——全球只有不到一半的企业将哪怕一种人工智能能力嵌入到他们的业务流程中——所有国家的公共政策都必须刺激其发展和采用,而不是不必要地阻碍它.9 因此,如果政策制定者希望他们的国家实现人工智能的全部好处,他们应该根据创新原则采取行动来促进它,而不是使用预防原则来限制它, 拖延并限制其进展.10不幸的是,对人工智能潜在危害的担忧导致一些个人和团体倡导基于预防原则的公共政策。埃隆·马斯克(Elon Musk)在2017年告诉世界,人工智能“是文明存在的根本风险”,这代表了“我们需要积极主动地进行监管而不是被动反应的罕见情况”。11 他还警告说,采用人工智能就是“召唤恶魔”,并预测这些进步可能会创造“一个我们永远无法逃脱的不朽独裁者”。12 最近,马斯克撤回了他的警告,预测人工智能不会杀死我们,只会把我们关在动物园里13。令人不安的是,有些人认真对待马斯克,但正因为他们这样做了,所以反驳这种胡说八道很重要:马斯克是完全错误的。正如机器人和计算公司Neurala的首席执行官、波士顿大学神经形态学实验室的创始主任Max Versace所解释的那样,“人工智能科学家建造天网的可能性与有人意外用乐高积木建造空间站的可能性相同。14同样,华盛顿大学人工智能研究员佩德罗·多明戈斯(Pedro Domingos)表示,“终结者场景,即超级人工智能变得有知觉并用机器人军队制服人类,没有机会实现......”15不幸的是,公众经常受到谴责人工智能的夸张和不正确的言论的轰炸,这使得政策制定者更难反对会损害人工智能采用的政策并支持实现人工智能的政策。因此,一些理事机构接受预防原则也就不足为奇了。这 信息技术与创新基金会页面的页面4欧洲议会在2017年通过了一项决议,认为人工智能和机器人技术的研究和商业化“应按照预防原则进行......”16 欧盟人工智能高级别专家组成员Loubna Bouarfa甚至认为,对人工智能的文化抵制是“因祸得福”。17 毕竟,如果人工智能对我们物种构成生存威胁,政策制定者应该毫不留情地专注于限制这种恐怖。然而,基于预防原则的政策并非免费。在寻求消除潜在风险的过程中,它们可能会减少潜在的利益,并产生新的问题和意想不到的后果.18例如,一些国家已经禁止进口或种植转基因生物(GMO) - 改变遗传密码的植物或动物 - 担心它们的安全性.19尽管几乎一致的科学共识是转基因生物是完全安全的.20禁止转基因生物不仅会导致更高的食品价格,还会导致温室增加 随着更多的森林成为农田,以补偿非转基因作物的低产量,温室气体排放.21此外,研究表明转基因生物本可以挽救非洲国家数千人因营养不良而死亡的生命,从而推迟批准转基因生物.22最后,许多欧洲国家对转基因生物的禁令严重限制了许多非洲小规模农民的收入.23基于预防原则的政策几乎总是阻碍可以帮助公众的创新,本报告确定了11项限制人工智能好处的政策。本报告的其余部分概述了人工智能,列出了基于威胁人工智能的预防原则的政策,并分析了此类政策的十种不利影响。最后,它讨论了政府应该做些什么来减少和纠正人工智能使用可能有害的情况。什么是人工智能?人工智能是计算机科学的一个领域,致力于创建执行人类智能特征操作的计算机系统,例如学习和决策。该术语并不意味着人类水平的智能,任何人工智能实现中的智能水平都可能有很大差异。例如,Roomba真空吸尘器所需的智能水平明显低于自动驾驶汽车所需的智能水平.24无论如何,开发更好的硬件,包括更快的处理器和更丰富的存储,大型数据集等等。过去十年中,有能力的算法帮助人工智能取得了重大进展,25]打开新的应用程序。人工智能的功能包括:a)监控,例如快速分析大量数据以检测交易中的异常和模式;b)发现,包括从数据集中提取见解,例如基因与疾病之间的联系,以及通过模拟;c) 预测,例如,使用预测模型分析趋势以做出预测或建议,例如未来的作物产量;d) 解释,例如理解图像、视频、音频和文本等非结构化数据中的模式;e)交互,既帮助机器相互交互,也帮助人类更容易地与计算机系统交互.26 信息技术与创新基金会页面的页面5AI.27 早期采用者包括使用 AI 发明用于 3D 打印的新金属合金的零件制造商;制药公司使用人工智能发现救命药物;矿业公司使用人工智能预测矿床的位置;信用卡公司使用人工智能减少欺诈;农民使用人工智能提高自动化程度。随着技术的进步,人工智能将继续为个人和社会带来重大利益。人工智能是一种“通用技术”,这意味着它将影响经济中的大多数功能。在某些情况下,人工智能将使工作自动化,从而提高生产力。通过提高几乎每个行业的自动化水平,带来更高效的流程和更高质量的产出,人工智能有望提高人均收入。人工智能还可以完成不值得花钱给人类做但仍然可以创造价值的任务,例如撰写报纸文章来总结小联盟比赛。在其他情况下,人工智能增加了一层分析,可以揭示人类工人无法提供的见解。在许多情况下,它可以提高质量和效率。例如,斯坦福大学的研究人员使用机器学习技术开发了比顶级人类病理学家更快、更准确地分析肺组织活检的软件.28 人工智能还带来了社会效益,例如快速分析深网以打击人口贩运,打击在线骚扰,帮助发展组织更好地瞄准贫困地区, 减少性别偏见对招聘决策的影响。最后,人工智能将成为国防和国家安全方面越来越重要的技术。人工智能策略基于预防原则基于预防原则的政策往往无法在解决人工智能带来的实际伤害和不阻碍创新之间取得平衡。这种失败不仅损害了人工智能的发展和采用,而且还分散了政策制定者对更重要问题的关注,包括合法关注的领域以及政策可以积极支持人工智能开发和采用的方式。这种误导性政策以三种方式之一对待人工智能:太危险而不允许(即禁止人工智能的特定用途);太危险,除非证明安全(即未经政府特别批准禁止该技术);如果没有严格的监管干预(即要求技术在操作员使用该技术之前跳过不必要和昂贵的箍),则太危险了。这些政策被误导不是因为它们创造了监管,而是因为它们对人工智能的过度恐惧或未能认识到现有或更微妙的监管将解决潜在问题,从而为开发和采用人工智能制造了不必要的障碍。例如,政策制定者监管自动驾驶汽车以确保其安全使用是完全合法的。但政策制定者因为可能失业而限制自动驾驶汽车是另一回事。我们在下面列出了11个基于预防原则的不明智政策的例子 - 这些政策要么已成为法律,要么已经获得了支持 - 我们将它们分为上述三类。政策,把人工智能过于危险的允许虽然许多批评者主张公众应该担心人工智能的未来使用,或者至少仔细计划它们的使用,但预防原则的最极端形式导致禁止人工智能的某些用途.29] 各种团体和个人呼吁禁止各种人工智能应用程序,包括 信息技术与创新基金会页面的页面6致命的自主武器、面部识别、自动驾驶汽车和送货机器人.30]虽然禁令损害了创新和进步,但禁止新技术的呼声由来已久。在19世纪末和20世纪初,美国和欧洲的城镇多次呼吁禁止汽车。一些人哀叹失去马车工作,而另一些人则抱怨汽车扬起灰尘并导致疾病。其他人叫禁止汽车,因为他们反对铺路的费用,或者因为他们31]想要保持周日漫步的神圣性。而在1982年,新泽西州的一个小镇甚至禁止行人“在过马路或沿着市或县大道慢跑时”使用索尼随身听音频设备。32]该镇出于安全原因制定了禁令,但忽略了个人既可以听音乐又可以安全过马路。在 2000 年代初期,隐私倡导者呼吁禁止使用射频识别 (RFID) 芯片,该芯片使用无线电波传输数据,在几个用例中,包括在政府身份证件上.33 这些倡导者警告说,商店、政府甚至恐怖分子都会使用 RFID 来跟踪个人的移动。例如,电子前沿基金会(EFF)认为,2005年美国国务院要求在护照上安装RFID芯片的提案将把护照变成“恐怖主义信标”,并指出“如果我们允许国务院推进这一计划,它们就会变成这样.34虽然商店,政府或恐怖分子用RFID跟踪个人的担忧从未实现, RFID标签正在帮助制造商和零售商增加销售额并减少盗窃和劳动力成本。它们也在美国护照上,加快了护照扫描速度.35禁止技术的政策不允许社会获得技术的潜在利益,大多数人事后才明白,禁令只会阻碍进步。禁止致命的自动武器许多团体已经开始禁止致命的自主武器——可以根据程序约束独立识别和打击目标的自主机器人系统——因为担心它们会导致比以往任何时候都更大、更快的武装冲突。例如,包括埃隆·马斯克(Elon Musk)在内的116名小型机器人和人工智能公司的创始人在2017年签署了一封致联合国(UN)的信,敦促该机构禁止致命的自主武器.36 2018年,联合国秘书长安东尼奥·古特雷斯表示,“拥有夺取人命的权力和自由