构建AI模块Governance 伊恩·布雷默和穆斯塔法·苏莱曼 政策制定者必须坚持five指导原则生态地治理人工智能 生成AI,而联合国发起了新的AI高级咨询机构。在在新德里举行的二十国集团首脑会议,印度总理纳伦德拉·莫迪呼吁建立一个新的责任框架-以人为中心的人工智能治理,以及欧盟委员会主席乌苏拉vonderLeyenadvisiatedforanewAIrisk以Intera为模型的监测体-政府气候变化小组。 11月,英国政府举办了世界第一领先水平的fi致力于解决AI问题的峰会安全风险。即使在美国,最大的人工智能公司和传统-在监管新技术方面犹豫不决-Nology,AI监管是一个问题什么时候,而不是如果,以及罕见的两党共识。 rtifi社会情报将打开人们的生活,社会走向开创性的科学fic进步,前所未有的技术获取,有毒的错误-扰乱民主和生态的信息- 这一系列的活动令人鼓舞。在非常短的时间内,世界领导人已经优先考虑了对于AI治理。但是同意监管的需要是桌子上的赌注。确定什么种类监管是同样重要。AI不像任何以前的挑战,以及其独特的特点,再加上地理位置-政治和经济激励主要演员,呼吁创造力在治理制度中。AI治理不仅仅是一个问题。当谈到气候变化时,可能有很多途径可以实现这一目标-降低温室的mate目标气体排放,但有一个单一的过度排放-骑行目标。人工智能是不同的,作为一个 Nomic剧变。在这个过程中,人工智能将触发一个基础-全球力量结构和平衡的心理转变。 这给政治带来了无与伦比的挑战世界各地的机构。他们将不得不建立动态新技术的新规范,减轻其潜在风险,并平衡不同的地缘政治参与者利益。越来越多的,这些行为者将来自 AI可能会成为技术用手段以改进 私营部门。这将需要高水平的协调-第一来自政府,包括战略竞争对手和对手。 2023年,世界各国政府都意识到了这一点挑战。从布鲁塞尔到北京再到曼谷,立法会-Eers忙于制定监管框架来管理人工智能,即使技术本身呈指数级发展。在日本,七国集团领导人发起了“广岛本身。过程“以解决由以下方面提出的一些最棘手的问题 人工智能政策议程必须同时激发创新解决棘手问题挑战并避免危险的扩散-“突围”模式造成严重破坏。它必须帮助实现地缘政治-没有梦游的CAL优势世界进入新的军备竞赛。AI力量悖论技术本身的本质是一种进一步的复杂性。人工智能不能被控制-像以前的任何技术一样因为它不同于任何以前的技术-Nology。这不仅仅构成政策-加长;其独特的特性使逐步解决这些挑战这就是AI力量悖论。首先,所有技术都在发展,但是人工智能是超进化的。人工智能的速度的改进将远远超过已经强大的摩尔定律成功预测了翻番每两年的计算能力。而不是每两年翻一番,用于训练的计算量最强大的AI模型已经增加过去每年的10倍10年。曾经需要的处理几周现在发生在几秒钟内。支持AI的基础技术只会变得更小,更便宜,更容易接近。但AI的独特性不仅仅是扩展的计算能力。很少预测了人工智能的进化,从它的能力-训练大型语言模型以能够解决复杂的问题甚至创作音乐。这些系统可能很快就能实现准自治。这本身就是革命性的但会带来更多的戏剧性的含义:AI可能会成为fi第一技术与手段提高自己。AI很容易扩散。与任何软件,人工智能算法非常简单-复制和分享更便宜(或偷窃)而不是有形资产。作为AI算法变得更强大-和计算变得更便宜-这样的mod -els很快就会在智能手机上运行。不这种强大的技术曾经是如此广泛的访问如此之快。而且因为它的边际成本-不是对男人来说-交货的边际成本-为零,一旦发布,AI模型就可以并且将无处不在。大多数将是安全的;许多 已经接受了负责任的培训。但是,作为有了病毒,只需要一个恶毒或 谁将控制AI几乎没有动力自我调节。这些功能中的任何一个都会完善传统治理模式;所有这些一起渲染这些mod -ELS不足,并提出挑战治理AI不同于任何治理AI -以前遇到过。 如果全球AI治理要成功,它必须重新反映fiect AI的独特功能。和fi其中第一个是现实作为一种超进化技术,AI的进步本质上是无法预测的-能够。政策制定者必须考虑到鉴于这种不可预测性,任何规则他们今天通过可能不是有效的甚至相关的几个月,让单独几年。在监管机构中现在有了flu灵活的政权一个错误。相反,善治将是最好通过建立一组first人工智能政策制定的原则可以基于:•••预防措施:风险回报AI的Profile是不对称的;尽管AI的潜力有很大的好处-政策制定者必须防范其潜在的灾难性下降-simes. The already widely used pre警示原则需要适应AI并载入任何治理制度。敏捷:决策结构倾向于保持静态,稳定和可预测性对动力和flexibility. That won ’ t work with a像人工智能一样独特的技术。人工智能政府-ANNANCE必须同样敏捷,适应性强,和自我校正,因为人工智能是快速移动的-ING、超进化和自我激励-证明。Inclusive:最好的行业规则-lation, especially when it comes to技术,一直在工作-与商业部门合作-这对于AI来说尤其如此。鉴于排他性(至少目前)的AI开发-以及技术的复杂性-监管机构支持的唯一途径-负责监督AI将与私营科技公司。到反映AI的无国界性质, 激励措施指向 人工智能的本质表明不同的激励-也是。两用技术是没有什么新的(有一个平民的原因核扩散是紧密的,治理原则tored),而AI不是fi的第一技术其民用和军事用途是模糊的。但是核技术富集是高度复杂和cap -密集的,人工智能损失的成本意味着它可以无休止地部署,无论是民用或军事用途。这使得AI比只是像往常一样的软件开发;它是一种全新的危险手段投射力量。 限制AI在技术基础。但它的潜力为了丰富和赋予权力-充分的行为者意味着政府和开发人工智能的私营公司是激励做相反的事情。简单地说也就是说,人工智能至上是一个战略目标-每个政府和公司的活动与资源竞争。如果冷战被核武器打断了军备竞赛,今天的地缘政治竞赛同样会反映在全球竞争中在AI上。美国和中国都看到了AI至高无上的战略目标必须实现-并拒绝其他。这种零和动态意味着北京和华盛顿关注加速人工智能发展,更确切地说而不是放慢速度。但是像核监测器一样坚硬-ING和verifi阳离子是30年前的事了,为AI做同样的事情将会更多具有挑战性。即使世界强国倾向于包含AI,没有保证他们能够,因为,作为在大多数数字世界中,各个方面AI的数量目前由Pre控制-vate部门。而少数目前控制的大型科技fi均方根AI可能会保留其优势可预见的未来,它是一样有可能AI的逐渐扩散将带来越来越多的小玩家空间,让治理更多复杂。不管怎样,私人 人们担心人工智能是或将是很快,破坏民主。他们害怕AI将夺走就业机会,破坏经济稳定,以及扩大贫富之间的鸿沟。 这可以进一步将权力集中在少数科技公司和削弱政府结构旨在规范它们。一些人还担心科技巨头政府可能会越来越多地委托人类决策-Sion -制造机器,最终取代演示-具有“Algocracy”的行为,不是由人民统治,而是由算法统治-Rithm. 治理AI将是跨 这种反乌托邦的愿景错过了我们目前的能力塑造人工智能发展。作为人类社会,我们拥有政治能力(至少目前)和责任解决AI可能对我们造成的伤害。我们也有利用人工智能来增强我们的技术机会民主以加强我们的集体能力治理-而不是简单地规范- AI。 与其他道德和政治挑战一样,例如基因编辑,人工智能治理不仅需要更多专家干预和监管,但更多的公民声音和输入-例如,关于如何导航分布-人工智能对经济的积极影响。像其他全球经济一样-cerns,如气候变化,人工智能治理需要这个民主的声音在国际层面上被听到-国家机构。幸运的是,人工智能有潜力迎来以更具包容性、参与性和审议性的形式民主,包括在全球范围内。 参与式实验 40年来,许多政府一直在从事实验-旨在将普通公民纳入政策的iments -ing和立法的方式比通过投票更丰富alone. These experiments have mostly be local and小规模,很像公民集会和陪审团在气候和其他问题上激增。A 2020 伊恩布雷默是总统和欧亚集团和GZERO的创始人媒体。穆斯塔法苏莱曼isInfiAI的首席执行官和联合创始人。