您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[联合国]:军事领域的人工智能:国家简报 - 发现报告

军事领域的人工智能:国家简报

国防军工2025-03-10-联合国有***
AI智能总结
查看更多
军事领域的人工智能:国家简报

人工智能在军事领域:一份为各国的简报 致谢 来自UNIDIR资助方的支持是研究所所有活动的基础。本研究由联合国安全与发展问题研究所(UNIDIR)的安全与技术计划(SECTEC)制作,该计划得到捷克共和国、德国、意大利、荷兰、挪威、韩国、瑞士和微软的支持。 关于UNIDIR 联合国裁军研究机构(UNIDIR)是一个自愿资助的联合国内自主机构。作为全球少数专注于裁军政策的政策研究机构之一,UNIDIR致力于生成知识、促进就裁军与安全问题进行的对话和行动。总部设于日内瓦,UNIDIR协助国际社会发展解决关键安全问题的实用创新思路。 注释 本出版物所使用的名称及其所呈现的内容,并不表明联合国秘书处对任何国家、领土、城市或地区的法律地位,或其当局,或其边界或边界的划定,有任何意见。本出版物中表达的观点是各作者单独的责任。这份背景文件是以作者独立身份提出的,不一定反映作者的观点或意见,也不一定反映作者工作的组织或联合国或UNIDIR的观点或意见。 作者 Giacomo Persi Paoli 项目负责人,安全与技术项目,联合国反洗钱和反恐怖融资国际机构(UNIDIR) Yasmin Afina 研究员,安全与技术计划,联合国反洗钱和反恐怖融资国际组织 引用 Giacomo Persi Paoli 和 Yasmin Afina,《军事领域的 AI:给国家的简报》,(日内瓦:UNIDIR,2025)。 封面图片:由人工智能生成。来源:KaihkoImages / Adobe Stock。 目录 1 .背景 2. 背景概述 5 1. 背景 2024年12月24日,联合国大会通过了题为“军事领域的人工智能及其对国际和平与安全的影响”的决议A/RES/79/239。1这项决议代表了对人工智能(AI)的多边讨论中的关键时刻,原因有二:(1)2024年初通过的前两个关于AI的决议在其管辖范围内排除了军事领域和国际安全问题。2并且(2)首次,国际和平与安全界被邀请反思人工智能(AI)在致命性自主武器系统(LAWS)之外的发展、部署和使用的影响,以承认这项强大技术在军事领域的广泛应用。 根据第A/RES/79/239号决议,并旨在提交给八十届联合国大会的报告,联合国秘书长邀请会员国、观察员国、国际和区域组织、红十字会国际委员会、民间社会、产业界及科学界提交其关于“人工智能在军事领域的应用对国际和平与安全所带来的机遇和挑战”的看法。除致命性自主武器系统外,特别关注其他领域。”.3 本简报旨在支持各国就这一重要议题形成其国家观点,目标是使最终报告尽可能全面、多样和具有地域代表性。本简报将包含有关军事领域人工智能(AI)议题的背景信息、供各国参考的一套考量要点,以及基于联合国工效署(UNIDIR)自身研究及精选外部出版物编制的推荐阅读清单。 2. 背景 :截至2023年1月,关于军事领域人工智能的多边讨论仅限于其职责范围。《特定常规武器公约》(CCW)缔约方政府专家组(GGE)关于在法律自主武器(LAWS)领域新兴技术问题的相关内容。在此背景下,人工智能被讨论为一种能够使武器系统实现高级别自主性的技术。这些技术进步凸显了一系列法律和政策挑战,包括现有和新兴的挑战,例如遵守国际人道法和国际人权法、伦理考量以及更广泛的政策问题。 《特定常规武器公约》(CCW)是国际人道主义法的一项关键工具,旨在禁止或限制使用那些可能被认为具有过度杀伤性或具有无差别效果的特定类型武器。4 As such, most of the与人工智能相关的讨论在《特定常规武器公约》(CCW)的总体框架内以及《关于《特定常规武器公约》中使用的法律约束力的政府专家组》(GGE on LAWS)的具体背景下进行,重点关注这些系统在军事目标使用方面的法律合规性。. 将人工智能作为武器系统实现更高层次自主性的赋能工具,无疑是一个非常重要的问题,但它仅代表这一技术在军事应用范围内非常小的一部分。5人工智能对所有社会方面(包括国家安全和国防)的潜在变革性影响,已成为政策制定者和公众 alike 的主流讨论话题,尤其是在 2022年底 ChatGPT 公开发布之后。 倡导在军事领域负责任地发展、部署和使用人工智能需要提升到国际议程的更高位置,荷兰政府在2023年2月主办了首次全球军事领域负责任人工智能峰会(REAIM 2023)。由韩国共同主办的山顶峰会为所有利益相关方提供了一个讨论人工智能在军事应用中的主要机遇、挑战和风险的平台。6 A number of government representa- tives present at the first REAIM Summit subsequently put out a joint行动号召在军事领域的 AI 负责任的开发、部署和使用。7 TheREAIM峰会第二次于2024年9月在首尔举行,由韩国与荷兰、新加坡、肯尼亚和大不列颠联合举办。此次第二届峰会能够建立在首届峰会坚实的基础之上,整合了2024年初在新加坡就军事领域负责任人工智能举行的一系列区域磋商的见解, 伊斯坦布尔、内罗毕、圣地亚哥和在线。8 The Summit was able to dig deeper into the topic and take an incremental, yet meaningful, step forward through theREAIM行动计划框架.9Summit 的第三次迭代定于 2025 年 9 月在西班牙举行。 2023年2月,与REAIM倡议的启动同步进行。, the United States launched the关于负责任地使用人工智能和自主权的政治声明.10该声明概述了各国在军事人工智能能力的开发、部署和使用方面应采取的措施——包括那些能够实现自主功能和系统的措施——并提供了交流最佳实践和提升各国能力的基础。11经50多个州认可,该宣言为该领域创建多个州主导工作组提供了框架。 REAIM等倡议以及《宣言》为《第79/239号决议》以及联合国秘书长安邀各会员国就人工智能在军事领域的应用对国际和平与安全带来的机遇和挑战提交意见提供了有用的背景。 3. 为准备国家立场所做的考虑 基于UNIDIR的研究,以下各部分概述了国家在开始准备其国家观点的过程中需要考虑的一些重要事项: a. 解构军事领域 第一步是将“军事领域”的概念分解为其各个组成部分,承认军事力量可能需要运作的操作环境范围广泛,并受不同的法律、道德和规范框架约束。这尤其相关,因为不同的地区和次区域可能面临不同类型的威胁,在本质上不同的安全环境中,因此以不同的方式部署军事力量并在不同的框架内运作。因此,对于各州将根据其国家背景,在适当和相关的范围内阐述其观点。作为示例,国家可以考虑将军事力量在交战(国际武装冲突和非国际武装冲突)中使用人工智能与军事力量在其他类型行动中使用人工智能进行区分,例如维和行动、应急响应或灾害救援,以及对国家安全和公共安全的支持(包括对执法、边境安全、反海盗、关键基础设施保护等领域的支持)。 b. 考虑人工智能在军事领域的全部应用。 A/RES/79/239决议呼吁各缔约国集中注意力在其他领域而非LAWS的军事应用中的AI在上一点所述的广泛操作环境中,各国应考虑人工智能的全部军事应用。虽然目前尚无关于军事应用的公认国际分类法,但各国可以考虑采用与联合国地缘政治信息中心报告中所呈现类似的任务导向方法人工智能超越武器:人工智能在军事领域的应用与影响这种方法使用四个关键军事任务来将人工智能的军事应用(超越武器系统)进行分组。12 ໜ指挥与控制 (C2):C2指的是军事行动的决策方面。 ໜ信息管理:信息管理是指收集、处理、利用和传播与军事行动相关的信息。这包括,例如,支持情报、监视和侦察的应用。 ໜ物流:物流是指为维持军事行动而进行的人员和设备的调动、供应和监控。例如,这包括预测性维护。 培训:培训是指对军事人员的指导和准备工作。 上述任务可用于绘制人工智能应用案例,覆盖军事行动的整个范围,包括上述(a)点所述的战区外行动。其他超越法律武器系统(LAWS)范围且潜在相关的应用包括支持或赋能网络作战的应用,包括影响力行动、认知战和电磁战。13 c. 评估风险 尽管关于民用领域AI风险的讨论已较为深入,但在国际和平与安全背景下,目前尚无关于AI的通用风险框架。这或许部分可以用区域内及跨区域的风险认知和评估差异来解释。14然而,各国采取全面的风险评估方法至关重要。在此背景下,国家可以考虑反映在两种不同的风险类别上:与人工智能技术本身相关的风险以及与其扩散和使用相关的风险。UNIDIR针对人工智能风险的分类体系可以为各国提供有益的参考。15 与技术本身相关的风险可能包括: ໜ源自该技术固有的脆弱性而带来的AI安全风险,包括所有数据问题。ໜ源自于人工智能系统可能引入的新网络漏洞的人工智能安全风险。ໜ与人机交互相关的风险,例如自动化偏见和信任校准风险。 对人工智能的扩散和使用相关的风险进行考虑。Meanwhile, could include issues such asnonproliferation or risks of miscalculation and escalation. Part of this assessment could include consideration of the challenges involved in deploying such technology in compliance with existing legal regimes, as relevant and applicable to the specific operational context and application. d. 阐述机遇 决议 A/RES/79/239 也邀请缔约方就人工智能技术在军事领域的发展、部署和使用所带来的潜在益处表达意见。这些机会——其性质可能具有国际性、区域性、国家性甚至地方性——可能包括作战、法律和政策考量。例如,人工智能赋能技术可用于扩大数据收集实践、巩固比例性评估并采取预防性措施。在思考这些机会时,缔约方应考虑任何有助于把握这些机会的贡献因素和关键方面。这些因素可能包括在整个技术生命周期中维护国家和个人的问责制和责任、与民用领域负责任的人工智能努力进行交叉借鉴、审慎考虑军民两用技术,以及负责任的人工智能的数据治理。16 e. 评估国家结构 作为各州评估军事领域范围以及人工智能在军事方面的全面应用的一部分,各州还可以考虑在国家层面现有的结构(包括正在开发中的结构),这些结构为军事领域的AI治理提供了框架和/或相关性。:这些包括治理结构和文件,例如国家政策和/或战略、民事和刑事立法、内部法规、行为准则、采购指南、军事手册和概念文件。这些国家结构还包括参与军事领域人工智能开发、部署和使用的相关部委和政府机构(例如执法部门、情报机构),以及其他国家机构的存在(例如人工智能机构、行业协会、司法法院)。17 4. 需要考虑的其他跨领域问题 除上述具体观点外,国家应考虑就三个重要的跨领域问题贡献其反思:(1)人工智能系统的生命周期管理;(2)数据的重要性;(3)向更大程度的确信、信任和透明度发展的可能途径。 跨领域问题1:人工智能系统的生命周期 决议 A/RES/79/239 关注军事领域人工智能能力的整个生命周期,“包括预设计、设计、开发、评估、测试、部署、使用、销售、采购、运营和退役等阶段”。这是各国在制定其国家观点时需要考虑的重要因素,因为它也可能影响对风险和机遇的评估。尽管公共辩论大多集中于生命周期的“可见”部分——即人工智能系统的部署、使用和运营——但采取整体性方法是减轻风险和利用机遇的关键。18因此,国家应当考虑,结合其国家背景,将人工智能系统的整个生命周期作为相关和适用的因素进行反思。这也包括能力获取的关