您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[CETAS]:2024 评测 AI 安定性与险分分析报告 ( 汉 ) - 发现报告
当前位置:首页/行业研究/报告详情/

2024 评测 AI 安定性与险分分析报告 ( 汉 )

金融2024-03-26CETAS一***
2024 评测 AI 安定性与险分分析报告 ( 汉 )

0研究报告生成 AI 的迅速崛起评估安全和安保风险Ardi Janjeva, Alexander Harris, Sarah Mercer, Alexander Kasprzyk 和 Anna Gausen2023 年 12 月 Ardi Janjeva, Alexander Harris, Sarah Mercer, Alexander Kasprzyk 和 Anna Gausen1关于CETaS ......................................................................................................2Acknowledgements...........................................................................................2ExecutiveSummary ...........................................................................................3Recommendations ............................................................................................81.生成性导论AI ..............................................................................................111.1短暂的历史AI.....................................................................................................................................111.2的步伐变更..................................................................................................................................131.3Methodology..............................................................................................................................................172.评估政治 , 数字和物理安全风险.......................................................................202.1政治安全............................................................................................................................................212.2数字安全............................................................................................................................................282.3Physical安全.......................................................................................................................................332.4称量恶意和偶然来源风险.................................................................................................................363.生成的 AI 和未来的智能能力 : 机遇和局限性........................................................433.1扩大调查工具箱 : 分析和总结.......................................................................................................433.2开源和商业模式 : 创新与风险管理...............................................................................................524.治理、政策与监管.........................................................................................554.1信令和报告........................................................................................................................................564.2禁止和 “红色 ”线 '..............................................................................................................................664.3立法的优点和缺点环境.....................................................................................................................674.4全球治理............................................................................................................................................684.5培训、指导和保障措施.....................................................................................................................74案例Studies..............................................................................................77案例研究 1 : OSINT总结.........................................................................................................................77案例研究 2 : 合成数据Generation........................................................................................................80关于Authors...................................................................................................84封面和封底上使用的图像是由 OpenAI 的 DALL - E 2 生成的。 生成 AI 的迅速崛起 : 评估安全和安保风险2关于 CETaS新兴技术与安全中心 ( CETaS ) 是位于英国国家数据科学和人工智能研究所 Alan Turing Institute 的研究中心。该中心的任务是通过对新兴技术问题进行基于证据的跨学科研究 , 为英国的安全政策提供信息。在 cetas. turing. ac. uk 与 CETaS 联系。这项研究得到了艾伦图灵研究所国防和安全计划的支持。本报告中表达的所有观点都是作者的观点 , 不一定代表艾伦图灵研究所或任何其他组织的观点。Acknowledgements作者希望感谢所有参加该项目研究采访或焦点小组的人 ; 他们特别感谢 Alena Frankel , Bertie Vidgen , David C , Robert C 和 Sam Stockwell 对本报告早期版本的宝贵反馈。 Ardi Janjeva, Alexander Harris, Sarah Mercer, Alexander Kasprzyk 和 Anna Gausen3执行摘要This CETaS Research Report examines the implications of generative AI for national security. The findings and recommendations are based on a combination of open available literature and research interviews with more than来自政府、学术界、工业界和民间社会的 50 位专家。据我们所知 , 这代表了英国关于生成人工智能对国家安全影响的最全面的公开研究。生成 AI 是一种 AI 形式,可以根据用户建议生成图像,音频和文本等内容。许多可能的生成 AI 用例被一些人视为彻底改变个人互动和企业运营方式的机会。然而,从国家安全的角度来看,生成人工智能增强人类生产力的形式代表了一个重大挑战,并代表了这种方式。技术正在不断延伸国家安全的界限.生成 AI 带来的安全风险可以理解为增加预先存在的社会风险或构成全新的风险在大多数情况下 , 生成式人工智能适合前者 : 像虚假信息、欺诈和儿童性虐待材料这样的安全风险并不是生成式人工智能的新创造 , 而是通过技术在速度和规模上被放大 , 这样它们可能会伤害比以前更大的人口比例。以这种方式理解国家安全形势应该可以抑制对所构成威胁的 “前所未有 ” 性质的不必要的歇斯底里 , 同时能够更有针对性地关注生成人工智能催化风险的威胁领域。生成式 AI 还提供了在国家安全社区中使用的潜在机会。目前 , 生成式 AI 工具是太不可靠和容易出错 , 无法在国家安全的最高风险环境中信任。这意味着它们还没有准备好在需要制作decision或需要可解释性来满足问责制和监督要求。对于那些可能想要使用生成 AI 来破坏英国国家安全的人来说,不准确并不重要 - 如果大型语言模型 ( LLM ) 在生成 deepfae 或编写恶意软件方面表现不佳,攻击者的失败成本仍然很低。但是从防御的角度来看,类似的错误可能会导致严重的安全漏洞。用户过度信任 LLM 的倾向可能会导致。不愿挑战 AI 生成的输出.从历史上看 , 国家安全和技术话语侧重于理解来自对手; 着手造成伤害的团体或个人。但是 , 先进技术向更广泛的选民扩散 , 要求心态的转变来解释所有的生成 AI 可能构成国家安全风险的无意或偶然方式。这可以在 “不当 AI ” 的可能实例范围中

你可能感兴趣

hot

2024 年大型语文模型和生成式 AI 报 ( 汉 )

文化传媒
英国上议院&通信和数字委员会2024-02-02
hot

2024年中国大模型评测报告

信息技术
沙利文2024-03-25
hot

主流旗舰手机AI功能评测报告

电子设备
中国移动2024-04-30