关于Concordia AI 康科迪亚人工智能是一家社会企业,其使命是确保人工智能的开发和部署方式安全且符合全球利益。它不隶属于任何政府或政治组织,也未受其资助。本报告中表达的观点仅代表作者个人观点。康科迪亚人工智能在本次报告的研究、撰写或出版过程中未获得任何政府或企业实体的资金支持。 作者 这份报告是由李 Jonathan、周 Jason、Ng Kwan Yee 和蔡 Brian 编写的。 如何引用这份报告 李文浩、周杰、黄婉仪和蔡博, “新加坡人工智能安全现状”,康考迪亚人工智能,七月https://concordia-ai.com/wp-content/uploads/2025/07/State-of-AI-Safety-in-Singapore-2025.pdf.2025, 推荐语 “新加坡人工智能安全状况报告提供了对新加坡人工智能安全和治理格局的全面概述,并为全球范围内日益增长的人工智能安全讨论做出了贡献。它将成为对新加坡乃至世界各地的人工智能治理和安全研究感兴趣的专业人士和学者的宝贵参考。” 新加坡国立大学教授西蒙·切斯特曼 这份报告是对新加坡不断发展的AI安全领域及其支持性严格测试框架的深刻概述。该报告也为识别对建立AI系统信任至关重要的技术研究领域提供了有用的输入。它强调了新加坡在这一领域治理和技术研究方面的承诺。 郭彦霖教授,南洋理工大学 通过分析人工智能安全的关键问题,本报告有力地论证了更深层次的跨学科合作,并将成为研究人员和实践者的非常宝贵的资源。 王恒教授,新加坡管理大学 “aidx tech 很高兴能为这份报告做出贡献。它对新加坡不断扩大的 ai 保障生态系统所作出的清晰概述,为测试和资源提供了一份有价值的路线图,使 ai 开发者与 ai 采用者能够加速可信 ai 的部署。” 贾一帆博士,AIDX Tech 创始人 致谢 我们感谢下列个人和组织对报告的支持与反馈(按姓氏字母顺序排列): • 西蒙·切斯特曼,新加坡国立大学 • 肖恩·伊,人工智能政策与战略研究院 • 贾一帆,AIDX科技• 莫汉·坎卡纳哈利,新加坡国立大学 • 特雷森·柯,新加坡人工智能研究院 • 梁国岩,南洋理工大学 • 雷泽云,新加坡国立大学 • 李佳薇,新加坡资讯通信媒体发展局人工智能治理与安全 •麦莉莎·曼,独立 • 诺欧·克雷门特,南洋理工大学 • 钱子兰,牛津大学 • 萨亚莉尼·塞瓦拉吉,新加坡国立大学 • 萨德·西迪基,安全人工智能论坛 • 罗宾·斯塔斯-普莱特,未来社会 • 谭之玄,新加坡国立大学 • 特奥·玛丽,托尼·布莱尔全球变革研究所 • 王恒,新加坡管理大学 • 耶·爱德华,FAR.AI 所有观点和结论均保持为作者本人。 目录 执行摘要 1 引言3 报告范围 5 1 国内方法 1.1 自愿框架 .......................................71.2 人工智能安全测试与保障 .........91.3 硬性规定 ........................................ 13 1.4 标准 ............................................ 14 2 国际方法 16 2.1 多边倡议 ...................................... 17 2.2 区域倡议 ....................................... 20 2.3 双边倡议 ........................................ 21 2.4 新加坡的召集能力和区域治理 ................... 23 243 行业3.1 新加坡本土gPAI模型 .................. 24 3.2 第三方AI认证供应商 ....................... 26 3.3 外国AI开发者 ..................................... 27 294 技术研究 4.1 新加坡国立大学(NUS)............................ 304.2 南洋理工大学(NTU)........................... 334.3 新加坡管理大学(SMU)........................... 354.4 新加坡科技设计大学(SUTD) ................... 364.5 科学技术研究局(A*STAR) ................... 374.6 政府技术局(GovTech) ......................... 374.7 新加坡人工智能安全研究所 .................................. 384.8 总体趋势 ......................................... 38 5 民意5.1 全球调查 ......................................... 40 40 42 结论 墨尔本大学和德勤全球研究中的AI风险 2025 ................. 44 YouGov关于媒体中生成式AI的调查(2024–2025) ...................... 45 46注释 执行摘要 尽管实现人工智能的全球利益和管理其风险需要广泛的国际合作,但当前全球辩论不均衡地集中在少数几个正在建立最先进人工智能系统的国家。新加坡表明,规模较小、资源受限的国家仍然可以影响新兴的安全规范。自从2019年引入(世界首批之一)的《模型人工智能治理框架》以来,这个城市国家一直专注于构建实用、行业就绪的工具和多语种安全评估,将高级别原则转化为日常实践。这份截至2025年7月初的报告,首次全面概述了新加坡的人工智能安全生态系统,分为五个领域。 国内方法 •新加坡依赖自愿框架和有针对性的立法,而不是广泛或全国性的AI特定法律。人工智能治理框架模型,最初于2019年发布用于传统人工智能,并于2024年更新用于生成式人工智能,为行业提供了广泛的自愿指导方针,而立法则具有针对性,并关注特定的AI风险,例如针对AI生成的选举深度伪造的新处罚。目前没有明确动向迈向国家AI法律。 •政策工具强调下游测试和保障,而非模型“LLM应用安全测试启动套件”等倡议等级控制。 “全球人工智能置信沙盒”为部署者提供专门的测试用例和关于如何测试生成式人工智能应用的不同组件 安全风险的特定指导。由于在应用层面上进行测试和评估不如在模型层面上全球范围内探索得充分,新加坡对部署测试的关注使该国处于填补全球人工智能安全实践中一个重要空白的位置。 国际方法 •新加坡在全球和区域人工智能治理中发挥着举足轻重的作用。自2018年以来,它积极参与全球人工智能治理讨论,在联合国和全球人工智能安全峰会等场合做出贡献。它利用其中立的外交政策立场召开国际人工智能会议,如新加坡人工智能会议,并利用其外交平台放大小型国家的声音。作为东南亚国家联盟(东盟)数字部长会议2024年的主席,并通过小型国家数字论坛(数字FOSS)倡议,新加坡已促进包容性对话和能力建设,使发展中国家能够帮助塑造全球人工智能规范。 •双边而言,新加坡在贸易和数字协议中嵌入人工智能治理条款,并通过“对照表”鼓励互操作性,将国际治理框架映射到彼此。近期数字经济协议中已包含相关条款 构建人工智能治理体系并在合作伙伴之间分享最佳实践。人工智能验证测试框架通过映射到 NIST 人工智能风险管理框架和 ISO/IEC 42001,简化合规性,使企业能够通过单一测试流程满足人工智能安全义务。 行业 •新加坡的本土模型优先进行区域语言的训练,安全功能仍处于早期阶段,计划进一步开发。SEA-LION和MERaLION模型家族着重于东南亚语言和方言,而非前沿能力;目前的防护措施仅限于基本的毒性评估和SEA-Guard提示过滤器,后者仍处于早期阶段。 •新加坡是一个充满活力的保证中心,拥有主要的国外通用人工智能开发商,以及本地和国际人工智能安全测试与保证提供者。领先的美国和中国科技公司以及全球前沿初创企业设立新加坡办公室或合作伙伴关系,进行人工智能安全测试,为新加坡带来专业知识。同时,本地和国际人工智能认证公司通过提供涵盖模型、应用和组织层面的测试和认证服务,形成了一个全面的生态系统。 技术研究 •关于人工智能安全性的学术研究正在扩展,新加坡大学是主要的推动者。大部分出版物来自新加坡国立大学(NUS)、南洋理工大学(NTU)、新跃大学(SMU)和新加坡科技设计大学(SUTD),并得到A*STAR、新加坡政府科技局(GovTech)和新加坡人工智能安全研究所的支持。他们的研究中心集中在鲁棒性、多模态安全、去学习和智能体行为,以及“新加坡全球人工智能安全研究优先事项共识”(2025年5月)提供了一系列技术研究领域——风险评估、安全设计开发和中后期控制——为未来合作走向尚未充分探索的风险领域提供路线图。 舆论 •关于人工智能安全的可靠公众舆论数据有限,并且集中于短期关注。目前还没有专门的全国性调查探讨新加坡人对人工智能风险的看法。全球范围内的民调很少包括新加坡,那些包含新加坡的民调揭示了公众对虚假信息、数据隐私、网络安全以及人际互动减少的担忧。 简介 一个没有边界人工智能能力的弱小国家如何能在全球人工智能安全方面做出有意义的贡献?随着全球人工智能治理讨论日益集中在少数几个大国的行动上,这个问题变得愈发重要,可能会忽视规模虽小但战略位置优越的国家的方法。尽管新加坡早在人工智能治理方面迈出了步伐——在2019年发布了世界上第一个全面的国家人工智能治理框架——但国际社会对新加坡方法的理解仍然有限。这个差距很重要,因为新加坡代表了人工智能生态系统中的不同模式。它不是在原始计算能力上竞争,或追求前沿人工智能模型开发,而是在人工智能保证、多语言安全测试和实用治理框架方面建立了显著优势,这些框架将尖端全球标准与地区需求相结合。 新加坡自2019年开创性的《模型人工智能治理框架》以来,其方法已显著演变。从第一份官方发布以来,这个城市国家已经发展了一系列治理工具和安全基础设施。仅在2025年上半年,新加坡就召开了第二次新加坡人工智能会议(SCAI),推出了《新加坡全球人工智能安全研究优先事项共识》;与其他国家人工智能安全研究所(AISIs)发布了联合测试报告;启动了生成式人工智能应用测试试点和沙盒;并通过MERaLION-2推进了其开源模型阵容。 有限的土地面积、高昂的能源成本以及缺乏本地前沿人工智能实验室等结构性因素,使得大规模模型训练在新加坡不切实际。然而,该国家通过转而专注于人工智能生命周期后期阶段,将这些限制转化为机遇。新加坡提供独立的AI模型测试框架,开展应用层面的安全测试倡议(“全球人工智能认证沙盒”),并为人工智能部署者发布实用指南(《基于LLM应用的安全测试起步套件》)。 此外,新加坡专注于多语言测试,并支持本土人工智能模型管道,将语言多样性放在首位。该国有四种官方语言——英语、普通话、马来语和泰米尔语——并地处东南亚多种语言的环境中。其 SEA-LION 语言模型家族,以及多模态的 MERaLION,涵盖了13种东南亚语言,甚至包括当地方言或口音。除了模型之外,新加坡还组织了多语言红队演练和其他项目,以应对非英语语言人工智能安全这一研究不足的挑战。 新加坡的影响力远超其国界。在区域内,SEA-LION的架构支撑着泰国的Wangchan-LION和印尼的Sahabat-AI大型语言模型,而《东盟人工智能治理和伦理指南》(后扩展以涵盖生成式人工智能)大量借鉴了新加坡的Model AI Gov 治理框架。基于这些区域贡献,新加坡已成为全球人工智能治理方面的可信赖的协调者;自2018年