核心观点与关键数据
- AI系统引入新的操作风险:超过79%的受访者表示董事会和高层管理人员正在积极审查AI安全风险,69%的董事担心敏感数据通过AI提示或模型泄露,39%担心自主代理在没有人工监督的情况下行动。
- 传统安全工具存在“信心差距”:约18%的人非常自信他们能够检测使用生成式AI的攻击,只有24%的受访者认为他们现有的安全工具在防止攻击方面“非常有效”。
- API成为AI经济的操作骨干:随着企业快速部署生成式AI模型和自主代理,API已从简单的集成点演变为AI经济的操作骨干,每个自主行动,从推理到检索敏感数据到执行工作流,最终都通过API调用发生。
- 无法安全地保护AI,除非安全地保护API:60%的组织承认对生成他们应用程序代码的AI模型的安全缺乏控制,49%基本上看不到非人类、机器到机器的流量,48%无法有效地区分合法的AI代理和恶意机器人。
- API增长加速:近一半(47%)的受访者报告过去一年API增长了51%到100%,反映了对机器到机器通信的巨大扩展。
- 生成式AI正在改变开发(和风险):18%的组织使用GenAI进行所有API开发,51%使用它进行一些开发,19%计划在接下来12个月内采用它。
- AI代理引入新的安全挑战:组织在部署AI代理时面临重大操作风险,包括维护对任务关键自动化、监控机器到机器流量、区分合法代理和恶意机器人以及保护暴露给自主系统的API。
研究结论与建议
- API安全挑战:最常见的API安全问题包括敏感数据暴露(44%)、漏洞(43%)、身份验证问题(41%)和凭证注入或暴力攻击(27%)。
- 安全挑战与障碍:最大的障碍包括缺乏定义的策略(10%)、工具/解决方案(28%)、预算(15%)、企业资源/人员(14%)、竞争优先事项(13%)和缺乏理解(10%)。
- 攻击者策略:99%的攻击尝试来自经过身份验证的来源,而99%的目标是外部API。78%的尝试与OWASP API安全十大准则一致,其中最突出的威胁是API8(安全配置错误)和API1(损坏的对象级授权)。
- 可见性差距:57%的人只 somewhat confident 他们的API清单是准确的,23%拥有完全自动化的实时清单,19%对他们的清单低或没有信心。
- 监控实践:只有26%的组织实时持续监控API,大多数依赖定期监控流程,如每日扫描、每周审查或每月评估。
- 安全计划成熟度:7%报告没有API安全策略,33%处于规划阶段,24%拥有基本计划,28%拥有中等成熟度,只有8%报告拥有先进的API安全计划。
- 生成式AI安全风险:60%担心缺乏对开发中使用的AI模型的安全控制,59%担心难以理解和保护AI生成的代码,57%担心AI生成的代码可能引入新的漏洞。
- AI代理安全挑战:50%担心维护对任务关键自动化的可靠性,49%担心监控机器到机器流量,48%担心检测冒充合法代理的恶意机器人,47%担心保护暴露给自主系统的API。
- API安全的价值:47%的组织因API安全问题而延迟发布新应用程序,32%在过去一年中经历了API安全事件。成熟的API安全计划不仅可以降低风险,还可以促进更快地创新和安全地部署新技术。
建议措施
- 提供完整的“代理安全图”。
- 实施实时监控和行为检测。
- 为AI驱动开发采用上下文感知安全。
- 保护“代理行动层”。
- 将安全投资与业务成果保持一致。