您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Varonis]:2025年数据安全状况报告:量化人工智能对数据风险的影响 - 发现报告

2025年数据安全状况报告:量化人工智能对数据风险的影响

信息技术2025-05-13VaronisL***
AI智能总结
查看更多
2025年数据安全状况报告:量化人工智能对数据风险的影响

来自1000个真实IT环境的洞察 关键发现 人工智能的采用正在超越安全措施。 虽然人工智能可以推动进步,但它也会加速风险。在我们对1000家组织的审查中,我们发现了令人担忧的数据安全问题: 这些账户保持启用状态,提供对应用程序和数据的访问权限。幽灵用户可以让攻击者进行侦察或数据窃取,而不会触发警报。 98%有未经核实的应用程序,包括未经授权的AI。 影子人工智能增加了暴露风险和数据泄露的风险。攻击者可以使用未经验证的应用程序来窃取数据。 关于本报告 方法论 公司画像 这份报告包含跨行业的數據分析: Varonis 分析了跨行业和地域的数据安全风险: •1000家组织•将近100亿云资源(对象、文件、报告、附件等)•超过 20 泽字节的数据——每个组织大约 20 太字节 •医疗保健/生物技术/制药•金融•政府/公共部门•保险和专业技术服务•制造•教育•技术•消费者/零售•以及等等… iaas和saas应用程序和服务审查: 包含的国家: 美国,加拿大,德国,法国,比利时,荷兰,瑞典,瑞士,英国,西班牙,意大利,巴西,澳大利亚,印度等 目录 影子人工智能:对数据安全的隐藏威胁 5 聚光灯:Microsoft 365 Copilot 数据风险 6 聚光灯:Salesforce Agentforce 数据风险 7 模型中毒和人工智能训练数据的危害 9 机器里的幽灵:利用爆炸半径 11 云身份:庞杂且复杂 13 mfa丢失:一个关键的安全漏洞 14 数据安全状态:人工智能的威胁日益严重 16 关于Varonis 17 SHADOW AI: 数据安全的一个隐藏威胁 影子人工智能——未经批准的生成式人工智能应用程序——对数据安全构成重大威胁。这些工具可以绕过公司治理和IT监管,导致潜在的数据泄露。 2025年,数百万下载了DeepSeek。 员工可能在使用影子人工智能时意外泄露敏感或机密数据。如果这些应用程序未能遵守GDPR、HIPAA和其他法规,公司可能会被罚款。 下载DeepSeek的员工使他们公司的数据面临风险——未加密的 DeepSeek 数据库暴露了一百万行包含聊天历史、密钥、后端细节以及其他高度敏感信息的日志流,突显了组织审查和保障所有人工智能应用安全的关键需求。 陈旧的app在用户最后一次登录后仍可能存在危险。未使用或访问数周甚至数月的老旧OAuth应用程序仍然有权访问敏感数据。 有公司员工使用未经批准的应用程序,包括影子人工智能。每家公司1,200非官方应用程序平均 of 员工使用高风险OAuth应用 聚光灯:微软 365 助手数据风险 虽然非官方应用程序可以提高数据泄露的风险,即使是官方应用程序也可能威胁敏感数据。 Microsoft 365 Copilot 与组织的深度集成的数据来提高生产力。但它也引入了安全风险。Copilot 可以显示所有可访问的数据,可能会泄露关键信息。 已泄露的数据只需要一个Copilot提示。让我们考虑一家拥有2,000名员工的假设保险公司:如果每个员工每天输入20个提示,每周五天,那么该公司每周就有超过200,000次敏感数据被泄露的机会。 我们发现了: 90%有多少组织将敏感文件通过M365 Copilot暴露给所有员工 6%组织中有敏感文件开放的 尽管标签很重要,但只有10家公司中有1家对文件进行了标签化。 标签文件——确保数据被准确分类、管理和保护免受人工智能滥用——对于数据治理至关重要。 标签有助于执行数据丢失防护和加密等控制措施。它还通过表明数据是根据法律标准和策略处理的,来支持合规性要求。为确保成功,标签应自动化和持续进行。 聚光灯:SALESFORCE 代理数据风险 销售force组织包含大量敏感数据——个人身份信息、支付卡行业信息、财务信息等。管理员通常负责管理CRM,处理从用户管理到安全设置的所有事务。然而,这意味着IT和安保团队并不总是了解情况。这可能导致安全漏洞。 如果数据被公开,Salesforce Agentforce可能会扩大差距。代理可以通过自然语言提示暴露未受保护敏感信息,从而导致未经授权的数据访问和滥用。 我们发现大量用户和服务帐户可以通过 Agentforce 代理轻松访问所有 Salesforce 数据并导出该数据。赋予任何用户下载所有 Salesforce 数据所需的权限是一场等待发生的灾难。 十分之一 100% 帐户可以自由导出所有Salesforce数据 有至少一个账户可以导出所有数据的公司 我们的分析揭示了一个出人意料的、拥有强大管理权限的用户数量。允许许多用户安装第三方应用、设置字段级安全性和操作权限会增加在 Salesforce 中暴露重要数据的风险,并提高横向移动的可能性。 一个拥有1000名员工的典型中型企业公司有110名用户拥有创建和授予权限以及定制应用程序的权限。如果一个APT攻击者攻陷了单个Salesforce用户账户,他们可以将访问权限授予其他攻击者,或在网上黑市上出售高度特权凭证。 许多用户也有创建公开链接的权限。打开链接可能会无意中启用AI应用程序,如ChatGPT,以抓取您的组织内部数据来回答提示,并让未经授权的个人访问敏感的公司和客户数据。 当用户有权限时,分享公共链接很容易。如果那些用户中的某一个被攻破,攻击者可以创建和使用公共链接来窃取敏感数据。 92%允许用户创建公共链接的公司 模型中毒及对人工智能训练数据的风险 随着越来越多的组织开发自己的AI流程和产品,用于训练它们的数据面临着泄露和攻击的风险。当训练数据存储在多个云或IaaS中时,在所有环境中统一管理权限可能具有挑战性。 在敏感数据上训练的模型可能会无意中泄露机密信息。泄露的训练数据可能导致未经授权的访问和滥用,从而损害人工智能系统的完整性和安全性。 随着海量敏感信息和大量用户管理的需求,云数据安全在大规模下可能具有挑战性。我们的分析表明,云数据,包括未脱敏数据和暴露的存储桶,普遍存在过度暴露且保护不足的情况。 10中的9 组织在云端暴露了敏感数据 数据加密通过将其转换为只有持有解密密钥的授权方才能访问的安全格式,来保护用于训练大型语言模型(LLM)的数据。这确保了敏感信息保持机密,不会被未授权用户曝光。加密还有助于防止在训练过程中从数据收集到预处理再到模型训练期间发生数据泄露。 2,000 平均组织中未加密的对象存储 平均组织中未加密的数据库 另一个主要风险是模型中毒,攻击者通过操纵训练数据来破坏 AI 模型的性能。这种情况发生在恶意用户获得对模型云资源的访问权限时,例如容器、存储账户和数据库,并且可以向这些资源写入或修改,而不会触发警报。 模型中毒可能导致危险后果。想象一个攻击者修改用于模型的支付信息细节。不知情中,公司部署了该模型。当用户要求供应商的银行详细信息时,他们收到的是攻击者注入的银行详细信息。 模型中毒也可能发生意外。想象一下,一家医疗保健公司的一名分析师无意中用错误数据训练了一个模型。没有准确的数据,医生和医疗保健人员会为病人健康做出错误的决定。如果模型中毒没有及早发现,就很难通过监控模型性能来检测它。 机器中的幽灵:利用爆炸半径 一旦进入您的环境,攻击者的目标是在其中立足并扩大影响范围。过时用户帐户,或称“幽灵用户”,是前员工或承包商的活跃帐户。这些幽灵用户可能保持启用状态,提供对应用程序和数据的访问权限,这可能会允许攻击者在不触发警报的情况下进行侦察或数据窃取。 管理活动身份至关重要,尤其是在部署人工智能代理的情况下。如果仅有一个身份被侵犯,恶意行为者可以横向移动,使用人工智能寻找敏感信息,或植入恶意软件。定期审计和强大的身份管理实践可以确保只有需要的身份保持活动状态,并且每个身份都具有适当的访问权限。 88%有组织的15,000个平均有陈旧的但启用的幽灵用户 具备合法访问权限的内部人员可能会无意中或恶意地暴露敏感数据。通过加强身份管理协议,可以确保只有授权用户才能访问关键系统和数据,从而帮助降低这些风险。 8中的7 组织机构暴露了敏感数据每用户 云身份:蔓延且复杂 群组、成员资格和角色可以随时间逐步建立。单个用户可以汇集几十个角色和群组成员资格。与此同时,人手不足的it和安全团队往往难以在用户变更角色或离职时撤销未使用或不必要的成员资格。 我们的分析表明,组织在管理权限和安全身份方面已经落后了,特别是像 API 和服务账户这样的非人类身份。糟糕的凭证管理以及过多的权限会导致未经授权的访问和数据泄露。 云身份和权限管理可能涉及数千个权限和角色,需要持续的工作来应对风险。仅aws就超过18,000种可能的身份和访问管理权限要管理。 3,087平均的AWS账号中过于宽松的政策 20,224平均AWS账户中的管理策略 丢失的多因素认证: 未强制执行的多因素认证简化了攻击者的工作,使账户容易受到密码喷洒、凭证填充和钓鱼攻击。如果没有多因素认证,未经授权的账户访问将变得更加容易,从而导致潜在的数据泄露。多因素认证只有在启用并强制执行时才有效。一个严重的安全漏洞 2024年最大泄露事件,其造成的结果为失去1.9亿份患者记录被认为归因于缺少MFA。因此,建议的更改当前的HIPAA要求包括多因素认证作为不可协商的要求。 我们发现了: 1,800用户在平均公司中有非过期密码 如果没有适当的身份验证控制,攻击者可以简单地使用被盗的凭证登录,并访问AI工具,以快速找到您组织中价值最高的数据。 针对2024年针对Snowflake的活动是每个公司都应该默认启用MFA的完美例证。 黑客使用被盗凭证并利用丢失的MFA来访问多个客户环境,然后在暗网上暴露客户数据。调查表明,攻击者通过第三方承包商的被盗凭证访问了Snowflake帐户。 mfa 单独并不是万能药。 Varonis威胁实验室显示了攻击者如何利用被盗的浏览器Cookie绕过MFA。通过使用定制的恶意浏览器扩展和自动化脚本,攻击者可以提取和重用认证Cookie,从而在无需凭证的情况下模拟用户,同时保持持久性。 概念验证,称为“曲奇块”该漏洞未经授权访问了M365应用程序,以进行进一步的侦察和权限提升。研究表明,这些技术也适用于许多其他云平台和服务。 数据安全状态人工智能的威胁日益显现证据很清楚——组织的数据安全战略中有一个正在滴答作响的定时炸弹:AI。 人工智能对数据带来了新的危险,组织必须采取主动措施来保护其关键信息。 1. 缩小你的攻击范围。 假设将会发生数据泄露。主动减少攻击者仅凭一个被盗身份所能造成的损害。通过持续监控数据并修复问题,锁定权限和访问权限以防止基于身份的攻击,以及监控AI助手、聊天机器人和代理以防止被利用和误用,来尽量缩小你的影响范围。 2. 数据安全是人工智能安全。数据驱动人工智能。 为防止人工智能风险和与人工智能相关的数据泄露,请持续监控您的数据,自动化访问治理和配置管理,并采用主动威胁检测。全面的数据安全方法可以确保人工智能的安全。 3. 用人工智能做好事。 人工智能是防御者的强大工具。it和安全团队可以利用人工智能和自动化来: •精确识别、分类和标记大型数据集中的敏感数据,确保不会泄露或危及任何关键信息•修复漏洞,担任一线SOC分析师•捕获恶意内部人员以及表明攻击的异常行为 统一数据安全。自动化成果。与数据安全领域的领 导者合作。 Varonis 数据安全平台被评为领导者和顾客的最爱由顶级分析公司发布,并被Gartner® Peer Insights™认可客户的选擇和排名第一的DSPM。 免费申请数据风险评估。 了解 Varonis 如何加速您的进程,而非增加您的风险。 访问Varonis平台 专业红外线分析师 关键发现报告 一份详细的关于您数据安全风险的摘要,即使您没有成为客户,也是您可以保留的。 我们的专家将在您的评估期间监控您的数据,