AI智能总结
自2022年11月推出以来,ChatGPT重新定义了AI的使用,证明机器有时也能处理复杂的人机交互。ChatGPT在全球掀起了一场风暴,以其革命性的生成式AI用例吸引了众多行业。 这一切都源于Google的研究人员在2017年发布的一篇革命性论文《Attentionis All You Need》。快进到七年后,考虑到在ChatGPT发布仅两个月后,用户数量就达到了1亿,我们可能迎来了继互联网和手机之后的又一个拐点。 但伴随着这一切的发展,谁会关注安全呢?互联网的出现让人们意识到数字资产面临的威胁日益增加。这些威胁在智能手机时代进一步加剧。然而,AI的发展速度要比云计算或移动技术更快,这种快速发展使安全问题变得更加错综复杂。 定义 请注意,在本文的语境下,AI和生成式AI可以互换。所有提到的AI都是在生成式AI的情境下。 AI安全是一个更广泛的总称,包含两个组成部分: •AI为安全(AI for Security),即使用AI/机器学习模型来增强产品或安全运营方法的安全效力。•安全为AI (Security of AI),即在实践中保护LLM模型本身以及遏制未经许可使用AI应用(这可能会导致潜在的安全漏洞)。 现在我们已经清楚理解了定义,让我们澄清另一个重要方面:传统安全和AI安全之间的区别。通常,GenAI开发人员和用户都认为传统的安全控制足以保护AI模型。这是不正确的。虽然我们仍然需要传统的平台级控制和防护措施来保护运行这些模型的基础设施和使用这些模型的应用程序,但AI安全主要是为了增强模型的可信度,也就是我们所说的可信度态势。另一方面,传统的安全侧重于建立信任本身,也就是信任态势(想想零信任)。 让我们看看“安全为AI”世界中危害的分类。关于安全为AI,有两种分类:一种是“行为危害”,另一种是“信息危害”,有些是两者兼而有之。为了详细说明这些危害的构成,我们将偶尔结合并联动OWASP Top 10 LLM定义的攻击术语。 在这种分类下,为了便于理解和形成清晰的思维导图,我们对其中一些术语进行了重新排列。如果观察一下,根据意图,影子AI、敏感信息披露和供应链漏洞可以横跨信息危害和行为危害。 新的攻击面 在明确了定义和术语之后,我们开始深入研究Secure AI by Design,这是支撑“安全为AI”产品的主要支柱。 要详细了解Secure AI by Design产品,我们必须首先认识到典型的GenAI助力应用程序带来的安全挑战。这些挑战大致分为三类: 1.影子AI2.AI风险3.数据暴露 目前,人们对部署GenAI的恐惧、不确定性和疑虑主要围绕着数据暴露,但如果我们仔细观察,就会发现还存在一些其他威胁,例如影子AI和AI特有的风险。 让我们逐一深入探讨这些挑战。 影子AI 影子AI的主要挑战是缺乏AI目录盘点,这不仅加剧了无序扩张,还引入了未经许可的应用程序风险,导致企业在采用AI时缺乏治理。 让我们举例说明一些情境。绝大多数员工都在使用AI助力的生产力工具,而且往往是在IT管理员不知情的情况下使用的。这些工具在提高生产力的同时,也带来了风险。例如,使用笔记或会议助手工具的员工可能会无意中暴露会议中讨论的机密信息。这就凸显了确保此类应用程序安全的必要性。 AI风险 AI风险是指缺乏保护AI生态系统的治理政策,通常涵盖OWASP Top 10 LLM的整体范围。这种AI堆栈中的每个元素都会增加与供应链、配置和运行时威胁相关的风险。开发人员可能会使用不安全的模板或遭到破坏的库,从而引发供应链风险。此外,模型漏洞和错误配置也会对AI模型和相关工具产生负面影响。 数据暴露 数据暴露涉及到对AI开发管道缺乏可视性,而可视性对于防止数据暴露、外泄、训练数据中毒和OWASP Top 10 LLM中提到的无意识偏见是至关重要的。保护AI工作流程的通信渠道,谨慎授予权限,以及保护AI训练中使用的敏感专有数据,这些都是重中之重。让我们想象这样一个场景,开发人员使用一个漏洞百出的模型,无意中给企业带来了风险。此外,如果应用程序在云环境中配置错误,可能会导致敏感数据在互联网上无意中暴露,从而大大加剧潜在后果。 从AI使用的角度来看,让我们看看另一个敏感数据可能面临风险的例子。开发人员使用AI应用程序优化代码,但意外上传了密钥和API令牌以及一些特定的专有代码,导致重大数据泄露。这些情况都需要安全防护来保护敏感信息和监控使用情况,这样才能保证负责任地采用AI工具。 此外,在定义AI安全防护之前,评估当下企业中部署的GenAI整体成熟度并对用例进行分类也很重要。这种分类有助于定义针对GenAI的正确用例实施哪种类型的控制。在评估GenAI安全用例的整体成熟度时,我们可以分为两个主要类别。 第一类涉及使用触手可及的GenAI应用程序,即购买GenAI服务或使用AI。第二类围绕着如何开发利用AI功能的应用程序或如何在AI的辅助下构建。 GenAI的使用主要属于影子AI风险的范畴,而GenAI应用程序的开发可以归类为已识别的AI风险,数据暴露则是同时涉及这两类的一个重要问题。Gartner在其生成式AI部署方法中详细概括了这种能力的成熟度。 解决方案 传统的安全解决方案在用于AI安全控制时主要存在三个方面的缺陷: 1.对AI盘点目录的全面可视性 主要的挑战在于对AI应用程序格局的可视性,其中包括: •难以识别出完整的AI盘点目录。•妨碍了对AI应用程序、模型、插件和数据集之间数据流和关系的检测。•在企业IT环境中检测未经许可的第三方AI应用程序以及可能缺乏监控或控制的挑战。•增加了安全漏洞的风险,包括数据泄露。 2.细分AI应用 部署和细分AI应用的挑战导致了人工流程、风险控制薄弱以及流量细分不清晰,从而使AI应用容易被滥用。 3. AI特有的攻击 正如OWASP Top 10 LLM中强调的一样,缺乏对传统威胁和AI相关威胁的清晰理解和区分。这就需要一种全面的解决方案和有效的安全战略来保护AI使用、应用程序、模型和数据的方方面面。例如,AI发表有害、敏感或不准确的输出可以归因于上述任何AI采用领域。要弥补这一缺口,就必须如前文所述,确保AI系统的使用和开发都是安全的。 Palo Alto Networks实现AI安全的方法 Palo Alto Networks正在推出新功能来保护关键的企业AI安全用例。 在整个产品组合中嵌入Precision AI —以AI对抗AI 只有由机器学习助力的实时防护才能阻止对抗性AI(以对抗性方式使用AI)攻击企业的网络和数据。Palo Alto Networks一直在创新由AI助力的防御,希望识别和阻止AI生成的攻击—尤其是检测和防止多态威胁的加速。所有Palo Alto Networks平台—Strata、Prisma Cloud和Cortex—都通过行为分析和机器学习模型提供了近乎实时的检测和威胁预防。为了加强我们的产品组合,我们推出了Advanced DNS Security,这是业界首个通过对DNS流量进行内联AI辅助的分析,实时防止DNS劫持和其他接管攻击的功能。 Secure AI by Design AI Access Security AI Access Security™是一款全面的云交付安全解决方案,可通过降低数据和安全风险使员工能够使用第三方GenAI应用程序。这款解决方案可以帮助企业了解其AI应用程序的足迹,确保员工在企业工作空间环境中安全访问和使用经过许可的AI应用并洞察影子AI应用。 主要功能: •全面的GenAI应用目录:洞察600多种GenAI应用程序和增强功能,与GenAI的发展热潮保持同步。•AI特有的风险属性:洞察基于数据训练的AI应用。•情境化的数据控制:利用LLM辅助和情境感知的机器学习模型对300多个类别的数据进行分类。•将应用程序分为认可、容忍和不认可。•端点/浏览器控制:通过Prisma®Access浏览器集成,直接在设备上实施控制。 AI Runtime Security AIRuntimeSecurity™可以发现并保护AI应用程序、模型和数据免受威胁,而部署在云中的应用程序一直以来没有面临过这样的威胁。它可以发现整个AI应用程序生态系统,包括所有云环境中的应用程序、模型、数据集、用户、插件和互联网连接,并针对新出现的AI威胁守护这些应用程序。随着新AI应用程序的开发,AI Runtime Security将持续监控不断发展壮大的AI生态系统并保护这些应用程序。这种持续的发现使企业能够迅速应对新兴威胁、防止数据泄露并保护企业的基础设施免受潜在攻击。 主要功能: •发现AI生态系统:掌握AI应用程序如何与模型和AI生态系统的其他部分进行交互,揭示可能无法立即被察觉的隐藏互联。 •全面的AI生态系统安全:体验对应用与应用之间交互的无缝保护,包括入站、东西向和出站流量,以及应用程序、模型和推理数据集之间的流量。•保护AI应用和模型:利用最先进的Precision AI™助力的云交付安全服务(CDSS)来确保对已知和未知的恶意软件、基于AI的威胁、模型上的威胁或与恶意URL的任何交互实施稳健的防御,全面防范提示词注入攻击。 AI-SPM Prisma Cloud AI-SPM可帮助企业发现、分类和治理AI助力的应用程序。此外,AI-SPM还提供了对整个AI生态系统(包括模型、应用程序和资源)的可视性,降低数据泄露和违反合规性的风险。通过识别模型漏洞并确定错误配置的严重程度,AI-SPM可以提高AI安全框架的完整性。 主要功能: •对AI应用程序生态系统的可视性:自动发现所有AI模型、代理和相关资源,掌握涉及的AI助力应用程序和敏感数据。•AI模型风险分析:识别模型的错误配置和供应链漏洞,降低模型和应用程序的风险。•跨模型资源的数据安全:操纵模型数据可能会引入漏洞和偏见、暴露数据、导致数据隐私侵犯以及合规性和安全性风险。•AI溯源:识别并追踪应用程序中使用的AI组件和数据源的来源。 Unit 42 AI安全评估 通过Unit 42®提供的AI安全评估,为员工安全使用生成式AI和强化AI辅助的应用程序开发提供专家指导,积极应对AI相关的威胁。 利用AI简化安全工作 Palo Alto Networks推出了强大的Copilot功能,彻底颠覆了客户应对网络、云和安全运营中最新威胁的方式。有了世界上最大、最多样化的网络安全数据集,新的Copilot就可以利用GenAI,在PrecisionAI的辅助下通过提供丰富的洞察信息以及业内最准确的安全结果来简化安全工作。这大大减少了客户执行关键管理任务、获取问题的答案以及最终采取行动所需的时间,缩短了平均响应时间(MTTR)。 结语 对于每一家数字化企业客户来说,采用AI都是一次转型之旅,而确保AI安全则是一项战术和战略举措。我们必须认识到,将AI安全归类为标准的安全控制或采用“一刀切”的方法可能会带来重大风险。 Palo Alto Networks有能力在客户的转型之旅中提供指导,帮助客户以前瞻性的眼光驾驭这些错综复杂的问题,同时提供清晰、有见地的解决方案来满足客户的需求。 Palo Alto Networks是业内首批为AI安全问题赋予结构并制定明确规范的解决方案来帮助客户自信采用GenAI用例的公司之一。 想要进一步了解如何安全采用AI吗?单击此处。 免费咨询热线:400 9911 194网址:www.paloaltonetworks.cn邮箱:contact_salesAPAC@paloaltonetworks.com免费咨询热线:400 9911 194网址:www.paloaltonetworks.cn邮箱:contact_salesAPAC@paloaltonetworks.com © 2024 Palo Alto Networks, Inc.。我们在美国和其他司法管辖区的商标列表可