您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[谷歌]:提供值得信赖且安全可靠的 AI - 发现报告

提供值得信赖且安全可靠的 AI

2025-03-01-谷歌亓***
AI智能总结
查看更多
提供值得信赖且安全可靠的 AI

作者:MarinaKaganovich、Rohan Kanungo和Heidi Hellwig 2025年3月 目录 风险评估数据治理依托企业真实数据为生成式AI接地隐私权安全性合规性开放式云平台和可移植性对环境的影响 章节03:最佳实践 治理使用限制安全性隐私权和数据治理掌握生成式AI最新发展动态 总结 简介 当今企业面临着一个关键挑战:在确保准确性、系统安全和数据安全的同时,实现AI落地。Google Cloud的生成式AI方案优先考虑满足企业需求,内置有强大的数据治理、隐私控制、知识产权赔偿和Responsible AI实践机制。我们提供保障AI安全所需的工具和服务,并提供数据主权方案,让客户能够放心地大规模部署模型。 为了最大限度地发挥AI创新的潜力,同时尽量降低风险,企业理应围绕AI的治理、安全性和公平性提出疑问。许多人还表达了对隐私权、透明度和可信度的担忧。 这就是Responsible AI的重要性所在。它带来巨大机遇,助力实现以下目标: 提升品牌声誉 提高客户互动度 提升长期盈利能力 强化产品价值和可信度 为AI法规做好准备 提高客户忠诚度和信任度 在本白皮书中,我们将探讨Google Cloud如何帮助企业实现这些好处。本白皮书介绍了我们如何以负责任的方式构建企业级生成式AI,以及在通过VertexAI平台开发生成式AI时,我们如何处理AI数据治理、隐私权、安全性和合规性问题。在本白皮书中,生成式AI是指使用AI来创作新内容,例如文本、图片、音乐、音频和视频,或者由多模态生成式AI实现的某种变体。 我们开发和利用AI潜力的方法立足于我们的初心:整合全球信息,供大众使用,让人人受益。我们坚信,我们的AI方法必须既大胆又负责任。大胆体现在快速创新上,并在突破性产品中部署AI,以供全球用户使用并从中受益,推动科学进步,加深我们对世界的理解,帮助人类应对最紧迫的挑战,并抓住重要机遇。负责任则体现在开发和部署AI时,既要满足用户需求,又要履行更广泛的责任,同时保障用户的信息安全、系统安全和隐私权。 我们还将这些价值观融入到了Google Cloud Platform使用限制政策 和生成式AI禁用政策中,以便透明、清晰地传达这些价值观。此外,我们还认识到,在AI方面,良好的个人实践和共同的业界标准,二者缺一不可。我们不断改进实践,开展行业领先的AI影响和风险管理研究,并评估新的AI研究和应用提案,确保它们符合我们的原则。我们持续迭代并重新评估在工作中践行问责制原则和安全机制的方式,并公布进展,以鼓励在此方面开展协作,共同进步。 确保AI值得信赖的核心要素: 隐私权 安全性 借助Google Cloud透明、全面负责的从设计上保障用户隐私的AI方法,坚持卓越的隐私保护标准。 要知道,Google Cloud会利用全面的安全控制举措和最佳实践为您实施AI提供保护。 数据治理 合规性 您可以控制数据的使用方式和使用场景,并且无需担心Google Cloud会使用您的数据来训练模型。 无论您在全球什么地方开展业务,GoogleCloud都能为您提供合规方面的支持,助您在不断变化的复杂合规环境中紧跟时代步伐。 负责任的创新 AI发展如此迅猛,我们如何才能在创新、可靠性和风险缓释之间取得恰当的平衡?在本章中,您将了解Google Cloud如何通过仔细考虑从风险评估和数据治理,到隐私权、安全性和合规性,以及可携性和减排等各个方面,采用负责任的方式来构建AI技术。 负责任的产品开发实践涉及多个方面。有些是技术方面的,包括评估数据集和模型是否存在偏见;有些与产品体验相关;还有一些涉及政策,从产品角度明确我们提供和不提供的内容。我们制定了一个由四个阶段组成的流程(研究、设计、治理和分享),以便审查项目是否符合AI原则,并与隐私、安全和合规等领域的专家合作。最初的研究和设计阶段鼓励创新,而治理和分享阶段则侧重于风险评估、测试、监控和透明度。 我们的研究借鉴了内部专业知识,参与研究的人员包括计算机科学家、社会科学家和用户体验研究人员。我们还会定期公布进展,以确保我们的工作公开透明,助力打造更安全、更负责任的产品,赢得并保持客户的信任,培养负责任的创新文化。 我们负责任的AI构建方式以我们的AI原则为指导,并以Google之前在保障平台用户安全方面的经验为基础。在构建生成式AI服务时,我们采用微调和基于人类反馈的强化学习(RLHF)等技术方法,大规模实施相关政策。此外,在用户输入提示以及模型提供输出时,都会启用其他分层保护措施。我们会持续根据用户反馈和监测结果,不断完善相关政策。将责任意识根植于产品的设计,还包括从一开始就将安全机制融入产品中。我们已经将这种方法编入安全AI框架(SAIF)。采用SAIF后,我们可以根据现有的安全知识,针对这些新威胁调整缓解措施,具体如下文所述。 与任何其他颠覆性的新技术一样,生成式AI也伴随着复杂性和风险,需要将其作为全面风险管理框架和治理结构的一部分加以管理。AI带来了一些关键问题,我们正在努力以负责任的方式构建AI,让AI造福我们的客户和我们业务所及的更广泛的社会群体。挑战在于,如何以适当且适合的方式来降低风险,并推广可靠、稳健且值得信赖的AI应用,同时仍要推动创新,实现AI造福社会的愿景。 Responsible AI理念已融入我们工作的方方面面。在构建AI技术方面,我们采用原则性方法,致力于制定和实施严格的安全措施,同时将隐私保护原则贯彻到AI的开发和使用中。我们认识到,严格的评估对于构建成功的AI至关重要,因此针对我们打造的AI产品,以及早期阶段与客户共同开发的机会,我们都会让专业团队进行分析和风险评估。 风险评估 对于每个组织来说,是否利用生成式AI取决于很多问题,其中最突出的一个是:如何帮助组织利用AI的力量,同时尽量降低风险?Google Cloud通过多种方式帮助客户解答这个问题。 在AI产品开发期间进行全面审核 我们会在模型层面以及将模型集成到产品或服务时,识别和评估潜在风险。我们的社会技术方法会考虑AI将如何与世界和现有的社会系统互动,并评估在首次发布时以及随着时间的推移可能产生的潜在影响和风险。审核人员明白,模型层面和应用层面的潜在风险与影响可能有所不同,并会相应地考虑缓解措施。我们会借鉴各种信息来源,包括学术文献、外部和内部专业知识,以及我们内部的伦理与安全研究成果。 模型的不公开版本 这使我们的产品团队能够在发布正式版之前收集宝贵的反馈意见。采纳反馈意见后,我们会更新产品文档,体现所做的所有变动。此文档通常会提供模型的已知限制,并可能包含服务专用条款,以进一步指导客户正确使用我们的产品。Google Cloud会继续投资打造各种工具来为客户提供支持,其中包括Vertex的Explainable AI、Model Fairness、Model Evaluation、Model Monitoring和Model Registry,可支持数据和模型治理。 应对潜在风险的缓解策略 这些策略适用于在产品正式发布(GA)之前发现的任何风险,并且可以采取多种形式。例如,对于生成式AI产品,缓解措施可能包括利用技术方法在开发过程中评估并改进模型,建立政策驱动的安全防护措施,或者提供工具,让客户在自己的项目中进一步加强安全性。政策限制通常以相关的使用限制政策、服务条款和隐私权限制为指导,具体如下文的AI数据治理和隐私权部分所述。 企业可以通过以下方式进一步降低采用AI的风险: 可自定义的技术控制措施 ,例如安全过滤器,这些过滤器可以屏蔽违反政策指南(例如涉及儿童安全的指南)的模型回答。客户可以利用安全属性来创建安全过滤器,这些安全属性包括“有害类别”和可能被视为敏感的主题,例如“毒品”或“诋毁性内容”。 可调整的屏蔽回答阈值,帮助企业根据自己的业务需求及政策来控制内容。例如,可以根据概率和严重性级别来配置安全设置。 用于更好地了解和控制AI模型的工具 。例如,客户可以使用与我们的安全过滤器中的模型类似的模型,通过我们的文本审核服务来扫描整个训练集数据语料库,查找属于预定义的“有害类别”的字词和可能被视为敏感的主题,从而确保持续合规。 Google推出的负责任生成式AI工具包 ,该工具包可提供指导及多种工具,帮助开发者使用这些新的开放模型创建更安全的AI应用,包括如何设置安全政策以及构建强大安全分类器的方法。 Vertex AI上的 模型评估,其中包含的指标可用于了解模型性能,以及使用常见的数据偏差指标和模型偏差指标来评估潜在偏差 。这些工具可以在训练期间以及日后评估数据和模型输出,突出需要关注的领域并提供补救建议,从而促进公平性。 Explainable AI工具和框架 ,可帮助您理解和解释机器学习模型作出的预测,这些工具和框架已与许多Google Cloud产品和服务原生集成。 此外,我们的模型卡片中心提供了有关API模型、开放模型和大语言基础模型的文档,详细阐释了模型的优点和局限性。 数据治理 Google Cloud绝不会使用客户数据来训练自己的模型 每个企业都希望确保其差异化数据保持私密性并受到保护。然而,在企业环境中使用生成式AI可能会带来各种风险,包括准确性、隐私权和安全性、法规遵从和知识产权方面的风险。与其他形式的数字创新一样,创建可重复的程序化结构有助于以一致的方法来评估AI应用场景。 虽然我们会处理客户数据以提供服务,但未经客户事先许可或指示,我们不会使用客户数据来训练基础模型。 为了确保在开发和部署生成式AI时考虑到数据隐私权承诺,我们实施了严格的数据治理审核流程。我们经常会被问到的一个问题是,我们的基础模型是否会基于客户数据进行训练,以及客户数据是否会因此而暴露给Google Cloud、Google Cloud的其他客户或公众。 客户始终可以控制其数据的使用方式和使用位置 Vertex AI上的基础模型是为处理一般应用场景而开发的。客户可以使用我们的调参API针对特定应用场景自定义基础模型。这种方法结合了我们的研究成果和产品开发专业知识,能够实现出色的AI功能,同时不会影响客户对其数据的控制权。 就此问题,我们在下文概述了模型调优和部署以及数据治理做法的一些关键方面。如需了解详情,请参阅我们关于基础模型调整的白皮书。 输入数据(包括提示和适配器权重)保持私密 这些数据被视为客户数据,在各个环节都得到安全存储,在静态存储时和传输过程中均进行加密。客户可使用客户管理的加密密钥(CMEK)来控制所存储适配器权重的加密信息,并可随时删除适配器权重。未经客户许可,我们不会记录用于训练适配器模型的客户数据,也不会将这些数据用于改进基础模型。 依托企业真实数据为生成式AI接地 为了充分发挥生成式AI的功能,企业必须利用自身的系统和最新数据来为基础模型接地。在Google Cloud,我们将这些实时信息称为“企业真实数据”。 利用企业真实数据为基础模型接地将显著提高回答的准确性和完整性,解锁独特的应用场景,并为使用高级AI智能体奠定基础。这有助于: 通过数据真实性建立信任 使用真实可靠的数据可大幅提高模型输出的可信度,进而促进用户建立对模型能力的信任和信心。赢得用户信任后,就有机会实施更敏感的任务关键型应用场景,并为下一代AI智能体奠定基础。 提高数据相关性 模型能够提供与特定背景直接相关、更具参考性、更准确细致的输出。这对于需要专业性或细节的应用特别有用。 减少幻觉 生成模型会从统计关系中学习,有时会生成看似合理但实际并不符合事实的输出结果。接地可确保模型将其回答与可验证的事实进行交叉对比。GoogleCloud客户可获得业内首创的赔偿保障,这意味着,如果客户因我们使用的训练数据或他们生成的容的版权问题而受到质疑,我们将承担由此带来的潜在法律风险。 将生成式AI用于实际任务 模型是基于某个时间点的数据进行训练的。如需将生成式AI应用