您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[2024年全球人工智能治理大会]:Develop a robust AI safety and governance plan - 发现报告

Develop a robust AI safety and governance plan

AI智能总结
查看更多
Develop a robust AI safety and governance plan

构建人工智能安全与治理程序 欢迎及介绍 杰克·伯科夫斯基CDO Thibaut Roisin总经理,安全部门 人工智能生成(Gen AI)在各个行业中的年度潜在影响 26-44 兆美元 来源:麦肯锡公司 到2026年,实现人工智能(AI)运营的组织透明度、信任与安全性将使他们的AI模型实现50%关于采用方面的改进。商业目标与用户接受度。 但同时也重塑了威胁格局 人工智能通用(Gen AI)预计将推动增长。 人工智能感知网络优势在攻击者与增强防御之间(来源:2024年全球网络安全展望,n=120) 7%预测生成式AI将提升全球国内生产总值在接下来7%以上十年(来源:《2024年全球网络安全展望》) 最令人担忧的是通用人工智能对安全的冲击。 负责任的人工智能 对于任何企业,负责任的人工智能意味着采取有意行动来设计、部署和使用人工智能以创造价值在构建时信任并且保护来自人工智能的潜在风险。负责任的AI始于一套AI治理原则,企业采纳并执行这些原则。 Gartner调查:您最担忧哪些生成式人工智能的风险? 发现人工智能模型 评估人工智能模型风险 绘制数据+人工智能流程 实施数据+人工智能控制 坚信地合规 架起桥梁——从恐惧到赋权 •完全透明地了解您的AI系统。•人工智能风险意识中的清晰可见性•关于人工智能数据处理清晰度•在AI模型和AI交互周围提供足够的保护。•与人工智能监管合规性轻松应对导航 拥抱人工智能治理确保了财务收益、声誉提升和明智的商业决策。 第一步。发现与目录化AI模型 发现和编目在公共领域使用的AI模型云、SaaS应用程序和私有环境。 •自动发现所有活跃的AI模型公有云包括生产环境和非生产环境中的那些。 •收集人工智能模型的详细信息在您的[ ]内运营SaaS应用程序并通过评估进行内部项目。 •列出所有人工智能模型在整个环境中呈现,确保对AI景观的每个方面都具有可见性,包括影子AI。 步骤2. 评估与分类人工智能模型风险 评估与IaaS和SaaS相关的数据和AI模型的风险,并按照全球监管要求对AI模型进行分类。 •评级涵盖流行的开源和商业AI模型 ●毒害/恶意性●偏差●效率(例如,训练能源消耗、推理运行时间)●版权考虑●虚假信息/幻觉风险 •对人工智能系统进行分类。并且按照分类进行模型划分由全球监管机构施加。 将AI模型连接到数据源,数据处理路径、供应商、潜在风险、合规性义务,并持续监控数据流动。 •建立关于人工智能模型的全面背景上下文。将人工智能系统和相关数据源、数据处理路径、供应商、潜在风险进行匹配。合规义务。 •追踪数据的旅程通过您的AI生态系统,在这些问题实际显现之前,揭示隐私、安全和伦理风险。 •人工智能助手、人工智能机器人以及人工智能代理将成为焦点。外部攻击、恶意内部使用及配置错误。 •安全控制与人工智能模型交互,使用Securiti LLM防火墙进行提示和数据检索。 第5步:遵守规定 检查符合全球人工智能标准(例如)国家航空航天与技术研究所的AI风险管理与联邦机构等。站在趋势前端。在持续的合规性评估中,降低法律和声誉风险。 •独具匠心的全球人工智能法规全面库 •自动化符合性检查,针对与全球人工智能法规相关的技术控制,包括NIST AI RMF、欧盟AI法案、数据与AI法案、AI法案等。 •AI ROPA报告 我的安全诊断工具,用于保障人工智能安全。 快速识别影子人工智能并评估人工智能风险,以保障数字核心安全并加速负责任的人工智能发展。 我的安全诊断 结果: 安全通用人工智能的建议 AIGovernance.center 人工智能治理认证 资源应对新兴法规与人工智能治理。 全球领先者IDC MarketScape:数据隐私合规软件 事情怎么样了?(我们真的想知道) 您喜欢这个环节吗?有没有什么方法可以使其变得更好?让我们通过填写演讲者评估表进行了解。 1.4. 寻找本节课。在描述中点击“对本节课评分”。在搜索栏中输入 IAPP AIGG24(大小写和空格敏感)。一旦回答完所有三个问题,点击“完成”。点击底部导航栏上的“安排”。打开Cvent活动应用程序。