您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[2024年全球人工智能治理大会]:The Path to Responsible AI: Emerging Best Practices and Regulatory Perspectives - 发现报告

The Path to Responsible AI: Emerging Best Practices and Regulatory Perspectives

AI智能总结
查看更多
The Path to Responsible AI: Emerging Best Practices and Regulatory Perspectives

通往负责任人工智能之路:新兴最佳实践与监管视角 分组讨论 博亚娜·贝拉米主席,信息政策领导中心(CIPL) 迪特·库格尔曼教授德国莱茵兰-普法尔茨州数据保护和信息自由管理局主席 莱瑟博士助理教授,阿姆斯特丹自由大学,阿姆斯特丹法学院与科技研究所 凯特·查理特全球隐私、安全和安全政策负责人,谷歌 可问责的人工智能实践 讨论小组 -通往负责任的AI之路 构建可问责的人工智能项目:映射新兴实践与CIPL问责框架CIPL 纸业 2024 •提供具体实证证据从地面部署的可问责人工智能程序 •分享最佳实践和所学经验来自领先全球组织 •构建全球共识关于人工智能治理中的问责制 ••推动问责制作为一项有效策略。人工智能的负责任开发和部署。通知全球辩论关于人工智能监管,治理、监督和执法 责任人工智能项目与CIPL问责框架相对应 顶级责任机构十大发现 关于CIPL《可问责人工智能计划报告》的总体发现 多学科与多元化的团队是建设的基础并实施负责任的AI治理计划 组织是适应和更新他们的治理框架以解决新问题与风险,包括所增加的通过生成式AI(人工智能) 示例:负责任人工智能项目中的最佳实践 风险评估 •飞行员测试AI模型发布前尽职调查/自我评估清单为使用工具的商业伙伴• 翻译内部原则第三方协议•通过自动化/手动检查清理数据集在训练前 •“高层声音”为了展现对道德、价值观和特定人工智能原则的承诺人工智能/伦理/监管董事会/委员会•负责的人工智能领导者/官员•集中治理框架with团队内部的灵活性•多学科、跨职能人工智能团队 指定使用受保护数据在模型训练中 • 结合隐私、人工智能伦理或设计安全原则•内部术语表与人工智能相关的术语定义高风险人工智能审查与报告的升级步骤•构思阶段与所有相关内部利益相关者 透明度 培训与意识提升 • 专注于技术人员职业道德培训(例如,限制和解决偏差)•跨职能培训(例如:隐私专业人士和人工智能工程师)•激励合规在道德培训(例如,晋升、奖金、加薪)方面 • 编制人工智能案例研究• 定制化伦理与公平性培训 •为透明度措施量身定制不同受众/情境提供反事实信息资料表和模型卡片•分层透明度– 理解客户期望与基于他们的准备情况部署拥抱人工智能• 考虑无障碍需求基准测试机会、公共参与、监管沙盒 •纠葛解决机制旨在补救AI决策•内部监督关于人工智能部署通过人道途径实现补偿。不是一个机器人 •通信渠道内部(例如,员工)&外部(例如,最终用户、客户、监管机构)报告、反馈、投诉、请求 •持续监控、验证与核查在整个人工智能生命周期•闭环中人在设计、监管与纠正领域中人工审核输入与输出红队演习与对抗测试•监测数据生态系统• 理解在AI正在被部署•人工审核个体决策 interpreting and演变《通用数据保护条例》人工智能的背景 圆桌讨论——走向负责任的AI之路 政策与监管建议 圆桌讨论——走向负责任的AI之路 事情进展如何?(我们真的想知道) 您喜欢这次会议吗?我们是否有任何方法可以使它更上一层楼?请告诉我们您的看法,通过填写演讲者评估表。 打开Cvent活动应用程序。 2. 在搜索栏中输入IAPP AIGG24(区分大小写和空格)。 3. 点击底部导航栏上的“安排”。 4.找到此会议。在描述中点击“为本次会议评分”。 5.一旦回答完所有三个问题,点击“完成”。