发展背景
AI 技术的广泛应用带来了巨大的机遇,但也引发了信任危机。算法安全风险、算法不透明性、数据歧视、责任界定困难以及数据滥用等问题,导致公众对 AI 的可靠性产生怀疑。全球范围内,各国政府和学术界高度重视可信 AI 的发展,并提出了相关原则和标准。
可信 AI 框架
可信 AI 框架包括五个核心要素:可靠性 & 可控性、透明度 & 可解释性、数据保护、问责制和多样性 & 包容性。该框架从企业级和行业级两个层面提出了实现可信 AI 的方法,包括建立企业文化、完善管理机制、嵌入研发和应用全流程、制定标准、进行评估和验证以及建立合作机制等。
支持技术
可信 AI 的关键技术包括:
- AI 系统稳定性技术:对抗攻击、后门攻击等安全风险,需要通过异常数据检测、对抗训练、模型剪枝等方法进行防御。
- AI 可解释性增强技术:通过可视化技术、影响函数、Grad-CAM、LIME 等方法,提高 AI 模型的可解释性。
- AI 隐私保护技术:采用差分隐私和联邦学习等技术,保护用户隐私数据。
- AI 公平性技术:通过数据预处理、算法优化和输出调整等方法,减少 AI 模型的决策偏差。
企业级实践
企业需要将可信 AI 纳入企业文化,完善管理机制,并将可信 AI 要求嵌入到 AI 系统的研发和应用全流程中。具体措施包括:
- 建立可信 AI 团队和管理制度
- 在研发和测试阶段,提高 AI 系统的可靠性、可解释性和数据保护能力
- 在运营和服务阶段,做好 AI 系统的解释和风险监控
行业级实践
行业需要建立可信 AI 标准体系,开展第三方评估和验证,探索市场化保险机制,并建立沟通合作平台,共同打造可信 AI 生态系统。
建议
- 加快中国 AI 监管和立法进程
- 学术界进行系统性、前瞻性的布局
- 企业根据业务发展,实现敏捷可信
- 行业组织建立沟通合作平台,打造可信 AI 生态系统