您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[奥斯勒霍斯金哈考特律师事务所]:加拿大人工智能:开发和使用人工智能法律指南 - 发现报告

加拿大人工智能:开发和使用人工智能法律指南

AI智能总结
查看更多
加拿大人工智能:开发和使用人工智能法律指南

人工智能开发与使用法律指南 目录 引言 人工智能(AI)正在改变我们周围的世界。曾经看似科幻的东西,正日益成为我们日常生活的一部分。从生成对复杂问题的答案,到提升医疗保健服务的提供,以及其中的方方面面,AI正在深刻地改变我们的工作方式和生活模式,同时为创新、生产力提升和经济增长创造前所未有的机遇。然而,随着AI的变革潜力而来的是一系列复杂的法律和监管挑战,AI工具的开发者和使用者必须谨慎应对。 本指南旨在为参与人工智能系统开发、部署和使用的组织及个人提供实用、以商业为导向的路线图。它涵盖了人工智能生态系统中产生的多方面法律和运营问题,提供见解和可行的策略以降低风险、确保合规性并促进对人工智能技术的信任。通过关注实际应用和特定环境——例如就业、医疗保健、资本市场、法律服务和公共部门——本指南旨在为人工智能的开发者和使用者配备必要的知识和工具,以便在快速发展的技术环境中做出明智的决策。 指南中解决的关键问题 本指南探讨了与人工智能负责任开发和使用相关的广泛议题,包括: • 人工智能监管与标准:理解新兴监管框架、行业标准及最佳实践,以确保合规并促进问责制。 • 版权:解决关于人工智能生成作品的所有权以及使用公开可用数据训练模型的问题。 • 隐私:应对隐私法律,重点关注收集和使用个人信息、数据最小化及隐私影响评估的法律依据。 • 人类权利考量:确保人工智能系统防止偏见和歧视,并促进透明度和问责制。 • 侵权责任与风险管理:评估与人工智能错误、失败及危害相关的责任风险,并实施策略以降低风险敞口。 • 反垄断与竞争法:评估人工智能技术的竞争影响,包括有关价格卡特尔、串通及其他反竞争行为的问题。 • 商业合同:起草解决人工智能特定问题的合同,例如知识产权、监管合规及风险分配。 特定上下文的指导 随着人工智能带来的挑战和机遇在不同行业和部门中有所不同,本指南旨在为关键应用领域提供定制见解: • 就业:管理人工智能在招聘、绩效评估和工作场所监控中的应用。 • 医疗保健:利用人工智能提供医疗保健以及开发和部署医疗器械。 • 资本市场:利用人工智能进行算法交易和风险评估。 • 法律服务:部署人工智能以提升法律服务交付水平,同时解决专业责任、特权和保密问题。 • 公共部门:在政府服务交付中实施人工智能,包括通过部署自动化决策。 一种实用、前瞻性的方法 这份指南并不仅仅是关于人工智能相关问题的理论探讨,而是一个旨在帮助组织和个人应对人工智能开发和使用复杂性的实用工具。无论你是人工智能系统的开发者、内部律师,还是希望将人工智能整合到运营中的领导者,这份指南都为你提供了丰富的见解,以帮助你应对人工智能的各种法律和监管挑战,同时释放人工智能的全部潜力。 加拿大人工智能概述 需要了解的事务 • 加拿大长期以来一直处于人工智能发展的前沿,并被公认为该领域的全球领导者。杰弗里·辛顿(Geoffrey Hinton)、约舒亚·本吉奥(Yoshua Bengio)和扬·勒昆(Yann LeCun)——被誉为“人工智能之父”——在加拿大取得的开创性工作为许多现代人工智能创新奠定了基础,包括人工神经网络、深度学习和强化学习。加拿大在全球人工智能研究方面持续排名靠前,始终位居全球人工智能指数(Global AI Index)第四名。 • 加拿大全员人工智能战略和加拿大主权人工智能计算战略,于2024年发布,强调了加拿大致力于促进国内人工智能创新和发展的承诺。2024年加拿大人工智能安全研究所的启动,也加强了加拿大对人工智能安全发展和部署的承诺。 • 同时,加拿大培养世界领先的人工智能生态系统的雄心创造了巨大的机遇,但在加拿大开发、分发或部署人工智能系统时,理解加拿大的规范、标准和监管框架至关重要。 待办事项 • 在加拿大环境中,对人工智能形成高层次的理解。 • 评估参与加拿大人工智能市场的机遇和风险,包括与数据隐私、知识产权保护、歧视和产品责任相关的挑战。 • 制定满足负责任监管新标准的治理计划人工智能和确保采购符合加拿大法律法规的要求人工智能的采纳、发展和部署。 • 与加拿大法律和行业专家合作,以应对地域特定实现您组织目标的考量事项。 有用资源 • “加拿大人工智能总体战略,” 创新、科学和经济发展的加拿大,2024年12月 • “加拿大主权人工智能计算策略,” 创新、科学和经济发展加拿大,2025年5月 •“加拿大启动加拿大人工智能安全研究所,” 创新科技以及经济发展加拿大,2024年11月12日 •“奥斯勒人工智能系列:关于这项技术、常见及新兴应用、机遇的入门指南和挑战,“由奥斯勒主持的网络研讨会,2023年3月7日 加拿大对人工智能的监管 需要了解的事务 • 加拿大没有设立专门针对人工智能模型和系统的通用监管框架的法律。该法案包含了加拿大提议人工智能与数据法案(AIDA)于2025年1月6日议会休会时在订购文件上死亡。 • 创新科学与经济发展部发布了一份适用于具有高级功能、能够适应不同环境中各种用途的生成式人工智能系统的自愿行为准则。成为该准则签署方的高级生成式系统开发者和管理者在问责制、安全、公平与公正、透明度、人类监督与监测,以及有效性和鲁棒性方面做出承诺。 • 存在多项普遍适用的法律,规范着AI模型和系统的开发与使用中的特定要素。相关法律包括: ⸰联邦和省级隐私法,这些法规在人工智能模型训练和输出生成的背景下规范个人信息的收集、使用和披露。魁北克的隐私法还包括适用于自动化决策系统的附加规则 ⸰与训练数据集的产生、人工智能模型的训练以及模型输出的产生相关的版权法 ⸰联邦和省的人类权利法,这些法律禁止在特定环境中(包括就业和提供商品、服务、设施和住所)基于列举的理由(包括种族、肤色和性别)进行歧视 ⸰侵权法(魁北克民法典中类似的条款)要求组织或个人对其疏忽造成的损害负责,包括他们创造或部署的产品。其他可能相关的侵权行为包括诽谤、虚假陈述、故意造成精神痛苦、使他人身陷虚假境地,以及非自愿传播私密图像 ⸰控制可能防止或减少竞争的协议、行为和交易的竞争法,鉴于人工智能可能促进垄断行为(如勾结和误导性营销),已被认定为是一个关键的关注领域 ⸰劳动法,它规范了人工智能在招聘、监控、绩效评估和终止等就业环境中的使用 • 针对特定行业的 AI 模型和系统使用要求也存在,包括与以下方面的联系: ⸰金融服务(例如,金融机构总监办公室关于模型使用的指南) ⸰资本市场(例如,加拿大证券的员工通知和咨询) ⸰⸰运输(例如,适用于自动驾驶测试和使用的法规)公共道路上行驶的车辆)法律服务(例如,省律师协会发布的适用于使用律师生成的AI)⸰公共部门实体(例如,联邦机构使用生成式人工智能指南) 待办事项 • 确定所有可能适用于您的 AI 模型或系统开发或使用的现有法律和监管指南。 • 监测联邦、省和市各级政府的立法进展,以确定可能适用于您的活动的监管要求。 • 监测监管机构的指南、指令和决定,以了解管理 AI 模型或系统开发或使用的规则。 • 考虑其他司法管辖区的法律(例如欧盟的人工智能法案)可能适用于您的AI相关活动。 有用资源 • “负责任开发与管理高级生成式人工智能系统的自愿行为准则,”创新、科学和经济发展加拿大,2023年9月•”中小组织的人工智能伦理设计与使用,”数字治理委员会,CAN/DGSI 101:2025 • “人工智能与竞争 – 讨论文件,加拿大竞争管理局,2024年3月 •“关于人工智能与竞争的咨询:我们听到的声音,”加拿大竞争局,2025年1月27日 AI标准 需要了解的事务 • 在缺乏立法指导的情况下,标准对于指导负责任的人工智能发展、部署和使用至关重要。 • 标准制定机构正在迅速制定多种适用于人工智能的标准。最突出的包括: ⸰ISO/IEC 42001– 信息技术 — 人工智能 — 管理体系,人工智能管理体系的第一国际标准。 • ISO 42001为在整个组织内嵌入负责任的AI实践提供了一系列控制措施。 ⸰ISO/IEC 23894– 信息技术 — 人工智能 — 风险管理指南,一个管理人工智能风险的国际标准。 • ISO 23894 – 信息技术 — 人工智能 — 风险管理指南 — 支持基于生命周期的风险评估和风险沟通策略。 ⸰NIST人工智能风险管理框架1.0[PDF] – 美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》,是跨人工智能生命周期的风险管理体系。 • NIST AI RMF 指南描述了为达成风险管理框架中概述的结果而采取的行动。 • 加拿大政府的《关于负责任地发展和管理先进生成式人工智能系统的自愿行为准则》,于2023年10月发布并在2025年扩展,鼓励组织承诺安全、透明、问责、公平和人类监督等关键原则。 ⸰行为自愿准则区分了开发先进生成式人工智能系统的组织和那些管理或部署它们的组织,并为每种情况设定了不同的期望和承诺。 ⸰2025年3月,联邦政府发布了《人工智能系统管理指南》,为实施《自愿规范》提供了一个有用的实用工具。 待办事项 • 了解标准的内容以及哪些标准部分适用于您的特定人工智能开发和使用。 • 需要考虑遵循领先的全球人工智能标准,在政策制定和有效、负责任的人工智能开发与部署方面的合同中所能发挥的作用。 • 在采购和签订人工智能工具合同时,考虑利用这些标准来创建围绕人工智能有效性和负责任部署的责任。 • 考虑是否遵循、采纳或签署加拿大政府的《人工智能自愿行为准则》对您有利。 • 在政策、合同和采购要求中建立灵活性,以考虑不断发展的标准。 有用资源 • 国际标准: ⸰ISO/IEC 42001 – 人工智能管理系统⸰ISO/IEC 23894 – 人工智能风险管理⸰美国国家标准与技术研究院人工智能风险管理框架(人工智能风险管理框架1.0) • 加拿大框架和指南: ⸰中小组织人工智能的伦理设计与应用,CIO战略委员会,CAN/DGSI 101:2025⸰生成式人工智能行为准则⸰人工智能系统管理人员指南(2025)• 评论和指导:⸰“ISO/IEC 42001 在人工智能治理中的作用,” 奥斯勒,2024年7月10日 应用及符合外国法律 需要了解的事务 • 各地正越来越多地规范人工智能。对于在全球运营的公司而言,跨境合规至关重要,尤其是在人工智能系统可能被不同分类(例如,在欧盟被归类为“高风险”,但在加拿大则不被归类)的情况下。 • 欧盟的人工智能法案是全世界第一个全面的AI法规。它引入了基于风险的框架。一些AI系统和实践被禁止,针对已确定的“高风险”AI系统和通用AI模型适用具体规则,而对某些被认为风险较低的系统适用透明度要求。该法规将于2025年2月至2026年8月期间分阶段实施。2025年7月10日,欧盟委员会发布了《通用实践指南》,这是一个自愿工具,旨在帮助通用AI模型的开发者遵守该法案。 • 美国人工智能政策仍处于碎片化状态。虽然存在一些针对特定领域的规则,但还没有广泛适用的联邦人工智能法律。虽然一些州法律已经通过,但国会正在考虑通过一项长达10年的州级人工智能立法暂停令。 • 加拿大一直是人工智能领域的各种国际倡议的积极参与者,包括创建强调人权、问责制和互操作性的标准。这些倡议包括: ⸰经合组织的关于人工智能的理事会建议书(该建议书制定了首个针对人工智能的政府间标准,成员国将使用该标准来塑造政策并跨地域创建人工智能风险框架) ⸰联合国教科文组织关于人工智能伦理的建议(解决伦理问题的) • 加拿大是欧洲理事会人工智能框架公约的创始签署国,该公约是首个具有法律约束力的关于人工智能的国际条约,重点关注人权、民主和法治。 待办事项 • 确定您的AI系统是在何处开发、部署或销售的,并判断您是否受到欧盟AI法案、美国行业性法律或条约项下的义务等外国监管制度的影响。 • 在与第三方人工智能开发者或供应商签订合同时,应考虑人工智能采购标准和示范条款,并考虑参考