
生成式人工智能(AI)工具正在被许多企业和组织迅速采用,用于内容生成。这些工具既代表着协助业务运营的重大机遇,也由于当前的不确定性,包括知识产权(IP)问题,而带来了重大的法律风险。 许多组织正在寻求制定指导方针,以帮助他们的员工减轻这些风险。虽然每个商业状况和法律环境都将独特,但以下指导原则和检查清单旨在协助组织了解知识产权风险,提出正确的问题,并考虑潜在的保护措施。 生成式人工智能引入了众多风险和问题。企业和组织应考虑实施适当的政策,并为员工提供关于这项技术机会和局限性的培训。这种主动的方法对于应对生成式人工智能使用过程中遇到的挑战至关重要。 什么是生成式人工智能? 生成式AI工具可以根据用户的提示创建新的内容,例如文本、计算机代码、图像、音频、声音和视频,例如对所需输出的简短书面描述。当前生成式AI工具的例子包括ChatGPT、Midjourney、Copilot和Firefly。 生成式AI基于机器学习,生成式AI工具的使用是通过大量数据进行训练,通常包括数十亿页面的文本或图像。根据AI工具开发者的方法,训练数据集可能包括自由可用的无版权信息(纯数据)、受保护的数据(如受版权保护的作品)或者二者的混合。 训练的AI工具随后由人类输入触发,执行一系列复杂的计算,通常涉及数十亿次的运算,以确定输出结果。通常无法预测输出结果,也无法确定训练数据中的某些部分在多大程度上影响了产生的输出。 概述问题 各国政府和监管部门正在考虑为生成式人工智能制定新的法律、法规、政策和指南。这些新规定可能对使用生成式人工智能的企业和组织提出要求。在中国,具体的规定已经生效,而欧盟计划不久后实施相关法规。 监管环境的变化 这份问题清单并不详尽,可能还包含许多其他挑战,包括训练和使用生成式AI的高能耗特性。 许多国际组织,如联合国教科文组织(UNESCO)、经济合作与发展组织(OECD)和全球人工智能伙伴关系(Global Partnership on AI),已发布关于人工智能负责任使用的通用原则指南。企业和组织应考虑实施针对生成式人工智能的员工政策和培训,以鼓励负责任的实验和使用。 生成式人工智能与知识产权 生成式AI拥有许多知识产权接触点和不确定性。虽然完全消除这些知识产权风险是不可能的,但以下考虑因素可能对在这个不断发展的技术领域中进行知识产权考虑的企业和组织有所帮助。 保密信息 机密信息是指未公开的信息,可能或可能没有商业价值,以保密方式传达,并且得到合理保护的信息。它包括商业机密,这是一种具有(潜在)经济价值或因秘密性质而提供竞争优势的机密信息。 企业和使用生成式AI工具的组织可能会无意中泄露商业机密或在商业敏感信息中放弃保密性,如果此类信息被用于训练或提示AI工具。他们应考虑实施一系列技术、法律和实践保障措施,以防止这种情况发生。 风险 缓解措施 生成式AI工具可能基于用户的提示进行保存和训练。如果用户在提示中包含机密信息,可能会泄露机密性,因为AI供应商拥有该信息的副本,此外,这些信息可能成为模型的一部分,并且与公众分享给其他用户的输出中也可能包含这些信息。 检查生成式AI工具的设置,以最小化提供商存储或使用您的提示进行训练的风险。 考虑使用运行和存储在私有云上的生成式人工智能工具。 检查人工智能工具提供商是否会存储、监控和审查您的提示。从提供商那里寻求关于任何机密信息的适当保护和保证。 当企业和组织从头开始训练生成式AI工具或使用其机密信息微调现有工具时,存在信息被公众获取的风险。 限制对使用机密信息的生成式AI工具的访问,仅允许有权限访问该信息的员工使用。 黑客可能能够利用“提示注入”等技巧提取训练数据,包括机密信息。 实施员工政策,并提供关于在提示中包含机密信息风险的培训。 私人生成式AI工具的提供商可能会监控和存储提示,以检查不当使用。在某些情况下,提示可能会由提供商的员工进行审查。 考虑让信息安全专家审查和监控生成式人工智能工具。 知识产权侵权 许多生成式AI工具是在由知识产权(IP)保护的巨大数量(有时是数十亿)的项目上训练的。目前存在多个正在进行中的法律纠纷,指控从训练AI、已训练的AI模型及其输出中抓取和使用这些作品构成侵权。这些案件主要关注版权和商标,但理论上可能涉及其他知识产权,如工业设计、数据库权利和专利发明。 关于人工智能工具、其训练、使用及其输出是否构成知识产权侵权,存在着重大的法律不确定性。答案可能因司法管辖区而异。企业和组织应考虑通过使用符合知识产权要求的工具、在可能的情况下寻求赔偿、审查数据集以及实施技术和实际措施来降低侵权发生的可能性。 全球范围内尚有诉讼悬而未决,旨在确定使用受知识产权保护的项目进行人工智能训练、使用这些训练的人工智能模型及其产生的输出是否构成知识产权侵权。 考虑使用仅在许可、公共领域或用户自己的训练数据上训练的生成式AI工具。 在选择AI工具时,考虑是否有提供商愿意提供针对知识产权侵权,尤其是版权侵权的赔偿担保。评估赔偿范围和适用性。例如,保护可能仅限于第三方补偿,并取决于遵守合同限制和实施风险缓解措施。 风险不仅限于AI开发者,还可能扩展到生成式AI工具的用户。在许多国家,对各种形式的知识产权侵权责任,例如复制版权作品,并不取决于被指控侵权者的意图或知识。 在训练或微调生成式人工智能时,彻底审查数据集。验证知识产权所有权、AI训练的许可覆盖范围以及符合创意共享许可证。 法院尚未解决生成式AI的开发者、提供商、客户和用户是否可以因知识产权侵权、支付赔偿金以及销毁侵权物品而承担责任的问题。 模型或输出。法院是否会认为禁止使用在受知识产权保护的项目上训练的AI模型是成比例的,尚不明确。 或公共领域状态。确保在目标司法管辖区内适用版权例外规定的舒适度。 请注意,监管机构正在考虑实施披露使用于模型训练的知识产权保护项目的详细信息的义务。考虑保留记录文档,以证明人工智能模型是如何被训练的。 关于潜在的版权侵权问题,一些国家的知识产权法包括可能适用于生成式人工智能的例外情况,例如合理使用、文本和数据挖掘以及临时复制。然而,各国之间的缺乏协调以及这些例外情况在生成式人工智能中的尚不明确的适用性引入了不确定性。 实施员工政策和培训以最大限度地减少产生侵权输出的风险。建议避免提及第三方企业名称、商标、版权作品或特定作者/艺术家。 即使法院已经作出裁决,这些裁决也可能取决于案件的具体情况以及国家法律的规定。 请考虑在使用输出之前采取检查侵权行为的措施。这可能包括抄袭检测器、图片搜索和自由操作的审查。 评估基于情境的缓解措施、相关成本和商业风险。 开源义务 AI生成的代码可能受到开源义务的限制。当一个软件应用程序或代码是开源的,这意味着源代码可供公众获取,用户通常被授予使用、修改和分发软件的某些权利和自由。然而,这些权利和自由伴随着用户必须遵守的义务,例如署名,这些义务根据管理软件的具体开源许可证而有所不同。 企业和组织应考虑此风险是否适合其代码,调查潜在的责任保险,并实施技术和实际措施以降低开源义务发生的可能性。 风险 缓解措施 生成式AI可以在符合开源要求的情况下接受代码训练,这可能违反了诸如商业使用或归属限制等义务。美国对此存在持续的法律争议。 考虑从仅在对许可示例进行培训的提供商处获取生成式AI工具或实施技术保障措施,例如检测相关的开源许可。 考虑从提供开源侵权赔偿保证的供应商那里采购生成式人工智能工具。检查保护的范围和适用条件。 一些开源许可证规定,任何包含开源代码的代码都需遵守同一开源许可证的要求。因此,整合AI生成代码的用户可能会无意中将开源义务引入其项目中。 在训练或微调生成式AI工具时,务必彻底审查训练数据,确保其拥有足够宽松的许可。 采用风险收益方法来使用编程中的生成式人工智能。如果确保代码无开源义务至关重要,考虑禁止供应商和员工在这些项目中使用生成式人工智能。 深度伪造:肖像权和声音权 相似性和声音在许多国家受到保护,尽管这种保护并未实现一致化。保护形式包括某些知识产权(如普通法国家的商标侵权)、反不正当竞争法、人权、宪法权利和公开权利。 生成式AI具有模仿特定人物的外貌或声音的潜力,一些工具明确为此目的而设计。企业和组织应考虑此类功能相关的风险。 缓解措施 风险 建立一个员工政策,并明确提供培训以限制使用“深伪”生成式人工智能工具。对于批准使用的生成式人工智能工具,执行禁止在提示中提及特定个人的政策。 未经授权使用或模仿某人的声音或形象可能导致侵犯知识产权或其他权利,由于不同司法管辖区法律框架不协调,可能引发挑战。 模仿相似之处和声音也可能导致声誉损害或法律诉讼,例如欺诈或诽谤。许多国家正在考虑为深度伪造制定具体法律和法规。例如,中国已经通过了适用于“深度合成”的法规。 在存在合法的商业理由合成某人的声音或形象的情况下,从当事人那里获取必要的同意和许可。 人工智能输出的知识产权及其所有权 无法确定由AI工具(如文本、图像或其他创意作品)生成的新内容是否可以受到知识产权保护,以及如果可以,这些权利归谁所有。即使AI的输出不受知识产权保护,也可能存在规范其使用的合同条款。 知识产权在生成式人工智能输出中的存在和所有权尚不明确。企业和组织应寻求关于所有权的合同明确性,并考虑仅在输出中的知识产权所有权对他们的商业模式并非至关重要的情况下使用生成式人工智能。 风险 缓解措施 大多数国家的知识产权法都是在未考虑生成式人工智能的情况下制定的,导致人们对人工智能输出中是否存在知识产权以及谁将拥有任何此类权利存在不确定性。这可能对某些知识产权(如商标权)不是问题,但对于版权,却存在广泛的担忧。 审查生成式AI工具的条款和条件,以了解输出中(如果有的话)的知识产权归谁所有。 探索通过整合知识产权元素(如品牌名称和标志)或涉及人类创意来修改或创造输出新版本,从而增强对输出物控制和权利的方式。 近期,将人工智能系统\"DABUS\"列为发明者的专利申请在作出裁决的国家一直被拒绝,因为这些申请都没有确定人类发明者。目前尚不清楚生成式人工智能是否能在没有人类发明者的情况下进行发明,或者此类发明是否可申请专利。 记录人类在发明或创造过程中的作用。 在可能的情况下,达成关于计算机生成作品版权所有权的协议。法律测试因县而异且可能难以应用,所以协议可以提高确定性。 美国版权局发布了关于注册含有由人工智能生成内容的作品的指南,指出需要人类创作者的创造性贡献。办公室的决定表明,用户的 在部署工作时,请考虑寻求一项保修条款,确保生成式人工智能未被使用。 文本提示本身可能不足以确立版权,因为提示仅仅“影响”了输出。然而,北京互联网法院最近决定,用户对其调整提示和参数以反映其审美选择和判断的AI生成图像拥有版权。这些对AI生成作品版权的不同解释,在生成AI输出作品版权的全球认可方面引入了法律不确定性。 考虑仅在知识产权不是必要的情况下使用生成式人工智能,例如内部使用、创意生成以及临时用途,如(个人)社交媒体帖子。 一些国家(如印度、爱尔兰、新西兰、南非和英国)为“无人类作者创作的计算机生成作品”提供版权保护。乌克兰已引入由计算机程序生成的“非原创对象”权利。 清单 有许多措施企业和组织可以使用以促进生成式AI的负责任和合法使用。以下清单可能对希望实施负责任实践并导航这一快速发展的领域的企业和组织有所帮助。 员工政策和培训 实施员工政策和培训,以指导适当的用法和 人工智能,包括:了解与其相关的机遇、风险和限制 AI 限制对在商业秘密上训练过的生成式人工智能的访问权限,仅限于员工使用授权访问该信息。避免在提示中使用第三方IP,以尽量减少 “ ” ◻ 风险监控与风险概貌管理 监控案例法和法规的变化。定期根据不断变化的风险评估和更