AI智能总结
人类 Abstract 我们介绍克劳德3,一个新的大型多式联运车型系列-克劳德3作品,我们最能干的产品,克劳德3十四行诗,它提供了技能和速度的组合,并且克劳德3句,我们最快,最便宜的型号。所有新模型都具有视觉功能,使它们能够处理和分析图像数据。克劳德3系列在基准评估中表现出强劲的表现,并在推理、数学和编码方面树立了新的标准。Clade 3 Ops在GPQA [1],MMLU [2],MMMU [3]等评估中获得了最先进的结果。克劳德3句在大多数纯文本任务上的表现与克劳德2 [4]一样好或更好,而Soet和Ops的表现明显优于它。此外,这些模型在非英语语言中表现出更好的流畅性,使其对全球受众而言更加通用。在本报告中,我们对我们的评估进行了深入分析,重点关注核心能力,安全性,社会影响以及我们在负责任的扩展政策中承诺的灾难性风险评估[5]。 1Introduction 此模型卡介绍了Claude 3系列模型,该模型在resoning,数学,编码,多语言理解和视觉质量方面设定了新的行 与其前身一样,Claude 3模型采用各种训练方法,例如无监督学习和宪法AI [6]。这些模型使用Amazon WebServices (AWS)和Google Cloud Platform (GCP)的硬件进行训练,核心框架包括PyTorch [7]、JAX [8]和Triton [9]。 Clade 3系列的一项关键增强功能是具有文本输出的多模式输入功能,允许用户上传图像(例如Procedre,表格,图形,照片)以及文本提示,以提供更丰富的上下文和扩展的用例,如图1和附录B.1所示。模型系列还擅长工具使用,也称为函数调用,允许将克劳德的智能无缝集成到专门的应用程序和自定义工作流程中。 克劳德3 Ops是我们最智能的模型,在推理,数学和编码的度量方面树立了新的标准。Ops和Soet在细致入微的内容创建,分析,预测,准确的摘要和处理科学查询方面都表现出了更高的熟练程度。这些模型旨在使企业能够自动化任务,通过面向用户的应用程序产生收入,进行复杂的财务预测,并加快各个部门的研发。克劳德3句是市场上最快,最实惠的智能类别选项,同时还包括视觉功能。整个Clade 3系列在前几代的编码任务和非英语语言(如西班牙语和日语)的流畅性上显着提高,从而实现了翻译服务和更广泛的全球实用性等用例。 由Anthropic开发并于2024年3月发布的Claude 3模型系列将在我们的消费者产品(Claude. ai,Claude Pro)以及诸如Anthropic API,Amazon Bedrock和Google Vertex AI等企业解决方案中提供。Claude 3模型的知识截止日期为2023年8月。 This model card is not intended to include all of our research. For comprehensive insights into our training and evaluationmethods, we invite you to explore our research papers (e. e., Challenges in Evaluating 人工智能系统[10],减少危害的红色团队语言模型[11],大型语言模型中道德自我纠正的能力[12],在语言模型中衡量主观全球意见的表示[13],前沿威胁红色团队人工智能安全[14],以及我们负责任的扩展政策[5]以应对灾难性风险)。除了我们的公共研究外,我们还致力于在行业,政府和民间社会之间分享发现和最佳实践,并定期与这些利益相关者互动以分享见解和最佳实践。随着我们继续对前沿模型进行研究和评估,我们希望发布新的发现。 2型号详细信息 2.1预期用途 克劳德被训练成为一个乐于助人,诚实和无害的助手。克劳德模型擅长开放式对话和想法协作,在编码任务和处理文本时也表现得非常出色-无论是搜索,写作,编辑,概述还是摘要。2克劳德3系列的多模态功能可以解释视觉输入(例如Procedre图表、图形和照片)以支持其他用例和生产力。克劳德模型有一个有用的,对话的语气,可以指导“个性”。“用户形容他们感觉可操纵,适应性和吸引力。 克劳德使用用户输入的所有文本(提示)和迄今为止在对话中生成的所有文本来预测下一个最有用的单词或令牌。这意味着克劳德一次构造一组字符的响应。它不能返回并编辑其响应后,他们已经构建,除非用户给它一个机会,在随后的提示这样做。克劳德也只能看到(并预测)在其上下文窗口中显示的内容。除非用户在提示中重新插入此类材料,否则它无法记住以前的单独对话,也无法打开链接。 2.2意外使用 这些模型不应在高风险的情况下单独使用,因为错误的答案可能会造成伤害。例如,虽然克劳德模型可以支持律师或医生,但它们不应该被部署而不是一个,任何回应都应该由人类审查。克劳德模型目前不在网上搜索(尽管用户可以要求他们直接与他们共享的文档进行交互),并且模型只能使用2023年中期之前的数据回答问题。克劳德模型可以连接到搜索工具,并经过全面训练以利用它们(通过网络或其他数据库),但除非特别指出,否则应该假设克劳德模型没有使用这种功能。克劳德模型具有多语言功能,但在低资源语言上的表现较差(有关更多详细信息,请参见下面的多语言评估部分5.6)。 2.3禁止使用 我们的可接受使用政策(AUP)[15]包括有关禁止使用案例的详细信息。这些被禁止的用途包括但不限于政治竞选或游说,监视,社会评分,刑事司法决定,执法以及与融资,就业和住房有关的决定。AUP还概述了商业用途的其他安全要求,例如要求披露正在使用的AI系统,并概述其功能和局限性。AUP还详细说明了哪些用例需要实现hma - i - the - loop措施。 The AUP applies to both image and text prompts, and all Anthropic users must read and assely acd - knowledge the AUPbefore accessing Claude models. We regularly review and update the AUP to ensure that our product is as safe andtrustouthreet as possible. 2.4防止滥用 检测和减轻对我们技术的禁止使用对于防止不良行为者误用我们的模型来产生滥用、欺骗性或误导性内容至关重要。我们使用自动化系统来实时检测AUP的违规行为。被标记为违反AUP的用户提示会触发对我们的模型的指令,以更加谨慎地做出响应。特别是在用户提示的情况下。 2有关提示设计的更多信息和建议,请参阅我们的文档https: / / docs. anthropic. com / claude / docs / introduction - to - prompt - design。 严重或有害,我们将阻止模型完全响应,并且在重复违规的情况下,我们可能会终止用户的克劳德访问。 2.5训练数据 克劳德3模型是根据2023年8月在互联网上公开可用的信息以及第三方的非公开数据,数据标签服务和付费承包商提供的数据以及我们内部生成的数据进行训练的。我们采用了几种数据清理和过滤方法,包括重复数据删除和分类。Clade 3模型套件尚未接受过用户或客户(包括免费用户、Clade Pro用户和API客户)提交给我们的任何用户提示或输出数据的培训。 当人类通过抓取公共网页获取数据时,我们遵循关于机器人的行业惯例。txt说明和网站运营商用来指示他们是否允许抓取其网站上的内容的其他信号。根据我们的政策,Athropic的爬虫不会访问受密码保护的页面或登录页面,也不会绕过CAPTCHA控制,我们会对我们使用的数据进行尽职调查。人类透明地运行其爬行系统,这意味着网站运营商可以轻松识别人类访问并向人类发出偏好信号。 2.6培训流程 克劳德受过训练,专注于乐于助人,无害和诚实。培训技术包括对大量不同数据进行预培训,以通过单词预测等方法获得语言能力,以及引起有用,无害,诚实响应的人类反馈技术。人类使用了一种称为宪法AI的技术[16],在强化学习过程中,通过明确指定基于《联合国世界人权宣言》等来源的规则和原则,使克劳德与人类价值观保持一致。通过克劳德3模型,我们在克劳德的宪法中增加了一项额外的原则,以鼓励尊重残疾人权利,这源于我们对集体宪法人工智能的研究[17]。一些用于完善克劳德的人类反馈数据与我们的RLHF [19]和红色团队研究一起被公开[18]。 一旦我们的模型得到充分训练,我们就会运行一套安全性评估。我们的信任和安全团队还运行连续分类器来监控违反AUP的有害恶意用例的提示和输出。在下面的评估部分中查看更多信息。 2.7发布决策和维护 我们采取了一些具体步骤来负责任地开发和部署人工智能系统,借鉴了NIST人工智能风险管理框架及其地图、测量、管理和管理子类别的指导[20]。我们清楚地记录了我们的产品可能使用和不使用的方式,以及使用我们产品的限制和潜在风险。我们通过交互式红色团队定期评估我们的系统,以及针对产品性能和潜在安全风险的基准进行评估。为了管理潜在风险,我们逐步推出了对我们产品的访问权限,以确保其安全性和可靠性;结合使用自动监控功能,对潜在危害和违反我们的AUP,以及人工审查以审核我们的分类器的准确性;并定期更新我们的模型,以针对新发现的风险和潜在漏洞进行强化的版本。 我们也非常谨慎地对待敏感数据和我们产品和服务的最终用户的个人信息。我们实施保留政策,以确保个人和敏感信息的存储与数据需求相称,例如监控和改进我们的信任和安全流程。对于我们的消费产品和网站的使用,我们的隐私政策[21]分享了有关数据隐私,使用和保留的其他详细信息。 我们还遵循我们的负责任的扩展政策,该政策指导我们开发和部署功能日益增强的AI系统,如下所述。作为公共福利公司(PBC),我们专注于在组织的各个层面上安全开发和部署AI系统,包括我们的执行领导团队。 3安全 我们使用各种连接身份验证和授权技术来保护模型环境的安全性,以帮助确保其完整性;要求人们始终使用多因素身份验证。我们的高级模型受到两方控制的保护。每个用户明确授予对AI模型基础设施的访问权限,并在每次访问尝试时进行验证。所有可以访问托管我们服务的服务基础设施的帐户都受到严格的密码要求和多因素身份验证的保护。每个帐户都设置有其所有者所需的最低权限级别。其他防御层包括连续系统监控、全天候警报响应、端点强化、数据存储和共享控制、人员审查和物理安全强化。在部署到生产环境之前,我们会非常小心地测试任何代码更改,包括代码审查。最后,我们与渗透测试人员接触,以锻炼我们的检测系统并改善我们的防御姿势。 4社会责任 作为PBC,Athropic致力于在开发过程的每个阶段开发安全和负责任的AI系统。克劳德3模型显示了对请求的更细致的理解,认识到真正的伤害,并且拒绝回答无害的提示比以前的模型少。也就是说,他们仍然会犯错误,我们让克劳德更有帮助、无害和诚实的工作正在进行中。道德考虑也塑造了我们的AUP,其中描述了克劳德的允许和不允许的使用,以及执行它的信任和安全程序。 4.1宪法AI 我们的核心研究重点一直是训练克劳德模型是有用的,诚实的,无害的。目前,我们通过给模型一个宪法来做到这一点-一套道德和行为原则,模型用来指导其输出。克劳德宪法中的大多数原则与我们在2023年5月发布的原则相同。使用该宪法,对模型进行培训,以避免性别歧视,种族主义和有毒产出,并避免帮助人类从事非法或不道德的活动。为了回应我们在集体宪法人工智能方面的工作[17],我们在公共输入过程中增加了一个额外的原则,这使得克劳德能够理解和接触残疾人,从而导致较低的模型刻板印象偏见。 4.2Labor Anthropic与多个数据工作平台合作,这些平台负责参与和管理