AI智能总结
企业AI代理的未来 解锁2025年的自主转型 目录 引言 企业工作流在2025年正在升级。得益于生成式人工智能(GenAI)、大型语言模型(LLM)和自然语言处理(NLP)的进步,自主人工智能正在改变企业处理自动化和决策的方式,影响了从客户互动到业务运营的方方面面。 AI代理是能够推理、计划并以用户名义行动的自主软件系统。许多人认为AI代理是聊天机器人的下一代演进。两者都使用人工智能来接收输入并基于该输入采取行动;然而,聊天机器人遵循预定的工作流程,并且仅限于处理有限的场景和用户输入。AI代理——无论是基于模型、基于目标还是多系统——更具交互性,能够通过应用推理并自主确定最佳行动方案来处理复杂任务。 探索组织如何投资于自主人工智能Cloudera调查了 14 个国家的 1,484 位企业 IT 领导。本报告于 2025 年 2 月进行,深入探讨了 AI 助手的应用模式、用例及其相关态度——包括金融、零售、医疗保健、制造业和电信等行业的特定见解——并分析了企业如何利用 AI 助手在 2025 年提升其企业工作流程。 当正确实施时,智能体式人工智能(AI)能带来巨大益处,例如提高效率、降低成本、改善客户体验以及更智能(实时、数据驱动)的决策制定。对于希望通过推动创新来工作的CIO和CTO而言,智能体式AI可以加速他们的工作。 人工智能代理:引领企业技术未来 83% 过去两年见证了自主AI的采用热潮。大多数受访者(57%)在过去两年内开始实施AI代理,而21%仅在去年就实施了。这种采用率反映了自主AI从概念到现实的快速发展,可能是由2023年至2024年间AI技术的进步所催化。 有相当一部分组织认为,在代理人身上投资以保持其在行业内的竞争优势很重要。 2025 对于许多公司从实验转向执行而言,这是一个关键的窗口期,用于AI代理的采用。 这种快速采用率表明,组织将自主人工智能视为其业务竞争力的关键,并希望尽快收回投资回报(ROI)。 因此,代理式人工智能的扩张计划几乎是普遍的。96%的受访者计划在未来12个月内扩大他们使用AI代理,其中一半的目标是进行重大、全组织的扩张。 性能优化机器人可以表现为一个IT基础设施机器人,能够动态调整云资源分配、数据库配置和服务器负载,以实时优化性能。安全监控代理可以持续分析网络活动、检测异常并自主响应潜在的网络威胁。开发助手可以表现为基于实时代码变更生成、执行和细化测试用例的机器人。 随着企业将自主AI从试点阶段推广至广泛部署,他们正在探索具体的应用,受访者最感兴趣的是性能优化机器人(66%)、安全监控代理(63%)和开发助手(62%)。 IT领导者正在寻找他们使用的AI代理的这些改进: 核心业务功能:人工智能代理的价值所在 81% 人工智能代理与生成式人工智能之间的协同作用为投资具象化人工智能能够带来即时的投资回报铺平了道路。98%的受访组织要么已经使用具象化人工智能来编排生成式人工智能用例,要么计划在不久的将来这样做。事实上,85%的人表示他们之前对生成式人工智能的投资使他们很好地准备来实施人工智能代理。企业应将具象化人工智能视为利用其生成式人工智能投资的自然下一步,特别是随着具象化人工智能供应商增加了即用型API集成的可用性。 越来越多的企业正在利用智能代理AI来增强其现有的生成式AI模型。 根据受访者的说法,人工智能代理的早期部署倾向于集中在IT和面向客户的运营上。在业务功能方面,人工智能代理最嵌入IT运营(61%),但客户支持(18%)和市场营销(6%)也是采用的关键领域。在具体应用方面,人工智能代理最常用于客户支持(78%)、流程自动化(71%)和预测分析(57%)。对于已将代理嵌入IT运营的企业公司,它们最有可能分别也将代理用于客户支持、运营和市场营销。 78% 71%流程自动化 这些典型用例表明,许多公司从定义明确、以投资回报率为驱动的领域和内部职能(如IT帮助台代理和DevOps助手)开始采用(新技术)。这两个领域都为自动化提供了充足的机会,以快速增强人力工作,从而实现切实的成果。例如,代理式人工智能可以通过利用预测分析来预见潜在的攻击路径,并在威胁完全显现之前建议缓解策略,帮助企业超越网络攻击者。 57% 预测分析 实施方法 接下来是什么? 企业是如何构建智能体的AI的?66%的受访者正在使用企业AI基础设施平台来开发和部署他们的AI智能体,而60%的人正在利用他们现有核心应用程序中嵌入的智能体功能。这些偏好强调了企业对可扩展、可靠基础设施的需求,因为他们选择将他们的AI智能体尽可能靠近私有数据来建立。 65%的企业希望它们的AI代理具有更强的数据隐私和安全功能。 当被问及他们目前使用或计划使用哪些技术来构建自主人工智能时,受访者指出了以下技术: 开源与闭源 在自主AI的演进中,开源LLMs的快速发展是一个关键趋势。曾经被认为落后于其闭源同类,如今的开放模型正在与——在某些情况下甚至超越了——专有系统在关键的企业应用场景中展开竞争。 近期,致力于 Llama、Mistral 和 DeepSeek 等模型的社区取得的突破表明,开源大型语言模型对企业在成本效益方面是一个更可行的选择。对于进行大规模运营的企业而言,其经济影响是显著的:如果专有模型仅带来边际收益(例如,基准任务中提升 1%),但其成本却高 10 倍,那么其商业案例根本站不住脚。 此外,开源模型为企业提供了专有供应商往往难以匹敌的优势:部署灵活性。大多数封闭模型都与特定的公有云或 API 紧密绑定,这可能导致与数据主权、供应商锁定以及与现有基础设施集成相关的问题。相比之下,开源模型可以自托管或部署在私有云或混合云环境中,从而更容易符合企业的安全和合规要求。 从成本效益到对数据和部署的更大控制权,开源模型的战略优势是明确的。 企业为何受阻? 尽管热情高涨,企业在采用代理式人工智能方面面临着显著障碍——从实施困难到伦理和组织问题。 当被问及采用人工智能时他们最担心的问题时,受访者指出数据隐私问题(53%),其次是与现有系统集成(40%)和高实施成本(39%)。这些发现表明,信任和兼容性问题是一主要的障碍,因为企业担心保护敏感数据并转型遗留环境。 公平地说,37%的调查企业报告说将AI代理集成到当前系统和业务流程中非常或极具挑战性。这一发现表明,对于具有复杂IT生态系统的 large organizations 而言,集成是一个痛点。换句话说,部署AI代理并不是一种即插即用的工程。 我组织内扩展人工智能的最高优先级是协助数据安全整合,例如隐私、安全以及员工适应培训。 为此,部署和管理代理式人工智能需要专业人才和适当的的基础设施。组织开始利用代理式人工智能最有效的方式是评估其现有基础设施为确保其满足必要要求,应重点关注数据管理、安全和合规标准。同样重要的是培训团队有效管理和部署人工智能代理,从小规模实施开始以评估其影响,然后在大规模上扩展。 39%高成本 53%数据隐私担忧 40%与现有系统集成 30%治理担忧 32%伦理或监管问题 34%缺乏专业知识 智能体人工智能有可能改变用户体验和业务运营,但它也带来了损害消费者和员工信任的风险。 当人工智能在历史数据上进行训练时,可能会无意中强化社会偏见并影响结果。人工智能偏见已经对现实世界的职场产生了负面影响: 医疗保健:生命周期偏差的警示案例研究 防御:当算法偏见遇到战略决策 一项近期的耶鲁研究подчеркивает глубину и всеобъемлющность предвзятости в медицинской искусственном интеллекте. Исследователи обнаружили, что алгоритмическая предвзятость может возникать на каждой фазе жизненногоцикла искусственного интеллекта — от работы с даннымии проектирования модели до внедрения и использованияпосле внедрения. Ключевое открытие: диагностические системы, обученные на несбалансированных наборах данных, показывали низкие результаты при работе с малопредставленными группами населения, что приводило к неправильному диагнозу и ухудшению качества ухода. В таких высокорисковых областях, как здравоохранение, даже незначительный перекос в обучении модели может создавать системную дискриминацию в масштабах. Это четкий призывдля организаций ưu tiênировать разнообразие данных, внедрять аудит жизненного цикла и требовать прозрачности протоколов на каждом этапе моделирования. 国防领域的风险会相互叠加。如详细所述红十字会国际委员会认为,人工智能驱动的军事决策支持系统可以编码和放大偏见,从而直接影响战术和战略行动。在场景模拟或系统设计中存在的偏见可以塑造致命结果,尤其是在人类监督让位于机器驱动推理时。关键地,红十字会国际委员会确定了四个不同的故障点:训练数据中的偏见、模型架构、操作使用以及使用后评估。这些见解直接适用于企业人工智能:当代理 在高影响环境中部署,围绕偏见、问责制和可审计性的清晰度不是可选的——它是强制性的。 值得信赖的人工智能四大原则 安全 超过半数受访者(51%)对人工智能偏见和公平性表示严重关切。对于正在扩展人工智能代理的企业而言,教训很明确:负责任的人工智能不仅仅是治理职能——它是一项设计原则。偏见不仅限于有缺陷的数据;它可能体现在工作流程的结构、意图的解释以及结果的评估中。 垃圾进,垃圾出 数据质量和可用性问题是在人工智能实施中的重大技术挑战,比算法精度或基础设施限制更为突出。 为建立信任,组织必须优先考虑数据质量,确保模型稳健性,并采纳合乎伦理的决策实践。这包括彻底测试人工智能模型以消除偏见,实施强有力的数据治理和安全措施,并定期进行审计以在整个人工智能系统的生命周期中保持信任。 我最大的挑战是确保算法和系统没有可能损害公司的偏见。” 调查受访者 为应对偏见,企业正在采取额外措施,负责任地管理人工智能代理。许多受访者(38%)正在实施多种流程,例如人工审核、多样化的训练数据和正式的公平性审计。另外36%已经引入了一些偏见检测措施,例如定期人工审核或偏见检测工具。不过,值得注意的是,有14%的人承认他们只采取了最基本的措施或临时措施。 到目前为止,该领域为对抗偏见所采取的步骤。这表明,虽然许多组织正在规范化人工智能伦理,但其他组织才刚刚开始。 令人鼓舞的是,尽管如此,80%的组织对其AI代理决策的透明度和可解释性感到极其或非常自信,这表明这是企业、他们的供应商和他们的团队的首要任务。 行业特定趋势:AI代理应用 尽管完整调查包括超过1400家企业的受访者,但此处强调的行业特定洞察反映了来自关键部门(制造业、金融和保险、零售、医疗保健和电信)的参与者子集。 虽然一些自主人工智能的采用趋势是普遍的,但各行业存在细微差别。例如,在考察采用障碍时,数据隐私是各行业的首要担忧。但按行