您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [全球软件开发大会]:百度文心智能体开发实战与分发模式创新 - 发现报告

百度文心智能体开发实战与分发模式创新

2024-11-22 马根明 全球软件开发大会 光影
报告封面

演讲人:马根明 目 录 02Agent开发实战 01引言 03分发模式创新 04安全与隐私保护 05 Agent(智能体)是什么 智能体是一种在大语言模型基础上构建的智能实体,拥有自主思考和行动的能力。 智能体就像一个聪明的助手,能够深度理解你的需求,甚至拆分子任务,并调用各种工具扩展自身能力,从而完成你的各种具体指令。 自主性 无需人工干预,具备自主探索和决策能力 反应性 先思考后行动,能快速应对环境中的变化和刺激 Agent和LLM(大模型)的区别在于,大模型与人类之间的交互是基于prompt实现的,用户prompt是否清晰明确会影响大模型回答的效果。而Agent的工作仅需给定一个目标,它就能够针对目标独立思考并做出行动。 主动性不止于应对环境变化,能推理、计划和行动,来实现特定目标 社交能力可以与其他智能体(包括人类)进行交互 智能体是如何运行的 智能体常见场景 【文创】悟智智文助手 【生活助手】爸妈防骗助手 【互动游戏】庆余年密室逃脱 【学习】读书专家 AI的发展给各行各业带来巨大的机遇和挑战 【提效工具】TreeMind树图 【领域专家】农民院士智能体 【图创】创客贴海报设计助手 02Agent开发实战(文心智能体) 文心智能体平台AgentBuilder 是基于文心大模型的智能体构建平台,提供 自然语言创建智能体的开发新范式。 支持广大开发者根据自身行业领域、应用场景,采用多样化的能力、工具,打造大模型时代的智能体。 并为开发者提供百度生态+域外分发路径和多元的商业机会,助力开发者完成商业闭环,是“开发+分发+运营+变现”一站式智能体赋能平台。 文心智能体设计范式 一切都是工具 开发新范式:“一句话”开发智能体 输入你的idea 生成你的智能体 平台能力支撑自动生成设定、勾选配置,快捷创建智能体 要做一个什么设定的角色,或想要解决什么问题 你的智能体 调优迭代快:可成长的智能体 LGUI交互 支持文、图、表、视频的动态化渲染 新加坡文旅智能体案例 03分发模式创新 分发渠道广:全域智能分发 小度(含旗下添添系列) AI助手 Agent分发中的问题 精准匹配:将Query调度到最优Agent 深度刻画:准确刻画Agent的能力 筛选优化:评估促进Agent进化 Agent评估 好的评估机制 问题:训练数据的分布不可知,产品与训练数据分布差异较大 •与产品的相关性高•可解释性好•成本低、速度快 问题:评估集异常庞大、成本高、速度慢 Agent评估 前向: Agent理解 网页理解 Agent理解 质量权威性 链接分析 内容理解 •Agent内容是动态生成•Agent的能力边界模糊•Agent可进化/退化 如何打造一个好的智能体-新加坡旅游局智能体 创建步骤 知识库 1.设定智能体能力边界•边界清晰、功能明确 •能力重点突出•设定评估集合2.根据功能边界拆分能力点•私有数据、私有工具•共享工具能力3.完成能力点4.创建智能体、初版调优5.评估智能体效果•根据评估集合6.拆分case•分析case问题,并定位7.⑥→②8.发布后持续运营 1.所有文旅公众号内容2.官方政策类信息 插件 1.景点查询2.攻略查询3.休闲娱POI点查询4.酒店查询5.城市景点榜单查询 创建知识库、插件、工作流延展智能体边界 文旅分发全流程 跨平台兼容性与标准化问题 多端创建、多端分发:文心智能体平台和三方智能体作为智能体生产端,采取统一协议,分别供给搜索和第三方进行智能体分发。 04安全与隐私保护 大模型的数据安全与隐私保护 数据安全问题、AI的可信度问题、隐私保护问题等等,都在冲撞着当前的数据治理格局。 2023年3月,韩国三星电子员工因违规使用ChatGPT,在短短20天内便发生了三起半导体机密资料外泄事件。2023年6月,美国科技新闻网站CNET被发现使用人工智能软件生成了70多篇文章,其中包含严重的事实错误。2023年10月,科大讯飞AI学习机因内容审核不严格导致不当内容被用于数据训练,引发舆情事件,致使市值蒸发120亿。2024年8月,360儿童手表答疑时出现争议言论。 大模型内容监管政策要求 “坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。具有舆论属性或者社会动员能力的生成式人工智能服务的,应当开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案 “提供深度合成服务,应当遵守法律法规,尊重社会公德和伦理道德,坚持正确政治方向、舆论导向、价值取向,促进深度合成服务向上向善。 国内首个生成式AI安全指导性文件,百度安全深入参与《要点》内容编写《要点》给出了生成式人工智能服务在安全方面的基本要求,包括语料安全、模型安全、安全措施、安全评估等,并明确了违反社会主义核心价值观的内容、歧视性内容、商业违法违规、侵犯他人合法权益等在内的5大类31种风险;每一个大模型企业的生成式AI产品若想要“持证上岗”,需逐条核对是否符合这份文件中的要求。 具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。深度合成服务技术支持者应当参照前款规定履行备案和变更、注销备案手续。” 《生成式人工智能服务安全基本要点》 《互联网信息服务深度合成管理规定》 《生成式人工智能服务管理暂行办法》 LLM应用面临的安全挑战 围绕企业的前置业务环节容易出现各类安全风险:如账号风险、业务风险。 针对“提问内容”存在的安全挑战:用户输入的prompt也能存在各类违法违规内容风险,主要包括黄赌毒、涉政敏感、恶意代码等。另外用户输入的prompt属于提示注入攻击(目标劫持注入/提示泄露/越狱攻击等),近期对大模型产生较大影响的新型漏洞,特别是对于那些采用提示学习方法的模型而言。注入恶意指令的提示可以通过操纵模型的正常输出过程以导致大语言模型产生不适当、有偏见或有害的输出。针对“输出内容”存在的安全挑战:围绕大模型生成内容,具有一定的随机、不可控的情况,容易出现违规内容、歧视偏见、隐私泄漏、内容侵权等诸多风险。 记忆隐私泄露:在学习的过程中,除了提取的语言知识之外,模型无可避免的会记住一些数据。从而返回了他人的隐私信息。如右图: 隐私问题 系统隐私泄露:大家熟知的“骗取GPTs的System Prompt”就是系统隐私泄漏的一种。 上下文隐私泄露:上下文隐私泄漏,会暴露根据记忆暴露用户信息。 隐私保护–解决方案 05总结与展望 总结 介绍了Agent的发展和开发范式,目前已经实现了很多应用,但是还是在发展阶段,离理想的Agent模型,还有不小的距离。 文心智能体平台:支撑Agent研发、分发的开发者平台 展望 •依托智能体(AIAgent)的环境感知与交互、自主规划和行动等能力,兼具工具和情感属性的特点,尤其是在多模态+UI交互的加持下,有望开拓出更丰富甚至全新的应用场景。 •Google智能眼镜也对其支持,意味着未来脱离手机和电脑使用AI Agent成为可能。 •面向智能交互的多模态大模型是端侧Agent落地的基石,近期海内外科技巨头和AI初创公司陆续推出UI识别和操作模型、类Agent产品,未来模型层和应用层的行业竞争可能会进一步加剧。 展望 从平台的角度来看,未来从研发和分发上还有很多事情要做。 分发 研发 •降门槛、提效果•提供更多Agent范式•提供更多元优化手段 THANKS 大模型正在重新定义软件Large Language Model Is RedefiningThe Software