释放算力潜能, Serverless+AI让应用开发更简单 报告人:王仁达阿里云智能 2025年6月 Serverless在解决什么问题 Serverless 目标和策略 成本目标效率目标 •按需付费,降低用户成本,•简单,易用,减少发布/扩容提供产品竞争力时间,提升发布/扩容的效率 灵活定 极制 •通过不断的优化资源供给能力:降低用户保有资源的成本,提 高资源利用率,降低资源使用成本; 简 运 维按需付 •通过不断的加强和云产品及周边生态的集成,降低用户业务构 建的门槛,减少业务发布和扩容运维时间,提升业务效率; 费 •平台及体验能力升级:事件驱动,云服务集成,流程编排,应用模版,计费优化,观测能力集成 AI应用基本要素 Serverless擅长领域 门槛高、迭代快,效果好,低成本 1大模型 2领域模型 开箱即用、一键托管、可观测完备、低成本 开箱即用、快速迭代、灵活可定制、低成本 3业务逻辑 AI应用基本要素 4领域抽象 领域适配、业界标准、活跃生态 性能、成本、稳定、安全、体验 5BaaS服务 6流程编排 流程引擎,工具生态,广泛集成 模型服务+ServerlessGPU实现降本增效 行业痛点 •开源/微调模型做成镜像有门槛,vLLM/SGLang等框架选择困难 •商业模型按token计费贵且有速率限制,不自主可控 平台价值 •快速托管:主流模型一键部署,自定义模型下载加速快速托管 •框架封装:vLLM/SGLang/Ollama/HuggingFaceTransformers实现推理加速、轻量化部署 •APIKey管理:KMS、访问控制实现安全存储及隔离 模型服务Serverless 行业痛点 •高峰流量大、资源成本高、运维管理复杂 GPU •冷启动延迟高,系统调度、镜像拉取、模型加载、首推理 平台价值 •负载感知调度、资源池化,实现更高的弹性和资源利用率 •推理速度、稳定性、成本间取得平衡 函数计算:FCAI应用开发+FC弹性算力 FC业界独家极速模式:提供秒级快照、毫秒级两种模式,满足实时和准实时推理场景 FunctionAI模型服务:主流模型如Qwen、DeepSeek等可一键部署,魔搭社区、HuggingFace的热门模型可通过模型ID快速托管 领域模型加速落地:图像生成 行业痛点 •SaaS昂贵且无法自主可控 •虚机/容器自建弹性效率弱、利用率低、成本高 •文生图WebUI/API开发门槛高,模型/插件下载国内网络不可用 Serverless图像生成平台价值 •深度集成ServerlessGPU,兑现弹性降本优势、快速出图 •专属工作空间:激活、销毁快,简单易用 •企业级特性增强:ServerlessAPI,自带流量灰度,多实例并发出图加速出图效率 函数计算:FunctionAI图像生成 SDWebUI/CompyUI一键部署,提供专属工作空间和网络加速能力,支持上传、下载自定义模型及插件 开发调试一键发布ServerlessAPI,隔离测试和生产环境,通过API调用实现同步/异步/流式/WebSocket出图 AI应用基本要素 Serverless擅长领域 门槛高、迭代快,效果好,低成本 1大模型 2领域模型 开箱即用、一键托管、可观测完备、低成本 开箱即用、快速迭代、灵活可定制、低成本 3业务逻辑 AI应用基本要素 4领域抽象 领域适配、业界标准、活跃生态 性能、成本、稳定、安全、体验 5BaaS服务 6流程编排 流程引擎,工具生态,广泛集成 智能体应用 应用抽象发生变化 传统应用开发AI应用开发 服务智能体 中间件 记忆/工具 数据库大语言 模型 知识库 智能体应用 LLM和现实世界的结合 •包含感知、决策、行动 •行动:碎片化代码,需要灵活、快速、轻量的运行时,函数是最合适的形态(MCP,functioncalling,codeinterpreter,……) 智能体 MCP/FunctionCalling HostingServices ServerlessGPU AI领域应用的主体 应用集成及应用运维价值 Serverless是Agent的最佳运行时承载 托管生态及Serverless 算力,扩展及运维价值工具 ServerlessGPU支撑自 模型 服务定义领域模型托管 智能体应用集成:MCP MCP为LLM连接数据源和工具提供了标准化的方法 厂商应对之道 ServerlessHostingMCPserver的优势 •MCP稀疏调用、非稳态调用、脉冲型调用特征明显,算力规格要求小,天然适合弹性 •Nodejs、Python主流,启动快,天然适合FaaS运行时 •多租隔离,满足安全要求 •内置负载均衡以及安全防护,支持集成网关实现更高阶流量管理 ServerlessHostingMCPserver的劣势 •大部分MCPserver都是STDIO模式,不支持多并发,不具备鉴权能力 •SSE会话亲和性特性,不适合Serverless按量弹性不同实例 •SSE协议长连接特性,造成函数实例长时间活跃,持续产生费用 •本地调试困难,问题难定位,缺少开发及部署MCP的最佳实践 函数计算MCPRuntime •内置MCPProxy,存量STDIO无改造直接生成SSE/StreamableHttp服务,且具备单实例多并发能力 •发布MCP会话亲和性调度,保证相同sessionID会话绑定到相同实例,具备会话配额控制保证单实例会话公平、MCP会话优雅升级 •发布长连接闲置计费,最高降低87%成本 FunctionAIMCP广场 •提供模板一键部署、自定义MCP服务,满足开源托管以及二次开发需求 •提供隐私变量管理、服务鉴权、内网访问能力,本地STDIO协议无需改造即可提供安全的企业级服务 •提供ServerlessDevs工具本地部署 AI应用基本要素 Serverless擅长领域 门槛高、迭代快,效果好,低成本 1大模型 2领域模型 开箱即用、一键托管、可观测完备、低成本 开箱即用、快速迭代、灵活可定制、低成本 3业务逻辑 AI应用基本要素 4领域抽象 领域适配、业界标准、活跃生态 性能、成本、稳定、安全、体验 5BaaS服务 6流程编排 流程引擎,工具生态,广泛集成 流程式编排:AI工作流 AI工作流:重塑企业自动化流程,自动化->智能化 •引入LLM、Agent、MCP、工具节点完成复杂业务场景 •工作流具备理解上下文、自适应、自我进化的能力 Serverless工作流:组装式、连接云服务 •事件驱动,高效处理图片、音视频等非结构化数据,典型场景ETL •无缝连接各种云服务,完成云上自动化任务 •弹性自动扩展、按量付费 •多地域容灾、高可用、低代码 ServerlessAI工作流:FunctionAIStudio •基于Serverless工作流,引入AI节点:LLM、Agent、MCP、工具 •使用云服务完成RAG流程:OSS、Tablestore、PolarDB •Serverless+AI优势完全互补 总结 Serverless优势助力AI应用研发提效 •弹性扩展、按需付费、无服务器运维,解决AI开发中的资源瓶颈与成本压力 Serverless作为AI时代的基础设施与未来价值 •Serverless正成为AI应用的“基石”,支撑从数据预处理到模型部署的全链路 AI需要Serverless的‘弹性’,Serverless需要AI的‘智慧’