卷首语 近年来,人工智能(AI)技术的迅猛发展引发了各行各业的变革,AI应用正以不可阻挡的势头兴起。从智能客服到精准医疗,从自动驾驶到金融风控,AI技术的广泛应用极大地提升了工作效率和决策质量。根据预测,未来几年内,AI市场将继续快速增长,成为推动经济和社会进步的重要动力。 在这一背景下,如何高效地开发、部署和维护AI大模型已成为技术人员亟待解决的挑战。而阿里云函数计算FC作为一个事件驱动的全托管Serverless计算服务,为AI应用的开发提供了ServerlessGPU算力和灵活、可扩展的解决方案。您无需管理服务器等基础设施,函数计算能够根据需求自动扩展,按需计算,从而将开发者从底层基础设施的管理中解放出来,使他们能够更专注于业务逻辑和算法优化。结合函数计算与AI大模型,开发者可以快速构建和部署各种AI应用,满足市场不断变化的需求。 本书旨在整理和介绍函数计算如何构建各类AI应用,以及如何基于函数计算结合其他云产品来部署各种AI大模型。书中的主要内容包括:AI大模型的选择与应用场景,适用人群的分析,应用架构的设计,及详细的部署教程等。通过这些内容,读者将能够全面理解并掌握AI与函数计算结合的最佳实践,从而在自己的项目中有效应用这些AI技术,实现更高的业务价值和技术创新。 目录页 一、构建个人专属AI助手..............................................................5二、AIGC生图.............................................................................92三、AI内容创作.........................................................................125四、打造多形态全天候AI客服...................................................188五、使用AI快速完成文本信息处理............................................218六、使用AI快速完成图像处理...................................................242 一、构建个人专属AI助手 0代码,2种方式,一键部署DeepSeek系列模型 DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill是使用DeepSeek-R1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台CAP提供模型服务、应用模板两种部署方式辅助您部署DeepSeekR1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。 支持的模型列表 部署方式说明: Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。 Transformer:由HuggingFace提供的模型推理框架,支持PyTorch、TensorFlow等模型部署。 前置准备 1)首次使用云原生应用开发平台CAP会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。 2)本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。 方式一:应用模板部署 1.创建项目 登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP应用平台页签,然后单击创建项目>基于模板创建。 当左上角显示函数计算FC3.0时,表示当前控制台为3.0控制台。 2.部署模板 1)在搜索栏输入DeepSeek进行搜索,单击基于DeepSeek-R1构建AI聊天助手,进入模板详情页,单击立即部署。 2)选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续10分钟左右,状态显示已部署表示部署成功。 3.验证应用 部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。 方式二:模型服务部署 本文将以DeepSeek-R1-Distill-Qwen-7B-GGUF模型为例演示部署流程。使用API形式进行模型调用,接入线上业务应用。 1.创建空白项目 登录函数计算3.0控制台,在左侧导航栏选择应用,在应用页面选择CAP应用平台页签,然后单击创建项目>创建空白项目。 说明 当左上角显示函数计算FC3.0时,表示当前控制台为3.0控制台。 2.选择模型服务 3.部署模型服务 1)选择模型DeepSeek-R1-Distill-Qwen-7B-GGUF。 2)单击资源配置,DeepSeek-R1-Distill-Qwen-7B-GGUF推荐使用Tesla系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。 3)单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10分钟左右即可完成。 4.尝试更多模型部署 1)如果您希望部署更多模型,但是支持列表中没有,您可以选择更多模型来源。 2)您可以选择更多模型,以ModelScope为例,假设您选择DeepSeek-R1-Distill-Qwen-7B-GGUF模型,其参考信息如下。关于支持的模型列表,请参见ModelScopeLibrary支持的模型服务列表。 3)如果ModelScopeLibrary支持的模型列表中仍未找到所需模型,您可以登录ModelScope官网复制相关模型ID,并修改加载的GGUF文件即可。以DeepSeek14B为例,如希望部署14B模型可将配置改为以下参数。 在下图中,其中①表示为ModelScopeID的值,②表示为GGUF文件,列表为不同的量化精度型文件,根据需求任选其一即可。 更多ollama参数配置如params,template等,可参考DeepSeekollamalibrary。14B及以上模型需在资源配置中使用Ada系列显卡,并且使用全卡预留48G显存。 5.验证模型服务 单击调试,即可测试和验证相关模型调用。 在本地命令行窗口中验证模型调用。 6.第三方平台API调用 您可以选择在Chatbox等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。 删除项目 您可以使用以下步骤删除应用,以降低产生的费用。 1)进入项目详情>点击删除,会进入到删除确认对话框。 2)您可以看到要删除的资源。默认情况下,云原生应用开发平台CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。 3)勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除。 7分钟极速部署专属开源对话大模型 本方案将借助阿里云函数计算,您能够迅速部署并利用来自魔搭社区(ModelScope)的开源大模型,实现高效便捷的大模型服务应用。只需短短10分钟,即可将这些强大模型部署至阿里云函数计算平台,立即开启您的文本生成服务之旅。 无需自备或维护高昂的GPU资源,函数计算的按需付费模式让您无需担忧前期投入与运维开销,真正实现成本节约,同时享受云计算带来的无限可能与灵活性。尽情体验云计算带来的便利与灵活性。 适用客户 寻求无代码途径快速探索AI大模型的业务人员寻求构建AI大模型应用但缺乏GPU资源的开发者寻求简化技术门槛以有效利用AI大模型的企业 使用产品 函数计算FC 文件存储NAS 方案概览 本方案利用函数计算的无服务器架构,您可以在函数计算控制台选择魔搭(ModelScope)开源大模型应用模板;同时,我们将利用文件存储NAS,为应用服务所需的大模型和相关文件提供一个安全的存储环境;最终通过访问提供的域名进行模型的调用与验证。 仅需三步,即可玩转目前热门开源对话大模型。 本方案的技术架构包括以下基础设施和云服务: ∙函数计算:用于提供基于大模型的应用服务。∙文件存储NAS:用于存放ModelScope模型。∙专有网络VPC:用于配置专有网络,方便函数计算访问文件存储NAS。 部署应用 借助于函数计算应用模板,您可以便捷地将魔搭社区的开源大模型部署到函数计算上。 1)访 问函 数 计 算 应 用 模 板,参 考 图 片 模 型 来 源 选 择ModelScope;模 型ID填入ZhipuAI/chatglm3-6b;模型版本填入v1.0.2;地域目前仅支持华东1(杭州)或华东2(上海),选择华东2(上海);模型任务类型填入chat;AccessToken填入ModelScope的访问令牌。在modelscope访问令牌页面获取。其余配置项保持默认值即可,单击创建应用。模型下载可能会花费15分钟左右,请耐心等待部署完成。 a.针对当前应用,角色权限可能会不足,此时需要单击前往授权为角色授予所需权限。 b.ModelScope的访问令牌。在modelscope访问令牌页面获取。 c.更多开源LLM,您可以到ModelScope官网查询对应的模型ID。 2)创建成功后,为应用开启闲置预留模式。配置预留实例,您可以有效避免因实例冷启动导致的请求延迟问题。同时,您可以配置预留实例的弹性伸缩规则如定时伸缩和水位伸缩,提高实例使用率,解决资源浪费问题。 a.应用部署完成后,在资源信息区域单击后缀为model-app-func的函数名称跳转至函数详情页。 b.在函数详情页,选择配置页签,在左侧导航栏,选择预留实例,然后单击创建预留实例数策略。 c.在创建预留实例数策略页面,版本和别名选择为LATEST,预留实例数设置为1,启用闲置模式,然后单击确定。 d.等待容器实例成功启动后,可以看到当前预留实例数为1,且显示已开启闲置模式字样,表示闲置预留实例已成功启动。 3)( 可 选 ) 如 果 您 不 配 置 存 储 , 应 用 会 在 相 同 地 域 下 匹 配 名 称 是Alibaba-Fc-V3-Component-Generated的NAS:如果有就挂载;如果没有则会新建一 个NAS, 挂 载 到 后 缀 为model-cache、model-download-func和model-app-func的函数。如果您想绑定其他已有的NAS文件系统,可在网络和存储进行配置,更多详情请参见配置NAS文件系统。 使用LLM应用 部署完成后,您可以使用函数计算应用提供的域名访问服务,与模型进行对话。 1)在环境详情页面,点击访问域名右侧的域名,使用LLM应用。 重要: 请注意保护域名的安全,不要泄露给其他人,以防产生额外费用。 ***.devsapp.net域名是CNCFSandBox项目ServerlessDevs社区所提供,仅供学习和测试使用,不可用于任何生产使用;社区会对该域名进行不定期的拨测,并在域名下发30天后进行回收,强烈建议您绑定自定义域名以获得更好的使用体验,详细请见配 置自定义域名。 2)输入文本信息,然后单击Submit,您可以看到模型的回答结果。第一次调用因为函数冷启动会花费比较长的时间大概90s,后续回答速度会快很多。 说明:函数计算平台会在您调用结束后,自动将GPU实例置为闲置模式,无需您手动操作,并且