近年来,人工智能(AI)技术的迅猛发展引发了各行各业的变革,AI应用正以不可阻挡的势头兴起。从智能客服到精准医疗,从自动驾驶到金融风控,AI技术的广泛应用极大地提升了工作效率和决策质量。根据预测,未来几年内,AI市场将继续快速增长,成为推动经济和社会进步的重要动力。 在这一背景下,如何高效地开发、部署和维护AI大模型已成为技术人员亟待解决的挑战。而阿里云函数计算FC作为一个事件驱动的全托管Serverless计算服务,为AI应用的开发提供了ServerlessGPU算力和灵活、可扩展的解决方案。您无需管理服务器等基础设施,函数计算能够根据需求自动扩展,按需计算,从而将开发者从底层基础设施的管理中解放出来,使他们能够更专注于业务逻辑和算法优化。结合函数计算与AI大模型,开发者可以快速构建和部署各种AI应用,满足市场不断变化的需求。 本书旨在整理和介绍函数计算如何构建各类AI应用,以及如何基于函数计算结合其他云产品来部署各种AI大模型。书中的主要内容包括:AI大模型的选择与应用场景,适用人群的分析,应用架构的设计,及详细的部署教程等。通过这些内容,读者将能够全面理解并掌握AI与函数计算结合的最佳实践,从而在自己的项目中有效应用这些AI技术,实现更高的业务价值和技术创新。 一、构建个人专属AI助手5 二、AIGC生图92 三、AI内容创作125 四、打造多形态全天候AI客服188 五、使用AI快速完成文本信息处理218 六、使用AI快速完成图像处理242 一、构建个人专属AI助手 0代码,2种方式,一键部署DeepSeek系列模型 DeepSeek凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeekR1Distill是使用DeepSeekR1生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台CAP提供模型服务、应用模板两种部署方式辅助您部署DeepSeekR1系列模型。完成模型部署后,您可以与模型进行对话体验,或以API形式进行调用,接入AI应用中。 支持的模型列表 部署方式说明: Ollama:轻量级推理框架,专注于量化模型部署及各种开源LLM部署。Transformer:由HuggingFace提供的模型推理框架,支持PyTorch、TensorFlow等模型部署。 模型 部署方式 最低配置 DeepSeekR1DistillQwen15B Transformer Tesla16GB DeepSeekR1DistillQwen7B Transformer Tesla16GB DeepSeekR1DistillLlama8B Transformer Tesla16GB DeepSeekR1DistillQwen14B Transformer Ada48GB DeepSeekR1DistillQwen32B Transformer Ada48GB DeepSeekR1DistillQwen15BGGUF Ollama Tesla8GB DeepSeekR1DistillQwen7BGGUF Ollama Tesla16GB DeepSeekR1DistillLlama8BGGUF Ollama Tesla16GB DeepSeekR1DistillQwen14BGGUF Ollama Ada48GB DeepSeekR1DistillQwen32BGGUF Ollama Ada48GB 前置准备 1首次使用云原生应用开发平台CAP会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。 2本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。 方式一:应用模板部署 1创建项目 登录函数计算30控制台,在左侧导航栏选择应用,在应用页面选择CAP应用平台页签,然后单击创建项目基于模板创建。 说明 当左上角显示函数计算FC30时,表示当前控制台为30控制台。 2部署模板 1在搜索栏输入DeepSeek进行搜索,单击基于DeepSeekR1构建AI聊天助手,进入模板详情页,单击立即部署。 2选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续10分钟左右,状态显示已部署表示部署成功。 3验证应用 部署完毕后,点击OpenWebUI服务,在访问地址内找到公网访问单击访问。 方式二:模型服务部署 本文将以DeepSeekR1DistillQwen7BGGUF模型为例演示部署流程。使用API形式进行模型调用,接入线上业务应用。 1创建空白项目 登录函数计算30控制台,在左侧导航栏选择应用,在应用页面选择CAP应用平台页签,然后单击创建项目创建空白项目。 说明 当左上角显示函数计算FC30时,表示当前控制台为30控制台。 2选择模型服务 3部署模型服务 1选择模型DeepSeekR1DistillQwen7BGGUF。 2单击资源配置,DeepSeekR1DistillQwen7BGGUF推荐使用Tesla系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。 3单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待10分钟左右即可完成。 4尝试更多模型部署 1如果您希望部署更多模型,但是支持列表中没有,您可以选择更多模型来源。 2您可以选择更多模型,以ModelScope为例,假设您选择 DeepSeekR1DistillQwen7BGGUF模型,其参考信息如下。关于支持的模型列表,请参见ModelScopeLibrary支持的模型服务列表。 配置名称 值 ModelScopeID lmstudiocommunityDeepSeekR1DistillQwen7BGGUF 执行框架 Ollama 模型加载方式 单文件加载 GGUF文件 DeepSeekR1DistillQwen7BQ4KMgguf 3如果ModelScopeLibrary支持的模型列表中仍未找到所需模型,您可以登录ModelScope官网复制相关模型ID,并修改加载的GGUF文件即可。以DeepSeek14B为例,如希望部署14B模型可将配置改为以下参数。 配置名称 值 ModelScopeID lmstudiocommunityDeepSeekR1DistillQwen14BGGUF GGUF文件 DeepSeekR1DistillQwen14BQ4KMgguf 在下图中,其中表示为ModelScopeID的值,表示为GGUF文件列表为不同的量化精度型文件,根据需求任选其一即可。 更多ollama参数配置如params,template等,可参考DeepSeekollamalibrary。14B及以上模型需在资源配置中使用Ada系列显卡,并且使用全卡预留48G显存。 5验证模型服务 单击调试,即可测试和验证相关模型调用。 在本地命令行窗口中验证模型调用。 6第三方平台API调用 您可以选择在Chatbox等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。 删除项目 您可以使用以下步骤删除应用,以降低产生的费用。 1进入项目详情点击删除,会进入到删除确认对话框。 2您可以看到要删除的资源。默认情况下,云原生应用开发平台CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。 3勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除。 7分钟极速部署专属开源对话大模型 本方案将借助阿里云函数计算,您能够迅速部署并利用来自魔搭社区(ModelScope)的开源大模型,实现高效便捷的大模型服务应用。只需短短10分钟,即可将这些强大模型部署至阿里云函数计算平台,立即开启您的文本生成服务之旅。 无需自备或维护高昂的GPU资源,函数计算的按需付费模式让您无需担忧前期投入与运维开销,真正实现成本节约,同时享受云计算带来的无限可能与灵活性。尽情体验云计算带来的便利与灵活性。 适用客户 寻求无代码途径快速探索AI大模型的业务人员 寻求构建AI大模型应用但缺乏GPU资源的开发者 寻求简化技术门槛以有效利用AI大模型的企业 使用产品 函数计算FC 文件存储NAS 方案概览 本方案利用函数计算的无服务器架构,您可以在函数计算控制台选择魔搭(ModelScope)开源大模型应用模板;同时,我们将利用文件存储NAS,为应用服务所需的大模型和相关文件提供一个安全的存储环境;最终通过访问提供的域名进行模型的调用与验证。 仅需三步,即可玩转目前热门开源对话大模型。 本方案的技术架构包括以下基础设施和云服务: 函数计算:用于提供基于大模型的应用服务。 文件存储NAS:用于存放ModelScope模型。 专有网络VPC:用于配置专有网络,方便函数计算访问文件存储NAS。 部署应用 借助于函数计算应用模板,您可以便捷地将魔搭社区的开源大模型部署到函数计算上。 1访问函数计算应用模板,参考图片模型来源选择ModelScope;模型ID填入ZhipuAIchatglm36b;模型版本填入v102;地域目前仅支持华东1(杭州)或华东2(上海),选择华东2(上海);模型任务类型填入chat;AccessToken填入ModelScope的访问令牌。在modelscope访问令牌页面获取。其余配置项保持默认值即可,单击创建应用。模型下载可能会花费15分钟左右,请耐心等待部署完成。 a针对当前应用,角色权限可能会不足,此时需要单击前往授权为角色授予所需权限。 bModelScope的访问令牌。在modelscope访问令牌页面获取。 c更多开源LLM,您可以到ModelScope官网查询对应的模型ID。 2)创建成功后,为应用开启闲置预留模式。配置预留实例,您可以有效避免因实例冷启动导致的请求延迟问题。同时,您可以配置预留实例的弹性伸缩规则如定时伸缩和水位伸缩,提高实例使用率,解决资源浪费问题。 a应用部署完成后,在资源信息区域单击后缀为modelappfunc的函数名称跳转至函数详情页。 b在函数详情页,选择配置页签,在左侧导航栏,选择预留实例,然后单击创建预留实例数策略。 c在创建预留实例数策略页面,版本和别名选择为LATEST,预留实例数设置为1,启用闲置模式,然后单击确定。 d等待容器实例成功启动后,可以看到当前预留实例数为1,且显示已开启闲置模式字样,表示闲置预留实例已成功启动。 3)(可选)如果您不配置存储,应用会在相同地域下匹配名称是AlibabaFcV3ComponentGenerated的NAS:如果有就挂载;如果没有则会新建一个NAS,挂载到后缀为modelcache、modeldownloadfunc和modelappfunc的函数。如果您想绑定其他已有的NAS文件系统,可在网络和存储进行配置,更多详情请参见配置NAS文件系统。 使用LLM应用 部署完成后,您可以使用函数计算应用提供的域名访问服务,与模型进行对话。 1在环境详情页面,点击访问域名右侧的域名,使用LLM应用。 重要: 请注意保护域名的安全,不要泄露给其他人,以防产生额外费用。 devsappnet域名是CNCFSand