首页>>人工智能->【模型部署与业务落地】AI 框架部署方案之模型部署概述

【模型部署与业务落地】AI 框架部署方案之模型部署概述

时间:2023-11-30 本站 点击:1

文:不愿透露姓名的小 P 同学

概述

模型训练重点关注的是如何通过训练策略来得到一个性能更好的模型,其过程似乎包含着各种“玄学”,被戏称为“炼丹”。从训练样本的获取(包括数据采集与标注)、模型结构的确定、损失函数和评价指标的确定,到模型参数的训练,这一整个流程更多是由业务方去承接相关工作。一旦“炼丹”完成(即训练得到了一个指标不错的模型),如何将这颗“丹药”赋能到实际业务中,充分发挥其能力,就是部署方需要承接的工作了。

总的来说,在一般情况下,学术界负责各种 SOTA (State of the Art) 模型的训练和结构探索,而工业界负责将这些 SOTA 模型应用落地,赋能百业。

本文将要讲述的是,在 CV 场景中,如何实现模型的快速落地,赋能到产业应用中。模型部署一般无需再考虑如何修改训练方式或者修改网络结构以提高模型精度,更多的是需要明确部署的场景、部署方式(中心服务化还是本地终端部署)、模型的优化指标,以及如何提高吞吐率和减少延迟等。本文接下来将对这些内容逐一进行介绍。

模型部署场景

这个问题主要源于中心服务器云端部署和边缘部署两种方式的差异。

云端部署:这种部署方式下常见的模式是,模型部署在云端服务器,用户通过网页访问或者 API 接口调用等形式向云端服务器发出请求,云端收到请求后处理并返回结果。

边缘部署:主要用于嵌入式设备,主要通过将模型打包封装到 SDK,集成到嵌入式设备,数据的处理和模型推理都在终端设备上执行。

模型部署方式

针对上面提到的两种场景,分别有两种不同的部署方案,Service 部署和 SDK 部署。

Service 部署:主要用于中心服务器云端部署,一般直接以训练的引擎库作为推理服务模式。

SDK 部署:主要用于嵌入式端部署场景,以 C++ 等语言实现一套高效的前后处理和推理引擎库(高效推理模式下的 Operation/Layer/Module 的实现),用于提供高性能推理能力。此种方式一般需要考虑使用模型转换(动态图静态化)、模型联合编译等进行深度优化。

SDK 部署Service 部署部署环境SDK 引擎训练框架模型语义转换需要进行前后处理和模型的算子重实现一般框架内部负责语义转换前后处理对齐算子训练和部署对应两套实现,需要进行算子数值对齐共用算子计算优化偏向于挖掘芯片编译器的深度优化能力利用引擎已有训练优化能力

部署的核心优化指标

部署的核心目标是合理把控成本、功耗、性价比三大要素。

成本问题是部署硬件的重中之重,AI 模型部署到硬件上的成本将极大限制用户的业务承受能力。

成本问题主要聚焦于芯片的选型。比如,对比寒武纪 MLU220 和 MLU270,MLU270 主要用作数据中心级的加速卡,其算力和功耗都相对于边缘端的人工智能加速卡 MLU220 要低。

至于 Nvidia 推出的 Jetson 和 Tesla T4 也是类似思路,Tesla T4 是主打数据中心的推理加速卡,而 Jetson 则是嵌入式设备的加速卡。

对于终端场景,还会根据对算力的需求进一步细分,比如表中给出的高通骁龙芯片,除 GPU 的浮点算力外,还会增加 DSP 以增加定点算力。

篇幅有限,不再赘述,主要还是根据成本和业务需求来进行权衡。

芯片型号算力功耗Snapdragon 8557 TOPS (DSP) + 954.7 GFLOPs(GPU FP32)10 WSnapdragon 86515 TOPS (DSP) + 1372.1 GFLOPs(GPU FP32)10 WMLU2208 TOPS (INT8)8.25 WMLU270-S4128 TOPS (INT8)70wJetson-TX21.30 TOPS (FP16)7.5 W / 15 WT4130 TOPS (INT8)70 W

在数据中心服务场景,对于功耗的约束要求相对较低;在边缘终端设备场景,硬件的功耗会影响边缘设备的电池使用时长。因此,对于功耗要求相对较高的场景,一般来说,会利用 NPU 等专用优化的加速器单元来处理神经网络等高密度计算,从而节省大量功耗。

不同的业务场景对于芯片的选择有所不同,以达到更高的性价比。

从公司业务来看,云端相对更加关注是多路的吞吐量优化需求,而终端场景则更关注单路的延时需要。在目前主流的 CV 领域,低比特模型相对成熟,并且因为 INT8/INT4 芯片成本低、算力高,已经广泛使用这种芯片;但在 NLP 或者语音等领域,由于对精度的要求较高,低比特模型精度可能会存在难以接受的精度损失,所以 FP16 是相对更优的选择。

在 CV 领域的芯片性价比选型上,在有 INT8/INT4 计算精度的芯片里,主打低精度算力的产品是追求高性价比的主要选择之一,但这也为平衡精度和性价比提出了巨大的挑战。

部署流程

上面简要介绍了部署的主要方式和场景,以及部署芯片的选型考量指标,接下来以 SDK 部署为例,给大家概括介绍一下 SenseParrots 在部署中的整体流程。

SenseParrots 部署流程大致分为以下几个步骤:

模型转换;

模型量化压缩;

模型打包封装 SDK。

模型转换

模型转换主要用于模型在不同框架之间的流转,常用于训练和推理场景的连接。

目前主流的框架都以 ONNX 或者 caffe 为模型的交换格式,SenseParrots 也不例外。SenseParrots 的模型转换主要分为计算图生成和计算图转换两大步骤,另外,根据需要,还可以在中间插入计算图优化,对计算机进行推理加速(诸如常见的 CONV/BN 的算子融合)。

计算图生成是通过一次 inference 并追踪记录的方式,将用户的模型完整地翻译成静态的表达。在模型 inference 的过程中,框架会记录执行算子的类型、输入输出、超参、参数和调用该算子的模型层次,最后把 inference 过程中得到的算子信息和模型信息结合得到最终的静态计算图。

在计算图生成之后与计算图转换之前,可以进行计算图优化,例如去除冗余 op,计算合并等。SenseParrots 原生实现了一批计算图的精简优化 pass,也开放接口鼓励用户对计算图进行自定义的处理和优化操作。

计算图转换是指分析静态计算图的算子,对应转换到目标格式。SenseParrots 支持了多后端的转换,能够转换到各个 opset 的 ONNX、原生 caffe 和多种第三方版本的 caffe。框架通过算子转换器继承或重写的方式,让 ONNX 和 caffe 的不同版本的转换开发变得更加简单。同时,框架开放了自定义算子生成和自定义算子转换器的接口,让第三方框架开发者也能够轻松地自主开发实现 SenseParrots 到第三方框架的转换。

模型量化压缩

终端场景中,一般会有内存和速度的考虑,因此会要求模型尽量小,同时保证较高的吞吐率。除了人工针对嵌入式设备设计合适的模型,如 MobileNet 系列,通过 NAS(Neural Architecture Search) 自动搜索小模型,以及通过蒸馏/剪枝的方式压缩模型外,一般还会使用量化来达到减小模型规模和加速的目的。

量化的过程主要是将原始浮点 FP32 训练出来的模型压缩到定点 INT8(或者 INT4/INT1)的模型。由于 INT8 只需要 8 比特来表示,因此相对于 32 比特的浮点,其模型规模理论上可以直接降为原来的 1/4,这种压缩率是非常可观的。

另外,大部分终端设备都会有专用的定点计算单元,通过低比特指令实现的低精度算子,速度上会有很大的提升。当然,这部分还依赖协同体系结构和算法来获得更大的加速。

量化的技术栈主要分为量化训练 (QAT, Quantization Aware Training)和离线量化 (PTQ, Post Training Quantization)。两者的主要区别在于:

量化训练:是通过对模型插入伪量化算子(这些算子用来模拟低精度运算的逻辑),通过梯度下降等优化方式在原始浮点模型上进行微调,从来调整参数得到精度符合预期的模型。

离线量化:主要是通过少量校准数据集(从原始数据集中挑选 100-1000 张图,不需要训练样本的标签)获得网络的 activation 分布,通过统计手段或者优化浮点和定点输出的分布来获得量化参数,从而获取最终部署的模型。

两者各有优劣,量化训练基于原始浮点模型的训练逻辑进行训练,理论上更能保证收敛到原始模型的精度,但需要精细调参且生产周期较长;离线量化只需要基于少量校准数据,因此生产周期短且更加灵活,缺点是精度可能略逊于量化训练。

实际落地过程中,发现大部分模型通过离线量化就可以获得不错的模型精度(1% 以内的精度损失,当然这部分精度的提升也得益于优化策略的加持),剩下少部分模型可能需要通过量化训练来弥补精度损失,因此实际业务中会结合两者的优劣来应用。

量化主要有两大难点:

如何平衡模型的吞吐率和精度,

如何结合推理引擎充分挖掘芯片的能力。

比特数越低,其吞吐率可能会越大,但其精度损失可能也会越大。因此,如何通过算法提升精度至关重要。这也是组内的主要工作之一。

另外,压缩到低比特,某些情况下吞吐率未必会提升,还需要结合推理引擎优化一起对模型进行图优化,甚至有时候会反馈如何进行网络设计。这是一个算法与工程迭代的过程。

模型打包封装 SDK

实际业务落地过程中,模型可能只是产品流程中的一环,用于实现某些特定功能,其输出可能会用于流程的下一环。所以,模型打包会将模型的前后处理,一个或者多个模型整合到一起,再加入描述性的文件(前后处理的参数、模型相关参数、模型格式和版本等)来实现一个完整的功能。

由于这种需求,SDK 除了需要一些通用前后处理的高效实现、对齐训练时的前后处理逻辑,还需要具有足够好的扩展性来应对不同的场景,方便业务线同学扩展新的功能。

可以看到,模型打包过程更多是模型的进一步组装,将不同模型组装在一起,当需要使用的时候将这些内容解析成整个流程 (pipeline) 的不同阶段 (stage),从而实现整个产品功能。

另外,考虑到模型很大程度是研究员的研究成果,对外涉及保密问题,因此会对模型进行加密,以保证其安全性。加密算法的选择需要根据实际业务需求来决定,诸如不同加密算法其加解密效率不一样,加解密是否有中心验证服务器,其核心都是为了保护研究成果。

References

https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/tesla-t4/t4-tensor-core-datasheet-951643.pdf

https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-tx2/

https://www.cambricon.com/index.php?m=content&c=index&a=lists&catid=57

https://www.cambricon.com/index.php?m=content&c=index&a=lists&catid=36

https://www.nvidia.com/en-us/data-center/tesla-t4/

https://zhuanlan.zhihu.com/p/58864114

https://www.wikiwand.com/en/List_of_Qualcomm_Snapdragon_processors#/Snapdragon_855/855+_(2019)_and_860_(2021)

感谢阅读,欢迎在评论区留言讨论哦~

P.S. 如果喜欢本篇文章,请多多 点赞,让更多的人看见我们 :D

关注 公众号「SenseParrots」,获取人工智能框架前沿业界动态与技术思考。

原文:https://juejin.cn/post/7101245756383690765


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/3448.html