=== 四、推理系统&引擎 ===¶
训练过程通过设定数据处理方式,并设计合适的网络模型结构以及损失函数和优化算法,在此基础上将数据集以小批量(mini-batch)反复进行前向计算并计算损失,然后反向计算梯度利用特定的优化函数来更新模型,来使得损失函数达到最优的结果。训练过程最重要的就是梯度的计算和反向传播。
而推理就是在训练好的模型结构和参数基础上,做一次前向传播得到模型输出的过程。相对于训练而言,推理不涉及梯度和损失优化。推理的最终目标是将训练好的模型部署生产环境中。真正让 AI 能够运用起来。推理引擎可以将深度学习模型部署到云(Cloud)端或者边缘(Edge)端,并服务用户的请求。模型训练过程好比是传统软件工程中的代码开发的过程,而开发完的代码势必要打包,部署给用户使用,那么推理系统就负责应对模型部署的生命周期中遇到的挑战和问题。
当推理系统将完成训练的模型进行部署,并在服务时还需要考虑设计和提供负载均衡,请求调度,加速优化,多副本和生命周期管理等支持。相比深度学习框架等为训练而设计的系统,推理系统不仅关注低延迟,高吞吐,可靠性等设计目标,同时受到资源,服务等级协议(Service-Level Agreement),功耗等约束。本章将围绕深度学习推理系统的设计,实现与优化内容展开,同时还会在最后介绍部署和 MLOps 等内容。
移动端的推理引擎应该挺多的了,google在2017年推出了TF-Lite,腾讯在2017年推出了ncnn,Apple在2017也推出了CoreML,阿里在2018年推出了MNN,华为2019年推出了MindSpsore-Lite。距今已经过去了快5年的时间,技术上也接近收敛。下面让我们一起打开推理引擎的技术吧!
课程简介¶
《推理系统》推理系统是本分享的重点概述,推理就是在训练好的模型结构和参数基础上,执行前向传播得到模型输出的过程。相对于训练而言,推理不涉及梯度和损失优化。推理的最终目标是将训练好的模型部署生产环境中,真正让 AI 能够运用起来。推理引擎可以将深度学习模型部署到云(Cloud)端或者边缘(Edge)端,并服务用户的请求。模型训练过程好比是传统软件工程中的代码开发的过程,而开发完的代码势必要打包,部署给用户使用,那么推理系统就负责应对模型部署的生命周期中遇到的挑战和问题。
《轻量网络》在端侧推理引擎中,主要是执行轻量的模型结构。主要思想是针对神经网络模型设计更高效的网络计算方式,从而使神经网络模型的参数量减少的同时,不损失网络精度,并进一步提高模型的执行效率。本节主要集中介绍模型小型化中需要注意的参数和指标,接着深入了解CNN经典的轻量化模型和Transformer结构的轻量化模型。
《模型压缩》模型压缩跟轻量化网络模型不同,压缩主要是对轻量化或者非轻量化模型执行剪枝、蒸馏、量化等压缩算法和手段,使得模型更加小、更加轻便、更加利于执行。
《模型转换&优化》在这一节当中分为模型转换和模型优化,在整体架构图中属于离线模型转换模块。一方面,推理引擎需要把不同 AI 框架训练得到的模型进行转换;另外一方面需要对转换后的模型进行图优化等技术。
《Kernel优化》在上层应用或者 AI 网络模型中,看到的是算子;但是在推理引擎实际执行的是具体的 Kernel,而推理引擎中 CNN 占据了主要是得执行时间,因此其 Kernel 优化尤为重要。
希望这个系列能够给大家、朋友们带来一些些帮助,也希望自己能够继续坚持完成所有内容哈!
课程细节¶
建议优先下载或者使用PDF版本,PPT版本会因为字体缺失等原因导致版本很丑哦~
推理系统¶
《推理系统》推理系统是本分享的重点概述,推理就是在训练好的模型结构和参数基础上,执行前向传播得到模型输出的过程。相对于训练而言,推理不涉及梯度和损失优化。推理的最终目标是将训练好的模型部署生产环境中,真正让 AI 能够运用起来。推理引擎可以将深度学习模型部署到云(Cloud)端或者边缘(Edge)端,并服务用户的请求。模型训练过程好比是传统软件工程中的代码开发的过程,而开发完的代码势必要打包,部署给用户使用,那么推理系统就负责应对模型部署的生命周期中遇到的挑战和问题。
大纲 |
小节 |
链接 |
|---|---|---|
推理系统 |
01 内容介绍 |
|
推理系统 |
02 什么是推理系统 |
|
推理系统 |
03 推理流程全景 |
|
推理系统 |
04 推理系统架构 |
|
推理系统 |
05(上) 推理引擎架构 |
|
推理系统 |
05(下) 推理引擎架构 |
PP T, 视频 <htt ps://www.bilibili.com /video/BV1FG4y1C7Mn/> `__,`字幕 |
模型轻量化¶
《轻量网络》在端侧推理引擎中,主要是执行轻量的模型结构。主要思想是针对神经网络模型设计更高效的网络计算方式,从而使神经网络模型的参数量减少的同时,不损失网络精度,并进一步提高模型的执行效率。本节主要集中介绍模型小型化中需要注意的参数和指标,接着深入了解CNN经典的轻量化模型和Transformer结构的轻量化模型。
大纲 |
小节 |
链接 |
|---|---|---|
模型轻量化 |
01 推理参数了解 |
|
模型小型化 |
02(上) CNN模型小型化 |
|
模型小型化 |
02(下) CNN模型小型化 |
|
模型小型化 |
03 Transformer小型化 |
模型压缩¶
《模型压缩》模型压缩跟轻量化网络模型不同,压缩主要是对轻量化或者非轻量化模型执行剪枝、蒸馏、量化等压缩算法和手段,使得模型更加小、更加轻便、更加利于执行。
大纲 |
小节 |
链接 |
|---|---|---|
模型压缩 |
01 基本介绍 |
|
模型压缩 |
02 低比特量化原理 |
|
模型压缩 |
03 感知量化训练 QAT |
|
模型压缩 |
04 训练后量化PTQ与部署 |
|
模型压缩 |
05 模型剪枝 |
|
模型压缩 |
06(上) 知识蒸馏原理 |
|
模型压缩 |
06(下) 知识蒸馏算法 |
模型转换&优化¶
《模型转换&优化》在这一节当中分为模型转换和模型优化,在整体架构图中属于离线模型转换模块。一方面,推理引擎需要把不同 AI 框架训练得到的模型进行转换;另外一方面需要对转换后的模型进行图优化等技术。
大纲 |
小节 |
链接 |
|---|---|---|
模型转换&优化 |
01 基本介绍 |
|
模型转换模块 |
02 架构与文件格式 |
|
模型转换模块 |
03 自定义计算图IR |
|
模型转换模块 |
04 流程细节 |
|
图优化模块 |
05 计算图优化策略 |
|
图优化模块 |
06 常量折叠&冗余节点消除 |
|
图优化模块 |
07 算子融合/替换/前移 |
|
图优化模块 |
08 数据布局转换&内存优化 |
Kernel优化¶
《Kernel优化》在上层应用或者 AI 网络模型中,看到的是算子;但是在推理引擎实际执行的是具体的 Kernel,而推理引擎中 CNN 占据了主要是得执行时间,因此其 Kernel 优化尤为重要。
大纲 |
小节 |
链接 |
|---|---|---|
Kernel优化 |
01 Kernel优化架构 |
|
Kernel优化 |
02 卷积操作基础原理 |
|
Kernel优化 |
03 Im2Col算法 |
|
Kernel优化 |
04 Winograd算法 |
|
Kernel优化 |
05 QNNPack算法 |
|
Kernel优化 |
06 推理内存布局 |
|
Kernel优化 |
07 nc4hw4内存排布 |
|
Kernel优化 |
08 汇编与循环优化 |