3.3.2 生成FP32 Umodel
为了将第三方框架训练后的网络模型量化,需要先将它们转化为量化平台私有格式fp32 Umodel。
本阶段会生成一个*.fp32umodel文件以及一个*.prototxt文件。
prototxt文件的文件名一般是net_name_bmnetX_test_fp32.prototxt,其中X代表原始框架名的首字母,比如TensorFlow的网络转为Umodel后prototxt文件名会是net_name_bmnett_test_fp32.prototxt,PyTorch转换的网络会是net_name_bmnetp_test_fp32.prototxt等。
此阶段生成的 fp32umodel 文件是量化的输入,using-lmdb 中修改预处理就是针对此阶段生成的 prototxt 文件的修改。
注意:基于精度方面考虑输入Calibration-tools的fp32 umodel需要保持BatchNorm层以及Scale层独立。当您利用第三方工具对网络图做一些等价转换优化时,请确保BatchNorm以及Scale层不被提前融合到Convolution。
此阶段的参数设置需要注意:
如果指定了“-D (-dataset )”参数,那么需要保证“-D”参数下的路径正确,同时指定的数据集兼容该网络,否则会有运行错误。
若指定了“-D”参数,则需要修改 prototxt,请参考量化文档对应章节:
使用 data layer 作为输入
正确设置数据预处理
正确设置 lmdb 的路径
在不能提供合法的数据源时,不应该使用“-D”参数(该参数是可选项,不指定会使用随机数据测 试网络转化的正确性,可以在转化后的网络中再手动修改数据来源)
转化模型的时候可以指定参数“–cmp”,使用该参数会比较模型转化的中间格式与原始框架下的模 型计算结果是否一致,增加了模型转化的正确性验证。
此阶段生成fp32 umodel使用的工具为一系列名为ufw.tools.*_to_umodel的python脚本,存放于ufw包中,*号代表不同框架的缩写,可以通过以下命令查看使用帮助:
详细参数说明针对不同框架稍有区别,具体参考下文示例中各框架下的参数解释。
下文示例中模型生成命令已经保存为简单的python脚本,用户可以在这些脚本的基础上修改其中的少量参数完成自己的模型转换,也可以在命令行直接使用python3 -m ufw.tools.**_to_umodel
加参数进行转换。
3.3.2.1 caffe模型转换fp32umodel
SDK目录下examples/calibration/caffemodel_to_fp32umodel_demo/的示例中,演示了如何把Caffe版ResNet50模型转换为fp32 umodel:
在docker环境下,直接执行:
在当前文件夹下,新生成 compilation 文件夹,存放新生成的.fp32umodel 与.prototxt。
cf_to_umodel的命令参数:
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.2 TensorFlow模型转换fp32 umodel
SDK目录下examples/calibration/tf_to_fp32umodel_demo/的示例中,演示了如何把Tensorflow版resnet50_v2.pb转换为fp32 umodel:
在docker环境下,直接执行:
在当前文件夹下,新生成 compilation 文件夹,存放新生成的.fp32umodel 与.prototxt。
tf_to_umodel的命令参数:
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.3 PyTorch模型转换fp32 umodel
SDK目录下examples/calibration/pt_to_fp32umodel_demo/的示例中,演示了如何把PyTorch模型mobilenet_v2.pt转换为fp32 umodel:
在docker环境下,直接执行:
在当前文件夹下,新生成 compilation 文件夹,存放新生成的.fp32umodel 与.prototxt。
pt_to_umodel的命令参数:
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.4 MXNet模型转换fp32 umodel
SDK目录下examples/calibration/mx_to_fp32umodel_demo/的示例中,演示了如何把MXNet mobilenet0.25模型转换为fp32 umodel:
在docker环境下,直接执行:
若不指定-d 参数,则默认在当前文件夹下,新生成 compilation 文件夹,存放新生成的.fp32umodel 与.prototxt。
mx_to_umodel的命令参数:
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.5 Darknet模型转换fp32 umodel
SDK目录下examples/calibration/dn_to_fp32umodel_demo/的示例中,演示了如何把DarkNet YOLOV3模型转换为fp32 umodel。
参数解释:
-m # 指向 *.cfg 文件的路径
-w # 指向 *.weights 文件的路径
-s # 输入 tensor 的维度,(N,C,H,W)
-d # 生成 umodel 的文件夹
-D # lmdb 数据集的位置,没有的话,可以暂时随意填个路径,然后手动编辑 prototxt 文件的时候,根据实际的路径来添加
运行命令:
此示例程序发布时为了减少发布包体积,原始网络没有随SDK一块发布,要运行此示例需要先下载原始网络:
若不指定-d 参数,则默认在当前文件夹下,新生成 compilation 文件夹存放输出的 *.fp32umodel 与 *_bmnetd_test_fp32.prototxt。
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.6 ONNX模型转换fp32 umodel
SDK目录下examples/calibration/on_to_fp32umodel_demo/的示例中,演示了如何把ONNX posenet模型转换为fp32 umodel。
参数解释:
-m # 指向 *.onnx 文件的路径
-s # 输入 tensor 的维度,(N,C,H,W)
-i # 输入 tensor 的名称
-o # 输出 tensor 的名称
-d # 生成 umodel 的文件夹
-D # lmdb 数据集的位置,没有的话,可以暂时随意填个路径,然后手动编辑 prototxt 文件的时候,根据实际的路径来添加
--cmp # 可选参数,指定是否测试模型转化的中间文件
运行命令:
若不指定-d 参数,则默认在当前文件夹下,新生成 compilation 文件夹存放输出的 *.fp32umodel 与 *_bmneto_test_fp32.prototxt。
更多详细内容,请参考《Quantization-Tools-User_Guide》。
3.3.2.7 PaddlePaddle模型转换fp32 umodel
SDK目录下examples/calibration/pp_to_fp32umodel_demo/的示例中,演示了如何把PaddlePaddle OCR模型转换为fp32 umodel。
参数解释:
-m # 指向 *.pdiparams文件所在的路径,参数到模型所在文件夹那一级;paddle模型有2种:组合式(combined model)和非复合式(uncombined model);组合式就是model + 权重,__model__文件夹下有很多文件,每一个文件是一层,这种模型名称必须用__model__;如果是非组合式,一定要把模型名称修改为*.pdmodel和*.pdiparams
-s # 输入 tensor 的维度,(N,C,H,W),shapes和descs中的变量顺序、名称要和实际模型一致,不能写错;
-i # 输入 tensor 的名称
-o # 输出 tensor 的名称
-d # 生成 umodel 的文件夹
-D # lmdb 数据集的位置,没有的话,可以暂时随意填个路径,然后手动编辑 prototxt 文件的时候,根据实际的路径来添加
--cmp # 可选参数,指定是否测试模型转化的中间文件
运行命令:
若不指定-d 参数,则默认在当前文件夹下,新生成 compilation 文件夹存放输出的 *.fp32umodel 与 *_bmneto_test_fp32.prototxt。
更多详细内容,请参考《Quantization-Tools-User_Guide》。
最后更新于