✏️
BMNNSDK2开发手册
  • BM1684 BMNNSDK2 入门手册
  • 一、BMNNSDK2软件包
    • 1.1 BMNNSDK2 简介
    • 1.2 BMNNSDK2 文档
    • 1.3 基本概念介绍
    • 1.4 获取BMNNSDK2 SDK
    • 1.5 安装BMNNSDK2 SDK
      • 1.5.1 环境配置-Linux
      • 1.5.2 环境配置-Windows
      • 1.5.3 环境配置-SoC
    • 1.6 更新BMNNSDK
    • 1.7 参考样例简介
    • 1.8 BMNNSDK2更新记录
    • 1.9 BMNNSDK2已知问题
  • 二、快速入门
    • 2.1 跑通第一个例子:综述
    • 2.2 跑通第一个例子:模型迁移
    • 2.3 跑通第一个例子:算法迁移
  • 三、网络模型迁移
    • 3.1 模型迁移概述
    • 3.2 FP32 模型生成
      • 3.2.1 编译Caffe模型
      • 3.2.2 编译TensorFlow模型
      • 3.2.3 编译MXNet模型
      • 3.2.4 编译PyTorch模型
      • 3.2.5 编译 Darknet 模型
      • 3.2.6 编译ONNX模型
      • 3.2.7 编译Paddle模型
    • 3.3 INT8 模型生成
      • 3.3.1 准备lmdb数据集
      • 3.3.2 生成FP32 Umodel
      • 3.3.3 生成INT8 Umodel
      • 3.3.4 精度测试
      • 3.3.5 生成INT8 Bmodel
      • 3.3.6 auto_cali一键量化工具
    • 3.4 实例演示
      • 3.4.1 create_lmdb_demo
      • 3.4.2 classify_demo
      • 3.4.3 face_demo
  • 四、算法移植
    • 4.1 算法移植概述
    • 4.2 C/C++编程详解
    • 4.3 Python编程详解
    • 4.4 解码模块
    • 4.5 图形运算加速模块
    • 4.6 模型推理
    • 4.7 实例演示
  • 五、打包和发布
    • 5.1 概述
    • 5.2 PCIE加速卡模式
    • 5.3 SOC模式
  • 附录
由 GitBook 提供支持
在本页
  1. 三、网络模型迁移

3.2 FP32 模型生成

​基于BMNNSDK2提供的BMNet工具链可以很方便地将原始第三方深度学习框架下训练的模型转换为BModel。

  • bmnetc:编译Caffe模型

  • bmnett:编译TensorFlow模型

  • bmnetm:编译MXNet模型

  • bmnetp:编译PyTorch模型

  • bmnetd:编译Darknet模型

  • bmneto:编译ONNX模型

  • bmpaddle:编译PaddlePaddle模型

执行source envsetup_xxx.sh会自动安装以上转换工具,并在当前终端设置相关的环境变量。您也可以将环境变量写到配置文件~/.bashrc中。

注意:

对于有些模型,比如paddle-ocr-detection或其他算子中有很多累加或除法的模型,如果在转换过程中打开比对选项的话,会由于误差累计而导致比对结果超出允许的误差阈值范围,模型转换中断;还有一些有排序操作的模型,虽然误差不大,但会影响排序的顺序,从而导致比对出错、转换中断。对于这些情况,可以在转换过程中关闭cmp参数,不进行数据比对,待模型转换完成后再到业务层面验证转换后模型的精度。

上一页3.1 模型迁移概述下一页3.2.1 编译Caffe模型

最后更新于3年前