BM1684 BMNNSDK2 入门手册
更新日期:2022年03月21日 适配版本:2.7.0_20220316_QA_release
最后更新于
更新日期:2022年03月21日 适配版本:2.7.0_20220316_QA_release
最后更新于
法律声明
版权所有 © 算能 2022. 保留一切权利。
非经本公司书面许可,任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部,并不得以任何形式传播。
注意
您购买的产品、服务或特性等应受 算能 商业合同和条款的约束, 本文档中描述的全部或部分产品、服务或特性可能不在您的购买或使用范围之内。 除非合同另有约定, 算能 对本文档内容不做任何明示或默示的声明或保证。 由于产品版本升级或其他原因,本文档内容会不定期进行更新。 除非另有约定,本文档仅作为使用指导,本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。
技术支持
地址:北京市海淀区丰豪东路9号院中关村集成电路设计园(ICPARK)1号楼
邮编:100094
电话:+86-10-57590723 +86-10-57590724
BMNNSDK2是算能科技自主研发的原创深度学习开发工具包,未经算能科技事先书面授权,其它第三方公司或个人不得以任何形式或方式复制、发布和传播。
在使用过程中,如有关于BMNNSDK2的任何问题或者意见和建议,请联系相关技术支持。
术语 | 说明 |
---|---|
版本
发布时间
说明
v2.0.0
2019/9/20
First offical release
v2.0.1
2019/11/16
Revised for 2.0.1
v2.0.3
2020/05/07
Revised for 2.0.3
v2.2.0
2020/10/12
Revised for 2.2.0
v2.3.0
2021/01/11
Revised for 2.3.0
v2.3.1
2021/03/09
Revised for 2.3.1
v2.3.2
2021/04/01
Revised for 2.3.2
v2.4.0
2021/05/23
Revised for 2.4.0
v2.5.0
2021/09/02
Revised for 2.5.0
v2.6.0
2021/12/09
Revised for 2.6.0
v2.7.0
2022/03/16
Revised for 2.7.0
BM1684
算能科技面向深度学习领域推出的第三代张量处理器
TPU
BM1684芯片中的神经网络运算单元
VPU
BM1684芯片中的解码单元
VPP
BM1684芯片中的图形运算加速单元
JPU
BM1684芯片中的图像jpeg编解码单元
BMNNSDK2
算能科技基于BM1684芯片的原创深度学习开发工具包
PCIE Mode
BM1684的一种工作形态,芯片作为加速设备来进行使用,客户算法运行于x86主机
SoC Mode
BM1684的一种工作形态,芯片本身作为主机独立运行,客户算法可以直接运行其上。
CModel
BM1684软件模拟器,包含于BMNNSDK2中,在不具备 TPU 硬件设备的情况 下,可用于验证 BMNNSDK2编译及完成模型转换
arm_pcie Mode
BM1684的一种工作形态,搭载芯片的板卡作为PCIe从设备插到ARM cpu的服务器上,客户算法运行于ARM cpu的主机上
BMCompiler
面向算能科技TPU 处理器研发的深度神经网络的优化编译器,可以将深度学习框架定义的各种深度神经网络转化为 TPU 上运行的指令流。
BMRuntime
TPU推理接口库
BMCV
图形运算硬件加速接口库
BMLib
在内核驱动之上封装的一层底层软件库,设备管理、内存管理、数据搬运、API发 送、A53使能、功耗控制
UFramework(ufw)
算能自定义的基于Caffe的深度学习推理框架,用于将模型与原始框架解耦以便验证模型转换精度和完成量化
BMNetC
面向Caffe的 BMCompiler 前端工具
BMNetD
面向Darknet的BMCompiler前端工具
BMNetM
面向MxNet的 BMCompiler 前端工具
BMNetO
面向ONNX的BMCompiler前端工具
BMNetP
面向PyTorch的 BMCompiler 前端工具
BMNetT
面向TensorFlow的BMCompiler 前端工具
BMNetU
INT8量化模型的BMCompiler前端工具
BMPaddle
面向Paddle Paddle的BMCompiler前端工具
Umodel
算能自定义的UFamework下的模型格式,为量化模型时使用的中间模型格式
BModel
面向算能TPU处理器的深度神经网络模型文件格式,其中包含目标网络的权重(weight)、TPU指令流等
BMLang
面向TPU的高级编程模型,用户开发时无需了解底层TPU硬件信息
BMKernel(OKKernel)
基于TPU原子操作(根据芯片指令集封装的一套接口)的开发库,需熟悉芯片架构、存储细节
SAIL
支持Python/C++接口的Sophon Inference推理库,是对BMCV、BMDecoder、 BMLib、BMRuntime等的进一步封装
winograd
一种卷积的加速算法