Darknet 模型转换示例
概述
本文档以 yolov4_tiny 为例,演示如何使用 Netrans 对 Darknet 模型进行转换。Netrans 支持 Darknet官网 列出的所有darknet模型。
快速开始
1. 环境准备
确保已安装 Netrans,如未安装请参考 安装指南。
2. 进入示例目录
1cd /home/xj/work/nudt/netrans/examples/darknet
2mamba activate netrans # 激活 netrans 环境
3. 数据准备
本示例包含以下文件:
yolov4_tiny/
├── 0.jpg # 校准图像
├── dataset.txt # 数据集路径配置
├── yolov4_tiny.cfg # 网络结构配置文件
└── yolov4_tiny.weights # 预训练权重文件
4. 一体化转换(推荐)
1# CLI 方式 - 一体化流程(推荐)
2netrans load yolov4_tiny --mean 128 128 128 --scale 1 1 1
3netrans quantize yolov4_tiny asymu8 --pre --post
4netrans export yolov4_tiny asymu8
分步详细流程
1# 1. 模型导入
2netrans load yolov4_tiny --mean 128 128 128 --scale 1 1 1
3
4# 2. 模型量化
5netrans quantize yolov4_tiny asymu8
6
7# 3. 前后处理集成
8netrans add_pre_post yolov4_tiny asymu8 --preprocess --postprocess
9
10# 4. 模型导出
11netrans export yolov4_tiny asymu8
Python API 示例
基础转换
from netrans import Netrans
# 初始化
netrans = Netrans()
# 加载模型
netrans.load('yolov4_tiny', mean=[128, 128, 128], scale=[1, 1, 1])
# 量化并集成前后处理
netrans.quantize('asymu8', pre=True, post=True)
# 导出NBG格式
netrans.export('asymu8')
分步API使用
from netrans import Netrans
netrans = Netrans()
# 分步执行
netrans.load('yolov4_tiny', mean=[128, 128, 128], scale=[1, 1, 1])
netrans.quantize('asymu8')
netrans.add_pre_post('asymu8', pre=True, post=True)
netrans.export('asymu8')
输出说明
环境准备完成后,执行转换流程会生成:
yolov4_tiny/
├── 0.jpg
├── dataset.txt
├── yolov4_tiny.cfg
├── yolov4_tiny.weights
├── yolov4_tiny.data # 模型权重数据(生成)
├── yolov4_tiny.json # 模型结构描述(生成)
├── yolov4_tiny_asymu8.quantize # 量化配置(生成)
├── yolov4_tiny_inputmeta.yml # 输入元数据(生成)
├── yolov4_tiny_postprocess_file.yml # 后处理配置(生成)
└── wksp/ # 工作空间(生成)
├── yolov4_tiny_asymu8/ # 量化模型工程
└── yolov4_tiny_asymu8_nbg_unify/ # 最终NBG输出
├── network_binary.nb # NBG模型文件(核心输出)
├── nbg_meta.json # NBG元数据
├── main.c # 测试程序
└── ... # 其他部署文件
核心输出文件:
network_binary.nb- 最终NBG模型文件,可直接部署到PNNA芯片nbg_meta.json- 模型元数据,包含输入输出信息main.c- 示例应用程序,展示如何加载和运行模型
相关文档
版本: 6.42.4+
更新日期: 2025-12-22
测试模型: yolov4_tiny (Darknet格式)