PNNA NPU Manual
  • 简介
    • 快速入门
      • 开发流程
      • 安装 Netrans
      • 模型转换
      • 精度评估
      • 安装交叉编译器
      • 编译示例工程
      • 部署到开发板
    • 词汇表
  • 模型转换
    • Netrans 简介
      • 工程结构
      • 安装指南
        • 系统依赖
        • 安装步骤
      • Netrans 使用说明
        • 命令行工具
        • Python接口
      • 模型支持
      • 算子支持
        • 支持的Caffe算子
        • 支持的TensorFlow算子
        • 支持的ONNX算子
        • 支持的Darknet算子
    • Netrans CLI 参考
      • 子命令总览
      • 子命令详细规范
        • 3.1 netrans load
        • 3.2 netrans quantize
        • 3.3 netrans quantize_hybrid
        • 3.4 netrans add_pre_post
        • 3.5 netrans export
        • 3.6 netrans dump
        • 3.7 netrans inference
      • 附录
        • A. 量化类型简表
        • B. layers.txt 文件格式
      • 参见
    • Netrans Python API 参考
      • 概述
      • 核心类
        • Netrans类
      • 快速开始
      • 方法总览
      • 方法详细规范
        • Netrans.init
      • Netrans.load 模型导入
      • Netrans.quantize 模型量化
      • Netrans.add_pre_post 前后处理加入推理计算图
      • Netrans.export 模型导出
      • Netrans.quantize_hybrid 混合量化
      • Netrans.dump 张量导出
      • Netrans.inference 模型推理
      • 使用示例
        • 基础转换流程
        • 混合量化流程
        • 调试和分析流程
    • 示例
      • Caffe 模型转换示例
        • 概述
        • 快速开始
        • 分步详细流程
        • Python API 示例
        • 输出说明
        • 相关文档
      • Darknet 模型转换示例
        • 概述
        • 快速开始
        • 分步详细流程
        • Python API 示例
        • 输出说明
        • 相关文档
      • ONNX 模型转换示例
        • 概述
        • 快速开始
        • 分步详细流程
        • Python API 示例
        • 输出说明
        • 相关文档
      • TensorFlow 模型转换示例
        • 概述
        • 快速开始
        • 分步详细流程
        • Python API 示例
        • 输出说明
        • 相关文档
      • PyTorch 模型转换示例
        • 概述
        • 快速开始
        • 分步详细流程
        • Python API 示例
        • 输出说明
        • PyTorch转ONNX说明
        • 相关文档
  • 模型部署
    • ARM 端 RT-Thread 模型部署
      • 文档说明
      • 开发环境与硬件准备
      • 串口与网络环境初始化
      • 安装 Env 开发工具
      • RT-Thread 与示例工程获取
      • 构建工具与编译器配置
      • 工程配置与编译
      • TFTP 服务配置
      • 程序与模型加载
      • 推理示例运行与结果验证
    • ARM 端 Linux 模型部署
      • 概述
      • 环境准备
        • 必备硬件与软件
        • 串口连接(可选)
        • 网口连接(推荐)
      • 交叉编译环境搭建
        • 下载交叉编译器
        • 解压安装
        • 配置环境变量
      • 示例工程编译
        • 下载工程
        • 编译 YOLOv8s 示例
      • 部署到开发板
        • 创建工作目录
        • 上传可执行程序、模型文件、图片
      • 在开发板运行推理程序
        • 进入工作目录
        • 执行推理
        • 检测结果说明(优化版本)
      • 示例程序说明
      • 推理流程说明
      • 更换模型示例
      • 常见问题(FAQ)
        • 执行格式错误(Exec format error)
      • 接口版本说明
    • DSP 端 RT-Thread 模型部署
      • 概述
      • 版本说明
      • 环境搭建
        • 环境要求
        • 仿真器驱动安装
        • 连接仿真器
      • 下载工程
      • 导入工程
      • 工程目录结构
      • 编译工程
      • 连接至目标板
      • 初始化DDR
      • 程序运行
        • 加载NBG
        • 加载待推理数据
        • 运行程序
        • 输出结果
    • DSP 端裸机模型部署
      • 概述
      • 环境搭建
        • 环境要求
        • 仿真器驱动安装
        • 连接仿真器
      • 导入工程
      • 编译工程
      • 连接至目标板
      • 初始化DDR
      • 程序运行
        • 加载NBG
        • 加载待推理数据
        • 运行程序
        • 输出结果
      • 流程解释
        • NBG和input
        • 应用程序推理流程
        • 整体流程
    • PNNA 驱动接口说明
      • 示例工程结构
      • 环境要求
      • 驱动调用方式
        • 方式一
        • 方式二
      • 接口说明
        • pnna_open / pnna_close
        • create_model / destroy_model
        • infer
        • create_app_ctx
        • destroy_app_ctx
        • app
      • 资源管理对照表
  • 精度评估
    • 评估示例
      • 概述
        • 评估指标
        • 项目结构
        • 环境要求及配置
      • yolov5s评估示例
        • python环境搭建
        • yolov5s评估验证
        • 精度评估流程
      • yolov8s评估示例
        • 环境搭建
        • yolov8s评估验证
        • 精度评估流程
    • client 接口说明
      • 简介
        • 环境依赖
      • Client类
        • Client.infer
        • Client.add_model
        • Client.delete_model
        • Client.query
        • Client.close
      • 板卡单张图片推理示例
    • server 接口说明
      • 简介
        • 编译和使用
        • 通信基础信息
        • JSON-RPC请求通用格式
      • 核心功能API详情
        • 1. 加载模型
        • 2. 模型推理
        • 3. 删除模型
        • 4. 查询已注册的RPC方法列表
  • 常见问题
    • 剪枝与混合量化
      • 概述
        • 项目结构
        • 环境要求及配置
        • 下载工程
      • 裁剪网络
      • 混合量化
        • 混合量化子图
        • 混合量化单层
        • 混合量化节点、子图的筛选
    • 百度paddle和pt格式转onnx
      • paddle2onnx_lenet_mnist示例
        • 概述
        • 环境搭建
        • 使用命令行转换 PaddlePaddle 模型
        • lenet_mnist模型转化示例
        • paddle.onnx.export 接口使用教程
      • pt转onnx示例
        • 环境搭建
        • yolov5s模型转化示例
  • 附录
    • 性能测试
      • 测试硬件信息
      • 模型详情
      • 模型测试结果
    • 案例集
      • 概述
        • 项目结构
      • 环境要求及配置
        • 下载工程
        • 安装依赖
        • 评估指标
        • 执行与性能
      • 案例详情
        • 语义分割
        • 实例分割
        • 单目标跟踪
        • 分类
        • 关键点检测
        • 人体姿态估计
        • 差异性检测
        • 图像分割检测
        • 百度paddle转onnx
    • PNNA API 文档
      • Page Hierarchy
      • Class Hierarchy
      • File Hierarchy
      • Full API
        • Classes and Structs
        • Functions
        • Defines
        • Typedefs
PNNA NPU Manual
  • Pnna NPU 使用手册

You're reading the documentation for a development version.
For the latest stable release version, please have a look at master.

Pnna NPU 使用手册

欢迎来到 Pnna NPU 使用手册!

Pnna NPU 使用手册将指导您使用Pnna NPU 加速AI推理。

  • 简介
    • 快速入门
    • 词汇表
  • 模型转换
    • Netrans 简介
    • Netrans CLI 参考
    • Netrans Python API 参考
    • 示例
  • 模型部署
    • ARM 端 RT-Thread 模型部署
    • ARM 端 Linux 模型部署
    • DSP 端 RT-Thread 模型部署
    • DSP 端裸机模型部署
    • PNNA 驱动接口说明
  • 精度评估
    • 评估示例
    • client 接口说明
    • server 接口说明
  • 常见问题
    • 剪枝与混合量化
    • 百度paddle和pt格式转onnx
  • 附录
    • 性能测试
    • 案例集
    • PNNA API 文档

下一页

© 版权所有 2025 - 2026, NUDT DSP。

利用 Sphinx 构建,使用的 主题 由 Read the Docs 开发.

Version: dev git~a487bbd 2026-01-13

Other Versions v: dev
Languages
zh_CN
Branches
dev
master