当前位置:首页 > AI > 正文内容

ZYNQ7010在PYNQ环境下使用NPU加速神经网络推理

chanra1n3年前 (2022-03-20)AI5074

步骤一、链接ssh并上传NPU SDK

 image.png

步骤二、插入NPU,并给NPU赋予权限

sudo chmod 666 /dev/sg*

步骤三、修改最大字节数

find /sys/devices/ -name max_sectors -exec sh -c 'echo 2048 > "$1"' _ {} \;

步骤四、安装依赖

sudo apt-get update && sudo apt-get install libgtk2.0-dev libjpeg-dev python-numpy python-tk python-opencv python-pip -y

步骤五、解压SDK并生效环境

tar -xvf GTISDK-Linux_armv7l_v4.5.1.0.tar.gz && cd GTISDK-Linux_armv7l_v4.5.1.0 && source SourceMe.env

期间遇到Do you wish to install xx?就输入y按Enter

image.png

步骤六、编译Demo

 cd Apps/Demo/ && make

步骤七、运行Demo

./demo slideshow ../Models/2801/gti_gnet3_fc20_2801.model ../Data/Image_bmp_c20/

运行效果

image.png

平均每张图片推理花费55ms,FPS能达到接近20,这是因为ZYNQ7000系列USB接口是2.0协议,NPU的性能不能完全发挥。

注:这里更正一下,ZYNQ上部署NPU没有达到满性能的原因不只是USB协议,NPU主要加速的是卷积和池化,全连接是在CPU端进行的,所以这也是一部分局限的因素,具体后面我会测试,


附加步骤:

export DISPLAY=192.168.0.102:1.0

修改成你的电脑的xserver显示值,可以实现图片显示。

image.pngimage.pngimage.png

扫描二维码推送至手机访问。

版权声明:本文由我的FPGA发布,如需转载请注明出处。

本文链接:https://myfpga.cn/index.php/post/237.html

分享给朋友:

“ZYNQ7010在PYNQ环境下使用NPU加速神经网络推理” 的相关文章

C语言简单实现三层神经网络

C语言简单实现三层神经网络

//转自  #include "stdio.h" #include "stdlib.h" #include "time.h" #include "math.h"...

PHP使用SOCKET调用TensorFlow服务器实现图片鉴黄

PHP使用SOCKET调用TensorFlow服务器实现图片鉴黄

PHP代码<?php define("UNIX_DOMAIN","/socks/tfserver.sock"); $socket = socket_create(AF_UNIX, SOCK_STREAM, 0)...

使用PaddleX对大量图片进行分类(仅包含预测的内容)

使用PaddleX对大量图片进行分类(仅包含预测的内容)

# -*- coding: UTF-8 -*- import os import cv2 from shutil import copyfile import numpy as&...

使用爱快Docker安装Paddle对Paddle生成的模型进行预测

使用爱快Docker安装Paddle对Paddle生成的模型进行预测

文头先放上要使用的Python推理脚本。 # -*- coding: UTF-8 -*- import os import cv2 import time import threading from&nb...