PaddleDetection 算能 C++部署示例
本目录下提供infer.cc,`快速完成 PP-YOLOE ,在SOPHGO BM1684x板子上加速部署的示例。PP-YOLOV8和 PicoDet的部署逻辑类似,只需要切换模型即可。
1. 部署环境准备
在部署前,需自行编译基于算能硬件的预测库,参考文档算能硬件部署环境
2. 部署模型准备
在部署前,请准备好您所需要运行的推理模型,你可以选择使用预导出的推理模型或者自行导出PaddleDetection部署模型。
3. 生成基本目录文件
该例程由以下几个部分组成
.
├── CMakeLists.txt
├── fastdeploy-sophgo # 编译文件夹
├── image # 存放图片的文件夹
├── infer.cc
└── model # 存放模型文件的文件夹
4. 运行部署示例
4.1 编译并拷贝SDK到thirdpartys文件夹
请参考SOPHGO部署库编译仓库编译SDK,编译完成后,将在build目录下生成fastdeploy-sophgo目录.
4.2 拷贝模型文件,以及配置文件至model文件夹
将Paddle模型转换为SOPHGO bmodel模型,转换步骤参考文档
将转换后的SOPHGO bmodel模型文件拷贝至model中
4.3 准备测试图片至image文件夹
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
cp 000000014439.jpg ./images
4.4 编译example
cd build
cmake .. -DFASTDEPLOY_INSTALL_DIR=${PWD}/fastdeploy-sophgo
make
4.5 运行例程
#ppyoloe推理示例
./infer_demo model images/000000014439.jpg