更换文档检测模型

This commit is contained in:
2024-08-27 14:42:45 +08:00
parent aea6f19951
commit 1514e09c40
2072 changed files with 254336 additions and 4967 deletions

View File

@@ -0,0 +1,156 @@
简体中文 | [English](README.md)
# CenterTrack (Tracking Objects as Points)
## 内容
- [模型库](#模型库)
- [快速开始](#快速开始)
- [引用](#引用)
## 模型库
### MOT17
| 训练数据集 | 输入尺度 | 总batch_size | val MOTA | test MOTA | FPS | 配置文件 | 下载链接|
| :---------------: | :-------: | :------------: | :----------------: | :---------: | :-------: | :----: | :-----: |
| MOT17-half train | 544x960 | 32 | 69.2(MOT17-half) | - | - |[config](./centertrack_dla34_70e_mot17half.yml) | [download](https://paddledet.bj.bcebos.com/models/mot/centertrack_dla34_70e_mot17half.pdparams) |
| MOT17 train | 544x960 | 32 | 87.9(MOT17-train) | 70.5(MOT17-test) | - |[config](./centertrack_dla34_70e_mot17.yml) | [download](https://paddledet.bj.bcebos.com/models/mot/centertrack_dla34_70e_mot17.pdparams) |
| MOT17 train(paper) | 544x960| 32 | - | 67.8(MOT17-test) | - | - | - |
**注意:**
- CenterTrack默认使用2 GPUs总batch_size为32进行训练如改变GPU数或单卡batch_size最好保持总batch_size为32去训练。
- **val MOTA**可能会有1.0 MOTA左右的波动最好使用2 GPUs和总batch_size为32的默认配置去训练。
- **MOT17-half train**是MOT17的train序列(共7个)每个视频的**前一半帧**的图片和标注用作训练集,而用每个视频的后一半帧组成的**MOT17-half val**作为验证集去评估得到**val MOTA**,数据集可以从[此链接](https://bj.bcebos.com/v1/paddledet/data/mot/MOT17.zip)下载,并解压放在`dataset/mot/`文件夹下。
- **MOT17 train**是MOT17的train序列(共7个)每个视频的所有帧的图片和标注用作训练集由于MOT17数据集有限也使用**MOT17 train**数据集去评估得到**val MOTA**,而**test MOTA**为交到[MOT Challenge官网](https://motchallenge.net)评测的结果。
## 快速开始
### 1.训练
通过如下命令一键式启动训练和评估
```bash
# 单卡训练(不推荐)
CUDA_VISIBLE_DEVICES=0 python tools/train.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --amp
# 多卡训练
python -m paddle.distributed.launch --log_dir=centertrack_dla34_70e_mot17half/ --gpus 0,1 tools/train.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --amp
```
**注意:**
- `--eval`暂不支持边训练边验证跟踪的MOTA精度如果需要开启`--eval`边训练边验证检测mAP需设置**注释配置文件中的`mot_metric: True``metric: MOT`**
- `--amp`表示混合精度训练避免显存溢出;
- CenterTrack默认使用2 GPUs总batch_size为32进行训练如改变GPU数或单卡batch_size最好保持总batch_size仍然为32
### 2.评估
#### 2.1 评估检测效果
注意首先需要**注释配置文件中的`mot_metric: True``metric: MOT`**:
```python
### for detection eval.py/infer.py
mot_metric: False
metric: COCO
### for MOT eval_mot.py/infer_mot_mot.py
#mot_metric: True # 默认是不注释的,评估跟踪需要为 True会覆盖之前的 mot_metric: False
#metric: MOT # 默认是不注释的,评估跟踪需要使用 MOT会覆盖之前的 metric: COCO
```
然后执行以下语句:
```bash
CUDA_VISIBLE_DEVICES=0 python tools/eval.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams
```
**注意:**
- 评估检测使用的是```tools/eval.py```, 评估跟踪使用的是```tools/eval_mot.py```。
#### 2.2 评估跟踪效果
注意首先确保设置了**配置文件中的`mot_metric: True``metric: MOT`**
然后执行以下语句:
```bash
CUDA_VISIBLE_DEVICES=0 python tools/eval_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams
```
**注意:**
- 评估检测使用的是```tools/eval.py```, 评估跟踪使用的是```tools/eval_mot.py```。
- 跟踪结果会存于`{output_dir}/mot_results/`里面每个视频序列对应一个txt每个txt文件每行信息是`frame,id,x1,y1,w,h,score,-1,-1,-1`, 此外`{output_dir}`可通过`--output_dir`设置,默认文件夹名为`output`
### 3.预测
#### 3.1 预测检测效果
注意首先需要**注释配置文件中的`mot_metric: True``metric: MOT`**:
```python
### for detection eval.py/infer.py
mot_metric: False
metric: COCO
### for MOT eval_mot.py/infer_mot_mot.py
#mot_metric: True # 默认是不注释的,评估跟踪需要为 True会覆盖之前的 mot_metric: False
#metric: MOT # 默认是不注释的,评估跟踪需要使用 MOT会覆盖之前的 metric: COCO
```
然后执行以下语句:
```bash
CUDA_VISIBLE_DEVICES=0 python tools/infer.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams --infer_img=demo/000000014439_640x640.jpg --draw_threshold=0.5
```
**注意:**
- 预测检测使用的是```tools/infer.py```, 预测跟踪使用的是```tools/infer_mot.py```。
#### 3.2 预测跟踪效果
注意首先确保设置了**配置文件中的`mot_metric: True``metric: MOT`**
然后执行以下语句:
```bash
# 下载demo视频
wget https://bj.bcebos.com/v1/paddledet/data/mot/demo/mot17_demo.mp4
# 预测视频
CUDA_VISIBLE_DEVICES=0 python tools/infer_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --video_file=mot17_demo.mp4 --draw_threshold=0.5 --save_videos -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams
#或预测图片文件夹
CUDA_VISIBLE_DEVICES=0 python tools/infer_mot.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml --image_dir=mot17_demo/ --draw_threshold=0.5 --save_videos -o weights=output/centertrack_dla34_70e_mot17half/model_final.pdparams
```
**注意:**
- 请先确保已经安装了[ffmpeg](https://ffmpeg.org/ffmpeg.html), Linux(Ubuntu)平台可以直接用以下命令安装:`apt-get update && apt-get install -y ffmpeg`
- `--save_videos`表示保存可视化视频,同时会保存可视化的图片在`{output_dir}/mot_outputs/`中,`{output_dir}`可通过`--output_dir`设置,默认文件夹名为`output`
### 4. 导出预测模型
注意首先确保设置了**配置文件中的`mot_metric: True``metric: MOT`**
```bash
CUDA_VISIBLE_DEVICES=0 python tools/export_model.py -c configs/mot/centertrack/centertrack_dla34_70e_mot17half.yml -o weights=https://paddledet.bj.bcebos.com/models/mot/centertrack_dla34_70e_mot17half.pdparams
```
### 5. 用导出的模型基于Python去预测
注意首先应在`deploy/python/tracker_config.yml`中设置`type: CenterTracker`
```bash
# 预测某个视频
# wget https://bj.bcebos.com/v1/paddledet/data/mot/demo/mot17_demo.mp4
python deploy/python/mot_centertrack_infer.py --model_dir=output_inference/centertrack_dla34_70e_mot17half/ --tracker_config=deploy/python/tracker_config.yml --video_file=mot17_demo.mp4 --device=GPU --save_images=True --save_mot_txts
# 预测图片文件夹
python deploy/python/mot_centertrack_infer.py --model_dir=output_inference/centertrack_dla34_70e_mot17half/ --tracker_config=deploy/python/tracker_config.yml --image_dir=mot17_demo/ --device=GPU --save_images=True --save_mot_txts
```
**注意:**
- 跟踪模型是对视频进行预测,不支持单张图的预测,默认保存跟踪结果可视化后的视频,可添加`--save_mot_txts`(对每个视频保存一个txt)或`--save_mot_txt_per_img`(对每张图片保存一个txt)表示保存跟踪结果的txt文件`--save_images`表示保存跟踪结果可视化图片。
- 跟踪结果txt文件每行信息是`frame,id,x1,y1,w,h,score,-1,-1,-1`
## 引用
```
@article{zhou2020tracking,
title={Tracking Objects as Points},
author={Zhou, Xingyi and Koltun, Vladlen and Kr{\"a}henb{\"u}hl, Philipp},
journal={ECCV},
year={2020}
}
```