我横向对比了 YOLOv5s、YOLOv6s、YOLOv7-tiny、YOLOv7 四个模型在TensorRT上的推理速度,首先当然是用各种官方的脚本导出ONNX格式模型,然后基于TensorRT8.4.x自带的工具模型转变转换为FP16半精度推理engine文件。 YOLOv5s、YOLOv6s、YOLOv7-tiny、YOLOv7 四种文件都需要从pt转onnx ...