TensorRT与Jetpack下的PT模型转ONNX与Engine模型转换详解

背景

背景是需要在nvidia jetpack4.5.1的arm64设备上跑yolov8,用TensorRT加速,需要用*.engine格式的模型,但是手头上的是pt格式模型,众所周知小板子的内存都很小,连安装ultralytics依赖库的容量都没有,所以我想到在windows系统上先把模型转好,然后再直接放在板子上用。

下载ultralytics yolov8

https://github.com/ultralytics/ultralytics

找到exporter.py

我以为是直接在这个exporter.py上直接改参数来转模型,找了半天找不到,然后直接运行这个python文件也是失败报错,后来才看到这个exporter.py上面有教如何使用

  • 安装依赖库
  • pip install "ultralytics[export]
    

    等待安装好,这需要很长时间

    然后不是直接运行这个exporter.py文件,而是像提示里面一样,创造一个py文件,在文件里面复制这几行然后改参数就行了

        from ultralytics import YOLO
        model = YOLO('yolov8n.pt')
        results = model.export(format='onnx')
    

    结果我运行了会报错找不到gpu

    
    

    作者:雪回

    物联沃分享整理
    物联沃-IOTWORD物联网 » TensorRT与Jetpack下的PT模型转ONNX与Engine模型转换详解

    发表回复