南阳建网站公司,百度做的网站迁移,卖鱼的亲戚要我帮忙做网站,太原手机模板建站Jetson Orin Nano Super之 onnxruntime 编译安装 1. 源由2. 步骤步骤一#xff1a;安装3.26 cmake步骤二#xff1a;下载代码步骤三#xff1a;编译代码步骤四#xff1a;找到安装包步骤五#xff1a;安装whl包 3. 注意4. 参考资料 1. 源由
Build onnxruntime 1.19.2 fai… Jetson Orin Nano Super之 onnxruntime 编译安装 1. 源由2. 步骤步骤一安装3.26 cmake步骤二下载代码步骤三编译代码步骤四找到安装包步骤五安装whl包 3. 注意4. 参考资料 1. 源由
Build onnxruntime 1.19.2 fail due to API HardwareCompatibilityLevelBuild onnxruntime v1.19.2 for Jetpack 5.1.4 L4T 35.6 FaildHow to translate xx/x scripts of TensorRT installation?
onnxruntime 受到TensorRT版本的限制在8.x TensorRT阶段支持的并不太好尤其由于接口的变化兼容性并不理想。
从 Jetson Orin Nano Super 开始也就是Jetpack 6.2之后TensorRT据反馈说是能够升级从前面的软件版本和API设计/维护看非常吃力
2. 步骤
步骤一安装3.26 cmake
$ sudo apt remove --purge cmake
$ wget https://github.com/Kitware/CMake/releases/download/v3.26.4/cmake-3.26.4-linux-aarch64.sh
$ sudo mkdir -p /opt/cmake
$ sudo sh cmake-3.26.4-linux-aarch64.sh --prefix/opt/cmake --skip-license
$ echo export PATH/opt/cmake/bin:$PATH ~/.bashrc
$ source ~/.bashrc确认版本安装成功
$ cmake --version步骤二下载代码
$ git clone https://github.com/SnapDragonfly/onnxruntime.git
$ cd onnxruntime
$ git checkout nvidia_v1.19.2步骤三编译代码
$ export PATH/usr/local/cuda/bin:${PATH}
$ export CUDACXX/usr/local/cuda/bin/nvcc$ ./build.sh --config Release --update --build --parallel --build_wheel \--use_tensorrt --cuda_home /usr/local/cuda --cudnn_home /usr/lib/aarch64-linux-gnu \--tensorrt_home /usr/lib/aarch64-linux-gnu步骤四找到安装包
或者进入到该目录下进行安装。
$ ls build/Linux/Release/dist/
build/Linux/Release/dist/onnxruntime_gpu-1.19.2-cp310-cp310-linux_aarch64.whl步骤五安装whl包
$ cd build/Linux/Release/dist/
$ python3 -m pip install --no-cache onnxruntime_gpu-1.19.2-cp310-cp310-linux_aarch64.whl3. 注意
编译过程需要注意onnxruntime和TensorRT的API兼容性问题。
4. 参考资料
【1】Jetson Orin Nano Super之pytorch torchvision安装 【2】Jetson Orin Nano Super之jetson-fpv开源代码下载 【3】Ardupilot开源无人机之Geek SDK进展2024-2025