什么网站详情页做的好,网络货运平台有哪些,建设门户网站价格,如何利用云服务器进行网站建设1.更换Ubuntu软件仓库镜像源 为了在WSL上使用TensorRT进行推理加速#xff0c;需要安装以下环境#xff0c;下面将按以下顺序分别介绍安装、验证以及删除环境#xff1a;
#1.C环境配置
gcc、gdb、g
#2.gpu环境
cuda、cudnn
#3.Cmake环境
CMake
#4.OpenCV环境
OpenCV
#5.Ten…1.更换Ubuntu软件仓库镜像源 为了在WSL上使用TensorRT进行推理加速需要安装以下环境下面将按以下顺序分别介绍安装、验证以及删除环境
#1.C环境配置
gcc、gdb、g
#2.gpu环境
cuda、cudnn
#3.Cmake环境
CMake
#4.OpenCV环境
OpenCV
#5.TensorRT环境
TensorRT 在安装这些库之前需要先更换清华镜像可以加速Ubuntu下载速度使用指令lsb_release -a查看Linux 发行版的信息如下所示 其中关注一下Codename:focal 参照博客WSL不同版本的Ubuntu更换清华镜像-CSDN博客如果是focal的话则修改镜像源为下面内容如果是其他的codename的话需要将https://mirrors.tuna.tsinghua.edu.cn/ubuntu后面的focal修改为对应的内容比如还可能是jammy、lunar、kinetic和bionic。
# 默认注释了源码镜像以提高 apt update 速度如有需要可自行取消注释
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiversedeb http://security.ubuntu.com/ubuntu/ focal-security main restricted universe multiverse
# deb-src http://security.ubuntu.com/ubuntu/ focal-security main restricted universe multiverse# 预发布软件源不建议启用
# deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-proposed main restricted universe multiverse
# # deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-proposed main restricted universe multiverse 现在来看一下如何修改分成两个步骤第一备份该配置文件避免镜像替换后不可用还可以恢复到原始版本第二修改镜像源。 首先来看备份配置文件配置文件放在/etc/apt路径下执行以下指令备份配置文件sources.list. cp sources.list sources.list.bak 然后修改镜像源执行以下指令
vim source.list 最后把前面的镜像源地址复制进去然后在一般模式下使用wq保存并退出如下所示 2.C环境配置 安装
sudo apt update
sudo apt install build-essential 验证
gcc --version 3.CUDA和CUDNN安装 前面也提到了wsl-ubuntu20.04的显卡驱动和本机的显卡驱动是一样的再利用nvidia-smi查看下显卡驱动版本再决定安装什么版本的CUDA和cuDNN. 显卡驱动版本号为12.2可以理解为可以支持的CUDA最大版本号但是我们也不需要安装那么高的CUDA可以选择一个稳定点的比如CUDA11.6. 3.1CUDA-11.6安装 CUDA下载CUDA Toolkit Archive | NVIDIA Developer选择cuda11.6下载如下所示。 安装: 接下来执行以下指令来进行安装;
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/11.6.0/local_installers/cuda-repo-wsl-ubuntu-11-6-local_11.6.0-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-11-6-local_11.6.0-1_amd64.deb
sudo apt-key add /var/cuda-repo-wsl-ubuntu-11-6-local/7fa2af80.pub
sudo apt-get update
sudo apt-get -y install cuda 以上的指令分别代表(1)下载 cuda-wsl-ubuntu.pin 文件;(2)移动 cuda-wsl-ubuntu.pin 文件到 /etc/apt/preferences.d/ 目录;(3)下载 CUDA 11.6 的本地安装包4安装 CUDA 仓库包5添加 CUDA 仓库的公钥6更新包列表7安装 CUDA。 其中第三步中如果网络不顺畅的话可以直接复制链接到浏览器中进行下载然后再放到你的安装路径下我这里直接是放在/root路径下然后继续执行后面的步骤。 验证 CUDA默认安装在/usr/local路径下进入到该路径下其中cuda-11.6文件夹即为安装好的cuda里面会包含有bin、lib及include文件其中nvcc指令在bin路径下,即/usr/local/cuda-11.6/bin. 下面需要把bin路径下的常用指令添加在home/.bashrc环境变量文件中然后再使用nvcc -V来验证cuda是否安装成功 首先使用下面指令打开.bashrc:
vim ~/.bashrc 然后直接在最后一行插入下面代码指示了cuda-11.6的路径
export CUDA_HOME/usr/local/cuda-11.6 # 新建环境变量CUDA_HOME
export PATH$PATH:$CUDA_HOME/bin # 将bin目录添加到PATH这个环境变量 最后执行下面指令来验证cuda是否已经安装成功
source ~/.bashrc
nvcc -V 3.2cuDNN-8.9.5安装 cuDNN下载链接我这里选择符合版本要求的v8.9.5选择Linux_x86_64(Tar)下载。 我这里选择把下载好的文件放在/root路径下如下所示 安装 首先解压得到lib和include文件夹然后将解压后的文件夹分别复制到前面的cuda-11.6里面对应的lib64和include路径下指令如下所示
tar -xvf cudnn-linux-x86_64-8.9.5.30_cuda11-archive.tar.xz
cd cudnn-linux-x86_64-8.9.5.30_cuda11-archive/ #进入解压路径
cp ./lib/* /usr/local/cuda-11.6/lib64 # 拷贝lib
cp ./include/* /usr/local/cuda-11.6/include # 拷贝头文件 验证 执行以下指令显示如下内容说明cuDNN安装成功。
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2 4.CMake-3.30.0安装 CMake下载Download CMake这里我选择的是3.30.0版本进行下载下载得到cmake-3.30.0.tar.gz压缩包然后找个路径进行解压如下所示 安装 首先将cmake-3.30.0.tar.gz这个压缩包放在/root路径下使用以下指令来解压缩cmake包.
tar -zxvf cmake-3.30.0.tar.gz 然后进入解压后的文件夹进行编译和安装其中make -j4中的-j4表示使用4个进程可以提升生成的速度
cd cmake-3.30.0/
./bootstrap
make -j4
make install 问题 我在执行./bootstrap遇到了Error:Could not find OpenSSL如下所示 解决 那么需要安装libssl-dev然后重新再执行一遍./bootstrap指令执行成功后是下面这样子的.
sudo apt-get install libssl-dev 验证 执行以下指令查看Cmake版本及Cmake位置没有问题的话说明Cmake安装成功了。
cmake --version
which cmake 5.OpenCV-4.8安装 OpenCV下载Releases - OpenCV这里我选择一年前发布的OpenCV-4.8,点击sources下载得到opencv-4.8.0.zip压缩包然后找个路径进行解压如下所示 安装 第一步把opencv-4.8.0.zip这个压缩包放在/root路径下使用unzip指令来解压缩opencv包.
unzip opencv-4.8.0.zip 第二步进入opencv路径创建build文件用来保存编译的文件。
cd opencv-4.8.0/
mkdir build
cd build 第三步依次执行以下指令使用CMake来配置、生成和安装OpenCV其中make生成这一步的时间稍微会长一点大概15分钟左右可以在make后面加入-j4来加快生成其中4指同时使用4个进程。
cmake -D CMAKE_BUILD_TYPERelease -D OPENCV_GENERATE_PKGCONFIGYES ..
make -j4
make install 问题 我在执行make -j4指令的时候报错fatal error: openjpeg.h: No such file or directory那么需要安装libopenjp2-7-dev。 解决 如果你和我遇到了一样的问题那么安装完之后为了保险起见需要删除build文件夹重新配置生成即重新执行第二步和第三步的指令。
apt-get install libopenjp2-7-dev 验证 安装完OpenCV后需要知道OpenCV的bin、lib及include文件放在哪个路径下 其中include头文件放在路径下/usr/local/include/opencv4/opencv2bin文件放在路径下/usr/local/binlib文件放在路径下/usr/local/lib. 下面来验证OpenCV是否安装成功由于我们不是在ubuntu主机上操作而是相当于链接一个远程主机所以使用imshow报错是很正常的如下所示但是我们不需要imshow函数只需要用到opencv来处理图片所以我需要修改一下样例的代码。 首先时进入到一开始解压缩的文件夹中并使用vim来编辑一下代码只需要把imshow修改为imwrite,并且注释掉waitKey(0)代码即可如下所示。
cd /root/opencv-4.8.0/samples/cpp/example_cmake
vim example.cpp 然后再执行以下指令编译和生成可执行文件如下所示.
cmake -S . -B build
cmake --build build 最后运行可执行文件发现在当前路径下会生成一个Sample.jpg的图片显示如下则说明安装成功了(查看图片可以直接通过\wsl.localhost\Ubuntu-2004\root\opencv-4.8.0\samples\cpp\example_cmake路径在window上直接查看)
./build/opencv_example 6.TensorRT-8.5安装 TensorRT下载:NVIDIA TensorRT 8.x Download | NVIDIA Developer,EA 版本代表抢先体验而GA 代表通用性表示稳定版所以我们还是下载TensorRT8.5GA稳定版的 安装 第一步把TensorRT-8.5.1.7.Linux.x86_64-gnu.cuda-11.8.cudnn8.6.tar.gz这个压缩包放在/root路径下解压缩TensorRT包. tar -zxvf TensorRT-8.5.1.7.Linux.x86_64-gnu.cuda-11.8.cudnn8.6.tar.gz 第二步 将TensorRT/lib的绝对路径添加到在home/.bashrc环境变量文件中. 首先使用以下指令打开.bashrc.
vim ~/.bashrc 然后添加以下代码到文件中如下所示:
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/root/TensorRT-8.5.1.7/lib 最后使用以下指令更新一下
source ~/.bashrc 验证 第一步进入到/root/TensorRT-8.5.1.7/samples/sampleOnnxMNIST路径下.
cd /root/TensorRT-8.5.1.7/samples/sampleOnnxMNIST 第二步编译并执行可执行文件,如下所示即安装成功。
make
../../targets/x86_64-linux-gnu/bin/sample_onnx_mnist