当前位置: 首页 > news >正文

备案号怎么添加到网站太原网站建设价格

备案号怎么添加到网站,太原网站建设价格,搭建一个影视网站,哈尔滨建站模板系统目录 tensorRT介绍 前置准备 安装cuda与cudnn linux windows cuda版本查看 下载安装包 linux安装 安装 安装验证 windows安装 安装 环境变量配置 安装验证 tensorRT介绍 有关tensorRT的介绍见 TensorRT简介-CSDN博客 前置准备 安装cuda与cudnn linux Linux下…目录 tensorRT介绍 前置准备 安装cuda与cudnn linux windows cuda版本查看 下载安装包 linux安装 安装 安装验证 windows安装 安装 环境变量配置 安装验证 tensorRT介绍 有关tensorRT的介绍见 TensorRT简介-CSDN博客 前置准备 安装cuda与cudnn linux Linux下安装cuda和对应版本的cudnn_linux怎么在自己的环境中安装cuda和cudnn-CSDN博客 windows windows安装cuda与cudnn-CSDN博客 cuda版本查看 linux与windows均可使用以下命令查看cuda版本 nvcc -V 下载安装包 进官网查看对应自己cuda版本的tensorRT TensorRT Download | NVIDIA Developer 官网页面打开如下所示 每个版本的tensorRT都有对应操作系统与cuda版本的说明 注意win11只能只有tensorRT10支持 linux下我们以安装tensorRT8为例如下图所示 第一个红色框是cuda11对应的安装包第二个红色方框是cuda12对应的安装包找到自己对应cuda版本的安装包即可建议下载tar包安装比较方便 同理windows11下只要tensorRT10支持如下图所示仍旧找到自己的安装包下载即可 linux安装 安装 下载好安装包后将文件解压至 /usr/local如下所示 然后将tensorrt的头文件和库文件加入到环境变量中配置/.bashrc文件 export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/usr/local/TensorRT-8.5.3.1/lib export C_INCLUDE_PATH$C_INCLUDE_PATH:/usr/local/TensorRT-8.5.3.1/include export CPLUS_INCLUDE_PATH$CPLUS_INCLUDE_PATH:/usr/local/TensorRT-8.5.3.1/include 添加完路径后使配置文件生效 source /.bashrc 安装验证 进入到 /usr/local/TensorRT-8.5.3.1/samples/sampleOnnxMNIST路径下执行 sudo make 进入/usr/local/TensorRT-8.5.3.1/bin目录运行可执行文件sample_onnx_mnist如果编译和运行过程都没有问题则说明tensorrt安装成功运行结果如下 windows安装 安装 首先找到自己cuda的安装路径打开cmd命令行窗口输入 which nvcc 如果cuda安装成功会显示cuda的安装路径 /c/Program Files/NVIDIA GPU Computing Toolkit/CUDA/v12.1/bin/nvcc 然后解压下载的tensorRT安装包将tensorRT中lib目录和include目录中的文件内容都拷贝到cuda对应的目录文件下 环境变量配置 右键“此电脑”点击属性点击“高级系统设置”即可打开系统属性面板 也可以在搜索框输入“编辑系统环境变量”也可打开下述面板 然后点击环境变量 用户变量一栏点击Path 点击“新建”将对应TensorRT解压的文件夹下的bin目录路径以及cuda安装目录下的lib目录、include目录以及lib下的x64目录路径设置进去如下所示 然后逐步点击“确定”直到所有面板关闭一定不要直接点右上角关闭否则配置会失败 安装验证 打开cmd命令窗口输入 trtexec --help 如果显示以下帮助信息说明TensorRT中的trtexec程序可用否则检查trtexec程序(TensorRT解压安装包的bin目录下)的环境变量是否配置正确 接下来代码验证trtexec是否可成功执行打开python写下如下python代码更多代码细节见 PyTorch模型转换ONNX 入门-CSDN博客 import torch import torchvision.models as models import onnx import onnxruntime# 加载 PyTorch 模型 model models.resnet18(pretrainedTrue) model.eval()# 定义输入和输出张量的名称和形状 input_names [input] output_names [output] batch_size 1 input_shape (batch_size, 3, 224, 224) output_shape (batch_size, 1000)# 将 PyTorch 模型转换为 ONNX 格式 torch.onnx.export(model, # 要转换的 PyTorch 模型torch.randn(input_shape), # 模型输入的随机张量resnet18.onnx, # 保存的 ONNX 模型的文件名input_namesinput_names, # 输入张量的名称output_namesoutput_names, # 输出张量的名称dynamic_axes{input_names[0]: {0: batch_size}, output_names[0]: {0: batch_size}} # 动态轴即输入和输出张量可以具有不同的批次大小 )# 加载 ONNX 模型 onnx_model onnx.load(resnet18.onnx) onnx_model_graph onnx_model.graph onnx_session onnxruntime.InferenceSession(onnx_model.SerializeToString())# 使用随机张量测试 ONNX 模型 x torch.randn(input_shape).numpy() onnx_output onnx_session.run(output_names, {input_names[0]: x})[0]print(fPyTorch output: {model(torch.from_numpy(x)).detach().numpy()[0, :5]}) print(fONNX output: {onnx_output[0, :5]}) 如果代码运行不成功查看pytorch是否安装、onnx模块是否安装、onnxruntime模块是否安装 如果代码运行成功会在本地输出一个mymodel.onnx文件 接下来打开该文件所在路径打开cmd输入 trtexec --onnxmymodel.onnx --saveEnginemodel.trt 如果运行成功说明TensorRT安装成功 如果这里运行失败检查环境变量是否配置正确  参考 ubuntu20.04 安装TensorRT c库 - Wangtn - 博客园 (cnblogs.com) TensorRT安装部署指南Windows10 - 知乎 (zhihu.com)
http://www.dnsts.com.cn/news/76833.html

相关文章:

  • 一流的低价网站建设网页游戏大厅在线玩
  • 盈利网站网站上传用什么软件做视频教程
  • 5g对网站建设的影响企业查询软件排行榜
  • 怎样免费网站建设为什么不能安装wordpress
  • 做网站建设的有哪些分销系统网站
  • 手机网站首页怎么查一个网站是什么程序做的
  • 网站建设步骤及推广方法oa系统软件
  • 爱站网关键词排名旅游app页面设计图
  • iis 默认网站 删除名师工作室网站建设建议
  • 网站移动窗口代码四川人防工程建设网站
  • 一起做陶艺搬上网站中国的网站做欧美风
  • 做网站视频下载商品的销售网站总体设计
  • 网站开发模板下载网站搜索引擎友好性分析
  • 学校期末评语网站开发电子商务系统建设网站策划书
  • 做网站较好的框架深圳公司注册资金最低多少
  • 网站制作培训班dede 手机站 怎么获取跳转网站
  • 机构网站建设需要交费吗扑克直播软件app开发
  • 企业做网站的方案现在视频做网站晚了吗
  • 网站做rss+wordpress网站程序上传完
  • 怎么做视频解析网站吗wordpress 安全防护
  • 昆明seo公司网站做天猫网站设计难吗
  • 网站设计公司建设wordpress软件最低要求
  • 镇平县两学一做专题网站音乐网站建设需求分析
  • 网站开发php有哪些百度是门户网站吗
  • 自己做网站现实么做网站好比做房子
  • 江苏建设教育协会网站商机网创业好项目
  • 公司网站策划宣传河北省建设机械协会网站首页
  • 河南省教育类网站前置审批台州建设工程信息网站
  • 网站如何做404商城网站开发用什么框架
  • 牧星网站建立手机 网站开发aspx