当前位置: 首页 > news >正文

做网站要属于无形资产吗customizr wordpress

做网站要属于无形资产吗,customizr wordpress,视频软件制作,wamp个人网站开发来源跑通并使用Yolo v5的源代码并进行训练 摘要#xff1a;yolo作为目标检测计算机视觉领域的核心网络模型#xff0c;虽然到24年已经出到了v10的版本#xff0c;但也很有必要对之前的核心版本v5版本进行进一步的学习。在学习yolo v5的时候因为缺少论文所以要从源代码入手来体验…跑通并使用Yolo v5的源代码并进行训练 摘要yolo作为目标检测计算机视觉领域的核心网络模型虽然到24年已经出到了v10的版本但也很有必要对之前的核心版本v5版本进行进一步的学习。在学习yolo v5的时候因为缺少论文所以要从源代码入手来体验yolo v5之一经典的网络模型。 Git拉取代码 首先给出github上的官方仓库。我们使用第7版的yolo v5来进行测试和使用。 https://github.com/ultralytics/yolov5 创建yolo v5的虚拟环境 本次使用Anaconda的图形管理工具来创建yolo v5的虚拟环境使用的python版本选择python 3.11的版本 官方要求是python version python 3.8 git clone拉取项目并使用pycharm打开 在指定文件夹下面使用:来拉取项目 git clone https://github.com/ultralytics/yolov5.git 之后使用pycharm将项目进行导入并观察项目的结构。当然建议可以直接在pycharm中通过git模块将项目加载进ide中进行学习。 选择虚拟环境将改项目的虚拟环境选择为刚刚创建的yolo v5的环境信息。在虚拟环境的基础上通过pip安装需要使用的requirements.txt文件夹下面所定义的环境配置。 如果一些环境因为CUDA的版本信息安装不上则需要在终端自己通过pip命令安装一些高版本的依赖库进行测试使用。 # YOLOv5 requirements # Usage: pip install -r requirements.txt# Base ------------------------------------------------------------------------ gitpython3.1.30 matplotlib3.3 numpy1.23.5 opencv-python4.1.1 pillow10.3.0 psutil # system resources PyYAML5.3.1 requests2.32.0 scipy1.4.1 thop0.1.1 # FLOPs computation torch1.8.0 # see https://pytorch.org/get-started/locally (recommended) torchvision0.9.0 tqdm4.64.0 ultralytics8.2.34 # https://ultralytics.com # protobuf3.20.1 # https://github.com/ultralytics/yolov5/issues/8012# Logging --------------------------------------------------------------------- # tensorboard2.4.1 # clearml1.2.0 # comet# Plotting -------------------------------------------------------------------- pandas1.1.4 seaborn0.11.0# Export ---------------------------------------------------------------------- # coremltools6.0 # CoreML export # onnx1.10.0 # ONNX export # onnx-simplifier0.4.1 # ONNX simplifier # nvidia-pyindex # TensorRT export # nvidia-tensorrt # TensorRT export # scikit-learn1.1.2 # CoreML quantization # tensorflow2.4.0,2.13.1 # TF exports (-cpu, -aarch64, -macos) # tensorflowjs3.9.0 # TF.js export # openvino-dev2023.0 # OpenVINO export# Deploy ---------------------------------------------------------------------- setuptools65.5.1 # Snyk vulnerability fix # tritonclient[all]~2.24.0# Extras ---------------------------------------------------------------------- # ipython # interactive notebook # mss # screenshots # albumentations1.0.3 # pycocotools2.0.6 # COCO mAP 通过pip安装环境 官方的md文件中给出了需要在终端中切换的目录和安装的命令如下所示 cd yolov5 pip install -r requirements.txt # install 并给出了预训练好的模型信息。 预训练模型 模型尺寸像素mAPval50-95mAPval50推理速度CPU b1ms推理速度V100 b1ms速度V100 b32ms参数量(M)FLOPs640 (B)YOLOv5n64028.045.7456.30.61.94.5YOLOv5s64037.456.8986.40.97.216.5YOLOv5m64045.464.12248.21.721.249.0YOLOv5l64049.067.343010.12.746.5109.1YOLOv5x64050.768.976612.14.886.7205.7YOLOv5n6128036.054.41538.12.13.24.6YOLOv5s6128044.863.73858.23.612.616.8YOLOv5m6128051.369.388711.16.835.750.0YOLOv5l6128053.771.3178415.810.576.8111.4YOLOv5x6[TTA]1280153655.055.872.772.73136-26.2-19.4-140.7-209.8- 在进行预测和测试时可以选择上面的预训练模型进行下载下载的位置如图所示在执行时可以自动下载若下载失败在自己在指定的位置下载这些模型。 主要要有c的环境才能安装成果可以先看一下自己的windows电脑上是否有c的环境linux上还没测试过可以之后使用colab进行一下测试。 根据文档提示启动项目测试预训练模型 官方提供了两张用来进行目标检测的图片执行detect.py文件并修改里面main函数中包括的参数信息加载预训练模型进行预测。 if __name__ __main__:opt parse_opt()main(opt)在parse_opt()函数中修改指定的参数信息。 ef parse_opt():Parses command-line arguments for YOLOv5 detection, setting inference options and model configurations.parser argparse.ArgumentParser()parser.add_argument(--weights, nargs, typestr, defaultROOT / yolov5s.pt, helpmodel path or triton URL)parser.add_argument(--source, typestr, defaultROOT / data/images, helpfile/dir/URL/glob/screen/0(webcam))parser.add_argument(--data, typestr, defaultROOT / data/coco128.yaml, help(optional) dataset.yaml path)parser.add_argument(--imgsz, --img, --img-size, nargs, typeint, default[640], helpinference size h,w)parser.add_argument(--conf-thres, typefloat, default0.25, helpconfidence threshold)parser.add_argument(--iou-thres, typefloat, default0.45, helpNMS IoU threshold)parser.add_argument(--max-det, typeint, default1000, helpmaximum detections per image)parser.add_argument(--device, default, helpcuda device, i.e. 0 or 0,1,2,3 or cpu)parser.add_argument(--view-img, actionstore_true, helpshow results)parser.add_argument(--save-txt, actionstore_true, helpsave results to *.txt)parser.add_argument(--save-csv, actionstore_true, helpsave results in CSV format)parser.add_argument(--save-conf, actionstore_true, helpsave confidences in --save-txt labels)parser.add_argument(--save-crop, actionstore_true, helpsave cropped prediction boxes)parser.add_argument(--nosave, actionstore_true, helpdo not save images/videos)parser.add_argument(--classes, nargs, typeint, helpfilter by class: --classes 0, or --classes 0 2 3)parser.add_argument(--agnostic-nms, actionstore_true, helpclass-agnostic NMS)parser.add_argument(--augment, actionstore_true, helpaugmented inference)parser.add_argument(--visualize, actionstore_true, helpvisualize features)parser.add_argument(--update, actionstore_true, helpupdate all models)parser.add_argument(--project, defaultROOT / runs/detect, helpsave results to project/name)parser.add_argument(--name, defaultexp, helpsave results to project/name)parser.add_argument(--exist-ok, actionstore_true, helpexisting project/name ok, do not increment)parser.add_argument(--line-thickness, default3, typeint, helpbounding box thickness (pixels))parser.add_argument(--hide-labels, defaultFalse, actionstore_true, helphide labels)parser.add_argument(--hide-conf, defaultFalse, actionstore_true, helphide confidences)parser.add_argument(--half, actionstore_true, helpuse FP16 half-precision inference)parser.add_argument(--dnn, actionstore_true, helpuse OpenCV DNN for ONNX inference)parser.add_argument(--vid-stride, typeint, default1, helpvideo frame-rate stride)opt parser.parse_args()opt.imgsz * 2 if len(opt.imgsz) 1 else 1 # expandprint_args(vars(opt))return opt在简单进行使用的过程中只说明前两个参数即可满足效果的显示。 parser.add_argument(“–weights”, nargs“”, typestr, defaultROOT / “yolov5s.pt”, help“model path or triton URL”) 加载yolov5s.pt模型作为预训练权重。 parser.add_argument(“–source”, typestr, defaultROOT / “data/images”, help“file/dir/URL/glob/screen/0(webcam)”) 需要检测的图片存放路径信息。 在配置好后执行该文件产生对应的效果来进行测试。 报错信息解决 额不出意外第一次跑代码总会产生一定的错误信息。 AttributeError: partially initialized module ‘charset_normalizer’ has no attribute ‘md__mypyc’ (most likely due to a circular import) 参考解决方式pip install --force-reinstall charset-normalizer3.1.0 之后再一次执行信息就执行成功开始下载yolov5s.pt的预训练模型信息进行一个检测检测操作。并将结果保存到指定的位置处。 在run文件下面生成第一次检测的图片结果信息。 切换预训练模型在执行一次 例如切换使用YOLOv5m 模型进行一次测试过程观察该模型与之前的模型在生成的效果上有何不同之处。 我们这次使用命令行的方式来进行执行观察效果 修改对应的预训练参数yolov5m.pt parser.add_argument(--weights, nargs, typestr, defaultROOT / yolov5m.pt, helpmodel path or triton URL)明显可以发现该模型的大小明显更大下载的速度也更快。 模型下载的位置就保持在根目录处可以通过程序直接进行加载。 执行成功之后发现在bounding box对应的置信度上的数值存在明显的不同之处。同时会保存在不同的文件中。 街道视频的目标检测 在官方文档和代码注释出提到了可以使用.mp4文件并将视频转化为帧进行检测。 $ python detect.py --weights yolov5s.pt --source 0 # webcam img.jpg # image vid.mp4 # video screen # screenshot path/ # directory list.txt # list of images list.streams # list of streams ‘path/*.jpg’ # glob ‘https://youtu.be/LNwODJXcvt4’ # YouTube ‘rtsp://example.com/media.mp4’ # RTSP, RTMP, HTTP stream 其中 parser.add_argument(“–view-img”, action“store_true”, help“show results”) –view-img参数可以显示检测的效果在执行视频文件的同时我们使用到这个参数就可以动态观察视频的检测效果了。 下载一个街道视频作为待检测的素材。 修改第二个参数信息在程序中读入视频并进行检测。 parser.add_argument(--source, typestr, defaultROOT / data/video/street.mp4, helpfile/dir/URL/glob/screen/0(webcam))设置–view-img参数观看检测视频的实时效果。python detect.py --view-img 选择的是一个较小的视频共可以分为211帧来检测实时的检测。 street 使用coco数据集结合GPU训练自己的模型 我们结合迁移学习和代码中使用到的微调等相关技术。对自己的模型进行训练项目中包括了一些yaml配置文件。 方便快速的训练我选择使用其中的coco128这个数据集。共80个类别信息 在训练的过程中同样需要先下载coco128数据集对应的128张图片然后在进行模型的训练。 初学者水平有限调参默认忽略。其中yaml文件中给出了下载地址 download: https://ultralytics.com/assets/coco128.zip 修改参数信息之后进行训练训练完成后得到自己的GPU训练之后的模型信息。 add_argument(--weights, typestr, defaultROOT / yolov5m.pt, helpinitial weights path)parser.add_argument(--cfg, typestr, default, helpmodel.yaml path)parser.add_argument(--data, typestr, defaultROOT / data/coco128.yaml, helpdataset.yaml path)下载数据集读入参数信息 结合训练集和验证集进行模型的训练。 下载的是cpu版本的pytorch训练较慢重新用pip下载GPU版本的pytorch重新来进行训练 pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 conda install pytorch torchvision torchaudio pytorch-cuda11.8 -c pytorch -c nvidia 建议还是用conda装 换源下载加快速度下载GPU版本的torch 下载完成后GPU可以则重新进行训练。(GPU安装成功后重新训练) 注意的是conda虚拟环境的pytorch cuda版本一定用conda安装 成功用gpu进行训练了当100个批次都跑完后即可看生成的训练的目录结构 将最后的结果保存在第三次训练的地方。 使用自己训练的模型来进行视频的检测 在检测文件处修改指定的模型加载位置我们自己训练的第三个模型的位置。runs/train/exp3/weights/best.pt --weights, nargs, typestr, defaultROOT / runs/train/exp3/weights/best.pt, helpmodel path or triton URL)效果基本上和预训练模型的效果近似相同。
http://www.dnsts.com.cn/news/122782.html

相关文章:

  • 关键词挖掘工具爱站网网页出现网站维护
  • 提高网站浏览量网站建设与管理实践收获怎么写
  • 网站如何建立品牌形象化妆品网站网页设计
  • 专业3合1网站建设做百度网站排
  • 创建网站需要哪些过程东莞网站制作找哪里
  • 做电影网站危险吗上海十大网站建设
  • 如何推广我的网站电子商务就业前景和就业方向
  • 长沙做网站推荐杭州二建建设有限公司网站
  • 网站建设需要注意那些点亚马逊网站联盟
  • 校园网站建设可行性分析建设电动车官网
  • 嘉兴网站建设方案h5表单制作
  • 那个网站可以免费做风面游戏软件开发公司排名
  • 网站建设价值中国工程网亿美
  • 浙江省兰溪建设局网站哈尔滨快照优化
  • 博物馆网站建设依据做网络销售太坑人了
  • 一个网站怎么做关键词搜索介绍公司的简介范文
  • app调用网站小程序开发平台到底哪家好
  • 源代码代做网站代做宝网站
  • 网站模板哪里好wordpress 优势
  • 如何更改网站图标最新搜索引擎排名
  • 深圳网博网站建设牛推网官网
  • 设计师图库网站一般做企业网站需要什么
  • 中山蓝图科技网站建设企业名录app
  • 本地wordpress怎么弄网站手机网站备案费用
  • 星沙网站建设四川展陈公司排名前十
  • 服务器 网站建设 过程免费自动网页生成器
  • 安装多个wordpress站点网络营销软件推广
  • 建立网站后怎么维护深圳东门属于哪个区
  • 投资网站维护网站的工作简报怎么做
  • 免费搭建网站的软件公司宣传片制作多少钱