当前位置: 首页 > news >正文

快速学做网站wordpress页面模板对应

快速学做网站,wordpress页面模板对应,手机百度官网首页,做网站有前途1 简介 1.1 研究背景及意义 现如今随着经济等各方面飞速发展#xff0c;社会安全随之也成为必不可少的话题。而校园安全则是社会安全的重中之重#xff0c;而在我们的校园中#xff0c;湿滑的地面、楼梯等位置通常会发生摔倒#xff0c;尽管有“小心脚下”的告示牌#xf…1 简介 1.1 研究背景及意义 现如今随着经济等各方面飞速发展社会安全随之也成为必不可少的话题。而校园安全则是社会安全的重中之重而在我们的校园中湿滑的地面、楼梯等位置通常会发生摔倒尽管有“小心脚下”的告示牌可还是会有意外摔倒的情况发生。看似微不足道的摔倒却很有可能造成髋部和脊柱等多处骨折,根据世界卫生组织最近的一项研究到2020年全世界每年因跌倒而死亡的总人数达到64.6万人显然摔倒已经成为意外死亡的最大原因之一仅低于交通事故造成的死亡人数。实现实时、准确的异常行为检测成为视频监控的重要任务。但是人体的异常行为通常具有无规律、突发性、不可预见性等特点给目标的异常行为检测带来困难研究一种自动检测视频中摔倒行为的方法很有必要。 从目前来看跌倒行人检测的效果不够理想识别速度和识别精度有待提高。本文将近几年最新的深度学习算法进行对比将其应用于行人跌倒检测。当前目标检测算法的发大致分为两大流派一类是Two-Stage算法:先产生候选区域然后再进行分类标志性模型主要有区域卷积神经网络(regionCNNR-CNN)、Fast R-CNN、Faster R-CNN等。另一类是One-Stage 算法:直接对输入图像应用算法并输出类别和相应的定位其代表模型有单发多框检测器(SSD)、“你只看一次”(YOLO)系列等。针对跌倒检测CNN系列算法在检测的实时性方面有所欠缺SSD网络对于小目标的检测效果及精度并未超越YOLOv5于是本文选择YOLOv5进行跌倒检测的研究。   2 YOLOV5模型简介 2.1 YOLOV5基本原理 2.1.1 YOLOV5模型结构 YOLOV5模型的结构如图1-1所示。YOLOv5按照网络的深度和宽度将网络模型由小到大分为YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x检测精度和速度呈现递增。本次研究考虑到模型大小所以采用YOLOv5s作为研究对象。该模型由Input、Back Bone、Neck、predict共4个模块组成。 图1-1 YOLOV5模型结构 Fig. 1-1 YOLOV5 model structure Input 使用了随机缩放、随机裁剪、随机排布的Mosaic数据增强方法并在进行网络训练时自适应计算不同训练集中的最佳锚框值的技术。这种方法可以增加数据的多样性提高模型的泛化能力从而获得更好的检测效果。 具体地说Mosaic数据增强方法将四张不同的图片随机裁剪并拼接成一张大图。这样做可以增加数据的多样性使得模型对于不同尺度、姿态、光照等方面的目标有更好的识别能力。同时随机缩放和随机排布也可以进一步增加数据的多样性。 另外在进行网络训练时由于不同的数据集可能存在不同大小和形状的目标因此需要自适应地计算最佳的锚框值。这可以通过计算每个训练集中目标的平均宽度和高度来实现。然后根据这些平均值计算每个训练集的最佳锚框值从而获得更准确的检测结果。 Back Bone 主干层是卷积神经网络的核心部分其作用是从原始图像中提取出具有代表性的特征并将这些特征进行融合和降维以便后续的处理和分类。 在主干层中Conv2d卷积神经网络模块用于提取图像中的低级特征例如边缘、角点等。C3网络结构如图1-2所示用于提取更高级别的特征例如纹理、形状等。SPPF模块则是用于减少参数量从而增加模型的运行速度同时还可以扩大感受野提高特征提取的效果。 主干层的输出是将输入图像缩小至原来的1/32后所提取到的特征值形成的特征图片。这个特征图片包含了图像的各种重要特征信息后续的处理模块可以基于这些特征进行目标检测、图像分类等任务。 图1-2 C3网络结构 Fig. 1-2 C3 network structure Neck Neck层的主要作用是将来自不同层的特征进行融合。在YOLOv4中Neck层采用了FPNPAN结构其中FPN层网络由顶部到底部传递信息的它主要负责传递语义特征。而PAN层则由底部到顶部传递信息的它主要传递定位特征。YOLOv5进一步提高了网络特征融合能力。 YOLOv5将YOLOv4中的普通卷积操作替换为C3结构进一步提高了特征融合的能力[24]可以使得不同尺度的特征能够相互融合从而更好地捕捉目标的特征。同时C3结构还能够有效地减少网络参数和计算量提高了网络的速度和效率。 Predict 包含三个检测层分别是Neck中得到的3种不同尺寸的特征图。在进行目标检测时YOLOv5会根据特征图的尺寸将其上划分网格并为每个网格预设了3个不同宽高比的锚框用来预测和回归目标。   3 Mediapipe模型简介 3.1 Mediapipe基本原理 3.1.1 Mediapipe模型结构 Mediapipe是一个开源的跨平台机器学习框架旨在为开发人员提供构建基于视觉、语音和手势的应用程序所需的工具和组件。Mediapipe提供了一套预先构建好的模块这些模块可以快速地实现各种机器学习任务例如姿态识别、人脸检测、手部跟踪等。同时Mediapipe支持多种输入源包括摄像头、视频文件、图像序列等为用户提供了更加灵活的选择。 图3-1 Mediapipe骨骼点检测模型 Fig. 3-1 Mediapipe bone point detection model 3.1.2 Mediapipe目标检测流程 Mediapipe检测目标需要四个步骤如图3-2所示。 输入数据首先需要将待检测的图像或视频作为输入数据传入 MediaPipe 图形中。这里的 Camera 表示输入数据的来源。 目标检测接下来使用 Detection Tracking Object Detection 节点对输入数据进行目标检测。该节点会利用内置的快速 ML 推理和处理框架对输入数据进行处理并输出检测到的目标的位置和类别信息。 帧选择与合并由于输入数据可能是连续的一段视频因此需要对不同帧之间的检测结果进行处理以提高检测的准确性。Frame Selection 和 Detection Merging 节点就是用来完成这一步骤的。Frame Selection 节点会选择最好的一帧作为当前时刻的检测结果而 Detection Merging 节点则会将相邻帧的检测结果进行合并以得到更准确的目标位置和类别信息。 结果输出最后将处理后的输出数据传送至 Display 节点该节点会将结果显示出来。需要注意的是输出结果也可以是其他形式的比如保存到本地文件等。 图3-2 MediaPipe目标检测流程 Fig.3-2 MediaPipe object detection process  4 摔倒行为检测 4.1 实验环境及数据集 4.1.1 实验环境配置 本文基于Anaconda集成平台Anaconda集成平台可实现对开发工具包的统一管理。利用Python语言进行程序的开发Python语言是开源语言具有完善的生态环境并且集成了Pytorch、Tensorflow等主流的开源深度学习框架并提供了函数调用接口用户可以在任何计算机上免费安装和使用相关数据库。此外Python语言易于学习语法简单代码维护便捷拥有丰富的扩展库可以轻松完成各种高级任务。 首先需要在Anaconda官网下载Anaconda软件进行软件的安装软件安装结果如图4.1所示。 图4-1 软件安装结果 Fig. 4-1 Anaconda install result 软件安装完成后进行python和环境变量的配置本文基于python 3.8进行程序的安装。最后在新建的环境中安装相关依赖库相关依赖库包括pytorch、opencv、mediapipe和yolov5等。 本文开发的实验环境为Windows系统GPU型号为Nvidia 2080处理器为Intel® Core™ i7-10870H CPU 2.20GHz 2.21GHz32GB RAM硬件条件可以满足程序的开发和运行需求。 4.1.2 COCO数据集 在进行跌倒检测时需要首先进行人体检测本文基于yolov5算法进行人体检测为了能够检测到人体需要利用训练数据对模型进行训练因此采用COCO数据集进行人体识别模型和人体骨骼关键点检测模型的训练COCO数据集如图4.2所示。 图4-2 COCO数据集 Fig. 4-2 COCO dataset COCO数据集是由微软开发并维护的大型图像数据集数据集集成了物体检测、关键点检测、实例分割、全景分割人体关键点、人体密度检测等任务数据集中的图像是由实际场景中的图像所组成图像中的物体经过精细的标注和分割包含有超过33万张的原始图像其中经过标注的图像超过20万张在所有的图像中包含有person(人)、bicycle(自行车)、car(汽车)、motorbike(摩托车)、aeroplane(飞机)、bus(公共汽车)、train(火车)、truck(卡车)、boat(船) 在内的91个类别150万个对象实例80个目标类别和对25万个人进行了关键点标注因此基于COCO数据集可同时完成人体识别和人体关键点检测两个任务COCO数据集可执行任务如图4.3所示。 图4-3 COCO数据集任务 Fig. 4-3 Task of COCO dataset COCO数据集包含3种标注的类型分别为用于目标检测的实例分割用于姿态估计的关键点检测和用于图像理解的图像文本标注。对于每一种标注类型均包括info、image和license三个字段其中info包含year、version、description、contributor、url和data_created字段image包含id、width、height、file_name、licence、flickr_url、coco_url和date_captured字段license包含info、licenses、images、annotations和categories字段。除了上述三个字段外对于实例分割任务提供了annotation字段字段种包含id、image_id、category_id、segmentation、area、bbox和iscrowd字段。关键点检测任务中增加了keypoints字段用于存储人体的关键点信息。 4.2 实验分析 4.2.1 基于yolov5的人体识别 图像中背景复杂复杂的背景会影响摔倒识别的准确率为了提高模型的鲁棒性增加摔倒识别的准确性需要去除图像背景对摔倒识别的影响因此需要首先在图像中识别到人体部位通过识别到人体从而缩小检测的范围。本文基于yolov5s进行人体识别不同于yolov5n、yolov5m、yolov5l和yolov5x模型yolov5s在保证推理速度的同时具有较高的识别精确率。在实际生活中对用户进行摔倒检测时快速检测到用户是否摔倒十分重要因此模型需要首先满足推理精度快的特点虽然yolov5n模型的推理速度快于yolov5s但是相比于yolov5syolov5n模型的识别准确率低而对于yolov5m、yolov5l和yolov5x模型来说虽然推理精度高但是推理速度会随着精度的提高而损失更多的推理速度因此本文选择yolov5s模型进行人体的识别yolov5s模型在大幅提高精度的同时而并未损失太大的推理速度。 图4-4 yolov5模型精度和推理速度对比结果 Fig. 4-4 Comparison of precision and speed for yolov5 model 在图像中准确检测到用户是检测摔倒的前提和保证因此首先对图像中的人体进行检测测试为了提供测试的难度选择具有复杂背景的图像进行测试。同时为了测试模型的鲁棒性选择图像中人体并未全部出现在图像中的人体进行测试。测试结果如图4-5所示。 图4-5 yolov5s模型人体检测测试结果 Fig. 4-5 Human detection based on yolov5s 实验结果显示yolov5s模型可在图像中准确识别到人体即使对于并未全部出现在图像中的人体也可准确检测到人体在检测到的人体中同时对检测到的人体标记了检测置信度。 4.2.2 基于Mediapipe的人脸识别 用户摔倒时需要对用户进行识别因此需要对脸部进行检测当检测到脸部后将检测到的脸部图像进行保存。本文基于Mediapipe进行人脸检测Mediapipe可支持多人脸的检测同时可为检测到的人脸进行特征点的标记。Mediapipe提供三种人脸检测模型分别为近景模型、密集型全范围模型和稀疏型全范围模型其中近景模型适合于用户距离相机2米以内的人脸密集型全范围模型和稀疏型全范围模型均适用于用户距离相机5米以内的人脸虽然密集型全范围模型和稀疏型全范围模型具有相同的F值但是密集型全范围模型的召回率要高于稀疏性全范围模型而在精确度方法稀疏型全范围模型的精确率要高于密集型全范围模型。用于摄像机往往距离用户的距离较远因此本文基于密集型全范围模型进行人脸的检测。 选择一张图片中具有多张人脸的图片进行人脸的检测对于彩色图像需要首先将图像进行灰度化处理基于灰度图像进行人脸的检测人脸检测结果如图4-6所示。结果显示Mediapipe可以准确的实现人脸的检测同时可检测到脸部的6个特征点6个特征点分别为左眼特征点、右眼特征点、鼻子部位特征点、嘴部特征点、左耳特征点和右耳特征点。当检测到用户的脸部区域后可通过检测到的人脸框对脸部区域进行分割从而保存分割结果。 图4-6 基于Mediapipe模型的人脸检测结果 Fig. 4-6 Face detection based on Mediapipe 4.2.3 基于骨骼模型的摔倒识别 最后本文在yolov5s模型检测到的人体区域的基础上进行人体骨骼的检测根据检测到的人体骨骼点之间的相对位置关系实现摔倒的识别。跌倒是一种突发的、不受用户控制的、非故意的体位改变跌倒是瞬间的动作人体的动作、高度和速度会发生快速的改变此时人体的中心点会从较高的位置快速下降到地面或者接近地面的高度。在图三Mediapipe骨骼点检测模型中提供了人体两肩的关键点关键点序号为11和12用户在跌倒时肩膀会出现着地的情况因此本文选择两肩中点作为参考点。由于跌倒是一个持续的动作因此需要对视频序列进行检测本文通过对人体骨骼关键点检测返回的骨骼数据进行实时的处理每N帧计算一次参考点的下降速度当参考点的下降速度大于临界值时则认为检测到了一个可能的摔倒现象。用户在摔倒时用户距离摄像机的距离会发生变化因此需要对摄像机中用户大小进行归一化从而解决人体在摄像机中出现的近大远小的问题。用户在摔倒时往往会触碰到地面因此可通过计算双脚骨骼关键点近似地面高度根据骨骼关键点模型可知双脚关键点序号为29和30。一方面可通过计算参考点距离双脚关键点的距离判断用户是否摔倒另一方面可通过下降速度与用户的近似感知高度克服人体在摄像机中近大远小的问题此时定义 ratio speed/h 为用户摔倒的特征之一其中speed为每N帧用户参考点的下降速度本文中N为10h为两肩中点到两脚中点之间的高度ratio为阈值本文ratio取值为0.25。当阈值大于0.25时则可认为检测到了摔倒特征。关键实现代码如图4-7所示。 图4-7 摔倒特征一关键实现代码 Fig. 4-7 Code for fall detection features 当检测到摔倒特征一后在一段时间内再次检测到该摔倒特征后此时需要计算两髋中心点骨骼模型23和24特征点距离两脚中点骨骼模型29和30特征点的高度bh当bh小于设定的阈值时则可判断用户处于摔倒状态关键实现代码如图4-8所示。 图4-8 摔倒特征二关键实现代码 Fig. 4-8 Code for fall detection features 为了测试跌倒检测算法的准确性采用UR Fall Detection Dataset数据集进行测试UR Fall Detection Dataset数据集结构如图4-9所示。 图4-9 UR Fall Detection Dataset数据集 Fig. 4-9 UR Fall Detection Dataset 该数据集包含70个视频序列其中包含30个不同用户跌倒的视频序列该数据集采用2台微软的深度摄像机和加速度计记录跌倒事件摄像机0和摄像机1分别包含深度和彩色图像信息由于在实际使用过程中使用的为彩色图像相机因此选择彩色图像视频进行算法的测试。对30个视频进行测试均可成功检测到用户摔倒部分测试结果如图4-10所示。 a用户未摔倒骨骼点检测结果 (b)用户摔倒骨骼点检测结果 图4-10 摔倒检测实验结果 Fig. 4-10 Results of fall detection 除了可检测到用户摔倒以外还将摔倒用户的面部图像进行了保存结果如图4-11所示。 图4-11 存储摔倒用户人脸 Fig. 4-11 Results of fall detection person face 为了进一步验证本文提出的跌倒检测算法的准确性和鲁棒性采用查准率-查全率曲线进行测试。查准率-查全率曲线能够反映算法对目标识别的精确度和全面性。查准率-查全率曲线与坐标轴所围成的面积被定义为AP值AP值越大算法的检测效果越好。算法的查准率-查全率结果如图4-12所示。 图4-12 P-R曲线结果 Fig. 4-12 Results of R-R 对于跌倒检测任务可将视频中的用户状态分为站立和跌倒两个状态因此对于这一二分类问题可定义真正率、假正率、假负率和真负率当算法预测视频中用户为正例时样本实际也为正例时称为真正率。当算法预测视频中用户为反例时样本实际也为反例时称为真负率。当算法预测视频中用户为反例时样本实际为正例时称为假负率。当算法预测视频中用户为反例样本实际也为反例时称为真负率。因此我们对于本文提出的算法和mask rcnn和faster rcnn在运行时间和准确性方面进行对比验证算法的有效性。三种算法的检测结果如表5.1所示。 表5.1 三种算法的检测结果 算法名称 总视频帧 正确检测 错误检测 查全率 查准率 Yolov5 2298 1986 312 0.872 0.864 Mask RCNN 2298 1865 433 0.837 0.812 Faster RCNN 2298 1839 459 0.821 0.800 实验结果显示相比于Mask RCNN和Faster RCNNYolov5算法具有最高的查准率和查全率检测准确率最高。除了准确率以外算法的推理速度也会影响实际的使用效果三种算法推理速度如表5.2所示。 表5.2 三种算法的推理速度 算法名称 耗时s Yolov5 32.4 Mask RCNN 42.6 Faster RCNN 40.5 实验结果显示Yolov5在CPU环境下具有更快的推理速度预测速度更快。三种算法的检测结果如图4-13所示。 (1)Yolov5 (2)Mask RCNN (3) Faster RCNN 图4-11 Yolov5、Mask RCNN和Faster RCNN摔倒检测对比结果 Fig. 4-13 Comparison of Yolov5、Mask RCNN、Faster RCNN 最后采用Intel oneAPI AI组件实现端到端的模型优化使用的优化工具未英特尔神经压缩器1.12环境配置如下图所示。 在经过优化前提下和未经过优化前提下模型每批次平均训练时间如下图所示结果表明经过优化后平均训练时间更短。 同一批次不同训练数据情况下对模型优化前后的时间进行对比可以发现模型优化后推理时间变短并且随着单次批量数据的增加时间变短幅度更大优化效果更加明显。
http://www.dnsts.com.cn/news/266502.html

相关文章:

  • 没有相应营业执照怎么做网站做动态图片的网站吗
  • 亚马逊做国际外贸在哪个网站安装wordpress+000
  • 建设银行车贷网站设计师必备的国际设计网站
  • 专业网页设计工具网站推广的优化
  • 网站底部备案图标wordpress 菜单 链接目标
  • 网站建设方案企业网站seo谷歌
  • 营销型网站能解决什么问题百度如何给网站做评价
  • 十大舆情网站软件平台搭建流程
  • 中国广告网谷歌seo关键词优化
  • 网站建设工程设计图邻水网站建设
  • 沈阳建设厅网站wordpress多说头像
  • 网站做业务赚钱吗深圳住房建设局官方网站
  • 南宁市建设工程质量监督站网站广州加盟网站建设
  • 昆明建设网站公司wordpress地址改错了
  • 网站做301跳转的好处品牌设计方案
  • 档案网站建设的原则荆州网站制作公司
  • 知名营销网站开发使用python建设一个论坛网站
  • 云南网站制作多少钱谷歌优化是什么意思
  • 住房和城乡建设部科技发展促进中心网站江西网
  • 上海当地网站扬州网站优化
  • 网站建设时设置语言选项深圳专业集团网站建设
  • 昆明做网站哪家免费网站大全下载
  • 重庆市建设执业注册中心网站网站不能自行备案吗
  • 千库网ppt模板seo扣费系统
  • 中国公路建设在哪个网站公示模板网文
  • 网站搭建代理king wordpress
  • 华为的网站建设哪的网页设计培训好
  • 建网站吧建设电商网站需要什么硬件
  • 手机端搜索引擎排名大庆网站建设优化
  • 淮安建设工程协会网站查询百度信息流广告