当前位置: 首页 > news >正文

北京 成品网站公司的宣传片怎么制作

北京 成品网站,公司的宣传片怎么制作,滨江区高端网站建设,哈尔滨网络公司新闻文章目录 1、简介2、门控机制3、公式4、图解GRU4.1、重置门和更新门4.2、候选隐藏状态和隐藏状态⭐ 5、LSTM与GRU的对比6、应用7、训练技巧 #x1f343;作者介绍#xff1a;双非本科大三网络工程专业在读#xff0c;阿里云专家博主#xff0c;专注于Java领域学习#xff… 文章目录 1、简介2、门控机制3、公式4、图解GRU4.1、重置门和更新门4.2、候选隐藏状态和隐藏状态⭐ 5、LSTM与GRU的对比6、应用7、训练技巧 作者介绍双非本科大三网络工程专业在读阿里云专家博主专注于Java领域学习擅长web应用开发、数据结构和算法初步涉猎人工智能和前端开发。 个人主页逐梦苍穹 所属专栏人工智能 gitee地址xzl的人工智能代码仓库 ✈ 您的一键三连是我创作的最大动力 1、简介 GRUGated Recurrent Unit 可以先复习一下之前的内容 循环神经网络RNNhttps://xzl-tech.blog.csdn.net/article/details/140940642 LSTMhttps://xzl-tech.blog.csdn.net/article/details/140940759 概念 GRU是另一种RNN变体它简化了LSTM的结构减少了计算复杂度同时保持了处理长时依赖的能力。 结构 GRU将LSTM的输入门和遗忘门合并为一个 更新门Update Gate并用一个 重置门Reset Gate 来决定隐藏状态如何结合新输入。 2、门控机制 门控机制的基本思想是使用“门”来控制信息在网络中的流动。每个门都是通过神经网络层计算出来的权重向量其值通常在 0到1之间。不同的门在不同 时间步 上控制信息的选择、遗忘和更新。这些门是通过可学习的参数在训练过程中自动调整的。 3、公式 GRU在每个时间步的更新过程可以用以下公式描述 更新门 z t σ ( W z ⋅ [ h t − 1 , x t ] b z ) z_t \sigma(W_z \cdot [h_{t-1}, x_t]b_z) zt​σ(Wz​⋅[ht−1​,xt​]bz​) z t z_t zt​ 表示更新门的输出。 重置门 r t σ ( W r ⋅ [ h t − 1 , x t ] b r ) r_t \sigma(W_r \cdot [h_{t-1}, x_t]b_r) rt​σ(Wr​⋅[ht−1​,xt​]br​) r t r_t rt​ 表示重置门的输出。 候选隐藏状态 h ~ t tanh ⁡ ( W h ⋅ [ r t ∗ h t − 1 , x t ] ) \tilde{h}_t \tanh(W_h \cdot [r_t \ast h_{t-1}, x_t]) h~t​tanh(Wh​⋅[rt​∗ht−1​,xt​]) h ~ t \tilde{h}_t h~t​ 表示候选的隐藏状态。 隐藏状态更新 h t ( 1 − z t ) ∗ h t − 1 z t ∗ h ~ t h_t (1 - z_t) \ast h_{t-1} z_t \ast \tilde{h}_t ht​(1−zt​)∗ht−1​zt​∗h~t​ h t h_t ht​ 是当前时间步的隐藏状态。 回顾一下 tanh函数 f ( x ) 1 − e − 2 x 1 e − 2 x f(x) \frac{1 - e^{-2x}}{1 e^{-2x}} f(x)1e−2x1−e−2x​ 4、图解GRU 4.1、重置门和更新门 GRU实际上影藏了记忆链条 h t h_t ht​ 重置门的作用跟之前的遗忘门类似都是充当橡皮擦的作用 更新门则是筛选新的记忆 4.2、候选隐藏状态和隐藏状态⭐ 候选隐藏状态则是在前一时刻隐藏状态之上擦除了一定记忆之后融合进当前的输入 x t x_t xt​然后经过tanh函数临时记录下来 更新门在当前的候选隐状态 h ~ t \tilde{h}_t h~t​和前一时刻的候选隐状态 h ~ t − 1 \tilde{h}_{t-1} h~t−1​之间取舍组合之后输出当前的隐藏状态 h t h_t ht​然后网络进行更新即融入了原有的记忆中相当于阅后即焚 经过这样不断的模块迭代就是一直在短期记忆和长期记忆之间融合更新而且存储的信息不需要像LSTM那么多更加简单高效 5、LSTM与GRU的对比 复杂性 LSTM更复杂参数更多。GRU较为简洁参数更少训练速度更快。 性能 两者在处理长时依赖性任务时表现都很优异具体选择往往取决于数据集和计算资源。在一些特定任务和数据集上GRU可能比LSTM表现更好尤其是在计算资源有限的情况下。 使用场景 对于需要更强的长期记忆和复杂信息流动的任务LSTM可能更合适。对于实时性要求较高或者模型简单性要求较高的任务GRU可能更具优势。 LSTM和GRU是两种非常成功的RNN变体通过改进信息传递机制有效解决了传统RNN在处理长序列数据时的局限性。 它们在自然语言处理、语音识别和时间序列预测等领域得到广泛应用。 6、应用 RNN及其变体广泛应用于以下领域 自然语言处理如语言模型、机器翻译和文本生成。语音识别将音频序列转换为文本。时间序列预测如股票价格预测和天气预报。视频分析从视频帧中提取时间信息。 7、训练技巧 梯度裁剪限制梯度的大小以防止梯度爆炸。正则化使用Dropout等技术防止过拟合。预训练和转移学习利用大规模预训练模型微调特定任务。 RNN模型在序列数据处理中具有强大的表现力和适应能力但也面临一些挑战。通过使用LSTM、GRU等改进模型结合适当的训练技巧能够有效地应用于各种实际问题。
http://www.dnsts.com.cn/news/192330.html

相关文章:

  • 济南网站建设小程序域名信息查询系统
  • 建设企业网站用动态还是静态厦门房产网
  • 制作公司内部网站wordpress 地图 注记
  • 网站内容建设方案电商网站排名
  • 网站开发财务预算企业展厅设计公司的区别在哪
  • 橙色短信网站模板网站建设板块免费下载
  • 买个网站空间wordpress 鼠标悬停
  • 百度网站优化升上去百度首页登录
  • 曲阳网站建设阿里云网站模板
  • 怎么建立网站管理系统wordpress主题动漫
  • vs做网站如何放背景图wordpress画廊
  • 郑州建站模板搭建平面设计图片 作品集
  • 物流公司做网站哪家好快速搭建网站vue
  • 玉石网站建设的定位网站类网站开发
  • 自己 做网站学什么 平面设计浙江省台州市做网站多少钱
  • 西宁整站优化网上做任务网站有哪些内容
  • 企业网站建设基本流程网站seo基础
  • 怎样做网站平台wordpress点击换图
  • 网站设计制作的连接方式重庆在线课程平台
  • 乐清装修网站哪个好上杭县城乡规划建设局网站
  • 荆州 商务 网站建设软文营销的概念是什么
  • 网站制作背景图片网站开发实训意义
  • 网站切换语言怎么做的重庆装饰公司
  • 网站建设工具的公司wordpress自动挣钱
  • 营销型网站建设 代理宁波seo推广定制
  • 制作网站收费wordpress 插件升级失败
  • 石家庄信息网官方网站平台网站建设源码
  • 网站开发需求分析实例做设计的分析图网站有哪些
  • 网站开发的3个阶段中台网站开发
  • 有经验的邵阳网站建设改wordpress评论邮箱