当前位置: 首页 > news >正文

在贵州省住房和城乡建设厅网站查询企业网站标签页是什么

在贵州省住房和城乡建设厅网站查询,企业网站标签页是什么,wordpress教程书本,博客网站在 TensorFlow 2.0 及之后的版本中#xff0c;默认采用 Eager Execution 的方式#xff0c;不再使用 1.0 版本的 Session 创建会话。Eager Execution 使用更自然地方式组织代码#xff0c;无需构建计算图#xff0c;可以立即进行数学计算#xff0c;简化了代码调试的过程。… 在 TensorFlow 2.0 及之后的版本中默认采用 Eager Execution 的方式不再使用 1.0 版本的 Session 创建会话。Eager Execution 使用更自然地方式组织代码无需构建计算图可以立即进行数学计算简化了代码调试的过程。本文主要介绍 TensorFlow 的基本用法通过构建一个简单损失函数介绍 TensorFlow 优化损失函数的过程。 目录 1 tf.Tensor 2 tf.Variable 3 tf.GradientTape TensorFlow 是一个用于机器学习的端到端平台。它支持以下内容 基于多维数组的数值计算类似于 NumPyGPU 和分布式处理自动微分模型构建、训练和导出 1 tf.Tensor TensorFlow 用 tf.Tensor 对象处理多维数组或张量以下是一个 2 维张量例子 import tensorflow as tf x tf.constant([[1., 2., 3.],[4., 5., 6.]]) print(x) tf.Tensor( [[1. 2. 3.]  [4. 5. 6.]], shape(2, 3), dtypefloat32) tf.Tensor 对象最重要的属性是 shape 与 dtype: Tensor.shape  返回张量每个维度的大小Tensor.dtype   返回张量中元素的数据类型 print(x.shape) (2, 3) print(x.dtype) dtype: float32 TensorFlow 实现了张量的标准数学运算同时也包括为机器学习定制的运算。以下是一些示例 x x 5 * x tf.transpose(x) tf.nn.softmax(x, axis-1) tf.reduce_sum(x) 2 tf.Variable 在 TensorFlow 中模型的权重用 tf.Variable 对象存储称为变量。 import tensorflow as tfx tf.Variable([0., 0., 0.]) x.assign([1, 2, 3]) tf.Variable UnreadVariable shape(3,) dtypefloat32,  numpyarray([1., 2., 3.], dtypefloat32) tf.Variable 对象的数值可以改变在 TensorFlow 2.0 中不再使用 Session 启动计算变量可以直接算出结果。 x.assign_add([1, 1, 1,]) tf.Variable UnreadVariable shape(3,) dtypefloat32,  numpyarray([2., 3., 4.], dtypefloat32) x.assign_sub([1, 1, 1]) tf.Variable UnreadVariable shape(3,) dtypefloat32,  numpyarray([1., 2., 3.], dtypefloat32) 3 tf.GradientTape 梯度下降法与相关算法是现在机器学习的基础。TensorFLow 实现了自动微分来计算梯度通常用于计算机器学习模型的损失函数的梯度。 TensorFlow 2.0 提供了 tf.GradientTape 对象可以理解为“梯度流”顾名思义tf.GradientTape 是用来计算梯度用的。 以下是一个简单的示例 import tensorflow as tfdef f(x):return x**2 2*x - 5x tf.Variable(1.0)with tf.GradientTape() as tape:y f(x) g_x tape.gradient(y, x) # 计算 y 在 x 1.0 处的梯度 print(g_x) 4.0 最后构建一个简单损失函数并使用 TensorFlow 计算最小值。 import tensorflow as tfdef loss(x):return x**2 - 10*x 25x tf.Variable(1.0) # 随机初始值losses [] # 记录损失函数值 for i in range(100):with tf.GradientTape() as tape:one_loss loss(x)lossed.append(one_loss)grad tape.gradient(one_loss, x)x.assign_sub(0.1 * grad) # 执行一次梯度下降法print(The mininum of loss function is: ) tf.print(x) The mininum of loss function is:  4.99999905 # 可视化优化过程 import matplotlib from matplotlib import pyplot as pltmatplotlib.rcParams[figure.figsize] [8, 5]plt.figure() plt.plot(losses) plt.title(Loss vs training iterations) plt.xlabel(iterations) plt.ylabel(loss)
http://www.dnsts.com.cn/news/122443.html

相关文章:

  • 网站推广律师关键词有哪些wordpress 买域名
  • 丽水建设局门户网站北京谷歌seo公司
  • 网页游戏网站有哪些梁山网站建设多少钱
  • 项目网站有哪些wordpress网址中文
  • 门户网站和部门网站的区别h5快速建站
  • 广州网站优化排名太原高端网站建设
  • 历史看过的网站网站搭建策略与方法
  • 通辽市北京网站建设搜索引擎关键词优化
  • 国内自动化网站建设网站建设套模板
  • 网站建设 零基础中国机械外协加工网
  • 做网站需要会编程语言吗简约网站
  • 中山教育平台网站建设郑州做手机网站
  • 成都高端网站开发施工合同协议书内容
  • 做阿里巴巴网站找谁西安复工无需核酸检测
  • 重庆自有网站推广自助模板网站建设做seo
  • 网站建设用书人力招聘网站建设目的
  • 成都网站制作设计公司包装品牌设计公司
  • 作文网站哪个平台好房地产官网
  • 建站cms源码权重查询工具
  • 国内做进口的电商网站网络服务商是啥
  • 广州市增城区建设局网站wordpress 写入权限设置
  • 主流网站模板个人网站设计及实现论文
  • 如何办网站 论坛宁波网络推广外包
  • 网站维护与优化教程微信公众号页面设计模板
  • 我想做直播网站该怎么做wordpress博客没有找到
  • 塘厦建设网站响水做网站哪家最好
  • 天津专门做企业网站公司网站备案内容
  • 推荐黄的网站工作室网站建设要多大内存
  • 柳州在哪里做网站建立起以什么会晤机制为引领
  • 做网站兼容ie国外优秀网站设计