当前位置: 首页 > news >正文

飞浪网站建设做网站的优惠广告

飞浪网站建设,做网站的优惠广告,怎么制作香囊 教程,别人做的网站自己根目录吗首先给出数学上的知识。 1. 2. 3. 其次给出PINN最基础的理解与应用说明。 1.PINN中的MLP多层感知机的作用#xff1f; 答#xff1a;目的是用来拟合出我们需要的那个 常微分方程#xff0c;即函数逼近器。 2.PINN中物理信息的作用#xff1f; 答#xff1a;用于约束MLP反向… 首先给出数学上的知识。 1. 2. 3. 其次给出PINN最基础的理解与应用说明。 1.PINN中的MLP多层感知机的作用 答目的是用来拟合出我们需要的那个 常微分方程即函数逼近器。 2.PINN中物理信息的作用 答用于约束MLP反向传播梯度下降求解时的解空间。所以PINN只需要更少的数据就能完成任务。 拟合sin(x)时的边界条件。 1.  2.参照上面的数学式子。 PINN最容易入手的就是根据各种边界条件设计出不同的损失函数(loss function)让MLP最小化这些损失函数的和或者加权和。 下面是代码部分 import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt from torch import autogradclass Net(nn.Module):def __init__(self, NN): # NN决定全连接层的神经元个数对拟合快慢直接相关super(Net, self).__init__()self.input_layer nn.Linear(1, NN)self.hidden_layer nn.Linear(NN,int(NN/2)) self.output_layer nn.Linear(int(NN/2), 1)def forward(self, x):out torch.tanh(self.input_layer(x))out torch.tanh(self.hidden_layer(out))out_final self.output_layer(out)return out_finalnetNet(6) # 6个 mse_cost_function torch.nn.MSELoss(reductionmean) # 最小化L2范数 optimizer torch.optim.Adam(net.parameters(),lr1e-4) # 优化器def ode_01(x,net):# 使用神经网络net(x)作为偏微分方程的函数逼近器每经过一次梯度更新就对对net(x)求一次导代码中net(x)需要去逼近sin(x)ynet(x)# 求net(x)在0点的导数y_x autograd.grad(y, x,grad_outputstorch.ones_like(net(x)),create_graphTrue)[0]# sin**2 cos**2 - 1 0return torch.pow(y, 2)torch.pow(y_x, 2)-1 # 动态图 plt.ion() # 总的迭代次数 iterations20000 # 粒度N_,决定将区间分为多少个间隔 N_ 200 for epoch in range(iterations):optimizer.zero_grad() # 梯度归0# sin(0) - 0 0x_0 torch.zeros(N_, 1)y_0 net(x_0)mse_i mse_cost_function(y_0, torch.zeros(N_, 1)) # sin(-3.14) - 0 0x_n314 torch.full((N_,1), -3.14)y_n net(x_n314)mse_n mse_cost_function(y_n, torch.zeros(N_, 1))# sin(3.14) - 0 0x_p314 torch.full((N_,1), 3.14)y_p net(x_p314)mse_p mse_cost_function(y_p, torch.zeros(N_, 1)) # 输入数据,-pi到pi之间x_in np.random.uniform(low-3.14, high3.14, size(N_, 1))# 将输入数据转为torch张量pt_x_in autograd.Variable(torch.from_numpy(x_in).float(), requires_gradTrue)# pt_y_colection 是 sin**2 cos**2 - 1 0 的值pt_y_colectionode_01(pt_x_in,net)# 全是0pt_all_zeros autograd.Variable(torch.from_numpy(np.zeros((N_,1))).float(), requires_gradFalse)# sin**2 cos**2 - 1 与 0 之间的误差mse_fmse_cost_function(pt_y_colection, pt_all_zeros)# 各种误差之和loss mse_i mse_f mse_n mse_p# 反向传播loss.backward()# 优化下一步optimizer.step() if epoch%10000:y torch.sin(pt_x_in) # y 真实值y_train0 net(pt_x_in) # y 预测值只用于画图不输入模型注意区分本代码的PINN与使用MLP进行有监督回归的差别print(epoch, Traning Loss:, loss.data)plt.cla()plt.scatter(pt_x_in.detach().numpy(), y.detach().numpy())plt.scatter(pt_x_in.detach().numpy(), y_train0.detach().numpy(),cred)plt.pause(0.1) 结果展示部分  1000次迭代 3000次迭代 8000次迭代 20000次迭代 可以看到20000次迭代之后MLP完美逼近了sin(x)。而且不是通过有监督回归得到的。参考博客如下PINN学习与实验一__刘文凯_的博客-CSDN博客。
http://www.dnsts.com.cn/news/197710.html

相关文章:

  • 如何提高一个网站wordpress怎样设置会员免费
  • 公司网站建设 阜阳网络平台推广运营有哪些平台
  • 云主机上传网站设计公司网站建设需要多少钱
  • 北京商城网站建设地址沧州地区做网站
  • 长春火车站防疫要求企业软件网站建设
  • 企业网站应该找谁做wordpress后台加统计代码
  • wordpress做手机网站如何为网站做面包屑导航
  • 郑州哪家公司做网站网站开发的技术方案
  • 四平网站制作软件下载网站如何履行安全管理义务确保提供的软件不含恶意程序
  • 校园服装网站建设预算怎么增加网站的权重
  • 做网站需要ps吗国内精美网站
  • 韩国优秀网站设计软文写作案例
  • 网站建设 软件开发的公司哪家好网页平面设计教程
  • 公司网站开发费用计入网站前台
  • vi设计欣赏网站熊岳网站在哪做
  • vs2010网站建设第一调查网
  • 做php网站时如何建立数据库主要给人家做网站的公司
  • 网站建设简单流程图建设贷款网站哪家好
  • 自己做免费网站难吗南京谁做免费网站
  • 怎样做可以互动留言的网站代理ip地址
  • 建设设计网站公司电商网站成本
  • 网站空间管理站wordpress添加数据库文件夹
  • 新手做网站免费域名wordpress 采集 发布
  • 什么网站看电影是免费的html网站编辑器
  • 郑州网站设计公司排名互联网行业包括哪些方面
  • 网站 开发 合同企业网站建设信息管理平台
  • 网站页面设计公司wordpress必下载工具
  • 文山北京网站建设网站销售公司
  • 建设厅三类人员网站找摄影作品的网站
  • 什么是品牌型网站百度爱采购优化