当前位置: 首页 > news >正文

建一个展示网站下班多少钱邹平县建设局网站

建一个展示网站下班多少钱,邹平县建设局网站,可以做外链网站,徐州建站方案因为之前虽然写过一点点关于pytorch的东西#xff0c;但是用的还是他太少了。 这次从头开始#xff0c;尝试着搓出一个神经网络模型 #xff08;因为没有什么训练数据#xff0c;所以最后的训练部分使用可能不太好跑起来的代码作为演示#xff0c;如果有需要自己连上数据…因为之前虽然写过一点点关于pytorch的东西但是用的还是他太少了。 这次从头开始尝试着搓出一个神经网络模型 因为没有什么训练数据所以最后的训练部分使用可能不太好跑起来的代码作为演示如果有需要自己连上数据集合进行修改捏 1.先阐述一下什么是神经网络块block 一般来说我们之前遇到的一些神经网络网络中是这样子的结构 net---- layer ---- neuron 而块的存在就是给这样一个神经网络的整体做了一个封装操作让神经网络能复合实现一些功能。 结构就变成了这个样子图片来自D2l 这样子神经网络结构就变成了四层 block ----》 net ---》layer ---》neuron 这样子自然是可以使用诸如一些奇怪的方法通过三层索引去进行调用什么的不过这个我们到后面再说。先看一下如何构建一个块。 我们这里构建了一个类这个类的计算方法实际就是实现了几个层的输入和输出相当与封装了一个神经网络。 class MLP(nn.Module):# 用模型参数声明层。这里我们声明两个全连接的层def __init__(self):# 调用MLP的父类Module的构造函数来执行必要的初始化。# 这样在类实例化时也可以指定其他函数参数例如模型参数params稍后将介绍super().__init__()self.hidden nn.Linear(20, 256) # 隐藏层self.out nn.Linear(256, 10) # 输出层# 定义模型的前向传播即如何根据输入X返回所需的模型输出def forward(self, X):# 注意这里我们使用ReLU的函数版本其在nn.functional模块中定义。return self.out(F.relu(self.hidden(X)))# 这个东西就相当与先隐藏层然后relu然后最后进行一次输出#创建这个神经网路块然后开始输出 net MLP() net(X) 这段代码没有使用squential容器进行封装但是可以很清楚地看到我们定义了两层隐藏层256个神经元输出层10个神经元不知道为什么没用softmax函数并且在返回函数计算的时候中间还经过了一步‘relu’激活函数的操作 注意和tf不同pytorch框架下面是不能把激活函数存入层中的需要单独作为一个‘层’来进行一个输入和输出的控制 注意下在后面自定义层的时候也是这样子由于继承了nn.Module这个类 , 所以我们必须要实现两个函数首先是_init_,这个在python中是最终要的构造函数。其次就是forward我对py不是很了解不过这应该是通过面向对象实现的集成。forward这个方法就是向前传播也就是接受参数内部计算然后返回值传递下去。 我们直接给net对象传递我们随机生成的两条数据的时候底层时就调用了这个函数。 其他的一些比如sequential的实现方法在这里我们就不加以赘述了。 为了更好的解释forward这个函数的作用在这里我们自己创建一个单层通过类创建仍然是获取一个集成nn.Module的类然后内部设置好初始化为了创建对象设置好向前传播为了用来调用 # 自定义一个不需要参数的层 class CenteredLayer(nn.Module):def __init__(self):super().__init__()def forward(self, X): #该层向前传播的方法return X - X.mean() # 这一层最终也是返回一个张量 # sequential是一个简单的线性封装容器所以只要是符合输入张量输出张量 # 并且在内部会调用他们的forward方法layer CenteredLayer() print(自定义层每个元素都 - 平均值2,layer(torch.FloatTensor([1, 2, 3, 4, 5]))) 这个单层的效果就是对每个元素都减去平均值。 并且如果想的话我们也可以创建一些拥有自己属性的层 #现在创建一个带有权重和偏好 class MyLinear(nn.Module):def __init__(self, in_units, units):super().__init__()self.weight nn.Parameter(torch.randn(in_units, units)) #这个需要手动输入一下输入特征数目还有神经元数目self.bias nn.Parameter(torch.randn(units,)) def forward(self, X):linear torch.matmul(X, self.weight.data) self.bias.data #向前传播其实就是接受输入return F.relu(linear) #创建一个层这个层可以直接用在sequential之中 linear MyLinear(5, 3) #五个输入三个神经元这里可以看到只要重写了forward方法那么这个类就能变成一个能用来计算的类甚至是一个层可以单独计算。并且这样子写好以后是可以放在sequential容器中作为一个统一训练的。 因此如果我们有多个块的话也是可以自己去写一个容器进行组合。 #创建一个新类 class MySequential(nn.Module): #就是py中的继承语法def __init__(self, *args):super().__init__()for idx, module in enumerate(args):# 这里module是Module子类的一个实例。我们把它保存在Module类的成员# 变量_modules中。_module的类型是OrderedDictself._modules[str(idx)] moduledef forward(self, X):# OrderedDict保证了按照成员添加的顺序遍历它们for block in self._modules.values():X block(X)return X#这个类实现的效果就类似原声的sequential net MySequential(net1net2net3) print(net(X)) 这个就大概是在拼接块层的时候内部所做的底层原理。 当然直接用sequential容器是更加省力气的方法对吧 2.关于参数如何进行检查 假设现在有一个单独的神经网络 net nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 1)) 众所周知这个神经网络是两层中间的一层是激活函数我们不做讨论 我们可以通过索引来调用和获取某个层的属性 #返回结果是这个全链接层的weight和bias正好对应八个神经元 print(net[0].state_dict()) #检查参数 print(net[2].bias) #还会返回一些具体的属性 print(net[2].bias.data) #单纯的数据 对于block组成的神经网路社区中我也不知道很多块组在一起应该叫什么了仍然是一个嵌套的结构我们可以创建这样一个社区 #这段代码其实也能看出来sequential也是一个能容纳block的东西 # 容器 --》 block --》 layer --》 神经元 这三层架构或者说四层 def block1():return nn.Sequential(nn.Linear(4, 8), nn.ReLU(),nn.Linear(8, 4), nn.ReLU()) def block2():net nn.Sequential()for i in range(4):# 在这里嵌套net.add_module(fblock {i}, block1())return netrgnet nn.Sequential(block2(), nn.Linear(4, 1)) 然后我们对这个rgnet进行打印可以直接看到工作状态 #这样子打印会展示整个网络的状态 print(检查工作状态,rgnet) 可以很清晰地看到这样一个嵌套结构 所以比如说我们想要访问第一个社区中第2个块中的第一个层中的参数我们可以直接这样子读取 rgnet[0][1][0].bias.data 另外如果想要对已经形成的模型做初始化这里还有一个例子 def init_normal(m):if type(m) nn.Linear:nn.init.normal_(m.weight, mean0, std0.01) #平均值0,标准差为0.01nn.init.zeros_(m.bias) #偏移直接设置为0 net.apply(init_normal) print(手动初始化的效果为,net[0].weight.data[0],手动初始化bias:, net[0].bias.data[0]) 函数实现的功能是先检测传进来的是不是正常的线性层然后分别初始化。 补充一下apply函数和js里的用法差不多对内部的每个单元进行遍历然后做一些操作。 当然这不是唯一一种方法自然还有别的。 3.关于张量的保存和获取 在pytorch中张量的保存主要有两种形式第一种是保存数据用于其他模型的训练 #读写张量# x torch.arange(4) #[0,1,2,3]创建了一个张量 torch.save(x, x-file) #这是保存在x-file这个文件下面的 loaded_x torch.load(x-file) #反过来加载 print(loaded_x) #输出 #这样子读取列表和读出也可以使用字典{x:x,Y:y}或者列表[x,y]反正是变成文件形式了另一种是保存模型的参数可以直接套在其他模型上 #读写参数并且保存在内存#class MLP(nn.Module): #手动创建多层感知机def __init__(self):super().__init__()self.hidden nn.Linear(20, 256)self.output nn.Linear(256, 10)def forward(self, x):return self.output(F.relu(self.hidden(x)))net MLP() #构建对象 print(MLP的参数,net.state_dict()) #这里输出一下参数#保存这个模型的参数 torch.save(net.state_dict(), mlp.params)#然后对一个新模型使用这个参数 clone MLP() clone.load_state_dict(torch.load(mlp.params)) #内置函数加载参数clone.eval()#设置为评估模式禁止训练什么的这应该是module中附带的功能print(clone的参数,clone.state_dict())#可以看到参数被完全复制了 但是注意一个问题如果使用另一个模型初始化自身的时候要保证两个模型的结构一致
http://www.dnsts.com.cn/news/158507.html

相关文章:

  • 做二手钢结构网站有哪些淘宝电商运营基础知识
  • 微信网站开发登录做网站找哪家好
  • 用美图秀秀做网站图片企业网站系统有哪些
  • 怎么提高网站seo优化关键字排名wordpress一键倒入微信
  • 正规营销型网站建设公司住房和城乡建设部官网证件查询
  • 给女友做网站网络营销经典案例
  • 网站系统开发报价单wordpress 后台 空白
  • 如何进行网站的推广苏州高端网站定制
  • 网站建设类论文格式网站流量站怎么做
  • 找个网站页面设计的对称方法包括哪几种形式
  • 怎样网站不用备案网站开发费用预算
  • 福州网站设计哪家好网站赏析案例
  • 苏州企业建设网站公司免费发布黄页广告网站
  • 完爆网站开发经典实例国家建设工程信息网站
  • 在线学习网站建设php app网站建设
  • 一个公司多个网站做优化赣州网站建设-赣州做网站
  • 网站建设的好处有什么用加工平台v型架子
  • 开福区互动网站建设工商登记注册网
  • 怎么做学校子网站网站可信度验证
  • 有哪些大站用wordpress网站建设试手需要买服务器吗
  • wordpress 网站开发网站百度
  • 养生网站策划网站制作 沈阳
  • 怎么弄网站关键词网站兼容问题
  • 网站建设填空题wordpress数据库断开
  • 做网站需要什么资质企业管理培训课程价格
  • 苏州吴江城乡和住房建设局网站中国建筑人力资源
  • 个人如何做短视频网站wordpress添加左侧菜单
  • 郑州网站技术顾问wordpress 主题 英文版
  • 历史网站怎么做网站页面设计与制作实践
  • 网站网络的可用性专业版装修用什么网站做导航条