当前位置: 首页 > news >正文

wordpress云建站系统电商类网站建设

wordpress云建站系统,电商类网站建设,俄罗斯乌克兰战争最新消息,外国教程网站有哪些#x1f3af;要点 谱图神经网络计算注意力分数对比图神经网络、卷积网络和图注意力网络药物靶标建模学习和预测相互作用腹侧和背侧皮质下结构手写字体字符序列文本识别组织病理学图像分析长短期记忆财务模式预测相关性生物医学图像特征学习和迭代纠正 Python注意力机制 对…要点 谱图神经网络计算注意力分数对比图神经网络、卷积网络和图注意力网络药物靶标建模学习和预测相互作用腹侧和背侧皮质下结构手写字体字符序列文本识别组织病理学图像分析长短期记忆财务模式预测相关性生物医学图像特征学习和迭代纠正 Python注意力机制 对于图卷积网络图卷积运算产生邻居节点特征的归一化和。 h i ( l 1 ) σ ( ∑ j ∈ N ( i ) 1 c i j W ( l ) h j ( l ) ) h_i^{(l1)}\sigma\left(\sum_{j \in N (i)} \frac{1}{c_{i j}} W^{(l)} h_j^{(l)}\right) hi(l1)​σ ​j∈N(i)∑​cij​1​W(l)hj(l)​ ​ 其中 N ( i ) N (i) N(i) 是其一跳邻居的集合要在集合中包含 v i v_i vi​只需向每个节点添加一个自循环 c i j ∣ N ( i ) ∣ ∣ N ( j ) ∣ c_{i j}\sqrt{| N (i)|} \sqrt{| N (j)|} cij​∣N(i)∣ ​∣N(j)∣ ​ 是基于图结构的归一化常数 σ \sigma σ 是激活函数图卷积网络使用 ReLU W ( l ) W^{(l)} W(l) 是节点级特征的共享权重矩阵转变。 图注意力网络引入了注意力机制来替代静态归一化卷积运算。下面是根据层 l l l 的嵌入计算层 l 1 l1 l1 的节点嵌入 h i ( l 1 ) h_i^{(l1)} hi(l1)​ 的方程。 z i ( l ) W ( l ) h i ( l ) ( 1 ) z_i^{(l)}W^{(l)} h_i^{(l)}\qquad(1) zi(l)​W(l)hi(l)​(1) e i j ( l ) LeakyReLU ⁡ ( a ⃗ ( l ) T ( z i ( l ) ∥ z j ( l ) ) ) ( 2 ) e_{i j}^{(l)}\operatorname{LeakyReLU}\left(\vec{a}^{(l)^T}\left(z_i^{(l)} \| z_j^{(l)}\right)\right)\qquad(2) eij(l)​LeakyReLU(a (l)T(zi(l)​∥zj(l)​))(2) α i j ( l ) exp ⁡ ( e i j ( l ) ) ∑ k ∈ N ( i ) exp ⁡ ( e i k ( l ) ) ( 3 ) \alpha_{i j}^{(l)}\frac{\exp \left(e_{i j}^{(l)}\right)}{\sum_{k \in N (i)} \exp \left(e_{i k}^{(l)}\right)}\qquad(3) αij(l)​∑k∈N(i)​exp(eik(l)​)exp(eij(l)​)​(3) h i ( l 1 ) σ ( ∑ j ∈ N ( i ) α i j ( l ) z j ( l ) ) ( 4 ) h_i^{(l1)}\sigma\left(\sum_{j \in N (i)} \alpha_{i j}^{(l)} z_j^{(l)}\right)\qquad(4) hi(l1)​σ ​j∈N(i)∑​αij(l)​zj(l)​ ​(4) 方程1是下层嵌入 h i ( l ) h_i^{(l)} hi(l)​的线性变换 W ( l ) W^{(l)} W(l)是其可学习的权重矩阵。方程2计算两个邻居之间的成对非标准化注意力得分。 方程 1 def edge_attention(self, edges):z2 torch.cat([edges.src[z], edges.dst[z]], dim1)a self.attn_fc(z2)return {e : F.leaky_relu(a)}方程 2 def edge_attention(self, edges):z2 torch.cat([edges.src[z], edges.dst[z]], dim1)a self.attn_fc(z2)return {e : F.leaky_relu(a)}在这里它首先连接两个节点的 z z z 嵌入其中 ||表示串联然后取它和可学习权重向量 a ⃗ ( l ) \vec{a}^{(l)} a (l) 的点积最后应用 LeakyReLU。这种形式的注意力通常称为附加注意力与 Transformer 模型中的点积注意力形成对比。方程3应用 softmax 来标准化每个节点传入边上的注意力分数。方程(4)与图卷积网络类似。来自邻居的嵌入被聚合在一起并按注意力分数进行缩放。 方程 3 和 4 def reduce_func(self, nodes):alpha F.softmax(nodes.mailbox[e], dim1)h torch.sum(alpha * nodes.mailbox[z], dim1)return {h : h}图注意力网络引入多头注意力来丰富模型容量并稳定学习过程。每个注意力头都有自己的参数它们的输出可以通过两种方式合并 h i ( l 1 ) ∥ k 1 K σ ( ∑ j ∈ N ( i ) α i j k W k h j ( l ) ) h_i^{(l1)}\|_{k1}^K \sigma\left(\sum_{j \in N (i)} \alpha_{i j}^k W^k h_j^{(l)}\right) hi(l1)​∥k1K​σ ​j∈N(i)∑​αijk​Wkhj(l)​ ​ 或 h i ( l 1 ) σ ( 1 K ∑ k 1 K ∑ j ∈ N ( i ) α i j k W k h j ( l ) ) h_i^{(l1)}\sigma\left(\frac{1}{K} \sum_{k1}^K \sum_{j \in N (i)} \alpha_{i j}^k W^k h_j^{(l)}\right) hi(l1)​σ ​K1​k1∑K​j∈N(i)∑​αijk​Wkhj(l)​ ​ class MultiHeadLayer(nn.Module):def __init__(self, g, in_dim, out_dim, num_heads, mergecat):super(MultiHeadLayer, self).__init__()self.heads nn.ModuleList()for i in range(num_heads):self.heads.append(Layer(g, in_dim, out_dim))self.merge mergedef forward(self, h):head_outs [attn_head(h) for attn_head in self.heads]if self.merge cat:return torch.cat(head_outs, dim1)else:return torch.mean(torch.stack(head_outs))定义两层注意力模型 class TAM(nn.Module):def __init__(self, g, in_dim, hidden_dim, out_dim, num_heads):super(TAM, self).__init__()self.layer1 MultiHeadLayer(g, in_dim, hidden_dim, num_heads)self.layer2 MultiHeadLayer(g, hidden_dim * num_heads, out_dim, 1)def forward(self, h):h self.layer1(h)h F.elu(h)h self.layer2(h)return h加载数据集 from xl import Graph from xl.data import citation_graph as citegrh import networkx as nxdef load_cora_data():data citegrh.load_cora()features torch.FloatTensor(data.features)labels torch.LongTensor(data.labels)mask torch.BoolTensor(data.train_mask)g Graph(data.graph)return g, features, labels, mask训练 import time import numpy as npg, features, labels, mask load_cora_data()net TAM(g,in_dimfeatures.size()[1],hidden_dim8,out_dim7,num_heads2)optimizer torch.optim.Adam(net.parameters(), lr1e-3)dur [] for epoch in range(30):if epoch 3:t0 time.time()logits net(features)logp F.log_softmax(logits, 1)loss F.nll_loss(logp[mask], labels[mask])optimizer.zero_grad()loss.backward()optimizer.step()if epoch 3:dur.append(time.time() - t0)print(Epoch {:05d} | Loss {:.4f} | Time(s) {:.4f}.format(epoch, loss.item(), np.mean(dur)))更新亚图跨际
http://www.dnsts.com.cn/news/128899.html

相关文章:

  • 崇明网站建设上海网站开发与
  • wordpress仿站难吗电子商城网站开发合同
  • dw网站模版怎么建立自己的个人网站
  • 做精神科医院网站费用网站由什么构成
  • 做签证宾馆订单用啥网站一般通过少女
  • 怎么做网站邮箱郑州市广告牌制作
  • 西安找工作哪个网站好0基础怎么学服装设计
  • 域名对网站有什么影响猴哥影院在线电影观看
  • ps如何制作网页seo优化关键词
  • 问答系统网站模板抖音代运营合作
  • 网站备案ip地址段物流公司网站设计
  • 网站服务器到期为什么要网站备案信阳做网站的
  • 网站开发视频下载海报设计理念
  • 企业画册尺寸一般多大舟山百度seo
  • 工信部信息备案网站上海网站备案人工服务器
  • 培训机构网站如何建设重庆巴南区网站开发公司
  • 做商城网站建设公司门户网站及oa系统建设的请示
  • 柳州网络网站建设上海网站建设类岗位
  • 源码如何做网站轻量级网站开发
  • 网站开发 书仪征网站建设公司
  • 新公司怎样做网站在四川眉山简单网页制作模板图片
  • dede查看网站源码商标注册证
  • 公司后台的网站代理维护更新acg的wordpress主题
  • 电子商务做网站电子商务是什么意思
  • 南宁公司网站建设方案模板型网站
  • 对电子商务网站建设与管理的心得微博营销网站源码
  • 网站页面设计怎么收费电子商务网站建设与维护概述
  • 中国最大的做网站公司用来制作网页的软件是
  • 上海建设工程学校网站网站建设公司易下拉软件
  • 刷网站关德州网站建设的公司