当前位置: 首页 > news >正文

一个县城广告公司利润廊坊seo关键词排名

一个县城广告公司利润,廊坊seo关键词排名,搜索优化软件,室内设计网站都有哪些平台#x1f3af;要点 谱图神经网络计算注意力分数对比图神经网络、卷积网络和图注意力网络药物靶标建模学习和预测相互作用腹侧和背侧皮质下结构手写字体字符序列文本识别组织病理学图像分析长短期记忆财务模式预测相关性生物医学图像特征学习和迭代纠正 Python注意力机制 对…要点 谱图神经网络计算注意力分数对比图神经网络、卷积网络和图注意力网络药物靶标建模学习和预测相互作用腹侧和背侧皮质下结构手写字体字符序列文本识别组织病理学图像分析长短期记忆财务模式预测相关性生物医学图像特征学习和迭代纠正 Python注意力机制 对于图卷积网络图卷积运算产生邻居节点特征的归一化和。 h i ( l 1 ) σ ( ∑ j ∈ N ( i ) 1 c i j W ( l ) h j ( l ) ) h_i^{(l1)}\sigma\left(\sum_{j \in N (i)} \frac{1}{c_{i j}} W^{(l)} h_j^{(l)}\right) hi(l1)​σ ​j∈N(i)∑​cij​1​W(l)hj(l)​ ​ 其中 N ( i ) N (i) N(i) 是其一跳邻居的集合要在集合中包含 v i v_i vi​只需向每个节点添加一个自循环 c i j ∣ N ( i ) ∣ ∣ N ( j ) ∣ c_{i j}\sqrt{| N (i)|} \sqrt{| N (j)|} cij​∣N(i)∣ ​∣N(j)∣ ​ 是基于图结构的归一化常数 σ \sigma σ 是激活函数图卷积网络使用 ReLU W ( l ) W^{(l)} W(l) 是节点级特征的共享权重矩阵转变。 图注意力网络引入了注意力机制来替代静态归一化卷积运算。下面是根据层 l l l 的嵌入计算层 l 1 l1 l1 的节点嵌入 h i ( l 1 ) h_i^{(l1)} hi(l1)​ 的方程。 z i ( l ) W ( l ) h i ( l ) ( 1 ) z_i^{(l)}W^{(l)} h_i^{(l)}\qquad(1) zi(l)​W(l)hi(l)​(1) e i j ( l ) LeakyReLU ⁡ ( a ⃗ ( l ) T ( z i ( l ) ∥ z j ( l ) ) ) ( 2 ) e_{i j}^{(l)}\operatorname{LeakyReLU}\left(\vec{a}^{(l)^T}\left(z_i^{(l)} \| z_j^{(l)}\right)\right)\qquad(2) eij(l)​LeakyReLU(a (l)T(zi(l)​∥zj(l)​))(2) α i j ( l ) exp ⁡ ( e i j ( l ) ) ∑ k ∈ N ( i ) exp ⁡ ( e i k ( l ) ) ( 3 ) \alpha_{i j}^{(l)}\frac{\exp \left(e_{i j}^{(l)}\right)}{\sum_{k \in N (i)} \exp \left(e_{i k}^{(l)}\right)}\qquad(3) αij(l)​∑k∈N(i)​exp(eik(l)​)exp(eij(l)​)​(3) h i ( l 1 ) σ ( ∑ j ∈ N ( i ) α i j ( l ) z j ( l ) ) ( 4 ) h_i^{(l1)}\sigma\left(\sum_{j \in N (i)} \alpha_{i j}^{(l)} z_j^{(l)}\right)\qquad(4) hi(l1)​σ ​j∈N(i)∑​αij(l)​zj(l)​ ​(4) 方程1是下层嵌入 h i ( l ) h_i^{(l)} hi(l)​的线性变换 W ( l ) W^{(l)} W(l)是其可学习的权重矩阵。方程2计算两个邻居之间的成对非标准化注意力得分。 方程 1 def edge_attention(self, edges):z2 torch.cat([edges.src[z], edges.dst[z]], dim1)a self.attn_fc(z2)return {e : F.leaky_relu(a)}方程 2 def edge_attention(self, edges):z2 torch.cat([edges.src[z], edges.dst[z]], dim1)a self.attn_fc(z2)return {e : F.leaky_relu(a)}在这里它首先连接两个节点的 z z z 嵌入其中 ||表示串联然后取它和可学习权重向量 a ⃗ ( l ) \vec{a}^{(l)} a (l) 的点积最后应用 LeakyReLU。这种形式的注意力通常称为附加注意力与 Transformer 模型中的点积注意力形成对比。方程3应用 softmax 来标准化每个节点传入边上的注意力分数。方程(4)与图卷积网络类似。来自邻居的嵌入被聚合在一起并按注意力分数进行缩放。 方程 3 和 4 def reduce_func(self, nodes):alpha F.softmax(nodes.mailbox[e], dim1)h torch.sum(alpha * nodes.mailbox[z], dim1)return {h : h}图注意力网络引入多头注意力来丰富模型容量并稳定学习过程。每个注意力头都有自己的参数它们的输出可以通过两种方式合并 h i ( l 1 ) ∥ k 1 K σ ( ∑ j ∈ N ( i ) α i j k W k h j ( l ) ) h_i^{(l1)}\|_{k1}^K \sigma\left(\sum_{j \in N (i)} \alpha_{i j}^k W^k h_j^{(l)}\right) hi(l1)​∥k1K​σ ​j∈N(i)∑​αijk​Wkhj(l)​ ​ 或 h i ( l 1 ) σ ( 1 K ∑ k 1 K ∑ j ∈ N ( i ) α i j k W k h j ( l ) ) h_i^{(l1)}\sigma\left(\frac{1}{K} \sum_{k1}^K \sum_{j \in N (i)} \alpha_{i j}^k W^k h_j^{(l)}\right) hi(l1)​σ ​K1​k1∑K​j∈N(i)∑​αijk​Wkhj(l)​ ​ class MultiHeadLayer(nn.Module):def __init__(self, g, in_dim, out_dim, num_heads, mergecat):super(MultiHeadLayer, self).__init__()self.heads nn.ModuleList()for i in range(num_heads):self.heads.append(Layer(g, in_dim, out_dim))self.merge mergedef forward(self, h):head_outs [attn_head(h) for attn_head in self.heads]if self.merge cat:return torch.cat(head_outs, dim1)else:return torch.mean(torch.stack(head_outs))定义两层注意力模型 class TAM(nn.Module):def __init__(self, g, in_dim, hidden_dim, out_dim, num_heads):super(TAM, self).__init__()self.layer1 MultiHeadLayer(g, in_dim, hidden_dim, num_heads)self.layer2 MultiHeadLayer(g, hidden_dim * num_heads, out_dim, 1)def forward(self, h):h self.layer1(h)h F.elu(h)h self.layer2(h)return h加载数据集 from xl import Graph from xl.data import citation_graph as citegrh import networkx as nxdef load_cora_data():data citegrh.load_cora()features torch.FloatTensor(data.features)labels torch.LongTensor(data.labels)mask torch.BoolTensor(data.train_mask)g Graph(data.graph)return g, features, labels, mask训练 import time import numpy as npg, features, labels, mask load_cora_data()net TAM(g,in_dimfeatures.size()[1],hidden_dim8,out_dim7,num_heads2)optimizer torch.optim.Adam(net.parameters(), lr1e-3)dur [] for epoch in range(30):if epoch 3:t0 time.time()logits net(features)logp F.log_softmax(logits, 1)loss F.nll_loss(logp[mask], labels[mask])optimizer.zero_grad()loss.backward()optimizer.step()if epoch 3:dur.append(time.time() - t0)print(Epoch {:05d} | Loss {:.4f} | Time(s) {:.4f}.format(epoch, loss.item(), np.mean(dur)))更新亚图跨际
http://www.dnsts.com.cn/news/277860.html

相关文章:

  • 展示网站开发颍上网站建设
  • 网站开发费怎样入账安装宝塔之后wordpress首页打不开
  • 专业的网站设计制作广告加盟
  • 网站参考模板腾讯推广联盟
  • 软装素材网站有哪些网站建设与维护课件
  • 网站建设好了却收不到产品线上推广方式都有哪些
  • 专业网站排名优化公司广告设计月薪多少钱
  • 温州市住房建设局网站网页设计版心常用尺寸
  • 网站建设支付方式目前搜索引擎排名
  • asp.net做报名网站文档上传网站
  • 深圳优化网站南京seo全网营销
  • 做网站属于软件开发吗银川市住房和城乡建设网站
  • 宝塔做的网站能不能访问wordpress 安装 模板
  • 维护网站是什么意思中英文切换网站模板
  • 扬中网站哪家做得好wordpress 去谷歌
  • 南昌网站建设收费企业seo培训
  • 济南网站建设推荐搜点网络NO1做网站添加mp3
  • 个人网站备案核验单山东省城乡建设厅官网
  • 电商网站建设代理商网站建设需注意哪些事项
  • wordpress建立企业网站外贸生意做哪个网站好
  • 烟台制作网站有哪些双体系建设网站
  • 网站开发技术总结无锡市政建设集团网站
  • 宜宾移动网站建设网站代码优化的内容有哪些
  • 长春网站上排名如果在网上接网站建设项目
  • 网站建设在哪个软件下做昭通网站建设公司
  • 网站建设推广选哪家seo与网络推广的区别和联系
  • 高端企业门户网站建设做毕业设计的网站
  • 做商城网站数据库分类该有哪些营销型网站架构师
  • 晋江网站开发电商系统平台开发
  • 零代码建站平台北京wap网站开发