当前位置: 首页 > news >正文

外贸公司网站建设哪家好电子商务网站建设认识

外贸公司网站建设哪家好,电子商务网站建设认识,家居装修公司,大连建设监察执法网站Abstract 为了更好的推荐#xff0c;不仅要对user-item交互进行建模#xff0c;还要将关系信息考虑进来 传统方法因子分解机将每个交互都当作一个独立的实例#xff0c;但是忽略了item之间的关系#xff08;eg#xff1a;一部电影的导演也是另一部电影的演员#xff09… Abstract 为了更好的推荐不仅要对user-item交互进行建模还要将关系信息考虑进来 传统方法因子分解机将每个交互都当作一个独立的实例但是忽略了item之间的关系eg一部电影的导演也是另一部电影的演员 高阶关系用一个/多个链接属性连接两个item KGuser-item graphhigh order relations—KGAT 递归传播邻域节点可能是users、items、attributes的嵌入来更新自身节点的嵌入并使用注意力机制来区分邻域节点的重要性 Introduction u 1 u_1 u1​是要向其提供推荐的目标用户。黄色圆圈和灰色圆圈表示通过高阶关系发现但被传统方法忽略的重要用户和项目。 例如用户 u 1 u_1 u1​看了 电影 i 1 i_1 i1​CF方法侧重于同样观看了 i 1 i_1 i1​的相似用户的历史即 u 4 u_4 u4​和 u 5 u_5 u5​而监督学习侧重于与 i 1 i_1 i1​有相同属性 e 1 e_1 e1​的电影 i 2 i_2 i2​显然这两种信息对于推荐是互补的但是现有的监督学习未能将这两者统一起来比如说这里 i 1 i_1 i1​和 i 2 i_2 i2​的 r 2 r_2 r2​属性都是 e 1 e_1 e1​但是它无法通过 r 3 r_3 r3​到达 i 3 i_3 i3​ i 4 i_4 i4​因为它把它们当成了独立的部分无法考虑到数据中的高阶关系比如黄色圈中的用户看了同一个导演 e 1 e_1 e1​的其他电影 i 2 i_2 i2​或者灰色圈中的电影也与 e 1 e_1 e1​有其他的关系。这些也是作出推荐的重要信息。 u 1 ⟶ r 1 i 1 ⟶ − r 2 e 1 ⟶ r 2 i 2 ⟶ − r 1 { u 2 , u 3 } , u 1 ⟶ r 1 i 1 ⟶ − r 2 e 1 ⟶ r 3 { i 3 , i 4 } , \begin{array}{l} u_{1} \stackrel{r_{1}}{\longrightarrow} i_{1} \stackrel{-r_{2}}{\longrightarrow} e_{1} \stackrel{r_{2}}{\longrightarrow} i_{2} \stackrel{-r_{1}}{\longrightarrow}\left\{u_{2}, u_{3}\right\}, \\ u_{1} \stackrel{r_{1}}{\longrightarrow} i_{1} \stackrel{-r_{2}}{\longrightarrow} e_{1} \stackrel{r_{3}}{\longrightarrow}\left\{i_{3}, i_{4}\right\}, \end{array} u1​⟶r1​​i1​⟶−r2​​e1​⟶r2​​i2​⟶−r1​​{u2​,u3​},u1​⟶r1​​i1​⟶−r2​​e1​⟶r3​​{i3​,i4​},​ 存在问题 利用这种高阶信息是存在挑战的 1 与目标用户具有高阶关系的节点随着阶数的增加而急剧增加这给模型带来了计算压力 2 高阶关系对预测的贡献不均衡。 为此论文提出了 Knowledge Graph Attention Network (KGAT) 的模型它基于节点邻居的嵌入来更新节点的嵌入并递归地执行这种嵌入传播以线性时间复杂度捕获高阶连接。另外采用注意力机制来学习传播期间每个邻居的权重。 GNN-KGAT 1、递归嵌入传播用领域节点嵌入来更新当前节点嵌入 2、使用注意力机制来学习传播期间每个邻居的权重 优点 1、与基于路径的方法相比避免了人工标定路径 2、与基于规则的方法相比将高阶关系直接融入预测模型 3. 模型框架 3.1 问题定义 Input协同知识图 G \mathcal G G G \mathcal G G由user-item交互数据 G 1 \mathcal G_1 G1​和知识图 G 2 \mathcal G_2 G2​组成 Outputuser u u u点击 item i i i的概率 y ^ u i \hat y_{ui} y^​ui​ 高阶连接利用高阶连接对于执行高质量的推荐是至关重要的。我们将 L L L阶连接 ( L L L- order connectivtiy) 定义为一个多跳关系路径 e 0 ⟶ r 1 e 1 ⟶ r 2 . . . ⟶ r L e L e_0 \stackrel {r_1}{\longrightarrow} e_1 \stackrel {r_2}{\longrightarrow} \ ... \ \stackrel {r_L}{\longrightarrow} e_L\\ e0​⟶r1​​e1​⟶r2​​ ... ⟶rL​​eL​ 3.2 Embedding Layer 论文在知识图嵌入方面使用了TransR模型它的主要思想是不同的实体在不同的关系下有着不同的含义所以需要将实体投影到特定关系空间中假如 h h h和 t t t具有 r r r关系那么它们在 r r r关系空间的表示应该接近否则应该远离用公式表达则是 e h r e r ≈ e t r \mathbf e_h^r \mathbf e_r \approx \mathbf e_t^r \\ ehr​er​≈etr​ 这里 e h , e t ∈ R d \mathbf e_h, \mathbf e_t \in \mathbb R^d eh​,et​∈Rd, e r ∈ R k \mathbf e_r \in \mathbb R^k er​∈Rk是 h t r h t r htr的embedding。 它的得分为 g ( h , r , t ) ∣ ∣ W r e h e r − W r e t ∣ ∣ 2 2 g(h,r,t)||\mathbf W_r\mathbf e_h\mathbf e_r-\mathbf W_r\mathbf e_t||_2^2\\ g(h,r,t)∣∣Wr​eh​er​−Wr​et​∣∣22​ 其中 W r ∈ R k × d \mathbf W_r \in \mathbb R^{k\times d} Wr​∈Rk×d是关系 r r r的转换矩阵将实体从 d d d维实体空间投影到 k k k维关系空间中。 g ( h , r , t ) g(h,r,t) g(h,r,t)的值越低说明该三元组为真的概率越大。 最后用pairwise ranking loss来衡量效果 L K G ∑ ( h , r , t , t ′ ) ∈ τ − l n σ ( g ( h , r , t ′ ) − g ( h , r , t ) ) \mathcal L_{KG} \sum_{(h,r,t,t^{})\in \tau} -ln \ \sigma(g(h,r,t^{})-g(h,r,t))\\ LKG​(h,r,t,t′)∈τ∑​−ln σ(g(h,r,t′)−g(h,r,t)) 此式子的意思就是让负样本的值减去正样本的值尽可能的大。负样本的选择就是将 t t t随机替换成一个别的。 3.3 Attentive Embedding Propagation Layers 信息传播 考虑实体 h h h我们使用 N h { ( h , r , t ) ∣ ( h , r , t ) ∈ G } \mathcal N_h \{ (h,r,t)|(h,r,t) \in \mathcal G\} Nh​{(h,r,t)∣(h,r,t)∈G}表示那些以 h h h为头实体的三元组。计算 h h h的ego-network e N h ∑ ( h , r , t ) ∈ N h π ( h , r , t ) e t \mathbf e_{\mathcal N_h} \sum _ {(h,r,t) \in \mathcal N_h} \pi(h,r,t) \mathbf e_t\\ eNh​​(h,r,t)∈Nh​∑​π(h,r,t)et​ π ( h , r , t ) \pi(h,r,t) π(h,r,t)表示在关系 r r r下从 t t t传到 h h h的信息量。 知识感知注意力 信息传播中的权重 π ( h , r , t ) \pi(h,r,t) π(h,r,t)是通过注意力机制实现的 π ( h , r , t ) ( W r e t ) T t a n h ( W r e h e r ) \pi(h,r,t) (\mathbf W_r \mathbf e_t)^Ttanh(\mathbf W_r \mathbf e_h\mathbf e_r)\\ π(h,r,t)(Wr​et​)Ttanh(Wr​eh​er​) 这里使用 t a n h tanh tanh作为激活函数可以使得在关系空间中越接近的 e h \mathbf e_h eh​和 e t \mathbf e_t et​有更高的注意力分值。采用 s o f t m a x softmax softmax归一化 π ( h , r , t ) e x p ( π ( h , r , t ) ) ∑ ( h , r ′ , t ′ ) ∈ N h e x p ( π ( h , r ′ , t ′ ) ) \pi(h,r,t)\frac{exp(\pi(h,r,t))}{\sum_{(h,r^{},t^{}) \in \mathcal N_h} exp(\pi(h,r^{},t^{}))}\\ π(h,r,t)∑(h,r′,t′)∈Nh​​exp(π(h,r′,t′))exp(π(h,r,t))​ 最终凭借 π ( h , r , t ) \pi(h,r,t) π(h,r,t)我们可以知道哪些邻居节点应该被给予更多的关注。 信息聚合 最终将 h h h在实体空间中的表示 e h \mathbf e_h eh​和其ego-network的表示 e N h \mathbf e_{\mathcal N_h} eNh​​聚合起来作为 h h h的新表示 e h ( 1 ) f ( e h , e N h ) \mathbf e_h^{(1)} f(\mathbf e_h,\mathbf e_{\mathcal N_h})\\ eh(1)​f(eh​,eNh​​) f ( ⋅ ) f(·) f(⋅)有以下几种方式 GCN Aggregator f G C N L e a k y R e L U ( W ( e h e N h ) ) f_{GCN}LeakyReLU(\mathbf W(\mathbf e_h\mathbf e_{\mathcal N_h})) fGCN​LeakyReLU(W(eh​eNh​​))GraphSage Aggregator f G r a p h S a g e L e a k y R e L U ( W ( e h ∣ ∣ e N h ) ) f_{GraphSage} LeakyReLU( \mathbf W(\mathbf e_h || \mathbf e_{\mathcal N_h})) fGraphSage​LeakyReLU(W(eh​∣∣eNh​​))Bi-Interaction Aggregator f B i − I n t e r a c t i o n L e a k y R e L U ( W 1 ( e h e N h ) ) L e a k y R e L U ( W 2 ( e h ⊙ e N h ) ) f_{Bi-Interaction} LeakyReLU(\mathbf W_1(\mathbf e_h\mathbf e_{\mathcal N_h}))LeakyReLU(\mathbf W_2(\mathbf e_h\odot\mathbf e_{\mathcal N_h})) fBi−Interaction​LeakyReLU(W1​(eh​eNh​​))LeakyReLU(W2​(eh​⊙eNh​​)) 高阶传播 我们可以进一步堆叠更多的传播层来探索高阶连通信息收集从更高跳邻居传播过来的信息所以在 l l l步中 e h ( l ) f ( e h ( l − 1 ) , e N h ( l − 1 ) ) \mathbf e_h^{(l)} f( \mathbf e_h^{(l-1)},\mathbf e_{\mathcal N_h}^{(l-1)})\\ eh(l)​f(eh(l−1)​,eNh​(l−1)​) 其中 e N h ( l − 1 ) ∑ ( h , r , t ) ∈ N h π ( h , r , t ) e t ( l − 1 ) \mathbf e_{\mathcal N_h}^{(l-1)} \sum_{(h,r,t) \in \mathcal N_h} \pi(h,r,t)\mathbf e_t^{(l-1)} eNh​(l−1)​∑(h,r,t)∈Nh​​π(h,r,t)et(l−1)​而 e t ( l − 1 ) \mathbf e_t^{(l-1)} et(l−1)​也是通过上面的步骤从 e t 0 \mathbf e_t^0 et0​得到的。 3.4 Prediction layer 在执行 L L L层后最终我们会得到用户 u u u的多层表示 { e u ( 1 ) , . . . , e u ( L ) } \{\mathbf e_u^{(1)},...,\mathbf e_u^{(L)} \} {eu(1)​,...,eu(L)​}以及item i i i的多层表示 { e i ( 1 ) , . . , e i ( L ) } \{\mathbf e_i^{(1)},..,\mathbf e_i^{(L)} \} {ei(1)​,..,ei(L)​} 将其连接起来即 e u ∗ e u ( 0 ) ∣ ∣ . . . ∣ ∣ e u ( L ) , e i ∗ e i ( 0 ) ∣ ∣ . . . ∣ ∣ e i ( L ) \mathbf e_u^{*} \mathbf e_u^{(0)} || ...||\mathbf e_u^{(L)} \ ,\ \mathbf e_i^{*} \mathbf e_i^{(0)} || ...||\mathbf e_i^{(L)} \\ eu∗​eu(0)​∣∣...∣∣eu(L)​ , ei∗​ei(0)​∣∣...∣∣ei(L)​ 最后通过内积计算相关分数 y ^ ( u , i ) e u ∗ T e i ∗ \hat y(u,i) {\mathbf e_u^*}^T \mathbf e_i^*\\ y^​(u,i)eu∗​Tei∗​ 3.5 损失函数 损失函数使用了BPR loss L C F ∑ ( u , i , j ) ∈ O − l n σ ( y ^ ( u , i ) − y ^ ( u , j ) ) \mathcal L_{CF}\sum_{(u,i,j) \in O} - ln \ \sigma(\hat y(u,i)-\hat y(u,j))\\ LCF​(u,i,j)∈O∑​−ln σ(y^​(u,i)−y^​(u,j)) 其中 O { ( u , i , j ) ∣ ( u , i ) ∈ R , ( u , j ) ∈ R − } O \{(u,i,j)|(u,i) \in \mathcal R^, (u,j) \in \mathcal R^- \} O{(u,i,j)∣(u,i)∈R,(u,j)∈R−} R \mathcal R^ R表示正样本 R − \mathcal R^- R−表示负样本。 最终 L K G A T L K G L C F λ ∣ ∣ Θ ∣ ∣ 2 2 \mathcal L_{KGAT} \mathcal L_{KG} \mathcal L_{CF} \lambda||\Theta||_2^2\\ LKGAT​LKG​LCF​λ∣∣Θ∣∣22​
http://www.dnsts.com.cn/news/278453.html

相关文章:

  • wordpress淘宝客模板下载邢台视频优化方案
  • 企业网站维护怎么做域名注册人怎么查询
  • 做网站要学点什么搜索率最高的关键词
  • 免费网站建设php婚恋网站女孩子做美容
  • 甘肃省集约化网站建设北京建设工程交易服务中心网站
  • 网站是什么程序做的商城网站 免费开源
  • 游艇网站建设方案长尾关键词排名推广
  • 京东的网站是哪家公司做网站建设绿茶
  • 兰山区网站建设推广装修推荐平台
  • 镇江网站开发公司静态网页设计案例
  • 网站后台管理 ftp建筑工程网站模板
  • 网站建设小组五类成员互联网保险理赔到底有多难
  • 东莞网站设计制作古风wordpress
  • 网站技术规划广告投放网
  • 蚌埠网站建设专业的公司4000-262-成都企业网站建设及公司ppt
  • 中国最新军事新闻 头条 今天密云seo排名优化培训
  • 这么自己做网站网天下信息技术有限公司网站
  • 黄龙云 加强网站建设做网站软件 手机
  • 网站群项目建设实施进度计划景区建设网站的不足
  • 东西湖区建设局网站网站片头动画用什么软件做的
  • 网站建设需要什么插件游戏类网站备案
  • 做后期的网站行业关键词一览表
  • 音乐图书馆网站建设excel小程序商店
  • 怎样建个人网站防护网施工方案
  • 网站如何实现qq登录功能苏州网站建设设计制作公司怎么样
  • 网站建设添加视频教程北京婚纱摄影网站
  • 关于做网站的了解点广告设计专业简历
  • wordpress免费网站模板下载地址网络类黄页
  • 新闻类的网站有哪些类型在那个网站做ppt可以赚钱
  • 重庆建设工程招标网站南宁智慧园区网站建设