超图软件官网消息(超图学习及其在推荐系统中的应用)
Hypergraph Learning and Its Application in Recommendation System
超图学习及其在推荐系统中的应用
本文基于以下公开讲座及论文来介绍超图学习及其在推荐系统中的应用:
学术讲座 高跃教授 Hypergraph Learning and Applications
超图神经网络HGNN理论
Dual channel hypergraph collaborative filtering (2020) 1
1. 研究背景
我们生活的世界上存在着大量的复杂系统 ,绝大部分可以通过形形色色的复杂网络来加以描述 ,其中图是描述复杂网络拓扑的工具 。随着网络规模的日益扩大和连接的复杂多变 ,出现了许多超大规模的复杂网络 ,这些网络节点和边的数量众多 ,节点间的关系复杂 ,并且处在不断动态变化之中 。复杂网络的普通图表示有时不能完全刻画这些真实世界网络的特征 。因此 ,超网络应运而生 。超网络的拓扑结构是超图 ,超图中的“超边 ”可以包含任意多个节点 ,表示节点之间复杂多变的多维关系 。在现实生活中超网络已经被广泛应用在社会 、生物 、生态和科技等系统中 。
多模态:多模态数据是指对于同一个描述对象,通过不同领域或视角获取到的数据 ,并且把描述这些数据的每一个领域或视角叫做一个模态 。由两种或两种以上模态组成的数据称之为多模态数据(多模态用来表示不同形态的数据形式 ,或者同种形态不同的格式,一般表示文本、图片 、音频 、视频 、混合数据) 。 异构: 不同种类 、不同版本或数据之间具有不同结构的数据 。在知识图谱中 ,实体类型数量|A|>1 or/and 关系类型数量|R|>1 ,即为异构信息网络。2. 普通图与超图的区别
超图可以使用它灵活的超边建模复杂数据关联 普通图的边最多连接两个节点(点对关系),而超图的边能够连接任意多个节点(非点对关系) 超图可以使用它灵活的超边建模多模态数据和混合结构的数据 直接通过超边关联矩阵的拼接来融合多模态数据 普通图的邻接矩阵与超图的超边矩阵普通图使用节点与节点的关联构建矩阵:
如下图节点v1与节点v2有连接 ,则矩阵中的对应位置v1-v2/v2-v1标为1 超图使用节点和超边的关联构建矩阵:
如下图超边e1连接节点v5和节点v6 ,则矩阵中的对应位置v5-e1/v6-e1标为13. 超图的构建
4. 超图的学习
超图的定义 超图的节点度及边度 超图的更新公式 超图学习案例 超图学习与普通图卷积的区别 超图的学习模型 25. 超图学习增强的推荐算法DHCF
基于图的CF和所提出的双通道超图CF之间的比较如图所示 ,给定原始的用户-项目连接 ,基于图的方法生成一个图结构来学习表示和推荐结果 。与这些方法不同的是 ,所提出的DHCF框架可以分别在两个超图中使用高阶信息来学习用户和项的表示 。这两个超图 ,即用户超图和项目超图 ,可以在复杂的数据相关建模和与不同类型的数据合并时更加灵活。
根据给定的数据为用户和项目构建多个连接组:这里可以将连接生成规则看作是描述原始数据的一个新视角 ,可以灵活地定义 。例如 ,它可以将具有相似行为但没有直接连接的用户关联起来,因此在连接组中基于这种关联规则构建的关系可以表示高阶相关性 ,从而生成相应的超边 。 分而治之:基于这些生成的连接组(即超边) ,可以为用户和项目构造两个超图,分别代表这两个通道的表示。文章引入了一种新的跳跃超图卷积(JHConv) ,通过聚合邻域的嵌入 ,并引入先验信息,有效地在超图上进行信息传播 。 联合学习:学习到的用户和项目表示可以进一步融合 ,以生成推荐列表 。 定义不同的关联规则建立多个超边组 模型架构构建user和item的初始表示 。通过不同的关联规则定义一系列超边组以显式建模高阶关联 ,并融合成超图关联矩阵H:
第一阶段:超图上的高阶信息传递
提出新的超图卷积方法——跳跃超图卷积(JHConv)
JHConv同时考虑自身原始特征和领域聚合特征 ,有效防止信息稀释
第二阶段:联合消息更新 。在同一空间中共同优化user和item 。
6. 超图在其他领域的应用
相关论文(来自高跃公开讲座)参考资料
Ji S, Feng Y, Ji R, et al. Dual channel hypergraph collaborative filtering[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2020: 2020-2029. ↩︎
Feng Y, You H, Zhang Z, et al. Hypergraph neural networks[C]//Proceedings of the AAAI conference on artificial intelligence. 2019, 33(01): 3558-3565. ↩︎
创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!