Representation Learning for Attributed Multiplex Heterogeneous Network

主要内容

模型

模型

Transductive Model: GATNE-T

FAQ

这篇文章解决的问题是什么

之前的论文没有研究AMHENs吗?他们都是在研究啥图

不同算法的对比图

AMHENs有什么实际的困难吗

本文方法的关键点是什么

文中说的transductive learning 跟 inductive learning分别是什么?

论文中模型离线评估的F1值是怎么算的

其它可以扩展到新节点的方法有哪些

本文中的问题的数学表示是

GATNE-T 的基本结构是什么

GATNE-T 中每个顶点的初始边向量是怎么来的

GATNE-T 第k次聚合是否只利用到k-1次聚合的结果

GATNE-T 对多个关系是如何处理的

$$
v_{i,r} = b_i + \alpha_r M_r^T U_i a_{i,r}
$$

说明:$(\alpha_r)$ 是一个超参数

为什么GATNE-T中,u明明是跟顶点强绑定的,对邻居节点的聚合和多个关系的聚合被表示为边的表达

模型

因为,邻居的信息都是通过边来起作用的,而边的表示本质上是要将边的类型信息和对面的节点信息表示出来。

在模型中,边的类型信息通过attention矩阵和几个线性变换矩阵表示了出来(不同类型矩阵参数不一样)。而对面节点的信息通过聚合直接加了了进来。

虽然u跟顶点强绑定,但是u表示的是定点的边所表达的信息,所以还是叫边向量

GATNE-T 对顶点属性是如何利用的

GATNE-T 不使用顶点的属性,GATNE-I会使用;因此GATNE-T无法处理训练时没有出现过的顶点(如新的用户和新的item)

GATNE-I 是如何处理属性的

$$
v_{i,r} = h_z(x_i) + \alpha_r M_r^T U_i a_{i,r} + \beta_r D_z^T x_i
$$

这里r代表边的类别,z代表顶点的类别

GATNE-I 是如何实现对新的节点的也能推理的

模型是如何训练的,监督信号是啥

分布式训练是如何做的

为什么顶点向量维度比边向量维度高一个量级

meta-path的采样在工程上是如何实现的

邻居聚合在训练和推断的时候是如何实现的

文章的结果是否拿到线上效果

这篇文章的前序文章有哪些值得看的

代码在哪

https://github.com/THUDM/GATNE