“异构小图神经网络”算法(Heterogeneous Mini-Graph Neural Network,简称 HMGNN)。其中小图(mini-graph)指拉新场景中存在的大量小规模子图。HMGNN 首先引入了“超点”的概念,将零散的小图连接起来,便于节点间的信息传递与共享;然后引入了注意力机制,以区别不同连接关系之间的重要性;最后,透传原始特征有效防止了梯度消失或爆炸。
构建超图(Hyper-Graph)
零散的小图不利于图中节点间的信息共享,因此 HMGNN 在真实的节点和边的基础上,加入了“超点”(hyper-node)及更多的边构成超图(hyper-graph)。每个子图都会生成一个虚拟的超点,其特征向量是子图中所有的节点的特征向量的平均值。因此,超点可以看作整个子图的代表。
为了完成超图的构建,开发团队新增了两种边:超点和普通点之间的边、超点和超点之间的边。首先,将超点与所属子图中每个普通节点连接起来。这么做保证了信息传递的无偏性。然后,超点之间使用kNN算法,找到与每个超点最相似的k个超点,也建立起连接。这样,整个图的联通性就大大提升了,节点间的特征能得到更充分的传播,图 1 描述了超点的生成过程。
图 1:超点的生成过程。图中展示三种类型的边,超点之间的边(红色)、普通点之间的边(灰色)、超点和普通点的边(绿色)。
该团队在论文中证明了,上述过程构建的超图在很大概率是联通的。并且该过程可通过控制kNN算法的超参数k,控制超图的联通程度。
异构图卷积
拉新场景的图结构包含多种边的关系,不同的关系的强弱、形成的拓扑结构、与标注的相关性等都不一样。于是 HMGNN 使用多种关系,建立了多个图,再利用注意力机制,把多个图的结果聚合起来。这样模型就能学习到不同关系图的权重。图 2 描述了注意力机制的引入方式。
在模型训练时,HMGNN 在每个卷积层的输出中,加入了原始特征矩阵,一起作为下一卷积层的输入。这种类似于 ResNet 的做法,在使用较多卷积层的模型中,能够有效防止梯度消失或爆炸,在实际实验中也取得了更好的分类效果。图 2 也描述了原始特征的透传过程。
图 2:HMGNN 的整体架构。左边部分阐述了超点的生成过程。我们将不同子图的超点构成的特征矩阵,拼接到原始的特征矩阵上,作为神经网络的输入特征矩阵。中间和右边部分阐述了基于注意力机制的异构卷积过程。我们在每个卷积层透传了原始特征矩阵,防止梯度消失或爆炸。
性能
爱奇艺方面给出的数据称,他们在爱奇艺某业务的数据集上对比了线性模型、树模型、图卷积模型和 HMGNN 模型。下表展示实验数据,从各项指标来说,HMGNN 都优于其他模型。
此外,其还基于公开数据集 Cora 对比了原始 GCN 模型与 HMGNN 的效果。并表示,从训练收敛速度和准确率来看,HMGNN 都要优于 GCN。
在 Cora 上对比 HMGNN 和 GCN
HMGNN 是第一个尝试通过图神经网络对欺诈邀请进行检测的方法。在 GCN 和异构图神经网络的基础上,HMGNN 使用超图和异构图卷积克服了小图和异构图带来的问题。并在实际拉新场景中取得了不错的效果。
开发团队表示,他们还在尝试将其应用到更广阔的场景中,比如金融反欺诈、关注&点赞反作弊等问题。
评论 (1)