图注意力网络(GAT) TensorFlow实现

本文共305个字,预计阅读时间需要1分钟。

论文

图注意力网络来自 Graph Attention Networks,ICLR 2018.   https://arxiv.org/abs/1710.10903


GAT层

输入

N为节点的个数,F为feature的个数,这表示输入为N个节点的每个节点的F个feature

输出

表示对这N个节点的 F’ 个输出,输出位N个节点的每个节点的F’个feature

注意力机制


GAT.py


参考

https://blog.csdn.net/weixin_36474809/article/details/89401552

https://github.com/PetarV-/GAT

评论