图神经网络(二)--图表示学习

图表示学习图结构是一个高维稀疏的数据表示,那么图表示学习是将这个高维稀疏的数据映射成低维度稠密的数据,这就是图表示学习的要解决的核心问题。图表示学习一般有两种方式,一种是顶点嵌入,另一种是整图学习。顶点嵌入一般是针对顶点维度,将每个订单映射成一个低维的向量表达,这种方式表达的粒度比较细,一般用于节点层面的预测或者节点分类。整图的表示学习则是针对全图生成一个向量,这种图表示学习方式粒度较粗,一般用于

图神经网络(五)--注意力机制

注意力机制主要是解决当处理大量信息的时候,注意力机制会选择一些关键的信息进行处理,忽略与目标无关的噪声数据,从而提高神经网络的效果。注意力机制注意力机制基本包括三个要素, 请求,键,值,如图1-1就是一个软性的注意力机制。(K,V)是输入的键值对向量数据,包含n项信息,每一项信息的建用kik_{i}ki​表示,值用xix_{i}xi​表示,Q表示与任务相关的查询向量。Value是在给定值的情况,通

图神经网络(一)--图神经网络的基础

图神经网络的发展经历了几个阶段,也体现了研究工作者在研究工作上精益求精的态度,接下来咱们一起看看这个发展历程。基于谱分解的方法基于谱分解的方式是2014年提出的,Spectral Network在傅里叶中定义了卷积的运算。该运算可以被定义为信号x(每个节点对应该向量中的一个标量)和一个卷积核gθ=diag(θ)g_{\theta}=diag(\theta)gθ​=diag(θ)的乘积gθ⋆x=Ug

图神经网络(七)--GAE神经网络

如果想了解GAE其实从VAE了解比较好,下面我就先来讲讲VAE自编码器。VAEVAE(VariationalAuto-encoder)图自编码器,是一种和GAN类似的神经网络。那么VAE有什么作用?它主要的解决问题的场景是,你给我一个向量,我给你一张图片,例如我想生成一个猫的图片,你的输入可以是描述

图神经网络(六)--GAT神经网络

GRAPHATTENTIONNETWORKS图注意力神经网络是既GCN神经网络后,有一个图结构深度学习的网络,本节我们来学习。原文地址可以点击GRAPHATTENTIONNETWORKS下载。在原来的GCN神经网络中,我们能够理解到GCN是存在一定的局限性的,在如下的场景下。GCN无法完成处理动态图

图神经网络(三)--GCN神经网络

今天我们来看一篇经典的论文,Semi-SupervisedClassificationwithGraphConvolutionalNetworks,这个论文一个经典的讲gcn的论文。我们经常遇到的卷积学习都是图上的卷积,具体形式可以在本站搜索『卷积神经网络』,我们发现卷积核都是方方正正的,就像为图片
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×