如何理解Graph上的卷积操作?
这里所谓的卷积并不是数学意义上的,神经网络的卷积运算实际上可以看做一种比较特殊的矩阵计算,即将图中的局部像素矩阵和卷积核进行运算(符号是和直积一样,但不是直积,公式网上很多),所以可以将其视为空间泛函,每次运算所得到是对应位置的实数(这里是一次,不是一趟),使用一个卷积核′卷'一趟所得到的输出一般是一个规模小一些的矩阵,不同卷积核(内容不同)自然可以得到不同的输出,故形成图像不同的特征(所以这里也可以把这里的卷积理解为一种空间间映照算子);在网络反馈时,需注意对于卷积的逆运算,即需旋转卷积核180度(当然不用真的旋转,可以inplace,即从后向前运算,就能达到相同效果)