什么限制了GNN的能力?首篇探究GNN普适性与局限性的论文出炉!
作者 | Andreas Loukas
译者 | 凯隐
责编 | Jane
出品 | AI科技大本营(ID: rgznai100)
【导读】GNN是目前机器学习领域的热门网络之一,肯多研究与技术分享相比不可知的深度学习网络模型,GNN 有哪些吸引我们的优势及硬核实力。然而,GNN 是完美的吗?有什么缺点?在何种情况下,GNN 是无法发挥其能力的?近日,在 arXiv 上发布了一篇论文,专门研究探讨了 GNN 在普适性与学习局限性等问题。
本文主要从计算能力有限的角度,来研究GNN在消息传递分布式系统中的图灵普适性和局限性,并得到了两个与图论问题能否解决(impossibility statements)有关的结论:
(1)在一定的充足条件下,GNN是具有图灵普适性的;
(2)而在深度和广度被限制的条件下,GNN的性能会有一定的局限性。
应用第一个结论,可以对一些图论优化问题设置更低的计算复杂度下界,第二个结论则说明在深度和广度的乘积不超过图的大小时,GNN是无法解决其他的一些问题的。
专业术语
为了方便大家后续阅读理解文章,我们先把文中涉及的几个专业问题做简单阐述:
1、图灵普适性(Turing universal)
一个具有图灵普适性的图灵机(Universal Turing machine)能够模拟任何图灵机在任何输入下的情况。
2、一致性问题(Consensus)
即在分布式计算或者多代理(multi-agent)系统中,如何在发生进程故障的情况下保持系统的可靠性(reliability)。这通常需要进程就计算过程中的一些数值或数值操作达成一致,包括如何将提交到数据库,如何识别leader进程,状态机复制(一种故障容忍机制),原子广播等操作。
3、不可能结果(Impossibility result)
这是分布式领域的专业术语,在一个完全异步的消息传递分布式系统中,如果一个进程有故障,那么一致性问题是无法得到解决的,在此基础上,有两个比较著名的 impossibility result:FLP和CAP,详见[1][2]。本文中提出了关于GNN的两个结论都是属于GNN的 impossibility results。简单来说,就是在一定的限制条件下问题能否被解决,那么任务的impossibility result就只有两种情况:能和不能。
4、GNN的深度和广度(depth and width)
深度就是网络层数,广度就是每层的感知域,也就是每个节点的能获取到信息的邻接节点的范围。
模型普适性的研究
机器学习中的一个基本任务是研究哪些内容是一个模型(网络)能学习到,而哪些是不能学习到的,也就是研究模型的普适性,研究其能否解决大部分任务。过去的一些研究通过不变函数或者等效函数来对网络进行等效近似,从而在函数层面研究什么是一个模型能学习到的内容。
通常理论认为,在有充足的训练数据和合适的学习优化算法的情况下,普适性网络能够解决大部分给定的任务,然而这种理解是不全面的,因为在实际应用时要满足充足训练数据和合适优化算法是比较困难的,这种无限制的普适性网络是不能作为实际部署时的网络设计参考的。
因此,可以从问题的对立面,即研究模型的局限性,来间接地研究其普适性,也就是在特定的任务中,特定的限制条件下网络不能学习到的内容。这有助于了解模型和特定任务之间的关系,从而知晓任务能否被解决(impossibility results),进而帮助我们调整模型的参数。例如,在图分类任务中,我们希望模型能学习到同一类图的共同特征,不同类图的区别特征,然而如果GNN模型本身的深度和广度不足以学习到足够的特征,那么这个问题就是impossible的,因此就需要进一步的调整深度和广度。
文章主要贡献
本文所研究的特定任务是图论中的一些优化任务,特定限制条件是 GNN 的深度和广度,将深度和广度与理论计算机科学中的复杂度等度量联系起来,再将计算复杂度作为这些优化任务的完成下界(从 impossible 变为 possible 的最低复杂度要求),从而得到GNN的深度和广度对具体任务的影响,以及对GNN普适性的影响。具体地,关于普适性的研究有以下两个结论。
1、GNN 的图灵普适性
在足够的条件下,GNN 能以图灵机的形式对任意输入函数进行运算,且不限于网络结构。通过建立 GNN 和经典分布式计算模型 LOCAL 之间的图灵等效,来间接的研究其普适性。这里的足够条件是:
(1)有足够的层数
(2)每一层都有足够的广度
(3)节点之间可以相互独立(ids)
(4)每一层计算的函数有足够的表现力
2、GNN 的学习能力局限性
正如前面提到的,在深度和广度都被限制的情况下,GNN是无法表现出其图灵普适性,即应用在具体任务上时,无法解决这个任务。那么如何确定能否完成任务的下界呢?还是通过 LOCAL。任务或问题的 impossiblility result 可以在GNN和LOCAL之间以一定的形式相互转换,因此研究任务在 GNN下能否完成和在LOCAL下能否完成是等效的,进而可以在LOCAL模型下为完成任务的计算复杂度要求设置下界。具体的,文章中提到了四种类型的任务(问题定义详见原论文):
(1)检测(detecting)图G中是否含有特定长度的环(cycle of specific length)
(2)验证(verifying)图G的给定子图是否连通(connected),是否具有环(cycle),是否为生成树(spanning tree,具备树结构,没有环),是否为二分图(bipartite,顶点集合可以分为两个子集,所有边的两个顶点分属于这两个子集),是否为简单路径(simple path,与图的哈密顿循环有关)
(3)计算(computing)两个顶点间的最短路径(shortest path between two vertices),图的最小割(minimum cut),以及最小生成树(the minimum spanning tree)
(4)求图的最大独立集(maximum independent),最小顶点覆盖(minimum vertex cover),或图的顶点着色问题(chromatic coloring)
以上问题都是属于图论中的传统优化问题,虽然不是现在主流研究的顶点分类,图分类问题,但二者之间有密不可分的联系。这些问题的具体计算复杂度下界为:
总结
本文首次对GNN模型提出了 impossible 问题,并通过等效计算的方法,以计算复杂度的形式,给出了 GNN 在部分图论任务中impossible results下界与网络宽度和广度的关系,在一定程度上说明了 GNN 的性能会受到网络本身的宽度和广度的限制。
由于原文中的数学推导过于复杂,因此这里我只介绍文章的基本思想。GNN作为目前机器学习领域的热门研究之一,已经被应用于各种各样的任务,通常在应用一个网络的同时,也要同步地去研究这个网络的内在本质,从而更好的理解,改进它,进而帮助我们在实际应用网络时更好的设置网络的参数,这篇文章就是一个很好的例子。
【参考文献】
[1] https://en.wikipedia.org/wiki/Consensus_(computer_science)
[2] Fischer, M. J.; Lynch, N. A.; Paterson, M. S. (1985). "Impossibility of distributed consensus with one faulty process" (PDF). Journal of the ACM. 32 (2): 374–382. doi:10.1145/3149.214121.
原文链接:
https://arxiv.org/abs/1907.03199
(*本文为 AI科技大本营编译文章,转载请联系1092722531)
◆
精彩推荐
◆
“只讲技术,拒绝空谈!”2019 AI开发者大会将于9月6日-7日在北京举行,这一届AI开发者大会有哪些亮点?一线公司的大牛们都在关注什么?AI行业的风向是什么?2019 AI开发者大会,倾听大牛分享,聚焦技术实践,和万千开发者共成长。
目前,大会盲订票限量发售中~扫码购票,领先一步!
推荐阅读
超详细的参数调优教程,保证学会!| 附完整代码
读完这45篇论文,“没人比我更懂AI了”
基于GEMM实现的CNN底层算法被改?Google提出全新间接卷积算法
帮嫦娥五号登月的AI还能用来玩游戏,20行Python代码带你领略强化学习的风采
2019年技术盘点容器篇(四):来自京东云的技术问答 | 程序员硬核评测
程序员爬取 2 万条数据,撕开微博热搜的真相!
"别太乐观, 冲破黑暗还很远呀! "
微信们正在成为“被模仿者”!中国互联网现状及趋势报告
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 准确把握守正创新的辩证关系 7902387
- 2 中国黄金原董事长家搜出大量黄金 7911812
- 3 空调英文不会男生盯着考场空调看 7852218
- 4 消费品以旧换新“加速度” 7733520
- 5 被铁路售票员的手速惊到了 7682832
- 6 网红赤木刚宪爆改赵露思 7583486
- 7 县委原书记大搞“刷白墙”被通报 7482070
- 8 山姆代购在厕所分装蛋糕 7307028
- 9 马龙刘诗雯穿正装打混双 7269397
- 10 刘强东提前发年终奖 7190882