Graphx的实现代码并不多,这得益于Spark RDD niubility的设计。众所周知,在分布式上做图计算需要考虑点、边的切割。而RDD本身是一个分布式的数据集,所以,做Graphx只需要把边和点用RDD表示出来就可以了。本文就是从这个角度来分析Graphx的运作基本原理(本文基于Spark2.0)。
分布式图的切割方式
在单机上图很好表示,在分布式环境下,就涉及到一个问题:图如何切分,以及切分之后的不同子图如何保持彼此的联系构成一个完整的图。图的切分方式有两种:点切分和边切分。在Graphx中,采用点切分。
在GraphX中,Graph
类除了表示点的VertexRDD
和表示边的EdgeRDD
外,还有一个将点的属性和边的属性都包含在内的RDD[EdgeTriplet]
。
方便起见,我们先从GraphLoader
中来看看如何从一个用边来描述图的文件中如何构建Graph
的。
从上面精简的代码中可以看出来,先得到lines
一个表示边的RDD(这里所谓的边依旧是文本描述的),然后再经过一系列的转换来生成Graph。
EdgeRDD
GraphImpl.fromEdgePartitions
中传入的第一个参数edges
为EdgeRDD
的EdgePartition
。先来看看EdgePartition
究竟为何物。
其中:localSrcIds
为本地边的源点的本地编号。localDstIds
为本地边的目的点的本地编号,与localSrcIds
一一对应成边的两个点。data
为边的属性值。index
为本地边的源点全局ID到localSrcIds中下标的映射。global2local
为点的全局ID到本地ID的映射。local2global
是一个Vector,依次存储了本地出现的点,包括跨节点的点。
通过这样的方式做到了点切割。
有了EdgePartition
之后,再通过得到EdgeRDD
就容易了。
VertexRDD
现在看fromEdgePartitions
fromEdgePartitions
中调用了 fromEdgeRDD
可见,VertexRDD
是由EdgeRDD
生成的。接下来讲解怎么从EdgeRDD
生成VertexRDD
。
从代码中可以看到先创建了一个路由表,这个路由表的本质依旧是RDD,然后通过路由表的转得到RDD[ShippableVertexPartition]
,最后再构造出VertexRDD
。先讲解一下路由表,每一条边都有两个点,一个源点,一个终点。在构造路由表时,源点标记位或1,目标点标记位或2,并结合边的partitionID编码成一个Int(高2位表示源点终点,低30位表示边的partitionID)。再根据这个编码的Int反解出ShippableVertexPartition
。值得注意的是,在createRoutingTables
中,反解生成ShippableVertexPartition
过程中根据点的id hash值partition了一次,这样,相同的点都在一个分区了。有意思的地方来了:我以为这样之后就会把点和这个点的镜像合成一个,然而实际上并没有。点和边是相互关联的,通过边生成点,通过点能找到边,如果合并了点和点的镜像,那也找不到某些边了。ShippableVertexPartition
依旧以边的区分为标准,并记录了点的属性值,源点、终点信息,这样边和边的点,都在一个分区上。
最终,通过new VertexRDDImpl(vertexPartitions)
生成VertexRDD
。
Graph
|
|
在fromExistingRDDs
调用new GraphImpl(vertices, new ReplicatedVertexView(edges.asInstanceOf[EdgeRDDImpl[ED, VD]]))
来生成图。
ReplicatedVertexView
是边和图的视图,当点的属性发生改变时,将改变传输到对应的边。