pyspark.SparkContext.runJob

SparkContext。 runJob ( 抽樣:pyspark.rdd.RDD(T],partitionFunc:可調用的((Iterable(T]],Iterable(U]],分區:可選(序列(int]]=沒有一個,allowLocal:bool= )→列表(U]

執行給定partitionFunc指定的分區上,返回結果的數組元素。

如果沒有指定“分區”,這將在所有分區運行。

例子

> > >myRDD=sc並行化(範圍(6),3)> > >scrunJob(myRDD,λ部分:(x*xx部分])(0、1、4、9、16、25)
> > >myRDD=sc並行化(範圍(6),3)> > >scrunJob(myRDD,λ部分:(x*xx部分),(0,2),真正的)(0,1,16日,25)