pyspark.SparkContext.runJob¶
-
SparkContext。
runJob
( 抽樣:pyspark.rdd.RDD(T],partitionFunc:可調用的((Iterable(T]],Iterable(U]],分區:可選(序列(int]]=沒有一個,allowLocal:bool=假 )→列表(U] ¶ -
執行給定partitionFunc指定的分區上,返回結果的數組元素。
如果沒有指定“分區”,這將在所有分區運行。
例子
> > >myRDD=sc。並行化(範圍(6),3)> > >sc。runJob(myRDD,λ部分:(x*x為x在部分])(0、1、4、9、16、25)
> > >myRDD=sc。並行化(範圍(6),3)> > >sc。runJob(myRDD,λ部分:(x*x為x在部分),(0,2),真正的)(0,1,16日,25)