pyspark.SparkContext.parallelize

SparkContext。 並行化 ( c:Iterable(T],numSlices:可選(int]=沒有一個 )→pyspark.rdd.RDD(T]

分配一個本地Python集合形成一個抽樣。使用範圍建議如果輸入代表一個範圍的性能。

例子

> > >sc並行化([0,2,3,4,6),5)()收集()[[0],[2],[3],[4],[6]]> > >sc並行化(範圍(0,6,2),5)()收集()[[],[0],[],[2],[4]]