SparkContext。
defaultMinPartitions
默認最小數量的分區Hadoop抽樣時由用戶
以前的
pyspark.SparkContext.cancelJobGroup
下一個
pyspark.SparkContext.defaultParallelism