pyspark.RDD.reduceByKey

抽樣。 reduceByKey ( func:調用[V, V, V], numPartitions:可選(int) = None, partitionFunc:可調用的[[K], int] = <函數portable_hash > )→pyspark.rdd.RDD(元組(K,V] ]

合並每個鍵使用一個關聯的值和交換減少功能。

這也將執行合並每個映射器上本地發送結果減速機之前,類似於一個“組合器”MapReduce。

輸出將分區numPartitions分區,或者默認的並行性級別numPartitions沒有指定。默認hash-partition瓜分者。

例子

> > >操作符進口添加> > >抽樣=sc並行化(((“一個”,1),(“b”,1),(“一個”,1)))> > >排序(抽樣reduceByKey(添加)收集())[(' a ', 2), (' b ', 1))