pyspark.sql.functions.spark_partition_id

pyspark.sql.functions。 spark_partition_id ( )→pyspark.sql.column.Column

分區ID列。

筆記

這是不確定的,因為它取決於數據分區和任務調度。

例子

> > >df重新分區(1)選擇(spark_partition_id()別名(“pid”))收集()(行(pid = 0)、行(pid = 0))