pyspark.TaskContext.taskAttemptId

TaskContext。 taskAttemptId ( )→int

一個ID,這個任務是獨一無二的嚐試(在同一個SparkContext,沒有兩個任務嚐試嚐試將共享相同的ID)。這是大致相當於Hadoop TaskAttemptID。