嗨@Shivers羅伯特
嚐試使用這樣的
進口pyspark.sql。函數作為F def year_sum (column_year, column_sum):返回F。當(F.col (column_year) = =, F.col (column_sum)) .otherwise (F.lit(沒有))顯示(df.select (* (F。總和(year_sum(我,“年”,“your_column_variable”)) .alias (str (i))我在[2018、2019]]))# # # #也可以使用主方法顯示(df.groupby (F.lit('假')).pivot(年).agg (F.sum (your_column_variable)) .drop(假的))
讓meknow如果它的工作原理。