你好,
我想要得到一個日期列的年份和星期。本周格式並不認可。
df_loaded = df_loaded。withColumn (week_year F.concat (F.lit (“3”), F.col(一周),F.col('這個')))
df_loaded = df_loaded。withColumn(“日期”,F.to_date (F.col (“week_year”)、“uwwyyyy”))
我得到這個錯誤:
但它不工作,我得到這個錯誤:
SparkUpgradeException:你可能會得到一個不同的結果由於升級引發3.0:無法識別DateTimeFormatter uwwyyyy”模式。1)可以設置spark.sql.legacy。timeParserPolicy火花3.0之前遺留恢複行為。2)您可以形成一個有效的datetime模式的指導https://spark.apache.org/docs/latest/sql-ref-datetime-pattern.html
任何想法如何從列在pyspark迄今周&年嗎?