取消
顯示的結果
而不是尋找
你的意思是:

得到日期和星期

棱角
新的貢獻者二世

你好,

我想要得到一個日期列的年份和星期。本周格式並不認可。

df_loaded = df_loaded。withColumn (week_year F.concat (F.lit (“3”), F.col(一周),F.col('這個')))

df_loaded = df_loaded。withColumn(“日期”,F.to_date (F.col (“week_year”)、“uwwyyyy”))

我得到這個錯誤:

但它不工作,我得到這個錯誤:

SparkUpgradeException:你可能會得到一個不同的結果由於升級引發3.0:無法識別DateTimeFormatter uwwyyyy”模式。1)可以設置spark.sql.legacy。timeParserPolicy火花3.0之前遺留恢複行為。2)您可以形成一個有效的datetime模式的指導https://spark.apache.org/docs/latest/sql-ref-datetime-pattern.html

任何想法如何從列在pyspark迄今周&年嗎?

5回複5

Vidula_Khanna
主持人
主持人

嗨@Pien Derkx

謝謝你發布你的問題在我們的社區!我們很高興幫助你。

幫助我們為您提供最準確的信息,請您花一些時間來回顧反應和選擇一個最好的回答了你的問題嗎?

這也將有助於其他社區成員可能也有類似的問題在未來。謝謝你的參與,讓我們知道如果你需要任何進一步的援助!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map