在如何出口火花dataframe *。csv文件到本地計算機。我成功地使用spark_write_csv函數(sparklyr圖書館R) csv文件寫入我的磚dbfs: FileStore的位置。因為(我假設)磚是創建4 *。csv分區。所以我從磚文檔收集我需要合並分區文件。所以我正在使用以下命令....
df.coalesce (1) .write.option(“標題”、“true”) . csv (“dbfs: FileStore / temp / df.csv”)
然後我收到NameError:名字“df”沒有定義。
所以我錯過了一步,語法錯了嗎?我工作在一個R筆記本
傑夫
sparklyr有不同的語法。有sdf_coalesce函數。
你粘貼的代碼是Scala / Python。此外,即使是在python中你隻能指定文件夾不是文件所以CSV (“dbfs: FileStore / temp /”)