你好,
我通常使用pyspark此類行動。一些示例代碼的如何寫DBFS pyspark數據幀: data_frame.coalesce (1) .write.format .save (“com.databricks.spark.csv”) (“/ FileStore /表/ your_file_name.csv”)如果你好奇如何從直接轉移pyspark SQL,你可以試著創建一個臨時表在SQL,然後閱讀它變成pyspark數據幀,然後把它寫出來。下麵的代碼是給你有進口相應的庫。
% python
data_frame = spark.table (“your_temp_table”)
請注意我通常沒有這種規模的出口數據。你可能需要研究更多的合並功能,可能需要結合多個csv文件。
重讀你的問題後,這個很簡單,當下載的csv筆記本將會有一個向下的箭頭指示符號的右邊。所有你需要做的就是點擊下拉,點擊下載完整的結果(1000000 max)