取消
顯示的結果
而不是尋找
你的意思是:

如何限製在每一批數量的文件流批處理

桑傑
價值貢獻

你好,

我運行批處理作業流程的文件。我試圖限製在每個批處理文件數量所以添加maxFilesPerTrigger選項。但它不工作。它處理所有輸入文件。

(spark.readStream.format(“δ”).load (silver_path)

.writeStream

gold_checkpoint_path .option (“checkpointLocation”)

.option (“maxFilesPerTrigger”, 200年)

.trigger(一旦= True)

.foreachBatch (foreachBatchFunction)

.start ()

.awaitTermination ()

)

請建議。

問候,

桑傑

20個回複20.

Sandeep
貢獻者三世

@Sanjay Jain抱歉錯過了一件事。.trigger(一旦= True)不支持速率限製器。您可以使用.trigger (availableNow = True)。

裁判:https://docs.www.eheci.com/structured-streaming/triggers.html configuring-incremental-batch-process……

spark.readStream.format(“δ”)

.option (“maxFilesPerTrigger”, 200年)

.load (silver_path)

.writeStream

gold_checkpoint_path .option (“checkpointLocation”)

.trigger (availableNow = True)

.foreachBatch (foreachBatchFunction)

.start ()

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map