pyspark.sql.streaming.DataStreamWriter.trigger¶
-
DataStreamWriter。
觸發
( *,processingTime:可選(str]=沒有一個,一次:可選(bool]=沒有一個,連續:可選(str]=沒有一個,availableNow:可選(bool]=沒有一個 )→pyspark.sql.streaming.readwriter.DataStreamWriter¶ -
為流查詢設置觸發器。如果這不是它將盡可能快地運行查詢,相當於設置觸發器
processingTime = ' 0秒的
。- 參數
-
- processingTime str,可選
-
處理時間間隔為一個字符串,例如5秒,1分鍾。定期運行設置觸發器microbatch查詢基於處理時間。隻有一個可以設置觸發器。
- 一次 bool,可選
-
如果設置為真,設定一個觸發處理隻有一批數據流查詢然後終止查詢。隻有一個可以設置觸發器。
- 連續 str,可選
-
時間間隔為一個字符串,例如5秒,1分鍾。設置一個觸發一個連續運行的查詢與給定的檢查點間隔。隻有一個可以設置觸發器。
- availableNow bool,可選
-
如果設置為真,設定一個觸發處理所有可用的數據在多個批次然後終止查詢。隻有一個可以設置觸發器。
筆記
這個API是不斷發展的。
例子
> > >#觸發查詢執行每5秒> > >作家=自衛隊。writeStream。觸發(processingTime=“5秒”)> > >#觸發一次批數據的查詢> > >作家=自衛隊。writeStream。觸發(一次=真正的)> > >#觸發查詢執行每5秒> > >作家=自衛隊。writeStream。觸發(連續=“5秒”)> > >#觸發與多個批次查詢讀取所有可用的數據> > >作家=自衛隊。writeStream。觸發(availableNow=真正的)