你好,
在我的用例,我的數據推到一個adls gen2容器被稱為攝取
經過一些數據處理的磚集群攝取工作區,我宣布相關的表在外部metastore工作區
這個處理結束時(根據一定標準)我把策劃數據(一個簡單的複製),其他容器(實驗室/ qal /珠三角,每個容器包含數據磚工作空間)
我想聲明的metastores 3工作區。
一個解決方案是發射3任務後第一個任務。與這些任務相聯係的每個集群配置了每個磚的metastore工作區。但這個解決方案是繁瑣的工作:
另一個解決方案可以動態更新集群配置的第一個任務。我試著修改引發會話配置使用上麵的代碼:
spark.sparkContext.getConf()這裏(“spark.hadoop.javax.jdo.option.ConnectionURL "、" jdbc::狀態"置疑" / / lab_env.database.windows.net: 1433;數據庫= labdatabase”)
或
spark.conf.set (“spark.hadoop.javax.jdo.option.ConnectionURL "、" jdbc::狀態"置疑" / / lab_env.database.windows.net: 1433;數據庫= labdatabase”)
但似乎它不起作用。
我的問題很簡單:你知道有一種方法可以改變這個配置一個筆記本,或者如果它是不可能的
提前感謝你對你的幫助