我想6 gb的數據插入到宇宙使用OLTP數據庫連接器
容器俄文的:40000
集群配置:
cfg = {" spark.cosmos。spark.cosmos accountEndpoint”: cosmosdbendpoint。”spark.cosmos accountKey”: cosmosdbmasterkey。”spark.cosmos數據庫”:cosmosdatabase。”容器”:cosmosdbcontainer,} spark.conf.set (“spark.sql.catalog。cosmosCatalog”、“com.azure.cosmos.spark.CosmosCatalog”) spark.conf.set (“spark.sql.catalog.cosmosCatalog.spark.cosmos。accountEndpoint”, cosmosdbendpoint) spark.conf.set (“spark.sql.catalog.cosmosCatalog.spark.cosmos。accountKey”, cosmosdbmasterkey) spark.conf.set (“spark.cosmos.write.bulk。啟用”、“真實”)json_df.write.format (cosmos.oltp) .options (* * cfg) .mode(“追加”).save ()
我正在約3小時加載到宇宙db
1。增加俄羅斯是唯一的方法來減少執行時間
2。除了OLTP連接器,我們有什麼辦法在短時間內插入批量數據
3所示。如何計算基於數據大小是俄文
也許你已經找到了一個解決方案,但對另一些人來說,最終我得到了戲劇性的改善使用Mongo連接器CosmosDB:https://www.mongodb.com/docs/spark-connector/current/write-to-mongodb/