Databricks集成概述
此處列出的文章提供了有關如何連接到可以與Databrick一起使用的大量數據源,BI工具和開發人員工具的信息。其中許多可通過我們的合作夥伴係統和我們的合作夥伴Connect Hub獲得。
數據源
Databricks可以從數據中讀取數據並將數據寫入各種數據格式,例如CSV,三角洲湖,JSON,Parquet,XML和其他格式,以及數據存儲提供商,例如Amazon S3,Google BigQuery和Cloud Storage,Snowflake和其他提供商。
BI工具
Databricks已驗證了與您喜歡的BI工具(包括Power BI,Tableau等)的集成,使您可以通過Databricks簇和SQL端點與數據合作,在許多情況下,具有低代碼和無代碼體驗。
有關綜合列表,使用連接說明,請參閱BI和可視化。
其他ETL工具
除了訪問各種數據源,Databricks提供了與DBT,Prophecy和Azure Data Factory等ETL/ELT工具的集成,以及數據管道編排工具(如AirFlow和SQL數據庫工具),例如DataGrip,DBEAVER,DBEAVER和SQL WORKERBENCE/J。
有關連接說明,請參見:
ETL工具:數據準備和轉換
數據管道編排工具:管理數據管道中的依賴項
SQL數據庫工具:使用其他工具和從外部數據處理引擎訪問三角洲表。
IDE和其他開發人員工具
Databricks支持開發人員工具,例如DataGrip,Intellij,Pycharm,Visual Studio Code等,使您可以通過Databricks使用數據集群和SQL端點通過編寫代碼。
有關綜合列表,使用連接說明,請參閱開發人員工具和指導。
git
Databricks Repos提供與您喜歡的GIT提供商的存儲庫集成,因此您可以在Databricks筆記本中開發代碼,並將其與遠程GIT存儲庫同步。看GIT集成存儲庫。