pyspark.sql.Catalog

pyspark.sql。 目錄 ( sparkSession:pyspark.sql.session.SparkSession )

麵向用戶的目錄的API,可以通過SparkSession.catalog

這是一個Scala實現org.apache.spark.sql.catalog.Catalog瘦包裝器。

方法

cacheTable(表)

緩存內存中指定的表。

clearCache()

從內存中刪除所有緩存表緩存。

createExternalTable(表名(路徑,…))

創建一個基於數據源中的數據表。

不知道(表名、路徑、源、…)

創建一個基於數據源中的數據表。

currentCatalog()

返回當前默認目錄在這個會話。

currentDatabase()

返回當前默認數據庫在這個會話。

databaseExists(dbName)

檢查是否指定名稱的數據庫存在。

dropGlobalTempView(viewName)

滴全局臨時視圖用給定的視圖名稱的目錄。

dropTempView(viewName)

滴本地臨時目錄視圖與給定的視圖名稱。

functionExists(functionName [, dbName])

檢查函數名稱指定的存在。

getDatabase(dbName)

得到指定名稱的數據庫。

getFunction(functionName)

得到指定名稱的函數。

可以獲得的(表)

得到指定名稱的表或視圖。

isCached(表)

如果表目前緩存的內存返回true。

listCatalogs()

返回一個列表的目錄。

listColumns(表名(,dbName))

返回一個給定的表/視圖的列列表中指定的數據庫。

listDatabases()

在所有會話返回一個可用的數據庫列表。

listFunctions([dbName])

返回一個指定的數據庫中注冊的功能列表。

listTables([dbName])

返回一個指定的數據庫中的表/視圖列表。

recoverPartitions(表)

恢複所有的分區表和更新目錄。

refreshByPath(路徑)

無效,刷新緩存的數據和相關的元數據對於任何DataFrame路徑包含給定的數據源。

refreshTable(表)

無效並刷新所有給定表的緩存數據和元數據。

registerFunction(名稱、f [, returnType])

一個別名spark.udf.register ()

setCurrentCatalog(catalogName)

設置當前默認目錄在這個會話。

setCurrentDatabase(dbName)

設置當前的默認數據庫會話。

tableExists(表名(,dbName))

檢查是否存在指定名稱的表或視圖。

uncacheTable(表)

從內存緩存中刪除指定的表。