pyspark.pandas.read_sql_table

pyspark.pandas。 read_sql_table ( table_name:str,反對:str,模式:可選(str]=沒有一個,index_col:聯盟(str,列表(str),沒有一個)=沒有一個,:聯盟(str,列表(str),沒有一個)=沒有一個,* *選項:任何 )→pyspark.pandas.frame.DataFrame

讀成DataFrame SQL數據庫表。

給定一個表名和JDBC URI,返回一個DataFrame。

參數
table_name str

SQL表在數據庫的名稱。

反對 str

一個JDBC URI可以提供為str。

請注意

必須JDBC URI URI URI而不是Python的數據庫。

模式 str,默認沒有

SQL模式在數據庫查詢名稱(如果數據庫支持這種味道)。使用默認模式如果沒有(默認)。

index_col str和str列表,可選的,默認值:沒有

列設置為指數(s) (MultiIndex)。

列表,默認沒有

從SQL表的列名列表選擇。

選項 dict

所有其他選項直接傳遞到火花的JDBC數據源。

返回
DataFrame

返回一個SQL表與二維數據結構軸的標簽。

另請參閱

read_sql_query

讀DataFrame SQL查詢。

read_sql

讀取SQL查詢或DataFrame數據庫表。

例子

> > >psread_sql_table(“table_name”,“jdbc: postgresql: db_name”)