我有一組數據庫文件(.db),我需要讀到Python筆記本在磚。我設法做這相當簡單直到7月當介紹了JDBC SQLite庫的更新。
到目前為止我讀過的文件的問題(修改)代碼:
”df = spark.read。格式(“jdbc”).options(url =“< url >”,
當表中的數據非常大(幾十億)或非常低(例如1 e15汽油),SQLite JDBC可能難以導入正確的值。為了解決這一問題,可以使用一個好主意customSchema選項來定義模式中使用高的小數範圍(或許多小數當數字很低)。
”df = spark.read。格式(“jdbc”).options(url =“< url >”,
當表中的數據非常大(幾十億)或非常低(例如1 e15汽油),SQLite JDBC可能難以導入正確的值。為了解決這一問題,可以使用一個好主意customSchema選項來定義模式中使用高的小數範圍(或許多小數當數字很低)。
”df = spark.read。格式(“jdbc”).options(url =“< url >”,