我得到錯誤……
AttributeError:“SparkSession”對象沒有屬性“_wrapped”
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
AttributeError回溯(最近調用最後)
<命令- 2311820097584616 > <細胞係:2 > ()
從sparknlp 1。培訓導入CoNLL
- - - - - > 2 trainingData = CoNLL ()。readDataset(火花,dbfs: / / FileStore /用戶(電子郵件保護)/ HLS / nlp /數據/ coNLL_2003_eng.train”)
3 trainingData.selectExpr (
4“文本”,
5”牌。結果令牌”,
/ local_disk0 .ephemeral_nfs / cluster_libraries / python / lib / python3.9 /網站/ sparknlp /培訓/conll.py在readDataset(自我、火花、路徑、read_as分區,storage_level)
141 jdf = self._java_obj。readDataset (jSession、路徑、read_as分區,
142年spark.sparkContext._getJavaStorageLevel (storage_level))
- - > 143年返回DataFrame (jdf spark._wrapped)
144年
當執行下麵的代碼……
從sparknlp。培訓導入CoNLL
trainingData = CoNLL ()。readDataset(火花,“dbfs: / FileStore / eng.train”)
trainingData.selectExpr (
“文本”,
“令牌。結果令牌”,
“pos.result pos”,
”的標簽。結果標簽”
)。顯示(假)
誰能幫忙嗎?