嗨,我試圖部署特性存儲包裝模型使用mlflow.pyfunc到三角洲住表。spark_udf Azure磚。
這個模型是由磚和加入autoML特性表裏麵。
我試圖讓預測在我的筆記本中使用下麵的代碼。(DLT)
#負荷模型作為引發UDF。覆蓋result_type如果模型不返回值的兩倍。loaded_model = mlflow.pyfunc。spark_udf(火花,model_uri = logged_model result_type =“雙”,env_manager = virtualenv) #火花DataFrame預測。df。withColumn(“預測”,loaded_model (struct(*地圖(col df.columns))))
但我得到以下錯誤:
例外:內部錯誤:在線特性表信息無法找到特性表。
這個特性表確實存在和推理
predictions_df = fs。score_batch (logged_model batch_input_df result_type =“雙”)
fs。score_batch作品。警告引發UDF如下:
mlflow警告。pyfunc:調用“spark_udf()“與”env_manager =“本地”'不重建相同的使用環境,在培訓期間,這可能會導致錯誤或不準確的預測。我們建議指定' env_manager =“conda”,自動再現環境用來訓練模型和執行推理重新創建環境。
我也試過另一個功能存儲包裝模型包裝自己,但它有同樣的錯誤。
我的問題是:
是spark_udf功能兼容特性存儲包裝模型在這一刻嗎?
如果是這樣,我該如何修複這個錯誤並將其部署到DLT嗎?