遷移到Serverless實時推理
重要的
這個文檔已經退休了,可能不會被更新。產品、服務或技術中提到的這些內容不再支持。
本文中的指導是模型的預覽版本,以前Serverless實時推理功能。磚建議您遷移模型的工作流服務可用的一般功能。看到模型服務與磚。
預覽
這個特性是在公共預覽。
本文演示了如何啟用Serverless實時推理模型使用工作區和開關遺留MLflow模型服務與Serverless實時推理模型服務。
有關Serverless實時推理的一般信息,明白了模型服務Serverless實時推理。
需求
模型在MLflow模型注冊中心注冊。
集群在工作區中創建權限。看到配置集群創造福利。
可以管理產品版本注冊的權限模型。看到MLflow模型權限。
重大的改變
在Serverless實時推理,請求發送到端點的格式和端點的響應從遺留MLflow模型略有不同。看到評分模型端點新格式協議的細節。
在Serverless實時推理,包括端點URL
model-endpoint
而不是模型
Serverless實時推理包括完全支持工作流管理資源與API生產就緒。
禁用遺留MLflow模型服務您的模型
之前您可以啟用Serverless實時推理模型,你需要禁用遺留MLflow模型服務目前服務模型。
以下步驟展示了如何做到這一點的UI。
導航到模型側邊欄的機器學習的工作區。
選擇你想要的模型禁用遺留MLflow模型服務。
在服務選項卡上,選擇停止。
消息似乎證實。選擇停止供應。
使Serverless實時推理模型
一旦Serverless實時推理上啟用您的工作空間,您將看到下麵的屏幕上服務選項卡的注冊模型。使Serverless實時推理模型,點擊使Serverless實時推理按鈕。
重要的
如果您沒有看到這個按鈕,但是你不是看到一個支持服務按鈕,您使用的是端點為遺留MLflow模型服務端點不Serverless模型。聯係管理員在這個工作區啟用這個特性。