解釋機器學習模型的統一方法:SHAP + LIME

下載幻燈片

對於那些解決現實問題並從數據科學產品中獲得收入的公司來說,能夠理解一個模型為什麼會做出某種預測,與在許多應用中實現高預測精度一樣重要。然而,隨著數據科學家通過實現集成或深度學習模型等複雜算法來追求更高的準確性,算法本身就變成了一個黑箱,它在模型輸出的準確性和可解釋性之間產生了權衡。

為了解決這一問題,開發了一個統一的框架SHAP (SHapley Additive explanation)來幫助用戶解釋複雜模型的預測。在本節課中,我們將討論如何將SHAP應用於各種建模方法(GLM, XGBoost, CNN),以解釋每個特征如何從特定的預測中貢獻和提取直觀的見解。本講座旨在介紹通用模型解釋器的概念,並幫助實踐者理解SHAP及其應用。



«回來
蕾拉楊
關於Layla Yang

我叫Layla Yang。我是Databricks的解決方案架構師。在進入數據行業之前,我在AdTech行業開始了我的職業生涯,專注於構建機器學習模型和數據產品。我在廣告技術初創公司工作了幾年,設計、構建和部署自動預測算法,用於插入主要Ad Exchange和ssp的實時競價(RTB)。我的工作還包括MMM(媒體組合建模),DMP用戶細分和客戶推薦引擎。目前,我與紐約和波士頓地區的初創企業合作,利用Apache Spark技術擴展他們現有的數據工程和數據科學工作。我在大學學的是物理,我喜歡滑雪。

Baidu
map