<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    6個可解釋AI (XAI)的Python框架推薦

    VSole2022-07-29 16:10:43

    隨著人工智能的發展為了解決具有挑戰性的問題,人們創造了更復雜、更不透明的模型。AI就像一個黑匣子,能自己做出決定,但是人們并不清楚其中緣由。建立一個AI模型,輸入數據,然后再輸出結果,但有一個問題就是我們不能解釋AI為何會得出這樣的結論。需要了解AI如何得出某個結論背后的原因,而不是僅僅接受一個在沒有上下文或解釋的情況下輸出的結果。

    可解釋性旨在幫助人們理解:

    • 如何學習的?
    • 學到了什么?
    • 針對一個特定輸入為什么會做出如此決策?
    • 決策是否可靠?

    在本文中,我將介紹6個用于可解釋性的Python框架。

    SHAP

    SHapley Additive explanation (SHapley Additive explanation)是一種解釋任何機器學習模型輸出的博弈論方法。它利用博弈論中的經典Shapley值及其相關擴展將最優信貸分配與局部解釋聯系起來(詳見論文的細節和引用)。

    數據集中每個特征對模型預測的貢獻由Shapley值解釋。Lundberg和Lee的SHAP算法最初發表于2017年,這個算法被社區在許多不同的領域廣泛采用。

    使用pip或conda安裝shap庫。

    # install with pip
    pip install shap
    # install with conda
    conda install -c conda-forge shap
    

    LIME

    在可解釋性領域,最早出名的方法之一是LIME。它可以幫助解釋機器學習模型正在學習什么以及為什么他們以某種方式預測。Lime目前支持對表格的數據,文本分類器和圖像分類器的解釋。

    知道為什么模型會以這種方式進行預測對于調整算法是至關重要的。借助LIME的解釋,能夠理解為什么模型以這種方式運行。如果模型沒有按照計劃運行,那么很可能在數據準備階段就犯了錯誤。


    使用pip安裝

    pip install lime
    

    Shapash

    “ Shapash是一個使機器學習對每個人都可以進行解釋和理解Python庫。Shapash提供了幾種類型的可視化,顯示了每個人都能理解的明確標簽。數據科學家可以更輕松地理解他們的模型并分享結果。最終用戶可以使用最標準的摘要來理解模型是如何做出判斷的。”

    為了表達數據中包含故事、見解和模型的發現,互動性和漂亮的圖表必不可少。業務和數據科學家/分析師向AI/ML結果展示和互動的最佳方法是將其可視化并且放到web中。Shapash庫可以生成交互式儀表盤,并收集了許多可視化圖表。與外形/石灰解釋性有關。它可以使用SHAP/Lime作為后端,也就是說他只提供了更好看的圖表。

    使用Shapash構建特征貢獻圖

    使用Shapash庫創建的交互式儀表板

    使用Shapash構建的局部解釋圖

    InterpretML

    InterpretML是一個開源的Python包,它向研究人員提供機器學習可解釋性算法。InterpretML支持訓練可解釋模型(glassbox),以及解釋現有的ML管道(blackbox)。

    InterpretML展示了兩種類型的可解釋性:glassbox模型——為可解釋性設計的機器學習模型(如:線性模型、規則列表、廣義可加模型)和黑箱可解釋性技術——用于解釋現有系統(如:部分依賴,LIME)。使用統一的API并封裝多種方法,擁有內置的、可擴展的可視化平臺,該包使研究人員能夠輕松地比較可解釋性算法。InterpretML還包括了explanation Boosting Machine的第一個實現,這是一個強大的、可解釋的、glassbox模型,可以像許多黑箱模型一樣精確。

    使用InterpretML構建的局部解釋交互式圖

    ELI5

    ELI5是一個可以幫助調試機器學習分類器并解釋它們的預測的Python庫。目前支持以下機器學習框架:

    • scikit-learn
    • XGBoost、LightGBM CatBoost
    • Keras

    ELI5有兩種主要的方法來解釋分類或回歸模型:

    • 檢查模型參數并說明模型是如何全局工作的;
    • 檢查模型的單個預測并說明什么模型會做出這樣的決定。

    使用ELI5庫生成全局權值

    使用ELI5庫生成局部權重

    OmniXAI

    OmniXAI (Omni explained AI的簡稱),是Salesforce最近開發并開源的Python庫。它提供全方位可解釋的人工智能和可解釋的機器學習能力來解決實踐中機器學習模型在產生中需要判斷的幾個問題。對于需要在ML過程的各個階段解釋各種類型的數據、模型和解釋技術的數據科學家、ML研究人員,OmniXAI希望提供一個一站式的綜合庫,使可解釋的AI變得簡單。

    以下是OmniXAI提供的與其他類似庫的對比

    機器學習python
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    Python 有其優點和缺點,但它仍然被廣泛使用。也是一種風險像所有編程語言一樣,Python 會頻繁更新。
    挖洞一定要去實戰,不能只在漏洞環境復現漏洞,實戰和環境是不一樣的。實戰環境的選擇:
    伴隨著5G、大數據、人工智能、物聯網等技術的飛速發展,各行各業的業務場景日益復雜,數據呈現出大規模、多樣性的特點,特別是非結構化數據呈現出爆發式的增長態勢。企業對數據庫技術的需求不再局限于結構化的OLTP數據交易,而是需要進一步擴展到對多樣化數據進行實時處理的場景。
    從本專欄開始,作者正式研究Python深度學習、神經網絡及人工智能相關知識。一.RNN文本分類1.RNN循環神經網絡英文是Recurrent Neural Networks,簡稱RNN。假設有一組數據data0、data1、data2、data3,使用同一個神經網絡預測它們,得到對應的結果。RNN常用于自然語言處理、機器翻譯、語音識別、圖像識別等領域。本文將采用詞向量、TFIDF兩種方式進行實驗。
    Python人工智能第17篇實現經典得MNIST分類案例
    以前他們公司用的方案就是Windows Defender配合微軟Azure上的云原生防護服務Sentinel。這是一種云安全防護,由知識圖譜和機器學習驅動,用于識別病毒庫里沒出現過的全新威脅。進入條目并選擇啟用。下一步是開啟勒索軟件專項防護。
    一.文本分類文本分類旨在對文本集按照一定的分類體系或標準進行自動分類標記,屬于一種基于分類體系的自動分類。牛亞峰老師將傳統的文本分類流程歸納如下圖所示。在傳統的文本分類中,基本上大部分機器學習方法都在文本分類領域有所應用。本文將采用詞向量、TFIDF兩種方式進行實驗。
    目前機器學習廣泛應用于網絡流量分析任務,特征提取、模型選擇、參數調優等眾多因素決定著模型的性能,每當面對不同的網絡流量或新的任務,就需要研究人員重新開發模型,這個反復性的過程往往是費時費力的。因此有必要為不同網絡流量創建一個通用的表示,可以用于各種不同的模型,跨越廣泛的問題類,并將整個建模過程自動化。本文關注通用的自動化網絡流量分析問題,致力于使研究人員將更多的精力用于優化模型和特征上,并有更多的
    當人工智能遇上安全第7篇文章介紹基于機器學習的安全數據集,希望對您有幫助
    VSole
    網絡安全專家
      亚洲 欧美 自拍 唯美 另类