chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于機器學習模型的六大可解釋性技術(shù)

C29F_xilinx_inc ? 來源:賽靈思 ? 作者:賽靈思 ? 2022-02-26 17:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術(shù)。

模型可解釋性匯總

簡介

目前很多機器學習模型可以做出非常好的預測,但是它們并不能很好地解釋他們是如何進行預測的,很多數(shù)據(jù)科學家都很難知曉為什么該算法會得到這樣的預測結(jié)果。這是非常致命的,因為如果我們無法知道某個算法是如何進行預測,那么我們將很難將其遷移到其它的問題中,很難進行算法的debug。

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術(shù),包括它們的相對優(yōu)點和缺點。我們將其分為下面幾種:

1. Partial Dependence Plot (PDP);

2. Individual Conditional Expectation (ICE)

3. Permuted Feature Importance

4. Global Surrogate

5. Local Surrogate (LIME)

6. Shapley Value (SHAP)

六大可解釋性技術(shù)

01、Partial Dependence Plot (PDP)

PDP是十幾年之前發(fā)明的,它可以顯示一個或兩個特征對機器學習模型的預測結(jié)果的邊際效應。它可以幫助研究人員確定當大量特征調(diào)整時,模型預測會發(fā)生什么樣的變化。

關(guān)于機器學習模型的六大可解釋性技術(shù)

上面圖中X軸表示特圖片的值y軸表示預測值。陰影區(qū)域中的實線顯示了平均預測如何隨圖片值的變化而變化。PDP能很直觀地顯示平均邊際效應,因此可能會隱藏異質(zhì)效應。

例如,一個特征可能與一半數(shù)據(jù)的預測正相關(guān),與另一半數(shù)據(jù)負相關(guān)。那么PDP圖將只是一條水平線。

02、Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預測會怎么變化。

關(guān)于機器學習模型的六大可解釋性技術(shù)

如上圖所示,與PDP不同,ICE曲線可以揭示異質(zhì)關(guān)系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結(jié)合起來一起使用。

03、Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過特征值打亂后模型預測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預測做出貢獻的大小。

關(guān)于機器學習模型的六大可解釋性技術(shù)

如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負面的貢獻。

04、Global Surrogate

Global Surrogate方法采用不同的方法。它通過訓練一個可解釋的模型來近似黑盒模型的預測。

首先,我們使用經(jīng)過訓練的黑盒模型對數(shù)據(jù)集進行預測;

然后我們在該數(shù)據(jù)集和預測上訓練可解釋的模型。

訓練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規(guī)則等。

關(guān)于機器學習模型的六大可解釋性技術(shù)

使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。

由于代理模型僅根據(jù)黑盒模型的預測而不是真實結(jié)果進行訓練,因此全局代理模型只能解釋黑盒模型,而不能解釋數(shù)據(jù)。

05、Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓練可解釋的模型來近似單個預測。LIME試圖了解當我們擾亂數(shù)據(jù)樣本時預測是如何變化的。

關(guān)于機器學習模型的六大可解釋性技術(shù)

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關(guān)閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數(shù)據(jù)集。對于每個擾動實例,可以使用經(jīng)過訓練的模型來獲取圖像中存在樹蛙的概率,然后在該數(shù)據(jù)集上學習局部加權(quán)線性模型。最后,使用具有最高正向權(quán)重的成分來作為解釋。

06、Shapley Value (SHAP)

Shapley Value的概念來自博弈論。我們可以通過假設實例的每個特征值是游戲中的“玩家”來解釋預測。每個玩家的貢獻是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻的加權(quán)總和。Shapley 值是可加的,局部準確的。如果將所有特征的Shapley值加起來,再加上基值,即預測平均值,您將得到準確的預測值。這是許多其他方法所沒有的功能。

關(guān)于機器學習模型的六大可解釋性技術(shù)

該圖顯示了每個特征的Shapley值,表示將模型結(jié)果從基礎值推到最終預測的貢獻。紅色表示正面貢獻,藍色表示負面貢獻。

小結(jié)

機器學習模型的可解釋性是機器學習中一個非常活躍而且重要的研究領域。本文中我們介紹了6種常用的用于理解機器學習模型的算法。大家可以依據(jù)自己的實踐場景進行使用。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4709

    瀏覽量

    95332
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3517

    瀏覽量

    50391
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134565
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網(wǎng)絡結(jié)構(gòu) 近日,中國科學院西安光機所空間光學技術(shù)研究室在計算成像可解釋性深度學習重建方法研究取得創(chuàng)新進展。相關(guān)研究成果發(fā)表于計算機視覺與圖形學領域國際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?208次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度<b class='flag-5'>學習</b>重建方法取得進展

    Gartner發(fā)布云技術(shù)發(fā)展的六大趨勢

    Gartner發(fā)布未來四年云技術(shù)發(fā)展的六大趨勢,包括對云技術(shù)不滿、人工智能/機器學習(AI/ML)、多云和跨云、可持續(xù)
    的頭像 發(fā)表于 05-19 11:40 ?433次閱讀
    Gartner發(fā)布云<b class='flag-5'>技術(shù)</b>發(fā)展的<b class='flag-5'>六大</b>趨勢

    模型領域常用名詞解釋(近100個)

    本文總結(jié)了大模型領域常用的近100個名詞解釋,并按照模型架構(gòu)與基礎概念,訓練方法與技術(shù)模型優(yōu)化與壓縮,推理與應用,計算與性能優(yōu)化,數(shù)據(jù)與標
    的頭像 發(fā)表于 02-19 11:49 ?778次閱讀
    大<b class='flag-5'>模型</b>領域常用名詞<b class='flag-5'>解釋</b>(近100個)

    AI大模型在汽車應用中的推理、降本與可解釋性研究

    佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。 推理能力成為大模型性能提升的驅(qū)動引擎 2024下半年以來,國內(nèi)外大模型公司紛紛推出推理模型,通過以CoT為
    的頭像 發(fā)表于 02-18 15:02 ?1224次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應用中的推理、降本與<b class='flag-5'>可解釋性</b>研究

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    ) 擴展上下文+結(jié)構(gòu)化推理(支持更長復雜輸入) 響應控制 通用流暢優(yōu)先 強化分步解釋與中間過程可解釋性 3. 技術(shù)架構(gòu)差異 技術(shù)點 Dee
    發(fā)表于 02-14 02:08

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學習
    的頭像 發(fā)表于 02-13 09:39 ?358次閱讀

    小白學解釋性AI:從機器學習到大模型

    科學AI需要可解釋性人工智能的崛起,尤其是深度學習的發(fā)展,在眾多領域帶來了令人矚目的進步。然而,伴隨這些進步而來的是一個關(guān)鍵問題——“黑箱”問題。許多人工智能模型,特別是復雜的模型,如
    的頭像 發(fā)表于 02-10 12:12 ?621次閱讀
    小白學<b class='flag-5'>解釋性</b>AI:從<b class='flag-5'>機器</b><b class='flag-5'>學習</b>到大<b class='flag-5'>模型</b>

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    設計專門的編碼器處理視覺、觸覺、位置等不同類型的傳感器數(shù)據(jù),再用cross-attention機制將它們對齊到同一語義空間。這種設計不僅提高了模型的感知能力,還增強了推理過程的可解釋性。在實驗中,RT-1
    發(fā)表于 12-24 15:03

    Deloitte的六大技術(shù)趨勢

    在這個技術(shù)變革加速的時代,人工智能(AI)正以前所未有的速度改變企業(yè)的核心運營模式。此份報告圍繞空間計算、AI未來趨勢、智能硬件、IT升級、量子計算、智能核心六大主題展開深入探討,無論是企業(yè)決策者
    的頭像 發(fā)表于 12-21 15:40 ?1749次閱讀
    Deloitte的<b class='flag-5'>六大</b><b class='flag-5'>技術(shù)</b>趨勢

    深度學習模型的魯棒優(yōu)化

    深度學習模型的魯棒優(yōu)化是一個復雜但至關(guān)重要的任務,它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預處理與增強 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高
    的頭像 發(fā)表于 11-11 10:25 ?1179次閱讀

    魯棒機器學習中的重要

    機器學習領域,模型的魯棒是指模型在面對輸入數(shù)據(jù)的擾動、異常值、噪聲或?qū)剐怨魰r,仍能保持性能的能力。隨著人工智能
    的頭像 發(fā)表于 11-11 10:19 ?1257次閱讀

    常見AI大模型的比較與選擇指南

    在選擇AI大模型時,明確具體需求、了解模型的訓練數(shù)據(jù)、計算資源要求和成本,并考慮模型可解釋性和社區(qū)支持情況等因素至關(guān)重要。以下是對常見AI大模型
    的頭像 發(fā)表于 10-23 15:36 ?2645次閱讀

    AI大模型與深度學習的關(guān)系

    AI大模型與深度學習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學習是AI大模型的基礎 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    《AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得

    。 4. 物理與AI的融合 在閱讀過程中,我對于物理與AI的融合有了更加深入的認識。AI for Science不僅依賴于數(shù)據(jù),還需要結(jié)合物理定律和原理來確保模型的準確可解釋性。這種融合不僅提高了
    發(fā)表于 10-14 09:16

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    一些局限性。例如,模型可能無法完全理解文本中的深層含義和語境信息;同時,由于訓練數(shù)據(jù)可能存在偏差和噪聲,生成的答案也可能存在不準確或誤導的情況。 總結(jié)以下,大語言模型通過深度學習
    發(fā)表于 08-02 11:03