chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-04 18:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

解釋產(chǎn)生特定NBA球員預(yù)測薪水的特征(github)

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

我最喜歡的庫之一是SHAP,它是解釋機(jī)器學(xué)習(xí)模型生成的輸出不可或缺的工具。 SHAP是幾種不同的當(dāng)前解釋模型的頂點(diǎn),并且通過為每個特征分配重要性值來表示用于解釋模型預(yù)測的統(tǒng)一框架。反過來,可以繪制這些重要性值,并用于產(chǎn)生任何人都可以輕易解釋的漂亮可視化。在您閱讀時,您會注意到主題是可解釋性,以及為什么它在機(jī)器學(xué)習(xí)中如此迫切。

在本文中,我提供了一個外行人對其作者Scott Lundberg和Su-In Lee的原始論文的評論

目的

線性模型易于解釋。 考慮用于預(yù)測NBA球員薪水的經(jīng)典線性回歸模型(假設(shè)薪水完全基于每場比賽得分):

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

我們簡單地將其解釋為β1,即X對Y單位增加的平均影響。換句話說,如果凱文杜蘭特得到27.5分,那么我們所要做的就是乘以β1來預(yù)測他的薪水。 使用線性模型,很明顯模型如何達(dá)到預(yù)測。

但是神經(jīng)網(wǎng)絡(luò)呢,那里有重復(fù)的矩陣乘法和激活函數(shù)? 我們?nèi)绾卧谳敵龅纳舷挛闹薪忉屵@一點(diǎn)?

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

隨著我們轉(zhuǎn)向更復(fù)雜的模型,具有更高的準(zhǔn)確性,我們發(fā)現(xiàn)越來越難以解釋這些模型如何產(chǎn)生預(yù)測。 由于以下幾個原因,這是一個岌岌可危的困境:

·模型偏差是一個重要問題,因?yàn)樗鼈冏罱K可能會對決策產(chǎn)生不公平的影響。 一些數(shù)據(jù)存在內(nèi)在偏差,特別是在涉及種族和性別偏見時,這會對模型的預(yù)測產(chǎn)生負(fù)面影響。 由于沒有好的方法來解釋模型如何做出決定,因此很難確定這些固有的偏見。

·模型改進(jìn)也很困難如果您不知道要改進(jìn)什么。當(dāng)然,您可以調(diào)整超參數(shù),直到獲得最佳分?jǐn)?shù),但您擁有的數(shù)據(jù)類型更為重要。了解模型中不同特征的價值可為數(shù)據(jù)收集提供有價值的反饋,告知我們哪些類型的數(shù)據(jù)最重要.

·用戶信任對于采用人工智能系統(tǒng)非常重要。 在人工智能治理中心最近的一份報告中,作者報告說:"有更多的美國人認(rèn)為高級機(jī)器智能會比那些認(rèn)為對人類有益的人有害。"復(fù)雜模型的可解釋性有助于 更好的理解,建立模型如何做出決策的直覺,并最終產(chǎn)生用戶信任。

添加功能歸因方法

為了解釋更復(fù)雜的模型,我們需要一個更接近原始模型的簡單解釋模型。

假設(shè)我們有一個形式為f(x)的復(fù)雜模型,那么解釋模型g(z')≈f(x)。

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

稍微分解g(z'),我們將一些效應(yīng)φ?歸因于每個特征z'。 通過總結(jié)所有這些效果及其特征,我們可以近似原始模型的輸出。 這被定義為附加特征歸屬方法。 事實(shí)證明,其他當(dāng)前的解釋模型遵循相同的解釋模型,允許它們?nèi)拷y(tǒng)一到一個單一的框架中。

附加特征歸屬方法的屬性

1.局部精度:最重要的屬性之一是解釋模型能夠匹配原始模型的輸出。

2.缺失:如果缺少特征,則該特征沒有效果,或φ?= 0。

3.一致性:如果模型發(fā)生變化,使得特征貢獻(xiàn)增加或保持不變,那么特征屬性或φ?不應(yīng)減少。

這導(dǎo)致我們SHAP值,它統(tǒng)一了以前的方法,并展示了上述屬性。

SHAP值

SHAP值(φ?)用于描述特征的重要性。 請考慮以下圖表:

利用SHAP實(shí)現(xiàn)機(jī)器學(xué)習(xí)模型的輸出預(yù)測

f(x)是模型預(yù)測的輸出,E[f(z)]是如果沒有特征則預(yù)測的基值。 換句話說,E[f(z)]只是平均模型輸出。

當(dāng)我們包括一個特征x 1,然后φ1,解釋我們?nèi)绾螐幕档叫碌念A(yù)測值,現(xiàn)在由E [f(z)|給出。 z 1 = x 1]。 對剩余的變量x 1,x 2,x 3重復(fù)這個過程,估計φ1,φ2和φ3的SHAP值,顯示模型最終如何到達(dá)預(yù)測輸出f(x)。

不同口味的SHAP(different favours of SHAP)

SHAP有多種實(shí)現(xiàn)方式,每種方式都適用于特定的模型類型,可以實(shí)現(xiàn)更快的逼近。

·TreeExplainer

TreeExplainer專為樹集合方法開發(fā),如XGBoost,LightGBM或CatBoost。

·DeepExplainer

DeepExplainer是為深度學(xué)習(xí)模型開發(fā)的,支持TensorFlow / Keras。

·GradientExplainer

GradientExplainer也是為深度學(xué)習(xí)模型中的SHAP值而開發(fā)的,但速度比DeepExplainer慢,并且做出了不同的假設(shè)。 此方法基于Integrated Gradient歸因方法,并支持TensorFlow / Keras / PyTorch。

·KernelExplainer

KernelExplainer使用加權(quán)線性回歸近似任何類型模型的SHAP值。

使用特定于模型類型的算法(TreeExplainer,DeepExplainer)而不是通用KernelExplainer更快更有效。

總結(jié)

作者發(fā)現(xiàn)人類解釋和SHAP解釋之間的關(guān)聯(lián)比任何其他方法更強(qiáng),這表明了SHAP的強(qiáng)大和直觀性。 計算出的SHAP值很容易在美觀,簡單的圖中顯示,這些圖解釋了特征如何影響特定預(yù)測。 這使得SHAP成為一個令人信服的工具,可以自信地解釋和解釋任何模型。

有關(guān)如何實(shí)現(xiàn)SHAP的教程,請查看我的筆記本,看看我們?nèi)绾谓忉対u變提升樹的預(yù)測結(jié)果。 SHAP github還提供了很多資源,可以提供有關(guān)如何實(shí)現(xiàn)DeepExplainer,KernelExplainer和其他有用功能的更多示例。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4784

    瀏覽量

    98105
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137000
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?664次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    從數(shù)據(jù)到模型:如何預(yù)測細(xì)節(jié)距鍵合的剪切力?

    預(yù)估其剪切力?行業(yè)內(nèi)的研究數(shù)據(jù)為我們揭示了可能性。今天,科準(zhǔn)測控小編將帶您了解如何基于實(shí)驗(yàn)數(shù)據(jù)建立并應(yīng)用預(yù)測模型,實(shí)現(xiàn)從“測量”到“預(yù)估”的關(guān)鍵跨越。 一、從平方定律到經(jīng)驗(yàn)公式 直觀上,我們可能會假設(shè)
    發(fā)表于 01-08 09:45

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    ,并驗(yàn)證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學(xué)家的工作習(xí)慣。需避免的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)數(shù)據(jù)錯誤在訓(xùn)練數(shù)據(jù)驅(qū)動的人工智能模型時,我們
    的頭像 發(fā)表于 01-07 15:37 ?212次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6139次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>部署到量產(chǎn)ECU

    模型賦能物資需求精準(zhǔn)預(yù)測與采購系統(tǒng):功能特點(diǎn)與平臺架構(gòu)解析

    ? ? 大模型賦能物資需求預(yù)測與采購智能化:核心功能與價值解析 ? ?大模型賦能物資需求精準(zhǔn)預(yù)測與采購系統(tǒng)通過深度整合多源數(shù)據(jù)、構(gòu)建動態(tài)預(yù)測
    的頭像 發(fā)表于 12-16 11:54 ?317次閱讀

    labview如何實(shí)現(xiàn)數(shù)據(jù)的采集與實(shí)時預(yù)測

    現(xiàn)有以下問題:labview可以實(shí)現(xiàn)數(shù)據(jù)的采集以及調(diào)用python代碼,但如何將這兩項(xiàng)功能集成在一個VI文件里,從而實(shí)現(xiàn)數(shù)據(jù)的采集與實(shí)時預(yù)測?,F(xiàn)有條件如下:已完成數(shù)據(jù)的采集系統(tǒng),python中的
    發(fā)表于 12-03 21:13

    基于全局預(yù)測歷史的gshare分支預(yù)測器的實(shí)現(xiàn)細(xì)節(jié)

    的調(diào)研,我們將BHR的位數(shù)定為10位,具有10位BHR的GShare分支預(yù)測器既能保證較高的預(yù)測正確率,又能照顧到實(shí)現(xiàn)面積。 方式歷史寄存器PHT PHT模塊由兩個簡單雙端口RAM構(gòu)成,如下圖所示
    發(fā)表于 10-22 06:50

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2911次閱讀

    通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時代已經(jīng)到來,這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?1109次閱讀
    通過NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    【嘉楠堪智K230開發(fā)板試用體驗(yàn)】K230機(jī)器視覺相關(guān)功能體驗(yàn)

    畫圖 機(jī)器學(xué)習(xí)模型在通過攝像頭獲取圖像后,經(jīng)過處理輸入后,在輸出環(huán)節(jié)通常還需要進(jìn)行后處理,例如圖像檢測應(yīng)用中,目標(biāo)位置的框選等。 在K230中提供了畫圖的功能,可以
    發(fā)表于 07-08 17:25

    模型在半導(dǎo)體行業(yè)的應(yīng)用可行性分析

    的應(yīng)用,比如使用機(jī)器學(xué)習(xí)分析數(shù)據(jù),提升良率。 這一些大模型是否真的有幫助 能夠在解決工程師的知識斷層問題 本人純小白,不知道如何涉足這方面 應(yīng)該問什么大模型比較好,或者是看什么視頻能夠
    發(fā)表于 06-24 15:10

    邊緣計算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時數(shù)據(jù)來
    的頭像 發(fā)表于 06-11 17:22 ?1010次閱讀
    邊緣計算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    視覺巡線,展示了如何從數(shù)據(jù)采集、模型訓(xùn)練到機(jī)器人部署的完整流程。 值得注意的是,深度學(xué)習(xí)模型的實(shí)時性對機(jī)器人計算資源提出了較高要求,優(yōu)化
    發(fā)表于 05-03 19:41

    Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時機(jī)器學(xué)習(xí)(ML)音頻噪音抑制功能

    程序的開發(fā)方式。應(yīng)用程序開發(fā)人員現(xiàn)在可以為所需系統(tǒng)整理包含大量輸入和輸出示例的數(shù)據(jù)集,然后使用這些數(shù)據(jù)集來訓(xùn)練ML模型。在訓(xùn)練過程中,ML模型從輸入和輸出
    的頭像 發(fā)表于 03-25 09:46 ?1231次閱讀
    Raspberry Pi Pico 2 上<b class='flag-5'>實(shí)現(xiàn)</b>:實(shí)時<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>(ML)音頻噪音抑制功能