chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用LIME解釋CNN

穎脈Imgtec ? 2022-11-30 15:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Mehul Gupta

來源:DeepHub IMBA

我們已經(jīng)介紹過很多解析機(jī)器學(xué)習(xí)模型的方法,例如如pdp、LIME和SHAP,但是這些方法都是用在表格數(shù)據(jù)的,他們能不能用在神經(jīng)網(wǎng)絡(luò)模型呢?今天我們來LIME解釋CNN。

圖像與表格數(shù)據(jù)集有很大不同(顯然)。如果你還記得,在之前我們討論過的任何解釋方法中,我們都是根據(jù)特征重要性,度量或可視化來解釋模型的。比如特征“A”在預(yù)測中比特征“B”有更大的影響力。但在圖像中沒有任何可以命名的特定特征,那么怎么進(jìn)行解釋呢?

一般情況下我們都是用突出顯示圖像中模型預(yù)測的重要區(qū)域的方法觀察可解釋性,這就要求了解如何調(diào)整LIME方法來合并圖像,我們先簡單了解一下LIME是怎么工作的。

5e9bfc46-7045-11ed-b116-dac502259ad0.png

LIME在處理表格數(shù)據(jù)時(shí)為訓(xùn)練數(shù)據(jù)集生成摘要統(tǒng)計(jì):

使用匯總統(tǒng)計(jì)生成一個(gè)新的人造數(shù)據(jù)集

從原始數(shù)據(jù)集中隨機(jī)提取樣本

根據(jù)與隨機(jī)樣本的接近程度為生成人造數(shù)據(jù)集中的樣本分配權(quán)重

用這些加權(quán)樣本訓(xùn)練一個(gè)白盒模型

解釋白盒模型

就圖像而言,上述方法的主要障礙是如何生成隨機(jī)樣本,因?yàn)樵谶@種情況下匯總統(tǒng)計(jì)將沒有任何用處。


如何生成人造數(shù)據(jù)集?最簡單的方法是,從數(shù)據(jù)集中提取一個(gè)隨機(jī)樣本,隨機(jī)打開(1)和關(guān)閉(0)一些像素來生成新的數(shù)據(jù)集但是通常在圖像中,出現(xiàn)的對(duì)象(如狗vs貓的分類中的:狗&貓)導(dǎo)致模型的預(yù)測會(huì)跨越多個(gè)像素,而不是一個(gè)像素。所以即使你關(guān)掉一兩個(gè)像素,它們看起來仍然和我們選擇樣本非常相似。所以這里需要做的是設(shè)置一個(gè)相鄰像素池的ON和OFF,這樣才能保證創(chuàng)造的人工數(shù)據(jù)集的隨機(jī)性。所以將圖像分割成多個(gè)稱為超像素的片段,然后打開和關(guān)閉這些超像素來生成隨機(jī)樣本。讓我們使用LIME進(jìn)行二進(jìn)制分類來解釋CNN的代碼。例如我們有以下的兩類數(shù)據(jù)。類別0: 帶有任意大小的白色矩形的隨機(jī)圖像5ecef33a-7045-11ed-b116-dac502259ad0.png5efbf4d4-7045-11ed-b116-dac502259ad0.png類別1:隨機(jī)生成的圖像(沒有白色矩形)5f258790-7045-11ed-b116-dac502259ad0.png

5f2fdf7e-7045-11ed-b116-dac502259ad0.png

然后創(chuàng)建一個(gè)簡單的CNN模型


LIME示例

%matplotlib inline
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from keras.layers import Input, Dense, Embedding, Flatten
from keras.layers import SpatialDropout1D
from keras.layers.convolutional import Conv2D, MaxPooling2D
from keras.models import Sequential
from randimage import get_random_image, show_array
import random
import pandas as pd
import numpy as np
import lime
from lime import lime_image
from skimage.segmentation import mark_boundaries

#preparing above dataset artificially
training_dataset = []
training_label = []
for x in range(200):

img_size = (64,64)
img = get_random_image(img_size)

a,b = random.randrange(0,img_size[0]/2),random.randrange(0,img_size[0]/2)
c,d = random.randrange(img_size[0]/2,img_size[0]),random.randrange(img_size[0]/2,img_size[0])

value = random.sample([True,False],1)[0]
if value==False:
img[a:c,b:d,0] = 100
img[a:c,b:d,1] = 100
img[a:c,b:d,2] = 100

training_dataset.append(img)
training_label.append(value)

#training baseline CNN model
training_label = [1-x for x in training_label]
X_train, X_val, Y_train, Y_val = train_test_split(np.array(training_dataset).reshape(-1,64,64,3),np.array(training_label).reshape(-1,1), test_size=0.1, random_state=42)

epochs = 10
batch_size = 32
model = Sequential()
model.add(Conv2D(32, kernel_size=3, padding='same', activation='relu'))
model.add(MaxPooling2D(pool_size=2))
model.add(Flatten())
# Output layer
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(X_train, Y_train, validation_data=(X_val, Y_val), epochs=epochs, batch_size=batch_size, verbose=1)

讓我們引入LIME

x=10
explainer = lime_image.LimeImageExplainer(random_state=42)
explanation = explainer.explain_instance(
X_val[x],
model.predict,top_labels=2)
)

image, mask = explanation.get_image_and_mask(0, positives_only=True,
hide_rest=True)

上面的代碼片段需要一些解釋我們初始化了LimeImageExplainer對(duì)象,該對(duì)象使用explain_instance解釋特定示例的輸出。這里我們從驗(yàn)證集中選取了第10個(gè)樣本,Get_image_and_mask()返回模型與原始圖像一起預(yù)測的高亮區(qū)域。讓我們看看一些樣本,它們實(shí)際上是1(隨機(jī)圖像),但檢測到為0(帶白框的隨機(jī)圖像)5f578f74-7045-11ed-b116-dac502259ad0.png5f63c582-7045-11ed-b116-dac502259ad0.png可以看到下圖有黃色的突出顯示區(qū)域,這張圖片的標(biāo)簽為1,但被標(biāo)記為0,這是因?yàn)楦吡溜@示的區(qū)域看起來像一個(gè)矩形,因此讓模型感到困惑,也就是說模型錯(cuò)吧黃色標(biāo)記的部分當(dāng)成了我們需要判斷的白色矩形遮蔽。5f8d5320-7045-11ed-b116-dac502259ad0.png5f99bc14-7045-11ed-b116-dac502259ad0.png再看看上面兩個(gè)圖,與前面的例子類似,模型也預(yù)測了class=0。通過黃色區(qū)域可以判斷,某種形狀可能被模型曲解為白色方框了。

這樣我們就可以理解模型導(dǎo)致錯(cuò)誤分類的實(shí)際問題是什么,這就是為什么可解釋和可解釋的人工智能如此重要。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8541

    瀏覽量

    136236
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23249
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ESD測試的詳細(xì)解釋

    解釋: 01 定義與目的 ● 定義:ESD測試是模擬操作人員或物體在接觸設(shè)備時(shí)產(chǎn)生的放電,以及人或物體對(duì)鄰近物體之放電,以檢測被測設(shè)備抵抗靜電放電之干擾能力。 ● 目的:通過ESD測試,可以有效地
    發(fā)表于 11-26 07:37

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?1846次閱讀
    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征。“不全
    發(fā)表于 10-29 07:49

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級(jí)別的紋理
    發(fā)表于 10-28 08:02

    淘寶圖片搜索接口開發(fā)實(shí)戰(zhàn):從 CNN 特征提取到商品匹配(附避坑手冊 + 可復(fù)用代碼)

    本文詳解淘寶圖片搜索接口開發(fā)全流程,涵蓋CNN特征提取、商品匹配、參數(shù)配置及400/429等高頻報(bào)錯(cuò)解決方案,附合規(guī)避坑指南與可復(fù)用代碼,助你高效實(shí)現(xiàn)圖像搜商品功能。
    的頭像 發(fā)表于 10-21 10:03 ?272次閱讀

    關(guān)于保偏光纖的詳細(xì)解釋

    保偏光纖(Polarization-Maintaining Fiber,簡稱PMF)是一種特殊設(shè)計(jì)的光纖,其核心功能是在傳輸過程中保持光的偏振態(tài)不變。以下是關(guān)于保偏光纖的詳細(xì)解釋: 1. 偏振態(tài)
    的頭像 發(fā)表于 09-25 10:13 ?632次閱讀
    關(guān)于保偏光纖的詳細(xì)<b class='flag-5'>解釋</b>

    【高云GW5AT-LV60 開發(fā)套件試用體驗(yàn)】基于開發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別,第四階段

    接第三階段,上次說道要將cnn這個(gè)模塊接入到高云自帶的視頻實(shí)例里面,于是就開始學(xué)習(xí)和了解這個(gè)實(shí)例里面的每個(gè)模塊的功能,后來發(fā)現(xiàn),除了要看一下高云自己的ip文檔外,還要看很多視頻處理相關(guān)的協(xié)議文檔
    發(fā)表于 07-12 07:58

    【高云GW5AT-LV60 開發(fā)套件試用體驗(yàn)】基于開發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別,第三階段

    接上回,這次說一說第三階段的進(jìn)展,一直在想如何將cnn融合進(jìn)高云以后的視頻案例里面,比如:下圖 上面圖中文件之間的關(guān)系應(yīng)該是這樣的: 一、 完整的視頻數(shù)據(jù)處理流程 根據(jù)這些文件名,我們可以清晰地勾勒
    發(fā)表于 07-06 15:18

    【高云GW5AT-LV60 開發(fā)套件試用體驗(yàn)】基于開發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別

    。 `clahe.py 但是上面的代碼和相關(guān)的邏輯暫時(shí)就停在這里了。 后來又過了幾天,嘗試一些有關(guān)cnn的實(shí)現(xiàn)。 記得在綜合的時(shí)候要將這個(gè)文件里面的模塊名替換一下: 上面雖然綜合通過,但是還有一些警告。后面有時(shí)間的話
    發(fā)表于 06-11 22:35

    算力領(lǐng)域常用名詞解釋

    本文系統(tǒng)地整理和解釋了算力領(lǐng)域中常用的數(shù)十個(gè)關(guān)鍵名詞,并按照以下維度進(jìn)行了分類:基礎(chǔ)概念、系統(tǒng)架構(gòu)、硬件架構(gòu)、基礎(chǔ)運(yùn)算類型、計(jì)算模式、相關(guān)軟件架構(gòu)與部署模式、浮點(diǎn)精度格式、算力類型、算力關(guān)聯(lián)與服務(wù)
    的頭像 發(fā)表于 04-07 11:21 ?1220次閱讀
    算力領(lǐng)域常用名詞<b class='flag-5'>解釋</b>

    一個(gè)過零檢測電路,但有部分電路沒看明白,有大神可以詳細(xì)解釋一下嗎

    一個(gè)過零檢測電路,但是沒明白粉色框部分有什么作用,有大神可以詳細(xì)解釋一下嗎
    發(fā)表于 03-20 00:40

    無法轉(zhuǎn)換TF OD API掩碼RPGA模型怎么辦?

    \'/Tensorflow-Object-Detection-API-train-custom-Mask-R-CNN-model-master/inference_graph/saved_model\' >
    發(fā)表于 03-06 06:44

    大模型領(lǐng)域常用名詞解釋(近100個(gè))

    本文總結(jié)了大模型領(lǐng)域常用的近100個(gè)名詞解釋,并按照模型架構(gòu)與基礎(chǔ)概念,訓(xùn)練方法與技術(shù),模型優(yōu)化與壓縮,推理與應(yīng)用,計(jì)算與性能優(yōu)化,數(shù)據(jù)與標(biāo)簽,模型評(píng)估與調(diào)試,特征與數(shù)據(jù)處理,倫理與公平性、其他
    的頭像 發(fā)表于 02-19 11:49 ?1293次閱讀
    大模型領(lǐng)域常用名詞<b class='flag-5'>解釋</b>(近100個(gè))

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,在眾多領(lǐng)域帶來了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來的是一個(gè)關(guān)鍵問題——“黑箱”問題。許多人工智能模型,特別是復(fù)雜的模型,如神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-10 12:12 ?1155次閱讀
    小白學(xué)<b class='flag-5'>解釋</b>性AI:從機(jī)器學(xué)習(xí)到大模型

    解釋什么是雙絞線

    雙絞線是一種常用的通信傳輸介質(zhì),由兩根相互絕緣的金屬導(dǎo)線(通常是銅導(dǎo)線)按一定密度互相絞合在一起組成。以下是關(guān)于雙絞線的詳細(xì)解釋: 一、結(jié)構(gòu)特點(diǎn) 導(dǎo)線材料:雙絞線通常由兩根22~26號(hào)絕緣銅導(dǎo)線組成
    的頭像 發(fā)表于 01-17 10:53 ?2195次閱讀