chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

MATLAB ? 來源:djl ? 2019-09-12 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這篇文章展示了一個具體的文檔示例,演示如何使用深度學(xué)習(xí)和 Computer Vision System Toolbox 訓(xùn)練語義分割網(wǎng)絡(luò)。

語義分割網(wǎng)絡(luò)對圖像中的每個像素進行分類,從而生成按類分割的圖像。語義分割的應(yīng)用包括用于自動駕駛的道路分割和醫(yī)學(xué)診斷中的癌細(xì)胞分割。

如需了解更多文檔示例和詳細(xì)信息,建議查閱技術(shù)文檔:https://cn.mathworks.com/help

為了說明訓(xùn)練過程,本示例將訓(xùn)練 SegNet,一種用于圖像語義分割的卷積神經(jīng)網(wǎng)絡(luò) (CNN)。用于語義分割的其他類型網(wǎng)絡(luò)包括全卷積網(wǎng)絡(luò) (FCN) 和 U-Net。以下所示訓(xùn)練過程也可應(yīng)用于這些網(wǎng)絡(luò)。

本示例使用來自劍橋大學(xué)的CamVid 數(shù)據(jù)集展開訓(xùn)練。此數(shù)據(jù)集是包含駕駛時所獲得的街道級視圖的圖像集合。該數(shù)據(jù)集為 32 種語義類提供了像素級標(biāo)簽,包括車輛、行人和道路。

建立

本示例創(chuàng)建了 SegNet 網(wǎng)絡(luò),其權(quán)重從 VGG-16 網(wǎng)絡(luò)初始化。要獲取 VGG-16,請安裝Neural Network Toolbox Model for VGG-16 Network:

安裝完成后,運行以下代碼以驗證是否安裝正確。

vgg16();

此外,請下載預(yù)訓(xùn)練版 SegNet。預(yù)訓(xùn)練模型可支持您運行整個示例,而無需等待訓(xùn)練完成。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

強烈建議采用計算能力為 3.0 或更高級別,支持 CUDA 的 NVIDIA GPU 來運行本示例。使用 GPU 需要 Parallel Computing Toolbox。

下載 CamVid 數(shù)據(jù)集

從以下 URL 中下載 CamVid 數(shù)據(jù)集。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

注意:數(shù)據(jù)下載時間取決于您的 Internet 連接情況。在下載完成之前,上面使用的命令會阻止訪問 MATLAB?;蛘撸梢允褂?Web 瀏覽器先將數(shù)據(jù)集下載到本地磁盤。要使用從 Web 中下載的文件,請將上述 outputFolder 變量更改為下載文件的位置。

加載 CamVid 圖像

用于加載 CamVid 圖像。借助 imageDatastore,可以高效地加載磁盤上的大量圖像數(shù)據(jù)。

imgDir = fullfile(outputFolder,'images','701_StillsRaw_full');imds = imageDatastore(imgDir);

顯示其中一個圖像。

I = readimage(imds,1);I = histeq(I);imshow(I)

加載 CamVid 像素標(biāo)簽圖像

使用imageDatastore加載 CamVid 像素標(biāo)簽圖像。pixelLabelDatastore 將像素標(biāo)簽數(shù)據(jù)和標(biāo)簽 ID 封裝到類名映射中。

按照 SegNet 原創(chuàng)論文(Badrinarayanan、Vijay、Alex Kendall 和 Roberto Cipolla:《SegNet:用于圖像分割的一種深度卷積編碼器-解碼器架構(gòu)》(SegNet: A Deep Convolutional Encoder-Decoder Architecture for ImageSegmentation)。arXiv 預(yù)印本:1511.00561,201)中采用的步驟進行操作,將 CamVid 中的 32 個原始類分組為 11 個類。指定這些類。

classes = [ "Sky" "Building" "Pole" "Road" "Pavement" "Tree" "SignSymbol" "Fence" "Car" "Pedestrian" "Bicyclist" ];

要將 32 個類減少為 11 個,請將原始數(shù)據(jù)集中的多個類組合在一起。例如,“Car” 是 “Car” 、 “SUVPickupTruck” 、 “Truck_Bus” 、 “Train” 和 “OtherMoving” 的組合。使用支持函數(shù) camvidPixelLabelIDs 返回已分組的標(biāo)簽 ID,該函數(shù)會在本示例的末尾列出。

labelIDs = camvidPixelLabelIDs();

使用這些類和標(biāo)簽 ID 創(chuàng)建 pixelLabelDatastore。

labelDir = fullfile(outputFolder,'labels');pxds = pixelLabelDatastore(labelDir,classes,labelIDs);

讀取并在一幅圖像上疊加顯示像素標(biāo)簽圖像。

C = readimage(pxds,1);cmap = camvidColorMap;B = labeloverlay(I,C,'ColorMap',cmap);imshow(B)pixelLabelColorbar(cmap,classes);

沒有顏色疊加的區(qū)域沒有像素標(biāo)簽,在訓(xùn)練期間不會使用這些區(qū)域。

分析數(shù)據(jù)集統(tǒng)計信息

要查看 CamVid 數(shù)據(jù)集中類標(biāo)簽的分布情況,請使用countEachLabel。此函數(shù)會按類標(biāo)簽計算像素數(shù)。

tbl = countEachLabel(pxds)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

按類可視化像素計數(shù)。

frequency = tbl.PixelCount/sum(tbl.PixelCount);bar(1:numel(classes),frequency)xticks(1:numel(classes)) xticklabels(tbl.Name)xtickangle(45)ylabel('Frequency')

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

理想情況下,所有類都有相同數(shù)量的觀察結(jié)果。但是,CamVid 中的這些類比例失衡,這是街道場景汽車數(shù)據(jù)集中的常見問題。由于天空、建筑物和道路覆蓋了圖像中的更多區(qū)域,因此相比行人和騎自行車者像素,這些場景擁有更多的天空、建筑物和道路像素。如果處理不當(dāng),這種失衡可能影響學(xué)習(xí)過程,因為學(xué)習(xí)過程偏向主導(dǎo)類。在本示例中,您稍后將使用類權(quán)重來處理此問題。

調(diào)整 CamVid 數(shù)據(jù)的大小

CamVid 數(shù)據(jù)集中的圖像大小為 720 x 960。要減少訓(xùn)練時間和內(nèi)存使用量,請將圖像和像素標(biāo)記圖像的大小調(diào)整為 360 x 480。resizeCamVidImages 和 resizeCamVidPixelLabels 是本示例末尾所列出的支持函數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

準(zhǔn)備訓(xùn)練集和測試集

使用數(shù)據(jù)集中 60% 的圖像訓(xùn)練 SegNet。其余圖像用于測試。以下代碼會將圖像和像素標(biāo)記數(shù)據(jù)隨機分成訓(xùn)練集和測試集。

[imdsTrain,imdsTest,pxdsTrain,pxdsTest] = partitionCamVidData(imds,pxds);

60/40 拆分會生產(chǎn)以下數(shù)量的訓(xùn)練圖像和測試圖像:

numTrainingImages = numel(imdsTrain.Files)

numTrainingImages = 421

numTestingImages = numel(imdsTest.Files)

numTestingImages = 280

創(chuàng)建網(wǎng)絡(luò)

使用segnetLayers創(chuàng)建利用 VGG-16 權(quán)重初始化的 SegNet 網(wǎng)絡(luò)。segnetLayers 會自動執(zhí)行傳輸 VGG-16 中的權(quán)重所需的網(wǎng)絡(luò)操作,并添加語義分割所需其他網(wǎng)絡(luò)層。

imageSize = [360 480 3];numClasses = numel(classes);lgraph = segnetLayers(imageSize,numClasses,'vgg16');

根據(jù)數(shù)據(jù)集中圖像的大小選擇圖像大小。根據(jù) CamVid 中的類選擇類的數(shù)量。

使用類權(quán)重平衡類

如前所示,CamVid 中的這些類比例失衡。要改進訓(xùn)練情況,可以使用類權(quán)重來平衡這些類。使用之前通過countEachLayer計算的像素標(biāo)簽計數(shù),并計算中值頻率類權(quán)重。

imageFreq = tbl.PixelCount ./ tbl.ImagePixelCount;classWeights = median(imageFreq) ./ imageFreq

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

使用pixelClassificationLayer指定類權(quán)重。

pxLayer = pixelClassificationLayer('Name','labels','ClassNames',tbl.Name,'ClassWeights',classWeights)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

通過刪除當(dāng)前 pixelClassificationLayer 并添加新層,使用新的 pixelClassificationLayer 更新 SegNet 網(wǎng)絡(luò)。當(dāng)前 pixelClassificationLayer 名為“pixelLabels”。使用removeLayers刪除該層,使用addLayers添加新層,然后使用connectLayers將新層連接到網(wǎng)絡(luò)的其余部分。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

選擇訓(xùn)練選項

用于訓(xùn)練的優(yōu)化算法是引入動量的隨機梯度下降 (SGDM) 算法。使用trainingOptions指定用于 SGDM 的超參數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

大小為 4 的 minimatch 用于減少訓(xùn)練時的內(nèi)存使用量。您可以根據(jù)系統(tǒng)中的 GPU 內(nèi)存量增加或減少此值。

數(shù)據(jù)擴充

在訓(xùn)練期間使用數(shù)據(jù)擴充向網(wǎng)絡(luò)提供更多示例,以便提高網(wǎng)絡(luò)的準(zhǔn)確性。此處,隨機左/右反射以及 +/- 10 像素的隨機 X/Y 平移用于數(shù)據(jù)擴充。用于指定這些數(shù)據(jù)擴充參數(shù)。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

imageDataAugmenter 支持其他幾種類型的數(shù)據(jù)擴充。選擇它們需要經(jīng)驗分析,并且這是另一個層次的超參數(shù)調(diào)整。

開始訓(xùn)練

使用pixelLabelImageDatastore組合訓(xùn)練數(shù)據(jù)和數(shù)據(jù)擴充選擇。pixelLabelImageDatastore 會讀取批量訓(xùn)練數(shù)據(jù),應(yīng)用數(shù)據(jù)擴充,并將已擴充的數(shù)據(jù)發(fā)送至訓(xùn)練算法。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

如果 doTraining 標(biāo)志為 true,則會開始訓(xùn)練。否則,會加載預(yù)訓(xùn)練網(wǎng)絡(luò)。注意:NVIDIA Titan X 上的訓(xùn)練大約需要 5 個小時,根據(jù)您的 GPU 硬件具體情況,可能會需要更長的時間。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

在圖像上測試網(wǎng)絡(luò)

作為快速完整性檢查,將在測試圖像上運行已訓(xùn)練的網(wǎng)絡(luò)。

I = read(imdsTest);C = semanticseg(I, net);

顯示結(jié)果。

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

將 C 中的結(jié)果與 pxdsTest 中的預(yù)期真值進行比較。綠色和洋紅色區(qū)域突出顯示了分割結(jié)果與預(yù)期真值不同的區(qū)域。

expectedResult = read(pxdsTest);actual = uint8(C);expected = uint8(expectedResult);imshowpair(actual, expected)

從視覺上看,道路、天空、建筑物等類的語義分割結(jié)果重疊情況良好。然而,行人和車輛等較小的對象則不那么準(zhǔn)確。可以使用交叉聯(lián)合 (IoU) 指標(biāo)(又稱 Jaccard 系數(shù))來測量每個類的重疊量。使用jaccard函數(shù)測量 IoU。

iou = jaccard(C, expectedResult);table(classes,iou)

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

IoU 指標(biāo)可確認(rèn)視覺效果。道路、天空和建筑物類具有較高的 IoU 分?jǐn)?shù),而行人和車輛等類的分?jǐn)?shù)較低。其他常見的分割指標(biāo)包括Dice 系數(shù)和Boundary-F1輪廓匹配分?jǐn)?shù)。

評估已訓(xùn)練的網(wǎng)絡(luò)

要測量多個測試圖像的準(zhǔn)確性,請在整個測試集中運行semanticseg。

pxdsResults = semanticseg(imdsTest,net,'MiniBatchSize',4,'WriteLocation',tempdir,'Verbose',false);

semanticseg 會將測試集的結(jié)果作為 pixelLabelDatastore 對象返回。imdsTest 中每個測試圖像的實際像素標(biāo)簽數(shù)據(jù)會在“WriteLocation”參數(shù)指定的位置寫入磁盤。使用evaluateSemanticSegmentation測量測試集結(jié)果的語義分割指標(biāo)。

metrics = evaluateSemanticSegmentation(pxdsResults,pxdsTest,'Verbose',false);

evaluateSemanticSegmentation返回整個數(shù)據(jù)集、各個類以及每個測試圖像的各種指標(biāo)。要查看數(shù)據(jù)集級別指標(biāo),請檢查 metrics.DataSetMetrics。

metrics.DataSetMetrics

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

數(shù)據(jù)集指標(biāo)可提供網(wǎng)絡(luò)性能的高級概述。要查看每個類對整體性能的影響,請使用 metrics.ClassMetrics 檢查每個類的指標(biāo)。

metrics.ClassMetrics

關(guān)于如何使用MATLAB 深度學(xué)習(xí)進行語義分割的方法詳解

盡管數(shù)據(jù)集整體性能非常高,但類指標(biāo)顯示,諸如 Pedestrian、Bicyclist 和 Car 等代表性不足的類分割效果不如Road、Sky 和 Building 等類。附加數(shù)據(jù)多一些代表性不足類樣本可能會提升分割效果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7814

    瀏覽量

    90926
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122793
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?680次閱讀
    使用<b class='flag-5'>MATLAB</b><b class='flag-5'>進行</b>無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

    (IML)都遵循“語義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語義特征提取”相結(jié)合的設(shè)計,這種方法嚴(yán)重限制了模型在未知場景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?458次閱讀
    SparseViT:以非<b class='flag-5'>語義</b>為中心、參數(shù)高效的稀疏化視覺Transformer

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    ,還有基于深度神經(jīng)網(wǎng)絡(luò)的Fast R-CNN和Faster R-CNN。 語義分割是將圖像劃分為具有不同語義類別的區(qū)域。 立體視覺通過模擬人類雙眼的視覺系統(tǒng),利用兩天相機從略微不同的角
    發(fā)表于 01-04 19:22

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比
    的頭像 發(fā)表于 12-30 09:16 ?1184次閱讀
    傳統(tǒng)機器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1905次閱讀

    常見人體姿態(tài)評估顯示方式的兩種方式

    人體姿態(tài)評估中有兩種常見的顯示方式,分別是火柴人效果與BodyPix效果。其中火柴人效果本質(zhì)就是基于關(guān)鍵點的深度學(xué)習(xí)模型推理以后的顯示效果;Bodypix本質(zhì)就就是語義分割模型
    的頭像 發(fā)表于 11-11 11:21 ?657次閱讀
    常見人體姿態(tài)評估顯示方式的兩種方式

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?652次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1353次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    :DE5Net_Conv_Accelerator 應(yīng)用場景 :面向深度學(xué)習(xí)的開源項目,實現(xiàn)了AlexNet的第一層卷積運算加速。 技術(shù)特點 : 采用了Verilog語言進行編程,與PCIe接口相集成,可以直接插入到
    的頭像 發(fā)表于 10-25 09:22 ?1223次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2879次閱讀

    語義分割25種損失函數(shù)綜述和展望

    語義圖像分割,即將圖像中的每個像素分類到特定的類別中,是許多視覺理解系統(tǒng)中的重要組成部分。作為評估統(tǒng)計模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對于塑造基于深度學(xué)習(xí)
    的頭像 發(fā)表于 10-22 08:04 ?1614次閱讀
    <b class='flag-5'>語義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學(xué)習(xí)中應(yīng)用前景的觀點,僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計算架構(gòu):FPGA 可以根據(jù)深度
    發(fā)表于 09-27 20:53

    圖像語義分割的實用性是什么

    什么是圖像語義分割 圖像語義分割是一種將圖像中的所有像素點按照其語義類別進行分類的任務(wù)。與傳統(tǒng)
    的頭像 發(fā)表于 07-17 09:56 ?914次閱讀

    圖像分割語義分割的區(qū)別與聯(lián)系

    圖像分割語義分割是計算機視覺領(lǐng)域中兩個重要的概念,它們在圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡介 圖像分割是將圖像劃分為多個區(qū)
    的頭像 發(fā)表于 07-17 09:55 ?1950次閱讀