chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在一個很小的Pascal VOC數(shù)據(jù)集上訓練一個實例分割模型

新機器視覺 ? 來源:新機器視覺 ? 作者:Kayo Yin ? 2020-12-26 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只使用1349張圖像訓練Mask-RCNN,有代碼。

代碼:https://github.com/kayoyin/tiny-inst-segmentation

介紹

計算機視覺的進步帶來了許多有前途的應(yīng)用,如自動駕駛汽車或醫(yī)療診斷。在這些任務(wù)中,我們依靠機器的能力來識別物體。

我們經(jīng)??吹降呐c目標識別相關(guān)的任務(wù)有4個:分類和定位、目標檢測、語義分割和實例分割。

在分類和定位中,我們感興趣的是為圖像中目標的分配類標簽,并在目標周圍繪制一個包圍框。在這個任務(wù)中,要檢測的目標數(shù)量是固定的。

物體檢測不同于分類和定位,因為這里我們沒有預先假設(shè)圖像中物體的數(shù)量。我們從一組固定的目標類別開始,我們的目標是分配類標簽,并在每次這些類別中的一個目標出現(xiàn)在圖像中時繪制邊界框。

在語義分割中,我們?yōu)槊總€圖像像素分配一個類標簽:所有屬于草的像素被標記為“grass”,屬于羊的像素被標記為“sheep”。值得注意的是,例如,這個任務(wù)不會對兩只羊產(chǎn)生區(qū)別。

我們的任務(wù)是實例分割,它建立在目標檢測和語義分割之上。在目標檢測中,我們的目標是在預定義的類別中標記和定位目標的所有實例。但是,我們沒有為檢測到的目標生成邊界框,而是進一步識別哪些像素屬于該目標,就像語義分割一樣。與語義分割不同的是,實例分割為每個目標實例繪制一個單獨的掩碼,而語義分割將為同一類的所有實例使用相同的掩碼。

在本文中,我們將在一個很小的Pascal VOC數(shù)據(jù)集上訓練一個實例分割模型,其中只有1349張圖像用于訓練,100張圖像用于測試。這里的主要挑戰(zhàn)是在不使用外部數(shù)據(jù)的情況下防止模型過擬合。

數(shù)據(jù)處理

標注采用COCO格式,因此我們可以使用pycocotools中的函數(shù)來檢索類標簽和掩碼。在這個數(shù)據(jù)集中,共有20個類別。

cb474dc4-4698-11eb-8b86-12bb97331649.png

下面是一些訓練圖像和相關(guān)mask的可視化顯示。mask的不同陰影表示同一目標類別的多個實例的不同掩碼。

圖像的大小和長寬比各不相同,因此在將圖像輸入模型之前,我們調(diào)整每個圖像的尺寸500x500。當圖像尺寸小于500時,我們對圖像進行優(yōu)化,使最大邊的長度為500,并添加必要的零以獲得正方形圖像。

為了使模型能夠很好地泛化,特別是在這樣一個有限的數(shù)據(jù)集上,數(shù)據(jù)增強是克服過擬合的關(guān)鍵。對于每一個圖像,以0.5的概率水平翻轉(zhuǎn),以0.9到1倍的尺度進行隨機剪裁,以0.5的概率進行高斯模糊,標準差為隨機,對比度隨機調(diào)整尺度為0.75和1.5之間,亮度隨機調(diào)整尺度在0.8和1.2之間,以及一系列隨機仿射變換如縮放、平移、旋轉(zhuǎn),剪切。

Mask-RCNN

我們使用matterport實現(xiàn)的Mask-RCNN進行訓練。雖然結(jié)果可能會很好看,但我們不會用MS COCO的預訓練權(quán)重來展示我們?nèi)绾沃挥?349張訓練圖像就能得到好的結(jié)果。

Mask-RCNN是在2017年Mask-RCNN論文中提出的,是同一作者對Faster-RCNN的擴展。Faster-RCNN被廣泛應(yīng)用于目標檢測,模型在被檢測物體周圍生成包圍盒。Mask-RCNN進一步生成了目標的mask 。

我將在下面簡要介紹模型體系結(jié)構(gòu)。

首先,我們使用一個主干模型從輸入圖像中提取相關(guān)的特征。在這里,我們使用ResNet101架構(gòu)作為骨干。圖像由張量(500,500,3)轉(zhuǎn)換為特征圖(32,32,2048)。

然后將之前獲得的特征輸入到一個區(qū)域建議網(wǎng)絡(luò)(RPN)中。RPN掃描feature map的區(qū)域,稱為anchors,并嘗試確定包含目標的區(qū)域。這些anchor的尺寸和縱橫比各不相同。RPN為每個anchor分配一個類別:前景(正樣本anchor)或背景(負樣本anchor)。中性anchor是指不影響訓練的anchor。

正樣本anchors(左),中性anchors(中),負樣本anchors(右)

建議層然后挑選最有可能包含目標的anchor,并優(yōu)化anchor框以更接近目標。當太多anchor點重疊時,只保留前景分數(shù)最高的那個(非最大抑制)。這樣,我們就得到了感興趣的區(qū)域(ROI)。

對于每個由ROI分類器選中的目標區(qū)域,模型生成28x28的mask。在訓練過程中,將 ground truth mask縮小,用預測的mask計算損失,在推理過程中,將生成的mask放大到ROI的邊界框大小。

遷移學習

特別是在數(shù)據(jù)有限的情況下,更快更好地訓練模型的關(guān)鍵是遷移學習。Imagenet數(shù)據(jù)集是一個巨大的自然圖像語料庫,類似于我們的圖像。因此,我們可以將Resnet101骨干模型的權(quán)值初始化為在Imagenet上預先訓練的權(quán)值。這將提高我們得到的特征圖的準確性,從而提高整個模型。

為了微調(diào)在Imagenet上預訓練的模型,我們首先只訓練model heads。然后我們在剩下的epochs中訓練從ResNet level 4和以上的層。這個訓練方案也有助于最小化過擬合。我們可以不去微調(diào)第一層,因為我們可以重用模型從自然圖像中提取特征的權(quán)重。

結(jié)果 & 檢測pipeline可視化

我們的測試集上獲得的mAP為0. 53650。下面是隨機選擇測試圖像的模型輸出的一些可視化結(jié)果:

我們還可以看到算法不同步驟的輸出。下面,我們有在邊界框細化之前的top anchors的得分。

接下來,我們有了細化的邊界框和非最大抑制后的輸出。這些建議然后被輸入分類網(wǎng)絡(luò)。注意,在這里,我們有一些框框住了一些目標,比如標志,這些目標不屬于我們定義的目標類別。

在建議區(qū)域上運行分類網(wǎng)絡(luò),得到正樣本的檢測,生成類概率和邊界框回歸。

在得到邊界框并對其進行細化后,實例分割模型為每個檢測到的目標生成mask。mask是soft masks(具有浮點像素值),在訓練時大小為28x28。

最后,預測的mask被調(diào)整為邊界框的尺寸,我們可以將它們覆蓋在原始圖像上以可視化最終的輸出。

英文原文:https://towardsdatascience.com/overcome-overfitting-during-instance-segmentation-with-mask-rcnn-32db91f400bc

責任編輯:xj

原文標題:使用Mask-RCNN在實例分割應(yīng)用中克服過擬合

文章出處:【微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47723
  • mask
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    3241

原文標題:使用Mask-RCNN在實例分割應(yīng)用中克服過擬合

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Edge Impulse 喚醒詞模型訓練 | 技術(shù)集結(jié)

    今天,將手把手帶領(lǐng)學習如何訓練語音關(guān)鍵詞模型部署到嵌入式硬件,采用Edgi-Talk平臺適配EdgeImpulse,當然原理在其他的A
    的頭像 發(fā)表于 04-20 10:05 ?680次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓練</b> | 技術(shù)集結(jié)

    后量化模型 iMX93 NPU 運行,但輸出不正確怎么解決

    良好的精度,但 int8 輸出似乎完全隨機。在對訓練數(shù)據(jù)進行測試后,應(yīng)該為正的幀的范圍是 -128 到 127,應(yīng)該為負的幀也是如此。我是否誤解了輸出,或者轉(zhuǎn)換或量化
    發(fā)表于 03-18 07:53

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識別模型RA8P1 Titan Board的部署

    輪的模型進行保存,方便后期進行分析。 訓練腳本: import torch import torchvision from model import * import os #
    發(fā)表于 03-15 20:42

    訓練到推理:大模型算力需求的新拐點已至

    模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點主要集中模型訓練所需的算力投入。
    的頭像 發(fā)表于 02-05 16:07 ?1036次閱讀
    從<b class='flag-5'>訓練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點已至

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的分割切的提示型模型,其1100萬張圖像
    的頭像 發(fā)表于 01-12 16:17 ?494次閱讀
    SAM(通用圖像<b class='flag-5'>分割</b>基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    自動駕駛大模型訓練數(shù)據(jù)有什么具體要求?

    [首發(fā)于智駕最前沿微信公眾號]想訓練可以落地的自動駕駛大模型,不是簡單地給其提供幾張圖片,幾條規(guī)則就可以的,而是需要非常多的多樣的、真實的駕駛
    的頭像 發(fā)表于 12-26 09:32 ?365次閱讀
    自動駕駛大<b class='flag-5'>模型</b>的<b class='flag-5'>訓練</b><b class='flag-5'>數(shù)據(jù)</b>有什么具體要求?

    Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù),訓練卷積神經(jīng)網(wǎng)絡(luò)(CNN)
    發(fā)表于 10-22 07:03

    文看懂AI訓練、推理與訓推體的底層關(guān)系

    (Inference)。它們就像“學霸的高考備考”和“考試當天的答題表現(xiàn)”,缺不可。1、什么是AI訓練(Training)?通過大量數(shù)據(jù)訓練模型
    的頭像 發(fā)表于 09-19 11:58 ?2874次閱讀
    <b class='flag-5'>一</b>文看懂AI<b class='flag-5'>訓練</b>、推理與訓推<b class='flag-5'>一</b>體的底層關(guān)系

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據(jù)直顯示數(shù)據(jù)正在解析,為什么?

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據(jù)直顯示數(shù)據(jù)正在解析 數(shù)據(jù)有問題,把
    發(fā)表于 08-13 07:16

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】 + 04 + 機器學習YOLO體驗

    的精度 這張圖片是我通過在線訓練平臺使用yolov5訓練得出的模型精度,可以明顯的看出訓練出的 模型精度最高有0.924 ,是
    發(fā)表于 07-24 21:35

    訓練平臺數(shù)據(jù)過大無法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺限制了圖片數(shù)量,想要本地訓練下載數(shù)據(jù)時發(fā)現(xiàn)只會跳出網(wǎng)絡(luò)異常的錯誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    make sence成的XML文件能上傳到自助訓練模型嗎?

    make sence成的XML文件能上傳到自助訓練模型
    發(fā)表于 06-23 07:38

    瑞芯微模型量化文件構(gòu)建

    模型張圖片輸入時,量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四輸入。該模型
    發(fā)表于 06-13 09:07

    運行kmodel模型驗證直報錯怎么解決?

    我這運行kmodel模型驗證直報錯,所以沒法做kmodel模型好壞驗證,不知道怎么解決這個問題,重新訓練
    發(fā)表于 06-10 08:02

    海思SD3403邊緣計算AI數(shù)據(jù)訓練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機,進行AI識別應(yīng)用。 AI訓練模型是不斷迭
    發(fā)表于 04-28 11:11