chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在一個(gè)很小的Pascal VOC數(shù)據(jù)集上訓(xùn)練一個(gè)實(shí)例分割模型

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 作者:Kayo Yin ? 2020-12-26 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只使用1349張圖像訓(xùn)練Mask-RCNN,有代碼。

代碼:https://github.com/kayoyin/tiny-inst-segmentation

介紹

計(jì)算機(jī)視覺(jué)的進(jìn)步帶來(lái)了許多有前途的應(yīng)用,如自動(dòng)駕駛汽車或醫(yī)療診斷。在這些任務(wù)中,我們依靠機(jī)器的能力來(lái)識(shí)別物體。

我們經(jīng)常看到的與目標(biāo)識(shí)別相關(guān)的任務(wù)有4個(gè):分類和定位、目標(biāo)檢測(cè)、語(yǔ)義分割和實(shí)例分割。

在分類和定位中,我們感興趣的是為圖像中目標(biāo)的分配類標(biāo)簽,并在目標(biāo)周圍繪制一個(gè)包圍框。在這個(gè)任務(wù)中,要檢測(cè)的目標(biāo)數(shù)量是固定的。

物體檢測(cè)不同于分類和定位,因?yàn)檫@里我們沒(méi)有預(yù)先假設(shè)圖像中物體的數(shù)量。我們從一組固定的目標(biāo)類別開(kāi)始,我們的目標(biāo)是分配類標(biāo)簽,并在每次這些類別中的一個(gè)目標(biāo)出現(xiàn)在圖像中時(shí)繪制邊界框。

在語(yǔ)義分割中,我們?yōu)槊總€(gè)圖像像素分配一個(gè)類標(biāo)簽:所有屬于草的像素被標(biāo)記為“grass”,屬于羊的像素被標(biāo)記為“sheep”。值得注意的是,例如,這個(gè)任務(wù)不會(huì)對(duì)兩只羊產(chǎn)生區(qū)別。

我們的任務(wù)是實(shí)例分割,它建立在目標(biāo)檢測(cè)和語(yǔ)義分割之上。在目標(biāo)檢測(cè)中,我們的目標(biāo)是在預(yù)定義的類別中標(biāo)記和定位目標(biāo)的所有實(shí)例。但是,我們沒(méi)有為檢測(cè)到的目標(biāo)生成邊界框,而是進(jìn)一步識(shí)別哪些像素屬于該目標(biāo),就像語(yǔ)義分割一樣。與語(yǔ)義分割不同的是,實(shí)例分割為每個(gè)目標(biāo)實(shí)例繪制一個(gè)單獨(dú)的掩碼,而語(yǔ)義分割將為同一類的所有實(shí)例使用相同的掩碼。

在本文中,我們將在一個(gè)很小的Pascal VOC數(shù)據(jù)集上訓(xùn)練一個(gè)實(shí)例分割模型,其中只有1349張圖像用于訓(xùn)練,100張圖像用于測(cè)試。這里的主要挑戰(zhàn)是在不使用外部數(shù)據(jù)的情況下防止模型過(guò)擬合。

數(shù)據(jù)處理

標(biāo)注采用COCO格式,因此我們可以使用pycocotools中的函數(shù)來(lái)檢索類標(biāo)簽和掩碼。在這個(gè)數(shù)據(jù)集中,共有20個(gè)類別。

cb474dc4-4698-11eb-8b86-12bb97331649.png

下面是一些訓(xùn)練圖像和相關(guān)mask的可視化顯示。mask的不同陰影表示同一目標(biāo)類別的多個(gè)實(shí)例的不同掩碼。

圖像的大小和長(zhǎng)寬比各不相同,因此在將圖像輸入模型之前,我們調(diào)整每個(gè)圖像的尺寸500x500。當(dāng)圖像尺寸小于500時(shí),我們對(duì)圖像進(jìn)行優(yōu)化,使最大邊的長(zhǎng)度為500,并添加必要的零以獲得正方形圖像。

為了使模型能夠很好地泛化,特別是在這樣一個(gè)有限的數(shù)據(jù)集上,數(shù)據(jù)增強(qiáng)是克服過(guò)擬合的關(guān)鍵。對(duì)于每一個(gè)圖像,以0.5的概率水平翻轉(zhuǎn),以0.9到1倍的尺度進(jìn)行隨機(jī)剪裁,以0.5的概率進(jìn)行高斯模糊,標(biāo)準(zhǔn)差為隨機(jī),對(duì)比度隨機(jī)調(diào)整尺度為0.75和1.5之間,亮度隨機(jī)調(diào)整尺度在0.8和1.2之間,以及一系列隨機(jī)仿射變換如縮放、平移、旋轉(zhuǎn),剪切。

Mask-RCNN

我們使用matterport實(shí)現(xiàn)的Mask-RCNN進(jìn)行訓(xùn)練。雖然結(jié)果可能會(huì)很好看,但我們不會(huì)用MS COCO的預(yù)訓(xùn)練權(quán)重來(lái)展示我們?nèi)绾沃挥?349張訓(xùn)練圖像就能得到好的結(jié)果。

Mask-RCNN是在2017年Mask-RCNN論文中提出的,是同一作者對(duì)Faster-RCNN的擴(kuò)展。Faster-RCNN被廣泛應(yīng)用于目標(biāo)檢測(cè),模型在被檢測(cè)物體周圍生成包圍盒。Mask-RCNN進(jìn)一步生成了目標(biāo)的mask 。

我將在下面簡(jiǎn)要介紹模型體系結(jié)構(gòu)。

首先,我們使用一個(gè)主干模型從輸入圖像中提取相關(guān)的特征。在這里,我們使用ResNet101架構(gòu)作為骨干。圖像由張量(500,500,3)轉(zhuǎn)換為特征圖(32,32,2048)。

然后將之前獲得的特征輸入到一個(gè)區(qū)域建議網(wǎng)絡(luò)(RPN)中。RPN掃描feature map的區(qū)域,稱為anchors,并嘗試確定包含目標(biāo)的區(qū)域。這些anchor的尺寸和縱橫比各不相同。RPN為每個(gè)anchor分配一個(gè)類別:前景(正樣本anchor)或背景(負(fù)樣本anchor)。中性anchor是指不影響訓(xùn)練的anchor。

正樣本anchors(左),中性anchors(中),負(fù)樣本anchors(右)

建議層然后挑選最有可能包含目標(biāo)的anchor,并優(yōu)化anchor框以更接近目標(biāo)。當(dāng)太多anchor點(diǎn)重疊時(shí),只保留前景分?jǐn)?shù)最高的那個(gè)(非最大抑制)。這樣,我們就得到了感興趣的區(qū)域(ROI)。

對(duì)于每個(gè)由ROI分類器選中的目標(biāo)區(qū)域,模型生成28x28的mask。在訓(xùn)練過(guò)程中,將 ground truth mask縮小,用預(yù)測(cè)的mask計(jì)算損失,在推理過(guò)程中,將生成的mask放大到ROI的邊界框大小。

遷移學(xué)習(xí)

特別是在數(shù)據(jù)有限的情況下,更快更好地訓(xùn)練模型的關(guān)鍵是遷移學(xué)習(xí)。Imagenet數(shù)據(jù)集是一個(gè)巨大的自然圖像語(yǔ)料庫(kù),類似于我們的圖像。因此,我們可以將Resnet101骨干模型的權(quán)值初始化為在Imagenet上預(yù)先訓(xùn)練的權(quán)值。這將提高我們得到的特征圖的準(zhǔn)確性,從而提高整個(gè)模型。

為了微調(diào)在Imagenet上預(yù)訓(xùn)練的模型,我們首先只訓(xùn)練model heads。然后我們?cè)谑O碌膃pochs中訓(xùn)練從ResNet level 4和以上的層。這個(gè)訓(xùn)練方案也有助于最小化過(guò)擬合。我們可以不去微調(diào)第一層,因?yàn)槲覀兛梢灾赜媚P蛷淖匀粓D像中提取特征的權(quán)重。

結(jié)果 & 檢測(cè)pipeline可視化

我們的測(cè)試集上獲得的mAP為0. 53650。下面是隨機(jī)選擇測(cè)試圖像的模型輸出的一些可視化結(jié)果:

我們還可以看到算法不同步驟的輸出。下面,我們有在邊界框細(xì)化之前的top anchors的得分。

接下來(lái),我們有了細(xì)化的邊界框和非最大抑制后的輸出。這些建議然后被輸入分類網(wǎng)絡(luò)。注意,在這里,我們有一些框框住了一些目標(biāo),比如標(biāo)志,這些目標(biāo)不屬于我們定義的目標(biāo)類別。

在建議區(qū)域上運(yùn)行分類網(wǎng)絡(luò),得到正樣本的檢測(cè),生成類概率和邊界框回歸。

在得到邊界框并對(duì)其進(jìn)行細(xì)化后,實(shí)例分割模型為每個(gè)檢測(cè)到的目標(biāo)生成mask。mask是soft masks(具有浮點(diǎn)像素值),在訓(xùn)練時(shí)大小為28x28。

最后,預(yù)測(cè)的mask被調(diào)整為邊界框的尺寸,我們可以將它們覆蓋在原始圖像上以可視化最終的輸出。

英文原文:https://towardsdatascience.com/overcome-overfitting-during-instance-segmentation-with-mask-rcnn-32db91f400bc

責(zé)任編輯:xj

原文標(biāo)題:使用Mask-RCNN在實(shí)例分割應(yīng)用中克服過(guò)擬合

文章出處:【微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    9

    文章

    1714

    瀏覽量

    47443
  • mask
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    3187

原文標(biāo)題:使用Mask-RCNN在實(shí)例分割應(yīng)用中克服過(guò)擬合

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù),訓(xùn)練個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)
    發(fā)表于 10-22 07:03

    訓(xùn)練平臺(tái)數(shù)據(jù)過(guò)大無(wú)法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺(tái)限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時(shí)發(fā)現(xiàn)只會(huì)跳出網(wǎng)絡(luò)異常的錯(cuò)誤,請(qǐng)問(wèn)這有什么解決辦法?
    發(fā)表于 07-22 06:03

    瑞芯微模型量化文件構(gòu)建

    模型張圖片輸入時(shí),量化文件如上圖所示。但是我現(xiàn)在想量化deepprivacy人臉匿名模型,他的輸入是四個(gè)輸入。該模型
    發(fā)表于 06-13 09:07

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭
    發(fā)表于 04-28 11:11

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型?

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)自定義數(shù)據(jù)的 YOLOv5 訓(xùn)練
    發(fā)表于 03-25 07:23

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP4060單卡實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)
    的頭像 發(fā)表于 03-21 18:24 ?3773次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。模型
    的頭像 發(fā)表于 03-21 10:30 ?2279次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。模型
    的頭像 發(fā)表于 03-21 10:27 ?865次閱讀
    標(biāo)貝<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注服務(wù):奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石

    是否可以輸入隨機(jī)數(shù)據(jù)來(lái)生成INT8訓(xùn)練后量化模型?

    無(wú)法確定是否可以輸入隨機(jī)數(shù)據(jù)來(lái)生成 INT8 訓(xùn)練后量化模型
    發(fā)表于 03-06 06:45

    用PaddleNLP4060單卡實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開(kāi)始訓(xùn)練個(gè)大語(yǔ)言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大
    的頭像 發(fā)表于 02-19 16:10 ?2115次閱讀
    用PaddleNLP<b class='flag-5'>在</b>4060單卡<b class='flag-5'>上</b>實(shí)踐大<b class='flag-5'>模型</b>預(yù)<b class='flag-5'>訓(xùn)練</b>技術(shù)

    騰訊公布大語(yǔ)言模型訓(xùn)練新專利

    大語(yǔ)言模型訓(xùn)練過(guò)程中引入第摘要文本和第二摘要文本,為模型提供了更為豐富的學(xué)習(xí)信息。這兩個(gè)摘要文本
    的頭像 發(fā)表于 02-10 09:37 ?693次閱讀

    請(qǐng)問(wèn)有沒(méi)有不在linux對(duì).pt模型向.kmodel轉(zhuǎn)換的教程呢?

    的文章 但是里面很多參數(shù)以及.npy的數(shù)據(jù)我不知道怎么填寫及處理。 2、還有個(gè)問(wèn)題,現(xiàn)在yolo有
    發(fā)表于 02-08 08:56

    AI Cube進(jìn)行yolov8n模型訓(xùn)練,創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)目錄下存在除標(biāo)注和圖片外的其他目錄如何處理?

    AI Cube進(jìn)行yolov8n模型訓(xùn)練 創(chuàng)建項(xiàng)目目標(biāo)檢測(cè)時(shí)顯示數(shù)據(jù)目錄下存在除標(biāo)注和圖片外的其他目錄怎么解決
    發(fā)表于 02-08 06:21

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    對(duì)模型進(jìn)行進(jìn)訓(xùn)練的過(guò)程。 大模型微調(diào)是利用預(yù)訓(xùn)練模型
    發(fā)表于 01-14 16:51

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的 one-shot 搜索的工作。目標(biāo)檢測(cè)模型搭配在分類上高性能的主干網(wǎng)絡(luò),可能會(huì)因?yàn)椴煌蝿?wù)間的差異而性能下降。Picodet 沒(méi)有去搜索個(gè)較佳的分類器,而是檢測(cè)
    發(fā)表于 12-19 14:33