什么是數(shù)據(jù)增強(qiáng)
數(shù)據(jù)增強(qiáng)(Data Augmentation)是一種通過(guò)讓有限的數(shù)據(jù)產(chǎn)生更多的等價(jià)數(shù)據(jù)來(lái)人工擴(kuò)展訓(xùn)練數(shù)據(jù)集的技術(shù)。它是克服訓(xùn)練數(shù)據(jù)不足的有效手段,目前在深度學(xué)習(xí)的各個(gè)領(lǐng)域中應(yīng)用廣泛。但是由于生成的數(shù)據(jù)與真實(shí)數(shù)據(jù)之間的差異,也不可避免地帶來(lái)了噪聲問(wèn)題。
為什么需要數(shù)據(jù)增強(qiáng)
深度神經(jīng)網(wǎng)絡(luò)在許多任務(wù)中表現(xiàn)良好,但這些網(wǎng)絡(luò)通常需要大量數(shù)據(jù)才能避免過(guò)度擬合。遺憾的是,許多場(chǎng)景無(wú)法獲得大量數(shù)據(jù),例如醫(yī)學(xué)圖像分析。數(shù)據(jù)增強(qiáng)技術(shù)的存在是為了解決這個(gè)問(wèn)題,這是針對(duì)有限數(shù)據(jù)問(wèn)題的解決方案。數(shù)據(jù)增強(qiáng)一套技術(shù),可提高訓(xùn)練數(shù)據(jù)集的大小和質(zhì)量,以便您可以使用它們來(lái)構(gòu)建更好的深度學(xué)習(xí)模型。在計(jì)算視覺(jué)領(lǐng)域,生成增強(qiáng)圖像相對(duì)容易。即使引入噪聲或裁剪圖像的一部分,模型仍可以對(duì)圖像進(jìn)行分類(lèi),數(shù)據(jù)增強(qiáng)有一系列簡(jiǎn)單有效的方法可供選擇,有一些機(jī)器學(xué)習(xí)庫(kù)來(lái)進(jìn)行計(jì)算視覺(jué)領(lǐng)域的數(shù)據(jù)增強(qiáng),比如:imgaug(https://github.com/aleju/imgaug)它封裝了很多數(shù)據(jù)增強(qiáng)算法,給開(kāi)發(fā)者提供了方便。但是在自然語(yǔ)言處理領(lǐng)域中,由于自然語(yǔ)言本身是離散的抽象符號(hào),微小的變化就可能會(huì)導(dǎo)致含義的巨大偏差,所以數(shù)據(jù)增強(qiáng)算法并不常用。很多自然語(yǔ)言處理任務(wù)在真正落地的時(shí)候,往往會(huì)遇到數(shù)據(jù)量不足的問(wèn)題,自然語(yǔ)言的數(shù)據(jù)增強(qiáng)算法值得我們深入研究。接下來(lái)我們先介紹計(jì)算視覺(jué)領(lǐng)域的數(shù)據(jù)增強(qiáng)方法,再介紹自然語(yǔ)言處理領(lǐng)域的數(shù)據(jù)增強(qiáng)算法,希望能對(duì)大家有所啟發(fā)。
計(jì)算視覺(jué)數(shù)據(jù)增強(qiáng)
計(jì)算視覺(jué)領(lǐng)域的數(shù)據(jù)增強(qiáng)算法大致可以分為兩類(lèi):第一類(lèi)是基于基本圖像處理技術(shù)的數(shù)據(jù)增強(qiáng),第二個(gè)類(lèi)別是基于深度學(xué)習(xí)的數(shù)據(jù)增強(qiáng)算法。
下面先介紹基于基本圖像處理技術(shù)的數(shù)據(jù)增強(qiáng)方法:
幾何變換(Geometric Transformations):由于訓(xùn)練集與測(cè)試集合中可能存在潛在的位置偏差,使得模型在測(cè)試集中很難達(dá)到訓(xùn)練集中的效果,幾何變換可以有效地克服訓(xùn)練數(shù)據(jù)中存在的位置偏差,而且易于實(shí)現(xiàn),許多圖像處理庫(kù)都包含這個(gè)功能。
顏色變換(Color Space):圖片在輸入計(jì)算機(jī)之前,通常會(huì)被編碼為張量(高度×寬度×顏色通道),所以可以在色彩通道空間進(jìn)行數(shù)據(jù)增強(qiáng),比如將某種顏色通道關(guān)閉,或者改變亮度值。
旋轉(zhuǎn) | 反射變換(Rotation/Reflection):選擇一個(gè)角度,左右旋轉(zhuǎn)圖像,可以改變圖像內(nèi)容朝向。關(guān)于旋轉(zhuǎn)角度需要慎重考慮,角度太大或者太小都不合適,適宜的角度是1度 到 20度。
噪聲注入(Noise Injection):從高斯分布中采樣出的隨機(jī)值矩陣加入到圖像的RGB像素中,通過(guò)向圖像添加噪點(diǎn)可以幫助CNN學(xué)習(xí)更強(qiáng)大的功能。
內(nèi)核過(guò)濾器(Kernel Filters):內(nèi)核濾鏡是在圖像處理中一種非常流行的技術(shù),比如銳化和模糊。將特定功能的內(nèi)核濾鏡與圖像進(jìn)行卷積操作,就可以得到增強(qiáng)后的數(shù)據(jù)。直觀上,數(shù)據(jù)增強(qiáng)生成的圖像可能會(huì)使得模型面對(duì)這種類(lèi)型的圖像具有更高的魯棒性。
混合圖像(Mix):通過(guò)平均圖像像素值將圖像混合在一起是一種非常違反直覺(jué)的數(shù)據(jù)增強(qiáng)方法。對(duì)于人來(lái)說(shuō),混合圖像生成的數(shù)據(jù)似乎沒(méi)有意義。雖然這種方法缺乏可解釋性,但是作為一種簡(jiǎn)單有效的數(shù)據(jù)增強(qiáng)算法,有一系列的工作進(jìn)行相關(guān)的研究。Inoue在圖像每個(gè)像素點(diǎn)混合像素值來(lái)混合圖像,Summers和Dinneen又嘗試以非線性的方法來(lái)混合圖像,Takahashi和Matsubara通過(guò)隨機(jī)圖像裁剪和拼接來(lái)混合圖像,以及后來(lái)的mixup方法均取得了不錯(cuò)的成果。
隨機(jī)擦除(Random Erasing):隨機(jī)擦除是Zhong等人開(kāi)發(fā)的數(shù)據(jù)增強(qiáng)技術(shù)。他們受到Dropout機(jī)制的啟發(fā),隨機(jī)選取圖片中的一部分,將這部分圖片刪除,這項(xiàng)技術(shù)可以提高模型在圖片被部分遮擋的情況下性能,除此之外還可以確保網(wǎng)絡(luò)關(guān)注整個(gè)圖像,而不只是其中的一部分。
縮放變換(Zoom):圖像按照一定的比例進(jìn)行放大和縮小并不改變圖像中的內(nèi)容,可以增加模型的泛化性能。
移動(dòng)(Translation):向左,向右,向上或向下移動(dòng)圖像可以避免數(shù)據(jù)中的位置偏差,比如在人臉識(shí)別數(shù)據(jù)集合中,如果所有圖像都居中,使用這種數(shù)據(jù)增強(qiáng)方法可以避免可能出現(xiàn)的位置偏差導(dǎo)致的錯(cuò)誤。
翻轉(zhuǎn)變換(Flipping):通常是關(guān)于水平或者豎直的軸進(jìn)行圖像翻轉(zhuǎn)操作,這種擴(kuò)充是最容易實(shí)現(xiàn)的擴(kuò)充,并且已經(jīng)證明對(duì)ImageNet數(shù)據(jù)集有效。
裁剪(Cropping):如果輸入數(shù)據(jù)集合的大小是變化的,裁剪可以作為數(shù)據(jù)預(yù)處理的一個(gè)手段,通過(guò)裁剪圖像的中央色塊,可以得到新的數(shù)據(jù)。在實(shí)際使用過(guò)程之中,這些數(shù)據(jù)增強(qiáng)算法不是只使用一種,而是使用一套數(shù)據(jù)增強(qiáng)策略,在AutoAugment這篇文章中,作者嘗試讓模型自動(dòng)選擇數(shù)據(jù)增強(qiáng)策略。
第二個(gè)類(lèi)別是基于深度學(xué)習(xí)的數(shù)據(jù)增強(qiáng)算法:
特征空間增強(qiáng)(Feature Space Augmentation):神經(jīng)網(wǎng)絡(luò)可以將圖像這種高維向量映射為低維向量,之前討論的所有圖像數(shù)據(jù)增強(qiáng)方法都應(yīng)用于輸入空間中的圖像?,F(xiàn)在可以在特征空間進(jìn)行數(shù)據(jù)增強(qiáng)操作,例如:SMOTE算法,它是一種流行的增強(qiáng)方法,通過(guò)將k個(gè)最近的鄰居合并以形成新實(shí)例來(lái)緩解類(lèi)不平衡問(wèn)題。
對(duì)抗生成(Adversarial Training):對(duì)抗攻擊表明,圖像表示的健壯性遠(yuǎn)不及預(yù)期的健壯性,Moosavi-Dezfooli等人充分證明了這一點(diǎn)。對(duì)抗生成可以改善學(xué)習(xí)的決策邊界中的薄弱環(huán)節(jié),提高模型的魯棒性。
基于GAN的數(shù)據(jù)增強(qiáng)(GAN-based Data Augmentation):使用 GAN 生成模型來(lái)生成更多的數(shù)據(jù),可用作解決類(lèi)別不平衡問(wèn)題的過(guò)采樣技術(shù)。
神經(jīng)風(fēng)格轉(zhuǎn)換(Neural Style Transfer):通過(guò)神經(jīng)網(wǎng)絡(luò)風(fēng)格遷移來(lái)生成不同風(fēng)格的數(shù)據(jù),防止模型過(guò)擬合。
如果想要閱讀更多的細(xì)節(jié),請(qǐng)參考這篇文章:
https://link.springer.com/article/10.1186/s40537-019-0197-0
自然語(yǔ)言處理數(shù)據(jù)增強(qiáng)
在自然語(yǔ)言處理領(lǐng)域,被驗(yàn)證為有效的數(shù)據(jù)增強(qiáng)算法相對(duì)要少很多,下面我們介紹幾種常見(jiàn)方法。
同義詞詞典(Thesaurus):Zhang Xiang等人提出了Character-level Convolutional Networks for Text Classification,通過(guò)實(shí)驗(yàn),他們發(fā)現(xiàn)可以將單詞替換為它的同義詞進(jìn)行數(shù)據(jù)增強(qiáng),這種同義詞替換的方法可以在很短的時(shí)間內(nèi)生成大量的數(shù)據(jù)。
隨機(jī)插入(Randomly Insert):隨機(jī)選擇一個(gè)單詞,選擇它的一個(gè)同義詞,插入原句子中的隨機(jī)位置,舉一個(gè)例子:“我愛(ài)中國(guó)” —> “喜歡我愛(ài)中國(guó)”。
隨機(jī)交換(Randomly Swap):隨機(jī)選擇一對(duì)單詞,交換位置。
隨機(jī)刪除(Randomly Delete):隨機(jī)刪除句子中的單詞。
語(yǔ)法樹(shù)結(jié)構(gòu)替換:通過(guò)語(yǔ)法樹(shù)結(jié)構(gòu),精準(zhǔn)地替換單詞。
加噪(NoiseMix) (https://github.com/noisemix/noisemix):類(lèi)似于圖像領(lǐng)域的加噪,NoiseMix提供9種單詞級(jí)別和2種句子級(jí)別的擾動(dòng)來(lái)生成更多的句子,例如:這是一本很棒的書(shū),但是他們的運(yùn)送太慢了。->這是本很棒的書(shū),但是運(yùn)送太慢了。
情境增強(qiáng)(Contextual Augmentation):這種數(shù)據(jù)增強(qiáng)算法是用于文本分類(lèi)任務(wù)的獨(dú)立領(lǐng)域的數(shù)據(jù)擴(kuò)充。通過(guò)用標(biāo)簽條件的雙向語(yǔ)言模型預(yù)測(cè)的其他單詞替換單詞,可以增強(qiáng)監(jiān)督數(shù)據(jù)集中的文本。
生成對(duì)抗網(wǎng)絡(luò):利用生成對(duì)抗網(wǎng)絡(luò)的方法來(lái)生成和原數(shù)據(jù)同分布的數(shù)據(jù),來(lái)制造更多的數(shù)據(jù)。在自然語(yǔ)言處理領(lǐng)域,有很多關(guān)于生成對(duì)抗網(wǎng)絡(luò)的工作:
Generating Text via Adversarial Training
GANS for Sequences of Discrete Elements with the Gumbel-softmax Distribution
SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient
回譯技術(shù)(Back Translation):回譯技術(shù)是NLP在機(jī)器翻譯中經(jīng)常使用的一個(gè)數(shù)據(jù)增強(qiáng)的方法。其本質(zhì)就是快速產(chǎn)生一些翻譯結(jié)果達(dá)到增加數(shù)據(jù)的目的。回譯的方法可以增加文本數(shù)據(jù)的多樣性,相比替換詞來(lái)說(shuō),有時(shí)可以改變句法結(jié)構(gòu)等,并保留語(yǔ)義信息。但是,回譯的方法產(chǎn)生的數(shù)據(jù)嚴(yán)重依賴(lài)于翻譯的質(zhì)量。
擴(kuò)句-縮句-句法:先將句子壓縮,得到句子的縮寫(xiě),然后再擴(kuò)寫(xiě),通過(guò)這種方法生成的句子和原句子具有相似的結(jié)構(gòu),但是可能會(huì)帶來(lái)語(yǔ)義信息的損失。
無(wú)監(jiān)督數(shù)據(jù)擴(kuò)增(Unsupervised Data Augmentation):通常的數(shù)據(jù)增強(qiáng)算法都是為有監(jiān)督任務(wù)服務(wù),這個(gè)方法是針對(duì)無(wú)監(jiān)督學(xué)習(xí)任務(wù)進(jìn)行數(shù)據(jù)增強(qiáng)的算法,UDA方法生成無(wú)監(jiān)督數(shù)據(jù)與原始無(wú)監(jiān)督數(shù)據(jù)具備分布的一致性,而以前的方法通常只是應(yīng)用高斯噪聲和Dropout噪聲(無(wú)法保證一致性)。(https://arxiv.org/abs/1904.12848)
此外,這個(gè)倉(cāng)庫(kù)(https://github.com/quincyliang/nlp-data-augmentation)中介紹了一些自然語(yǔ)言處理中的數(shù)據(jù)增強(qiáng)技術(shù)。
總結(jié)
數(shù)據(jù)增強(qiáng)是增大數(shù)據(jù)規(guī)模,減輕模型過(guò)擬合的有效方法,但是,數(shù)據(jù)增強(qiáng)不能保證總是有利的。在數(shù)據(jù)非常有限的域中,這可能導(dǎo)致進(jìn)一步過(guò)度擬合。因此,重要的是要考慮搜索算法來(lái)推導(dǎo)增強(qiáng)數(shù)據(jù)的最佳子集,以便訓(xùn)練深度學(xué)習(xí)模型。
雖然相比于計(jì)算視覺(jué),自然語(yǔ)言處理領(lǐng)域中的數(shù)據(jù)增強(qiáng)應(yīng)用更少,難度也要更大,但是同時(shí)也意味著更大的機(jī)遇。
審核編輯 :李倩
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103623 -
nlp
+關(guān)注
關(guān)注
1文章
490瀏覽量
22624 -
計(jì)算視覺(jué)
+關(guān)注
關(guān)注
0文章
5瀏覽量
1632
原文標(biāo)題:一文了解NLP和CV領(lǐng)域的數(shù)據(jù)增強(qiáng)
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
基于嵌入式人工智能的高速圖像處理的微處理器RZ/A2M數(shù)據(jù)手冊(cè)

圖像采集卡:現(xiàn)代圖像處理技術(shù)的關(guān)鍵組件

FPGA上的圖像處理算法集成與優(yōu)化

DFT在圖像處理中的作用 DFT在音頻信號(hào)處理中的應(yīng)用
傅立葉變換在圖像處理中的作用
百問(wèn)FB顯示開(kāi)發(fā)圖像處理 - BMP圖像處理
【每天學(xué)點(diǎn)AI】實(shí)戰(zhàn)圖像增強(qiáng)技術(shù)在人工智能圖像處理中的應(yīng)用

傅里葉變換與圖像處理技術(shù)的區(qū)別
基于差分卷積神經(jīng)網(wǎng)絡(luò)的低照度車(chē)牌圖像增強(qiáng)網(wǎng)絡(luò)

如何使用base64處理圖像數(shù)據(jù)
FPGA在圖像處理領(lǐng)域的優(yōu)勢(shì)有哪些?
圖像采集卡:增強(qiáng)視覺(jué)數(shù)據(jù)采集

說(shuō)明增強(qiáng)現(xiàn)實(shí)技術(shù)的產(chǎn)生原因
圖像處理器是什么意思
Cricket XL全新亮相:革新圖像增強(qiáng)技術(shù)的解決方案

評(píng)論