基于遷移深度學(xué)習(xí)的雷達(dá)信號分選識別
?
來源:《軟件學(xué)報》?,作者王功明等
?
摘要:?針對當(dāng)前雷達(dá)信號分選識別算法普遍存在的低信噪比下識別能力差、特征參數(shù)提取困難、分類器模型參數(shù)復(fù)雜等問題,提出了一種基于時頻分析、深度學(xué)習(xí)和遷移學(xué)習(xí)融合模型的雷達(dá)信號自動分選識別算法。首先通過引入的多重同步壓縮變換得到雷達(dá)信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進(jìn)行預(yù)處理,最后基于遷移學(xué)習(xí)的方法,以GoogLeNet和ResNet模型為基礎(chǔ)完成了對雷達(dá)信號的離線訓(xùn)練和在線識別。仿真結(jié)果表明,在信噪比為?6 dB時,該算法對9種雷達(dá)信號(CW, LFM, NLFM, BPSK, MPSK, Costas, LFM/BPSK, LFM/FSK, BPSK/FSK)的整體平均識別率可達(dá)93.4%,較常規(guī)人工提取算法具有更好的抗噪性和泛化能力。
1. 引言
?
近年來,隨著雷達(dá)技術(shù)的快速發(fā)展,以低截獲概率(Low Probability Interception, LPI)雷達(dá)為代表的各種新體制雷達(dá)在戰(zhàn)場上得到了廣泛的應(yīng)用。戰(zhàn)場電磁環(huán)境變得日益復(fù)雜、信號類型變化多樣,使得傳統(tǒng)依靠五大常規(guī)參數(shù):載頻(Carrier Frequency, CF)、脈沖寬度(Pulse Width, PW)、脈沖幅度(Pulse Amplitude, PA)、到達(dá)時間(Time of Arrival, TOA)和到達(dá)角(Direction of Arrival, DOA)組成的脈沖描述字(Pulse Description Word, PDW)已經(jīng)難以滿足雷達(dá)信號分選識別的實際需要 [1] [2] ??紤]到新體制雷達(dá)信號往往包含豐富的脈內(nèi)信息,基于脈內(nèi)信息的雷達(dá)信號分選識別算法逐步成為了研究熱點。
基于脈內(nèi)信息的雷達(dá)信號分選識別的關(guān)鍵在于特征提取和分類器設(shè)計。經(jīng)過多年的不斷研究,學(xué)者們陸續(xù)提出了時頻分析、模糊函數(shù)、高階統(tǒng)計量及變換域分析等方法。文獻(xiàn) [3] 通過Choi-Williams分布得到信號的時頻圖像,進(jìn)一步提取出時頻圖像的奇異值熵和信號頻譜的分形維數(shù)特征,最后使用基于支持向量機(jī)(Support Vector Machine, SVM)的分類器完成了對8種雷達(dá)信號的識別,在信噪比大于等于1 dB時,整體平均識別率達(dá)到95%;文獻(xiàn) [4] 提出一種基于模糊函數(shù)主脊切面特征的方法,構(gòu)建出由主脊方向、切面重心和慣性半徑組成的特征向量,所提取特征較好地反映了不同信號波形的差異,同時具備較好的抗噪性;文獻(xiàn) [5] 采用直接法得到雷達(dá)信號的雙譜估計,基于廣義維數(shù)(Generalized Dimension, GD)方法從雙譜對角切片(Bispectra Diagonal Slice, BDS)中提取出3個區(qū)分度大的特征q值作為特征參數(shù)用于信號的識別,在信噪比為0 dB時對4種雷達(dá)信號的整體識別率為92.2%。這些都可以歸納為人工特征提取結(jié)合機(jī)器學(xué)習(xí)的方法,人工特征雖然具有計算簡單、設(shè)計靈活、意義明確等優(yōu)點,但也存在以下幾個問題:一是表述能力有限。人工設(shè)計的特征往往比較簡單固定,只能描述某一部分的信息,在處理復(fù)雜問題時容易遇到精度上的瓶頸;二是特征通用性不足。針對不同問題往往需要設(shè)計不同的特征,在處理新問題時某些特征的效果會大打折扣,需要反復(fù)驗證其有效性;三是維數(shù)災(zāi)難。為了提升算法的精度,會提取各種各樣的特征,當(dāng)維數(shù)增加到一定程度后,增加特征維度反而會引起精度的下降。
隨著深度學(xué)習(xí)理論的不斷發(fā)展,鑒于它在計算機(jī)視覺中優(yōu)異的模型泛化能力,學(xué)者們將深度學(xué)習(xí)引入到了雷達(dá)信號分選識別領(lǐng)域,利用各種成熟的深度學(xué)習(xí)網(wǎng)絡(luò)模型自動提取信號的潛在特征,并取得了良好的應(yīng)用效果 [6] - [11] 。文獻(xiàn) [12] 引入一種新的核函數(shù)構(gòu)建Cohen類時頻分布得到雷達(dá)信號的時頻圖,經(jīng)過維納濾波、雙線性插值、灰度化等處理后送入CNN網(wǎng)絡(luò)實現(xiàn)了對12種雷達(dá)信號(LFM, SFM, 2FSK, 4FSK, DLFM, EQFM, MLFM, BPSK, Frank, MP, LFM-BPSK, 2FSK-BPSK)的自動識別,在信噪比為?6 dB時,整體平均識別率達(dá)到96.1%;文獻(xiàn) [13] 提出了一種包含兩個獨立的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)和赫爾曼網(wǎng)絡(luò)(Herman Neural Network, ENN)的混合分類器模型,該算法信噪比大于等于?2 dB時對12種雷達(dá)信號(BPSK, LFM, Costas, Frank, P1-P4, T1-T4)的整體識別率達(dá)到94.5%。但與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)對數(shù)據(jù)有非常嚴(yán)重的依賴,需要大量的樣本數(shù)據(jù)學(xué)習(xí)潛在的特征,而且不能有效地應(yīng)用于新的任務(wù)。在雷達(dá)信號分選識別等特殊領(lǐng)域,往往難以獲得大量、高質(zhì)量的訓(xùn)練樣本。遷移學(xué)習(xí)通過使用現(xiàn)有的知識或模型來解決不同但相關(guān)領(lǐng)域的問題,為機(jī)器學(xué)習(xí)和深度學(xué)習(xí)提供了一個新的思路 [14] ?;谶w移學(xué)習(xí)的深度神經(jīng)網(wǎng)絡(luò)模型不用從零開始訓(xùn)練,而只需要在預(yù)訓(xùn)練網(wǎng)絡(luò)模型的基礎(chǔ)上對新的樣本進(jìn)行訓(xùn)練,然后進(jìn)行網(wǎng)絡(luò)參數(shù)微調(diào),就可以方便快捷地達(dá)到滿意的識別效果。文獻(xiàn) [15] 基于改進(jìn)核函數(shù)的Cohen類分布得到雷達(dá)信號的時頻圖像,使用預(yù)訓(xùn)練自編碼器(Stacked Auto Encoder, SAE)和AlexNet結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)混合模型,通過遷移學(xué)習(xí)的方法完成了對12種雷達(dá)信號(Costas, LFM, NLFM, BPSK, P1-P4和T1-T4)的識別,在信噪比大于等于?6 dB時,平均識別率達(dá)到95.5%,盡管這些算法取得了良好的識別效果,但仍然存在一些問題:1) 模型復(fù)雜、訓(xùn)練時間長;2) 低信噪比下識別效果不佳;3) 對復(fù)合調(diào)制類型雷達(dá)信號關(guān)注較少等。
因此,本文結(jié)合時頻分析、深度學(xué)習(xí)和遷移學(xué)習(xí)理論,提出了一種基于遷移深度學(xué)習(xí)的雷達(dá)信號分選識別算法。該算法先通過引入多重同步壓縮變換(Multi-synchrosqueezing Transform, MSST)得到雷達(dá)信號的時頻圖像,然后對時頻圖像進(jìn)行灰度化、維納濾波、雙三次插值法和歸一化預(yù)處理,運用遷移學(xué)習(xí)的思想,分別基于GoogLeNet和ResNet兩種預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型對時頻圖像進(jìn)行離線訓(xùn)練,最后實現(xiàn)了對9種雷達(dá)信號的在線識別。
2. 基于時頻分析的信號預(yù)處理
2.1. 雷達(dá)脈內(nèi)調(diào)制信號模型
雷達(dá)信號的脈內(nèi)特征包括脈內(nèi)有意調(diào)制特征和脈內(nèi)無意調(diào)制特征。無意調(diào)制特征又稱為指紋特征,一般是人為誤差產(chǎn)生或者雷達(dá)發(fā)射機(jī)硬件固有的非理想特性產(chǎn)生的固有特征,可用于輻射源個體識別(Specific Emitter Identification, SEI)。有意調(diào)制特征雷達(dá)波形設(shè)計者為了實現(xiàn)某種特定的功能,人為地加入了一些調(diào)制特征,包括幅度調(diào)制、頻率調(diào)制、相位調(diào)制以及兩種或兩種以上的混合調(diào)制特征等 [16] [17] 。本文主要針對脈內(nèi)有意調(diào)制特征展開研究,對指紋特征暫不做分析。
寬帶接收機(jī)偵收到的雷達(dá)信號一般由信號和高斯白噪聲兩部分組成,其信號模型可描述為
y(t)=s(t)+n(t)=Aej?(t)+n(t)y(t)=s(t)+n(t)=Aej?(t)+n(t)(1)
式中,?s(t)s(t)?表示雷達(dá)信號,?n(t)n(t)?表示高斯白噪聲。A表示信號的幅值,假設(shè)為1。??(t)?(t)?表示信號的瞬時相位。9種雷達(dá)信號的調(diào)制類型分別為:常規(guī)信號(Conventional Wareform, CW)、線性調(diào)頻信號(Linear Frequency Modulation, LFM)、非線性調(diào)頻信號(Nonlinear Frequency Modulation, NLFM)、二相編碼信號(Binary Phase Shift Keying, BPSK)、多相編碼信號(Multi-Phase Shift Keying, MPSK)、Costas編碼信號以及LFM/BPSK、LFM/FSK和BPSK/FSK復(fù)合調(diào)制信號。
2.2. 多重同步壓縮變換(MSST)
雷達(dá)信號作為一種非平穩(wěn)信號,包含豐富的時頻域信息。典型的時頻分析方法有:短時傅里葉變換(Short-time Fourier Transform, STFT)、小波變換(Wavelet Transform, WT)、魏格納-威利分布(Wigner-Vill Distribution, WVD)以及Cohen類時頻分布等。其中STFT屬于線性變換,在實際應(yīng)用中存在窗函數(shù)選擇困難的缺陷;WVD屬于二次型變換,在處理多分量復(fù)雜信號時不可避免地會產(chǎn)生交叉項干擾;而Choi-Williams分布屬于Cohen類的一種,可以較好的抑制交叉項的干擾,但也無法完全消除交叉項。
MSST是一種對STFT多次執(zhí)行同步壓縮后處理的改進(jìn)算法,由Yu Gang等人于2018年首次提出 [18] ,具有較高的時頻聚集性,并且不會產(chǎn)生交叉項干擾,較CWD具有一定優(yōu)越性。
信號??的短時傅里葉變換(Short-time Fourier Transform,STFT)定義為
G(t,w)=∫+∞?∞g(u?t)s(u)e?jw(u?t)duG(t,w)=∫?∞+∞g(u?t)s(u)e?jw(u?t)du(2)
式中?g(u)g(u)?為窗函數(shù)。
選取信號模型為
s(u)=A(u)ejφ(u)s(u)=A(u)ejφ(u)(3)
其中?A(u)A(u)?、?φ(u)φ(u)?分別表示信號的幅度和相位。
幅度和相位的一階泰勒級數(shù)展開式分別為
{A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t){A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t)(4)
信號?s(u)s(u)?可以表示為
s(u)=A(t)ej(φ(t)+φ′(t)(u?t))s(u)=A(t)ej(φ(t)+φ′(t)(u?t))(5)
于是,信號?s(u)s(u)?的短時傅里葉變換(STFT)時頻譜可表示為
G(t,w)=∫+∞?∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫+∞?∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g?(w?φ′(t))G(t,w)=∫?∞+∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫?∞+∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g^(w?φ′(t))(6)
對上式求偏導(dǎo),有
?tG(t,w)=?t(A(t)ejφ(t)g?(w?φ′(t)))=A(t)ejφ(t)g?(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)?tG(t,w)=?t(A(t)ejφ(t)g^(w?φ′(t)))=A(t)ejφ(t)g^(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)(7)
當(dāng)?G(t,w)≠0G(t,w)≠0?時,瞬時頻率估計?w?(t,w)w^(t,w)?可表示為
w?(t,w)=?tG(t,w)jG(t,w)w^(t,w)=?tG(t,w)jG(t,w)(8)
再對時頻譜執(zhí)行同步壓縮處理(Synchrosqueezing Transformation, SST),可表示為
Ts(t,η)=∫+∞?∞G(t,w)δ(η?w?(t,w))dwTs(t,η)=∫?∞+∞G(t,w)δ(η?w^(t,w))dw(9)
通過執(zhí)行SST,可以從頻率方向壓縮STFT的結(jié)果,進(jìn)而提高時頻譜的能量聚集程度。
對得到的時頻譜繼續(xù)執(zhí)行SST,有
Ts[2](t,η)=∫+∞?∞Ts[1](t,w)δ(η?w?(t,w))dwTs[3](t,η)=∫+∞?∞Ts[2](t,w)δ(η?w?(t,w))dw????????????????????????????Ts[N](t,η)=∫+∞?∞Ts[N?1](t,w)δ(η?w?(t,w))dwTs[2](t,η)=∫?∞+∞Ts[1](t,w)δ(η?w^(t,w))dwTs[3](t,η)=∫?∞+∞Ts[2](t,w)δ(η?w^(t,w))dw????????????????????????????Ts[N](t,η)=∫?∞+∞Ts[N?1](t,w)δ(η?w^(t,w))dw(10)
圖1給出了6種典型雷達(dá)信號和3種復(fù)合調(diào)制信號在信噪比為8 dB時的MSST時頻圖像。
2.3. 時頻圖像預(yù)處理
為了減少噪聲對時頻圖像的不利影響,以及得到滿足分類器輸入要求的時頻圖像,需要首先對原始時頻圖像進(jìn)行預(yù)處理,具體的預(yù)處理流程如下。
Step1:將時頻分布原始圖像轉(zhuǎn)換為灰度圖像;
Step2:采用維納自適應(yīng)濾波器去除灰度圖像的噪聲點,對圖像進(jìn)行增強(qiáng)處理;
(a) CW(b) LFM(c) NLFM(d) BPSK(e) MPSK(f) Costas(g) LFM/BPSK(h) LFM/FSK(i) BPSK/FSK
Figure 1. Nine kinds of radar signals’ MSST time-frequencyimagewhen SNR = 8 dB
圖1. 信噪比為8 dB時9種雷達(dá)信號的MSST時頻圖像
Step3:運用雙三次插值法將時頻圖像大小調(diào)整為224 × 224,使所有信號的時頻圖像尺寸大小保持一致并減小數(shù)據(jù)量;
Step4:最后利用最大最小值法對圖像進(jìn)行歸一化處理。
圖2是Costas信號在信噪比為0 dB下的時頻圖像預(yù)處理流程。經(jīng)過上述圖像處理以后,在最大程度地保留信號完整信息的同時基本去除了噪聲和冗余信息。
?
Figure 2. Preprocessing of time-frequencyimage
圖2. 時頻圖像預(yù)處理
3. 遷移深度學(xué)習(xí)
3.1. 典型預(yù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)模型
3.1.1. GoogLeNet網(wǎng)絡(luò)
GoogLeNet是由Google公司提出一種卷積神經(jīng)網(wǎng)絡(luò)模型,曾在2014年的ILSVRC分類任務(wù)比賽中榮獲冠軍。其參數(shù)數(shù)量僅為AlexNet的1/12,但精度卻遠(yuǎn)遠(yuǎn)超過AlexNet。GoogLeNet的主要創(chuàng)新主要有兩點:一是用全局平均池化層替換掉了最后的全連接層,從而減輕了過擬合并且模型訓(xùn)練的速度更快;二是借鑒Networkin Network (NIN)的思想設(shè)計了Inception結(jié)構(gòu),該結(jié)構(gòu)能夠在不顯著加大計算負(fù)擔(dān)的前提下,更好地利用網(wǎng)絡(luò)中的計算資源,增加網(wǎng)絡(luò)的深度和寬度。
一個簡單的Inception結(jié)構(gòu)如圖3(a)所示。它由3組尺寸不同的卷積核及一個最大池化單元構(gòu)成,通過并行地處理來自上一層的輸入圖像,然后對結(jié)果依據(jù)通道進(jìn)行融合拼接。
在執(zhí)行卷積運算中,假如輸入圖像的通道數(shù)過多,就會耗費大量的運算資源,卷積核的參數(shù)數(shù)量也會過多,此時就需要對數(shù)據(jù)進(jìn)行降維處理。圖3(b)為加上降維功能的Inception模塊。該模塊對除1 × 1卷積之外的所有卷積和池化操作均使用了1 × 1卷積運算進(jìn)行降維,從而減少了圖像的通道數(shù)。
采用了Inception的GoogLeNet模型深度共有22層,其網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
其中,“#3 × 3 reduce”,“#5 × 5 reduce”表示在3 × 3、5 × 5卷積操作前使用1 × 1卷積的數(shù)量。輸入圖像為224 × 224 × 3,并且經(jīng)過了零均值化的預(yù)處理操作,所有降維層都采用了ReLU非線性激活函數(shù)。
3.1.2. ResNet網(wǎng)絡(luò)
從經(jīng)驗來看,網(wǎng)絡(luò)的深度對模型的性能尤為重要,更深層次的網(wǎng)絡(luò)有助于提取更加復(fù)雜的特征,當(dāng)模型更深時取得的效果也就越好。但研究表明,深度網(wǎng)絡(luò)出現(xiàn)了退化問題:隨著網(wǎng)絡(luò)深度的不斷增加,訓(xùn)練的準(zhǔn)確率趨于飽和,甚至出現(xiàn)了下降趨勢。為了解決該退化問題,一種稱為ResNet的新型卷積神經(jīng)網(wǎng)絡(luò)模型由微軟亞洲研究院何凱明團(tuán)隊提出,它以3.6%的錯誤率贏得了2015年的ILSVRC分類比賽。其主要創(chuàng)新是提出了殘差模塊(Residual Block),有效解決了網(wǎng)絡(luò)深度增加所引起的梯度消失和退化問題,殘差模塊的結(jié)構(gòu)如圖4所示。
(a) 一個簡單的Inception模塊(b) 具有降維功能的Inception模塊
Figure 3. Inceptionmodulation
圖3. Inception模塊
|
Type |
Patchsize/Stride |
Outputsize |
Depth |
#1 × 1 |
#3 × 3 reduce |
#3 × 3 |
#5 × 5 reduce |
#5 × 5 |
Poolproj |
Params |
|
Input |
? |
224 × 224 × 3 |
? | ? | ? | ? | ? | ? | ? | ? |
|
Convolution |
7 × 7/2 |
112 × 112 × 64 |
1 |
? | ? | ? | ? | ? | ? |
2.7 K |
|
Max pool |
3 × 3/2 |
56 × 56 × 64 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Convolution |
3 × 3/1 |
56 × 56 × 192 |
2 |
? |
64 |
192 |
? | ? | ? |
112 K |
|
Max pool |
3 × 3/2 |
28 × 28 × 192 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Inception (3a) |
? |
28 × 28 × 256 |
2 |
64 |
96 |
128 |
16 |
32 |
32 |
159 K |
|
Inception (3b) |
? |
28 × 28 × 480 |
2 |
128 |
128 |
192 |
32 |
96 |
64 |
380 K |
|
Max pool |
3 × 3/2 |
14 × 14 × 480 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Inception (4a) |
? |
14 × 14 × 512 |
2 |
192 |
96 |
208 |
16 |
48 |
64 |
364 K |
|
Inception (4b) |
? |
14 × 14 × 512 |
2 |
160 |
112 |
224 |
24 |
64 |
64 |
437 K |
|
Inception (4c) |
? |
14 × 14 × 512 |
2 |
128 |
128 |
256 |
24 |
64 |
64 |
463 K |
|
Inception (4d) |
? |
14 × 14 × 528 |
2 |
112 |
114 |
288 |
32 |
64 |
64 |
580 K |
|
Inception (4e) |
? |
14 × 14 × 832 |
2 |
256 |
160 |
320 |
32 |
128 |
128 |
840 K |
|
Max pool |
3 × 3/2 |
7 × 7 × 832 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Inception (5a) |
? |
7 × 7 × 832 |
2 |
256 |
160 |
320 |
32 |
128 |
128 |
1072 K |
|
Inception (5a) |
? |
7 × 7 × 1024 |
2 |
384 |
192 |
384 |
48 |
128 |
128 |
1388 K |
|
Avg pool |
7 × 7/1 |
1 × 1 × 1024 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Dropout (40%) |
? |
1 × 1 × 1024 |
0 |
? | ? | ? | ? | ? | ? | ? |
|
Linear |
? |
1 × 1 × 1000 |
1 |
? | ? | ? | ? | ? | ? |
1000 K |
|
Softmax |
? |
1 × 1 × 1000 |
0 |
? | ? | ? | ? | ? | ? | ? |
Table 1. Thestructure of GoogLeNet
表1. GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu)
?
Figure 4. Residual block
圖4. 殘差模塊
一個殘差模塊可以表示為
yi=F(xi,Wi)+h(xi)xi+1=f(yi)yi=F(xi,Wi)+h(xi)xi+1=f(yi)(11)
其中?xixi?和?xi+1xi+1?分別表示第i個殘差塊的輸入和輸出,?F(x,Wi)F(x,Wi)?表示學(xué)習(xí)到的殘差,?h(xi)=xih(xi)=xi?表示恒等映射,f為ReLU激活函數(shù)。采用殘差模塊的ResNet網(wǎng)絡(luò)共有5種不同的深度,其網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。
|
類型 |
輸出維度 |
18-層 |
34-層 |
50-層 |
101-層 |
152-層 |
|
conv1 |
112?×?112 |
7?×?7?, 64, stride 2 |
||||
|
Conv2_x |
56?×?56 |
3?×?3?, max pool, stride 2 |
||||
|
[?3?×?3?,?64?3?×?3?,?64?]?×?2 |
[?3?×?3?,?64?3?×?3?,?64?]?×?3 |
[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 |
[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 |
[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 |
||
|
Conv3_x |
28?×?28 |
[?3?×?3?,?128?3?×?3?,?128?]?×?2 |
[?3?×?3?,?128?3?×?3?,?128?]?×?4 |
[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4 |
[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4 |
[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?8 |
|
Conv4_x |
14?×?14 |
[?3?×?3?,?256?3?×?3?,?256?]?×?2 |
[?3?×?3?,?256?3?×?3?,?256?]?×?6 |
[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?6 |
[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?23 |
[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?36 |
|
Conv5_x |
7?×?7 |
[?3?×?3?,?512?3?×?3?,?512?]?×?2 |
[?3?×?3?,?512?3?×?3?,?512?]?×?3 |
[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 |
[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 |
[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 |
| ? |
1?×?1 |
average pool, 1000-d fc, softmax |
||||
|
FLOPs |
1.8?×?10?9 |
3.6?×?10?9 |
3.8?×?10?9 |
7.6?×?10?9 |
11.3?×?10?9 |
|
Table 2. The structure of ResNet
表2. ResNet網(wǎng)絡(luò)結(jié)構(gòu)
其中網(wǎng)絡(luò)的深度分別為18,34,50,101,152,它們都是先經(jīng)過一個7 × 7的卷積層,再連接一個最大池化操作,然后進(jìn)行堆疊殘差塊,各網(wǎng)絡(luò)中殘差模塊的數(shù)量依次為8,16,33,50。最后通常在網(wǎng)絡(luò)的后端連接一個全局平均池化,從而有效防止過擬合,使輸入輸出的空間變換更具有魯棒性。
3.2. 遷移深度學(xué)習(xí)
2005年,美國國防高級研究計劃局(DARPA)信息處理技術(shù)辦公室(IPTO)給遷移學(xué)習(xí)確定了一個新的定義:一個系統(tǒng)能夠?qū)南惹暗娜蝿?wù)中學(xué)到的知識和能力應(yīng)用到新任務(wù)中解決問題。在這個定義中,遷移學(xué)習(xí)旨在從一個或多個源任務(wù)中提取知識,從而運用到目標(biāo)任務(wù) [19] 。
具體的講:給定源域?DSDS?和學(xué)習(xí)任務(wù)?TSTS?,一個目標(biāo)域?DTDT?和學(xué)習(xí)任務(wù)?TTTT?。遷移學(xué)習(xí)旨在將從?DSDS?和?TSTS?中學(xué)習(xí)到的知識幫助提升?DTDT?中目標(biāo)預(yù)測函數(shù)?fT(.)fT(.)?的學(xué)習(xí),其中?DS≠DTDS≠DT?或?TS≠TTTS≠TT?,多數(shù)情況下?DSDS?要大于?DTDT?的尺寸,?NS?NTNS?NT?。
GoogLeNet和ResNet作為成熟的預(yù)訓(xùn)練網(wǎng)絡(luò),已經(jīng)對超過一百萬個圖像進(jìn)行了訓(xùn)練,學(xué)習(xí)到了豐富的特征,借助于遷移學(xué)習(xí),將預(yù)訓(xùn)練好的成熟網(wǎng)絡(luò)作為訓(xùn)練的初始值,基于它學(xué)習(xí)新的任務(wù),通過網(wǎng)絡(luò)微調(diào)(Fine-Tune)的方式就可以較少的訓(xùn)練樣本快速地將已學(xué)習(xí)的特征遷移到新的任務(wù)中,從而有效解決了雷達(dá)信號樣本構(gòu)建難和訓(xùn)練耗時長的問題。
3.3. 基于遷移深度學(xué)習(xí)的雷達(dá)信號分選識別算法流程
本文構(gòu)建的基于遷移深度學(xué)習(xí)的雷達(dá)信號分選識別算法的系統(tǒng)結(jié)構(gòu)框圖如圖5所示。
?
Figure 5. Theframeworkoftransferreddeep learning system
圖5. 遷移深度學(xué)習(xí)系統(tǒng)結(jié)構(gòu)框圖
具體步驟如下:
Step1:利用MATLAB軟件產(chǎn)生雷達(dá)信號數(shù)據(jù)集;
Step2:基于MSST得到雷達(dá)信號的時頻圖像矩陣,并對時頻圖像進(jìn)行灰度化、自適應(yīng)維納濾波、雙三次插值縮放、歸一化等預(yù)處理操作,生成尺寸為224 × 224的圖像數(shù)據(jù)集;
Step3:加載預(yù)訓(xùn)練網(wǎng)絡(luò)(GoogLeNet或ResNet),利用遷移學(xué)習(xí)的方法,保持預(yù)訓(xùn)練網(wǎng)絡(luò)的參數(shù)不變,替換掉最后一個可學(xué)習(xí)層和分類層,構(gòu)建特征遷移模塊;
Step4:通過圖層復(fù)制將圖像數(shù)據(jù)集轉(zhuǎn)換為224 × 224 × 3的RGB圖像,經(jīng)過數(shù)據(jù)增強(qiáng)處理后構(gòu)建樣本集,其中80%用于訓(xùn)練,10%用于測試,10%用于驗證;
Step5:將訓(xùn)練集和驗證集送入網(wǎng)絡(luò)進(jìn)行遷移學(xué)習(xí)訓(xùn)練,迭代6次,得到最終訓(xùn)練模型TraindedNet;
Step6:利用訓(xùn)練后的模型TrainedNet對測試集進(jìn)行識別,得到識別結(jié)果。
4. 仿真與分析
4.1. 仿真條件
本文對9種雷達(dá)信號進(jìn)行分選識別,由于不同雷達(dá)信號具有不同的參數(shù),為方便描述,采用基于采樣頻率?fsfs?的均勻分布?U(.)U(.)?統(tǒng)一表示,例如?U(1/8,1/4)U(1/8,1/4)?表示參數(shù)范圍?[fs/8,fs/8][fs/8,fs/8]?在之間的隨機(jī)數(shù)。詳細(xì)的參數(shù)設(shè)置如表3所示,統(tǒng)一取采樣頻率?fs=64?MHzfs=64?MHz?,脈沖寬度?T=16?μsT=16?μs?。
|
雷達(dá)信號 |
仿真參數(shù) |
取值范圍 |
|
CW |
載波頻率?f?c |
U?(?1?/?8?,?1?/?4?) |
|
LFM,NLFM |
初始頻率?f?0 |
U?(?1?/?16?,?1?/?8?) |
|
帶寬B |
U?(?1?/?16?,?1?/?8?) |
|
|
BPSK |
Barker碼長度L |
{?5?,?7?,?11?,?13?} |
|
載波頻率?f?c |
U?(?1?/?8?,?1?/?4?) |
|
|
MPSK |
Frank碼 步進(jìn)頻率M |
{?4?,?8?} |
|
載波頻率?f?c |
U?(?1?/?8?,?1?/?4?) |
|
|
Costas |
跳頻序列 |
[?3?,?2?,?6?,?4?,?5?,?1?] [?5?,?4?,?6?,?2?,?3?,?1?] [?2?,?4?,?8?,?5?,?10?,?9?,?7?,?3?,?6?,?1?] |
|
基準(zhǔn)頻率?f?min |
U?(?1?/?24?,?1?/?20?) |
|
|
LFM/BPSK |
基準(zhǔn)頻率?f?min |
U?(?1?/?24?,?1?/?20?) |
|
帶寬 |
U?(?1?/?16?,?1?/?8?) |
|
|
Barker碼長L |
{?5?,?7?,?11?,?13?} |
|
|
LFM/4FSK |
基準(zhǔn)頻率?f?min |
U?(?1?/?24?,?1?/?20?) |
|
子碼帶寬?B?c |
U?(?1?/?20?,?1?/?10?) |
|
|
BPSK/4FSK |
Barker碼長度L |
{?5?,?7?,?11?,?13?} |
|
基準(zhǔn)頻率?f?min |
U?(?1?/?24?,?1?/?20?) |
Table 3. Parameter setting
表3. 參數(shù)設(shè)置
4.2. 不同信噪比識別準(zhǔn)確率實驗
考慮雷達(dá)信號受高斯白噪聲的影響,信噪比取?6~+14 dB,步長為2 dB。每個信噪比下每種信號各產(chǎn)生100組數(shù)據(jù),基于多重同步壓縮變換(MSST)得到信號的時頻圖像,并經(jīng)預(yù)處理后生成224 × 224的灰度圖像,最后轉(zhuǎn)換為224 × 224 × 3的RGB圖像(其中3是顏色通道數(shù),可通過復(fù)制圖層解決)用于構(gòu)建樣本集。其中80%用于訓(xùn)練,10%用于測試,10%用于驗證。
加載新的訓(xùn)練樣本集,分別基于GoogLeNet和ResNet重新進(jìn)行訓(xùn)練,對部分網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào),利用遷移學(xué)習(xí)訓(xùn)練后的網(wǎng)絡(luò)模型對9種雷達(dá)信號進(jìn)行分選識別,得到不同信噪比下基于兩種CNN模型遷移深度學(xué)習(xí)的識別準(zhǔn)確率結(jié)果如圖6所示。
從圖6仿真結(jié)果可知,兩種模型下基于遷移深度學(xué)習(xí)的識別算法在信噪比大于?4 dB時,對9種雷達(dá)信號的識別準(zhǔn)確率均達(dá)到90%以上;在信噪比大于0 dB時,9種雷達(dá)信號的識別準(zhǔn)確率均達(dá)到了100%,證明了基于遷移深度學(xué)習(xí)實現(xiàn)對雷達(dá)信號自動分選識別的算法具有較高的抗噪聲性能和泛化能力。
(a) 基于GoogLeNet遷移學(xué)習(xí)(b) 基于ResNet遷移學(xué)習(xí)
Figure 6. The recognition accuracy of nine kinds of radar signal under different SNR
圖6. 不同信噪比下9種雷達(dá)信號的識別準(zhǔn)確率
4.3. 抗混淆性能分析
為了進(jìn)一步驗證模型識別的準(zhǔn)確性,分別基于GoogLeNet和ResNet遷移學(xué)習(xí)得到測試樣本的混淆矩陣結(jié)果,如圖7所示。
從混淆矩陣可以看出,ResNet模型的平均識別準(zhǔn)確率更高,對9種雷達(dá)信號的平均識別率達(dá)到了99.51%,高于GoogLeNet模型約0.14%。結(jié)果表明經(jīng)過圖像預(yù)處理后得到的MSST時頻圖像能夠較完整地反映雷達(dá)信號的有效信息,基于遷移深度學(xué)習(xí)模型自動提取的特征信息更加地精細(xì),識別的準(zhǔn)確性更高。
(a) 基于GoogLeNet(b) 基于ResNet
Figure 7. The confusionmatrixoftestsample
圖7. 測試樣本混淆矩陣
4.4. 算法對比
為進(jìn)一步分析基于遷移深度學(xué)習(xí)算法的性能,下面將本文算法與文獻(xiàn) [12] 和 [13] 算法進(jìn)行比較。兩種算法對9種雷達(dá)信號的識別率曲線如圖8所示。
由圖8可以看出,本文提出的算法整體平均識別率明顯優(yōu)于文獻(xiàn) [12] 和 [13] 算法。在信噪比為時?6 dB時,采用改進(jìn)Cohen類分布和CNN模型的文獻(xiàn) [12] 算法識別率為82.5%,這是由于該算法使用了過多的去噪圖像預(yù)處理,損失了大量細(xì)節(jié)信息,并且所用的改進(jìn)Cohen類時頻分布對復(fù)合調(diào)制信號的處理能力
(a) 整體(b) LFM(c) CW(d) NLFM(e) BPSK(f) MPSK(g) Costas(h) LFM/BPSK(i) LFM/FSK(j) BPSK/FSK
Figure 8. The comparison between this paper and reference [8] [9]
圖8. 算法性能對比
較差;采用人工提取特征的文獻(xiàn) [13] 算法的整體平均識別率僅能達(dá)到65.1%,這是由于該算法采用人工提取的特征容易受到噪聲的影響,同時該算法未對復(fù)合調(diào)制信號進(jìn)行研究;而本文基于GoogLeNet和ResNet遷移深度學(xué)習(xí)的算法在信噪比低于?6 dB時整體平均識別率仍然可以達(dá)到93.4%。在更高信噪比下,對9種雷達(dá)信號的識別率普遍優(yōu)于其他兩種算法。這是因為,該算法基于MSST時頻分布和遷移深度學(xué)習(xí)自動挖掘的時頻域高維特征表征能力更強(qiáng),模型的抗噪性和泛化能力更為優(yōu)秀,同時較常規(guī)的深度學(xué)習(xí)模型算法計算量更小,有助于工程上的實現(xiàn)。
5. 結(jié)論
本文提出了一種基于時頻分析、深度學(xué)習(xí)和遷移學(xué)習(xí)的融合模型,并應(yīng)用于雷達(dá)信號的自動分選識別中。該算法引入了多重同步壓縮變換(MSST)得到信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進(jìn)行預(yù)處理操作,最后基于遷移深度學(xué)習(xí)的方法,以兩種預(yù)訓(xùn)練模型(GoogLeNet和ResNet)對時頻圖像樣本進(jìn)行重新離線訓(xùn)練,通過網(wǎng)絡(luò)參數(shù)微調(diào)得到了新的融合模型,可以實現(xiàn)對9種雷達(dá)信號的自動識別。仿真結(jié)果表明,該算法模型簡單、計算量小,在信噪比為?6 dB時,對9種雷達(dá)信號的識別率可達(dá)93.4%,具有較高的抗噪聲性能和泛化能力。
審核編輯:符乾江
電子發(fā)燒友App












































評論