一、研究背景
手寫(xiě)數(shù)學(xué)公式識(shí)別是將包含數(shù)學(xué)表達(dá)式的圖像轉(zhuǎn)換為結(jié)構(gòu)表達(dá)式,例如LaTeX數(shù)學(xué)表達(dá)式或符號(hào)布局樹(shù)的過(guò)程。手寫(xiě)數(shù)學(xué)表達(dá)式的識(shí)別已經(jīng)帶來(lái)了許多下游應(yīng)用,如在線教育、自動(dòng)評(píng)分和公式圖像搜索。在在線教育場(chǎng)景下,手寫(xiě)數(shù)學(xué)表達(dá)式的識(shí)別率對(duì)提高學(xué)習(xí)效率和教學(xué)質(zhì)量至關(guān)重要。 對(duì)比于傳統(tǒng)的文本符號(hào)識(shí)別(Optical Character Recognition, OCR),公式識(shí)別具有更大的挑戰(zhàn)性。公式識(shí)別不僅需要從圖像中識(shí)別不同書(shū)寫(xiě)風(fēng)格的符號(hào),還需要建模符號(hào)和上下文之間的關(guān)系。例如,在LaTeX中,模型需要生成“^”、“_”、“{”和“}”來(lái)描述二維圖像中符號(hào)之間的位置和層次關(guān)系。編碼器-解碼器架構(gòu)由于可以編碼器部分進(jìn)行特征提取,在解碼器部分進(jìn)行語(yǔ)言建模,而在手寫(xiě)數(shù)學(xué)公式識(shí)別任務(wù)(Handwritten Mathematical Expression Recognition, HMER)中被廣泛使用。 雖然Transformer在自然語(yǔ)言處理領(lǐng)域已經(jīng)成為了基礎(chǔ)模型,但其在HMER任務(wù)上的性能相較于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)還不能令人滿(mǎn)意。作者觀察到現(xiàn)有的Transformer與RNN一樣會(huì)受到缺少覆蓋注意力機(jī)制的影響,即“過(guò)解析”——圖像的某些部分被不必要地多次解析,以及“欠解析”——有些區(qū)域未被解析。RNN解碼器使用覆蓋注意機(jī)制來(lái)緩解這一問(wèn)題。然而,Transformer解碼器所采用的點(diǎn)積注意力沒(méi)有這樣的覆蓋機(jī)制,作者認(rèn)為這是限制其性能的關(guān)鍵因素。 不同于RNN,Transformer中每一步的計(jì)算是相互獨(dú)立的。雖然這種特性提高了Transformer中的并行性,但也使得在Transformer解碼器中直接使用以前工作中的覆蓋機(jī)制變得困難。為了解決上述問(wèn)題,作者提出了一種利用Transformer解碼器中覆蓋信息的新模型,稱(chēng)為CoMER。受RNN中覆蓋機(jī)制的啟發(fā),作者希望Transformer將更多的注意力分配到尚未解析的區(qū)域。具體地說(shuō),作者提出了一種新穎的注意精煉模塊(Attention Refinement Module, ARM),它可以在不影響并行性的前提下,根據(jù)過(guò)去的對(duì)齊信息對(duì)注意權(quán)重進(jìn)行精煉。同時(shí)為了充分利用來(lái)自不同層的過(guò)去對(duì)齊信息,作者提出了自覆蓋和交叉覆蓋,分別利用來(lái)自當(dāng)前層和前一層的過(guò)去對(duì)齊信息。作者進(jìn)一步證明,在HMER任務(wù)中,CoMER的性能優(yōu)于標(biāo)準(zhǔn)Transformer解碼器和RNN解碼器。
圖1 本文提出的具有注意力精煉模塊的Transformer模型
二、方法原理簡(jiǎn)述
CNN編碼器在編碼器部分,本文使用DenseNet作為編碼器。相較于ResNet,DenseNet在不同尺度特征圖上的密集連接能夠更好地反映出不同大小字符的尺度特征,有利于后續(xù)解碼不同位置大小字符的含義。為了使DenseNet輸出特征與解碼器模型尺寸對(duì)齊,作者在編碼器的末端增加了1 × 1的卷積層,得到輸出圖像特征
。
位置編碼與RNN解碼器不同,由于Transformer解碼器的Token之間不具有空間位置關(guān)系,額外的位置信息是必要的。在論文中,作者與BTTR[1]一致,同時(shí)使用圖像位置編碼和字符位置編碼。 對(duì)于字符位置編碼,作者使用Transformer[2]中引入的1D位置編碼。給定編碼維數(shù)d,位置p,特征維索引i,則字符位置編碼向量
可表示為:
圖像位置編碼采用與[1,3]相同的二維歸一化位置編碼。由于模型需要關(guān)注的是相對(duì)位置,所以首先要將位置坐標(biāo)歸一化。給定二維坐標(biāo)元組,編碼維數(shù)為d,通過(guò)一維位置的拼接計(jì)算二維圖像位置編碼
。
其中和
代表了輸入圖像特征的尺寸。注意力精煉模塊(ARM)如果在Transformer中直接采用RNN式的覆蓋注意力機(jī)制。那么將會(huì)產(chǎn)生一個(gè)具有
空間復(fù)雜度的覆蓋矩陣
,這樣的大小是難以接受的。問(wèn)題的瓶頸在于覆蓋矩陣需要先與其他特征向量相加,再乘以向量
。如果我們可以先將覆蓋矩陣與
相乘,再加上LuongAttention[4]的結(jié)果,空間復(fù)雜度將大大降低到
。因此作者將注意力機(jī)制修改為:
其中相似向量可分為注意項(xiàng)和精煉項(xiàng)
。需要注意的是,精煉項(xiàng)可以通過(guò)覆蓋函數(shù)直接由累積
向量生成,從而避免了具有為維數(shù)為
的中間項(xiàng)。作者將上式命名為注意力精煉框架。
圖2 注意精煉模塊(ARM)的整體結(jié)構(gòu) 為了在Transformer中使用這一框架,作者提出了如圖2所示的注意精煉模塊(ARM)??梢詫ransformer中的點(diǎn)積矩陣作為注意項(xiàng),精煉項(xiàng)矩陣R需要從經(jīng)過(guò)Softmax后的注意權(quán)值A(chǔ)中計(jì)算出來(lái)。作者使用了注意權(quán)值A(chǔ)來(lái)提供歷史對(duì)齊信息,具體的選擇會(huì)在下一小節(jié)介紹。 作者定義了一個(gè)將注意力權(quán)重
作為輸入,輸出為精煉矩陣
的函數(shù)
:
其中是在時(shí)間步
時(shí)的注意力權(quán)重。
代表一個(gè)卷積核,*代表卷積操作。
是一個(gè)偏置項(xiàng),
是一個(gè)線性投影矩陣。 作者認(rèn)為函數(shù)
可以提取局部覆蓋特征來(lái)檢測(cè)已解析區(qū)域的邊緣,并識(shí)別傳入的未解析區(qū)域。最終,作者通過(guò)減去精煉項(xiàng)R來(lái)達(dá)到精煉注意力項(xiàng)E的目的。覆蓋注意力本節(jié)將介紹注意權(quán)重A的具體選擇。作者提出了自覆蓋、交叉覆蓋以及融合覆蓋三種模式,以利用不同階段的對(duì)齊信息。自覆蓋: 自覆蓋是指使用當(dāng)前層生成的對(duì)齊信息作為注意精煉模塊的輸入。對(duì)于當(dāng)前層j,首先計(jì)算注意權(quán)重
,并對(duì)其進(jìn)行精煉。
其中代表了精煉后的點(diǎn)積結(jié)果。
代表在j層精煉后的注意力權(quán)重。交叉覆蓋:作者利用Transformer中解碼層相互堆疊的特性,提出了一種新的交叉覆蓋方法。交叉覆蓋使用前一層的對(duì)齊信息作為當(dāng)前層ARM的輸入。j為當(dāng)前層,我們使用精煉后的注意力權(quán)重
之前
層來(lái)精煉當(dāng)前層的注意力項(xiàng)。
融合覆蓋:將自覆蓋和交叉覆蓋相結(jié)合,作者提出了一種新的融合覆蓋方法,充分利用從不同層生成的過(guò)去對(duì)齊信息。
其中表示來(lái)自當(dāng)前層的注意權(quán)重與來(lái)自前一層的精煉注意權(quán)重進(jìn)行拼接。
三、主要實(shí)驗(yàn)結(jié)果及可視化結(jié)果
表1 與先前工作在CROHME數(shù)據(jù)集上的效果的比較
從表1中可以看出,與使用覆蓋注意力機(jī)制的RNN的模型相比,CoMER在每個(gè)CROHME測(cè)試集上的性能優(yōu)于Ding等人[5]提出的先前最先進(jìn)的模型。在完全正確率ExpRate中,與之前性能最好的基于RNN的模型相比,CoMER平均提高了1.43%。與基于Transformer的模型相比,作者提出的帶有ARM和融合覆蓋的CoMER顯著提高了性能。具體而言,CoMER在所有指標(biāo)上都優(yōu)于基準(zhǔn)“BTTR”,在ExpRate中平均領(lǐng)先基準(zhǔn)“BTTR”3.6%。
表2 各模塊消融實(shí)驗(yàn)
在表2中,“Scale -aug”表示是否采用尺度增廣[6]?!癝elf-cov”和“Cross-cov”分別表示是否使用自覆蓋和交叉覆蓋。與BTTR相比,采用ARM和覆蓋機(jī)制的CoMER的性能有了明顯的提高。
圖3 不同算法在CROHME 2014數(shù)據(jù)集上不同長(zhǎng)度正確率的對(duì)比 從圖3中可以看到,相較于基準(zhǔn)方法與本文提出的三種覆蓋方法,融合覆蓋可以大大增強(qiáng)模型對(duì)長(zhǎng)公式的識(shí)別率。這也驗(yàn)證了覆蓋機(jī)制能夠更好地引導(dǎo)注意力對(duì)齊歷史信息。
圖4 公式圖像識(shí)別中的精煉項(xiàng)R可視化。
如圖4所示,作者將識(shí)別過(guò)程中的精煉項(xiàng)R可視化。可以看到,經(jīng)過(guò)解析的區(qū)域顏色較深,這表明ARM將抑制這些解析區(qū)域的注意權(quán)重,鼓勵(lì)模型關(guān)注未解析區(qū)域??梢暬瘜?shí)驗(yàn)表明,作者提出的ARM可以有效地緩解覆蓋不足的問(wèn)題。
四、總結(jié)及討論
作者受RNN中覆蓋注意力的啟發(fā),提出將覆蓋機(jī)制引入到Transformer解碼器中。提出了一種新的注意精煉模塊(ARM),使得在Transformer中進(jìn)行注意力精煉的同時(shí)不損害其并行計(jì)算特性成為可能。同時(shí)還提出了自覆蓋、交叉覆蓋和融合覆蓋的方法,利用來(lái)自當(dāng)前層和前一層的過(guò)去對(duì)齊信息來(lái)優(yōu)化注意權(quán)重。實(shí)驗(yàn)證明了作者提出的CoMER緩解了覆蓋不足的問(wèn)題,顯著提高了長(zhǎng)表達(dá)式的識(shí)別精度。作者認(rèn)為其提出的注意精煉框架不僅適用于手寫(xiě)數(shù)學(xué)表達(dá)式識(shí)別。ARM可以幫助精煉注意權(quán)重,提高所有需要?jiǎng)討B(tài)對(duì)齊的任務(wù)的對(duì)齊質(zhì)量。為此,作者打算將解碼器中的ARM擴(kuò)展為一個(gè)通用框架,用于解決未來(lái)工作中的各種視覺(jué)和語(yǔ)言任務(wù)(例如,機(jī)器翻譯、文本摘要、圖像字幕)。
原文作者: Wenqi Zhao, Liangcai Gao
審核編輯:郭婷
-
解碼器
+關(guān)注
關(guān)注
9文章
1176瀏覽量
42003 -
ARM
+關(guān)注
關(guān)注
134文章
9353瀏覽量
377703 -
編碼器
+關(guān)注
關(guān)注
45文章
3808瀏覽量
138106
發(fā)布評(píng)論請(qǐng)先 登錄
【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘
對(duì)話張麗萍 AI磁芯損耗建模應(yīng)用還有多遠(yuǎn)?

基于LockAI視覺(jué)識(shí)別模塊:手寫(xiě)數(shù)字識(shí)別
基于LockAI視覺(jué)識(shí)別模塊:手寫(xiě)數(shù)字識(shí)別

經(jīng)顱電刺激適應(yīng)癥之tDCS治療注意力缺陷ADHD

Firefly 服務(wù)器系列:覆蓋多個(gè)領(lǐng)域的高算力解決方案

如何使用MATLAB構(gòu)建Transformer模型

港大提出SparX:強(qiáng)化Vision Mamba和Transformer的稀疏跳躍連接機(jī)制

【正點(diǎn)原子STM32H7R3開(kāi)發(fā)套件試用體驗(yàn)】手寫(xiě)數(shù)字、字母的識(shí)別
一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

Llama 3 模型與其他AI工具對(duì)比
英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度
matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析
2024 年 19 種最佳大型語(yǔ)言模型

評(píng)論