chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PFN模型整體結(jié)構(gòu)和分區(qū)過(guò)濾編碼器內(nèi)部結(jié)構(gòu)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2022-08-10 10:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01 前情提要

關(guān)系抽取目前的算法大概可以分為以下幾種:

Pipeline approach:

先抽實(shí)體,再判關(guān)系,比如陳丹琦大神的《A Frustratingly Easy Approach for Joint Entity and Relation Extraction 》

●Joint Entity and Realtion Extraction:

聯(lián)合模型,目前我看過(guò)的有這么幾種方式:

■將聯(lián)合任務(wù)看做是一個(gè)填表問(wèn)題,比如:table sequence,TPlinker

■將聯(lián)合任務(wù)看做是一個(gè)序列標(biāo)注問(wèn)題,比如:ETL Span,PRGC

■將聯(lián)合任務(wù)看做是一個(gè)seq2seq問(wèn)題,比如:SPN4RE

這篇論文:Parition Filter Network(PFN,分區(qū)過(guò)濾網(wǎng)絡(luò))是一個(gè)聯(lián)合模型,他們把問(wèn)題定義為一個(gè)填表問(wèn)題。

他們?cè)诳偨Y(jié)之前論文的encoding層的時(shí)候,把之前的論文的encoding層分成了兩類(lèi):

●sequential encoding:串行,先生成一個(gè)task的特征(一般都是NER),再生成另一個(gè)task的feature(一般就是關(guān)系抽?。?,而后面這個(gè)task的特征,是不會(huì)影響到前面那個(gè)task的特征的。

●parallel encoding:并行,兩個(gè)task的特征是并行生成的,互不影響,只在input層面共享信息。

他們認(rèn)為task間的信息沒(méi)有得到很好的交互,(但其實(shí)Table sequence還是有交互的),其實(shí)現(xiàn)在很多算法里都在講交互,比如NLU里面的SF-ID/Bi-Model。同時(shí),之前也有論文(比如Table sequence和陳丹琦那篇論文)發(fā)現(xiàn)了關(guān)系預(yù)測(cè)和實(shí)體抽取有可能有些特征是不共享的(Table sequence為了解決這個(gè)問(wèn)題,直接用了倆encoder,陳丹琦大佬那一篇直接是pipeline方法,本身就是倆模型)。而這篇論文想在一個(gè)Encoder中完成兩個(gè)task的特征抽取,所以他們提出了一個(gè)分區(qū)和過(guò)濾的思路,找出“只與NER相關(guān)的特征”“只與關(guān)系預(yù)測(cè)相關(guān)的特征”和“與NER和關(guān)系預(yù)測(cè)都相關(guān)的特征”。

這里插一句,他們這篇論文效果是不錯(cuò)的,同時(shí)也得出了一個(gè)結(jié)論,這里提前貼一下,雖然之前有些模型論證關(guān)系抽取的特征部分是對(duì)NER有害的,但他們發(fā)現(xiàn)關(guān)系Signal對(duì)NER是有益的(或者說(shuō)是部分有益的,因?yàn)樗麄冏隽朔謪^(qū))。

廢話(huà)不多說(shuō)了,下面介紹模型: 02 問(wèn)題定義 給定一個(gè)文本,也就是一個(gè)輸入序列:,其中表示下標(biāo)是i的單詞,L是句子的長(zhǎng)度,目的是找到: ●找到所有的實(shí)體:,用token pairs的方式(填表),其中分別是這個(gè)實(shí)體的頭和尾字,e是實(shí)體類(lèi)型 ●找到所有的關(guān)系:,依然是token pairs的方式(填表),其中分別是subject的首字和object的首字,r是關(guān)系類(lèi)型。 03 模型——PFN

模型主要包含兩個(gè)部分:分區(qū)過(guò)濾編碼器(Paritition Filter Encoder, PFE) 和 兩個(gè)Task Unit (NER Unit 和 RE Unit),如下圖(圖中其實(shí)還有一個(gè)Global Feature,這個(gè)按照論文中的解釋可以算在Encoder里面)

e206cee4-17df-11ed-ba43-dac502259ad0.jpg

模型整體結(jié)構(gòu)和分區(qū)過(guò)濾編碼器內(nèi)部結(jié)構(gòu) >>> 3.1分區(qū)過(guò)濾編碼器(PFE)

PFE是一個(gè)循環(huán)特征編碼器,類(lèi)似于LSTM。在每一個(gè)time step,PFE都會(huì)把特征拆分成為三個(gè)分區(qū):entity partition/ relation partition/ shared partition,其中entity partition是僅與實(shí)體抽取相關(guān)的分區(qū),relation partition是僅與relation相關(guān)的分區(qū),shared partition是與兩個(gè)任務(wù)都相關(guān)的分區(qū)。然后通過(guò)合并分區(qū), 就會(huì)過(guò)濾走與特定task無(wú)關(guān)的特征(比如合并entity partition和shared partition,就可以過(guò)濾掉特征中僅與relation相關(guān)的特征)。

上面的流程會(huì)被拆分成兩個(gè)部分:

●分區(qū)(Partition) :拆分成三個(gè)分區(qū)

●過(guò)濾(Filter):合并分區(qū)

e21af6c6-17df-11ed-ba43-dac502259ad0.jpg

分區(qū)過(guò)濾編碼器

3.1.1 分區(qū)操作

如上圖所示,PFN中類(lèi)似LSTM,也定義了cell state(這個(gè)是歷史信息)和 hidden state ,此外還定義了candidate cell state(就是候選分區(qū)的信息),relation gate,entity gate。 每個(gè)時(shí)間步t,分區(qū)操作流程如下: 首先計(jì)算candidate cell state:

e22f739e-17df-11ed-ba43-dac502259ad0.png

然后計(jì)算relation gate和entity gate:

e238c30e-17df-11ed-ba43-dac502259ad0.png

其中, 雖然這里只列了兩個(gè)式子,但實(shí)際看上面的圖就知道,這里的要生成兩層分區(qū),我叫他們“候選分區(qū)層”(負(fù)責(zé)對(duì)candidate cell state進(jìn)行分區(qū))和“歷史分區(qū)層”(負(fù)責(zé)對(duì) t-1 時(shí)間步的cell state進(jìn)行分區(qū)),每層對(duì)應(yīng)兩個(gè)gate,我叫他們“候選relation gate”“候選entity gate”以及“歷史relation gate”“歷史entity gate”。

然后再在每層利用剛剛計(jì)算到的兩個(gè)gate,生成三個(gè)分區(qū)(兩層就是6個(gè)分區(qū)):e252df3c-17df-11ed-ba43-dac502259ad0.png

圖中為t-1時(shí)間步的歷史分區(qū),用t-1時(shí)間步的歷史gate生成,t時(shí)間步的候選分區(qū)一個(gè)道理 e25fb93c-17df-11ed-ba43-dac502259ad0.jpg 這張圖可以解釋一下上面這個(gè)分區(qū),圖片來(lái)自官方代碼的git

最后根據(jù) t-1 時(shí)間步的 歷史gate 和 歷史信息cell state,和 t 時(shí)間步的 候選gate 和 候選信息candidate cell state,生成 t 時(shí)間步的三個(gè)分區(qū)的information:

e275af3a-17df-11ed-ba43-dac502259ad0.png

這部分看代碼可能更清晰:

e2861eec-17df-11ed-ba43-dac502259ad0.png ? 到這里,如果類(lèi)比LSTM的話(huà),cell state 和 hidden state 怎么更新,我們還不知道,同時(shí)得到三個(gè)分區(qū)信息按理說(shuō)是互不重疊的。所以接下來(lái)我們讓他們交互,同時(shí)看如果更新那兩個(gè)state。 ? ? ? ? ? ? 這里有一些問(wèn)題,就是為什么有要用cummax操作,這是個(gè)什么玩意?? ? 這里主要是因?yàn)檫@篇論文在這里的gate設(shè)計(jì)上面參考了Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks中的設(shè)計(jì)。 ? 這里我參考這篇論文簡(jiǎn)單說(shuō)一下我的理解,需要對(duì)信息進(jìn)行排序,切分,所以正好用一個(gè)二值gate??來(lái)描述,我們來(lái)計(jì)算這個(gè)gate。 ? 假設(shè)我們用一個(gè)??表示g中某個(gè)位置出現(xiàn)第一個(gè)1的概率,看起來(lái)像是幾何分布,但并不是,因?yàn)椴皇遣囼?yàn),所以算起來(lái)比較麻煩。 ? 我們計(jì)算gate g中第k個(gè)位置是1的概率,就可以用累計(jì)分布函數(shù):???。這樣的話(huà),我們就可以表示二值gate g每個(gè)位置為1的概率了,而因?yàn)槎礸ate g每個(gè)位置都是離散的,也不好用,所以就用概率來(lái)代替它,可以作為它的期望。 ? 然后用這個(gè)概率去定義兩個(gè)gate,一個(gè)單調(diào)增的cummax,一個(gè)單調(diào)減的cummax,防止沖突。 ?

3.1.2 過(guò)濾操作

首先,根據(jù)上一步生成的三個(gè)分區(qū)的信息,交互得到生成三個(gè)memory,以達(dá)到過(guò)濾的效果:實(shí)體相關(guān)/關(guān)系相關(guān)/shared

e2a06fb8-17df-11ed-ba43-dac502259ad0.png

這里就達(dá)到了過(guò)濾的效果,實(shí)體部分過(guò)濾掉了僅與relation相關(guān)的,relation部分過(guò)濾掉了僅與實(shí)體相關(guān)的,shared部分包含了task間的信息,可以認(rèn)為是平衡兩個(gè)task 然后,三個(gè)memory分別過(guò)tanh得到相應(yīng)的三個(gè)hidden state,直接從當(dāng)前時(shí)間步的cell中輸出,當(dāng)做是 NER-specific Feature/ Relation-specific Feature/ Shared Feature,用于下一階段的運(yùn)算

e2ae4ba6-17df-11ed-ba43-dac502259ad0.png

最后,更新cell state 和 hidden state,三個(gè)memory拼接在一起過(guò)線(xiàn)性映射得到 t 時(shí)間步的 cell state,t 時(shí)間步的 cell state 過(guò) tanh 得到 t 時(shí)間步的 hidden state

e2cc6f0a-17df-11ed-ba43-dac502259ad0.png

到這里,一個(gè)PFE 的 cell 就講完了。

>>> 3.2 Global Representation

上面的 PFE Cell 其實(shí)是一個(gè)單向編碼器,但一般嘛,大家都用雙向的編碼器,哪怕你用個(gè)BILSTM呢,也是雙向的呀,本文為了代替雙向編碼器中的后向編碼器,就提出了這個(gè)Global Representation。

具體來(lái)說(shuō)就是獲得兩個(gè)task-specific全局的表征:分別用每個(gè)時(shí)間步的 entity-specific feature 和 relation-specific feature 拼接 shared feature,過(guò)線(xiàn)性映射和tanh,然后做個(gè)maxpooling over time,就獲得了兩個(gè)task-specific feature:

e2d8e212-17df-11ed-ba43-dac502259ad0.png

>>> 3.3Task Unit

Task Unit 包含兩個(gè)Unit:entity Unit 和 Relation Unit,分別是兩個(gè)填表任務(wù)

● Entity Unit

如果句子輸入長(zhǎng)度是L,那么表格的長(zhǎng)度是L*L,表格中的(i, j)位置表示以第i個(gè)位置開(kāi)始和第j個(gè)位置結(jié)束的span的Entity-Sepcific 表征,這個(gè)表征的為拼接:第i個(gè)位置和第j個(gè)的entity-specific feature,以及entity-specific global representation,過(guò)Linear以及ELU激活函數(shù)

e2e7df88-17df-11ed-ba43-dac502259ad0.png

接下來(lái)就是輸出層:就是一個(gè)線(xiàn)性映射,映射到entity type數(shù)目的維數(shù)上,然后每維做sigmoid,判斷是不是其代表的entity type(之所以采用這種多標(biāo)簽分類(lèi)的方式,是為了解決overlapping問(wèn)題)

e2f7b4a8-17df-11ed-ba43-dac502259ad0.png

● Relation Unit

如果一個(gè)句子長(zhǎng)度是L,那么表格長(zhǎng)度是L*L,表格中的 (i, j) 位置標(biāo)示以第i個(gè)位置為首字的span,和以第j個(gè)位置為首字的span的 關(guān)系表征,這個(gè)表征的和Entity Unit差不多,拼接:第i個(gè)位置和第j個(gè)的relation-specific feature,以及relation-specific global representation,過(guò)Linear以及ELU激活函數(shù)

然后一樣做多標(biāo)簽分類(lèi)

e310ec2a-17df-11ed-ba43-dac502259ad0.png

>>> 3.4 訓(xùn)練和推斷

●損失函數(shù):兩個(gè)BCE

e32152cc-17df-11ed-ba43-dac502259ad0.png

推斷的時(shí)候有兩個(gè)超參數(shù)閾值:實(shí)體閾值和關(guān)系閾值,都設(shè)置為0.5

e3383a8c-17df-11ed-ba43-dac502259ad0.png

04 實(shí)驗(yàn) >>> 4.1 主要結(jié)果

e344810c-17df-11ed-ba43-dac502259ad0.jpg

e36d90f6-17df-11ed-ba43-dac502259ad0.jpg

可以看到,在使用同樣的預(yù)訓(xùn)練模型的情況下,效果是要比TPLiner和Table Sequence要好的(Table Sequence是有一些交互的喲),同時(shí)這篇論文在WebNLG上的結(jié)果也比同時(shí)EMNLP2021論文的PRGC要好一點(diǎn)點(diǎn)(PFN-93.6, PRGC-93.0, TPLinker-91.9) >>> 4.2 消融實(shí)驗(yàn)

e37ac58c-17df-11ed-ba43-dac502259ad0.png

他們的消融實(shí)驗(yàn)主要進(jìn)行了如下幾個(gè):

●編碼器的層數(shù)實(shí)驗(yàn):1層效果就很好 ●雙向編碼器Vs單向編碼器:主要是為了證明他們的Global Representation的作用,結(jié)果發(fā)現(xiàn)效果真不戳,在他們的這一套里面,全局表征完全可以代替后向編碼器,甚至效果更好 ■前向+G>雙向+G>雙向>單向 ●編碼器的結(jié)果:他們換成了兩個(gè)LSTM,發(fā)現(xiàn)他們的效果好 ■對(duì)于并行模式:entity 和 relation 分別過(guò)一個(gè)LSTM,只在input級(jí)別共享 ■對(duì)于串行模式:先過(guò)第一個(gè)LSTM,hidden state 用于entity預(yù)測(cè),同時(shí) hidden state會(huì)被送到第二層LSTM中去,結(jié)果用于預(yù)測(cè)relation ●分區(qū)粒度:這個(gè)我覺(jué)得實(shí)驗(yàn)設(shè)置一定是他們的好,沒(méi)必要單拎出來(lái)講 ●解碼策略:兩種,一種是relation只考慮entity prediction 結(jié)果的(解碼時(shí)級(jí)聯(lián),relation不考慮所有單詞,僅考慮candidate set),一種是他們這種兩張表都填的(relation考慮所有單詞) ■他們發(fā)現(xiàn)后者效果更好,原因可能有二:a. 前一種有誤差傳遞;b. 第二種表中的負(fù)例多,有點(diǎn)對(duì)比學(xué)習(xí)的意思,因此學(xué)到的正例的表征更牛逼。

>>> 4.3 關(guān)系抽取的signal對(duì)NER的影響

之所以做這個(gè)實(shí)驗(yàn),是因?yàn)橹坝姓撐恼J(rèn)為關(guān)系抽取的特征對(duì)NER在Joint模型中是有害的,因?yàn)閮烧咝枰奶卣鞑煌?。他們只是部分同意這個(gè)觀點(diǎn),也就是說(shuō),關(guān)系抽取的特征部分是對(duì)NER有害的,但也有一部分對(duì)NER有益的,他們這篇論文其實(shí)就是識(shí)別出來(lái)哪部分有益,哪部分有害,并對(duì)有益部分加以利用。

4.3.1 關(guān)系內(nèi)和關(guān)系外的實(shí)體抽取的差別

在主要實(shí)驗(yàn)中,ACE05里面他們的NER效果拉垮了,他們認(rèn)為是關(guān)系外的實(shí)體很多,統(tǒng)計(jì)了一下有64%的實(shí)體都是關(guān)系外實(shí)體。

e38d1eb2-17df-11ed-ba43-dac502259ad0.png

他們做了三個(gè)數(shù)據(jù)集上面的,關(guān)系內(nèi)的實(shí)體識(shí)別效果F1都要好于關(guān)系外的。(SciERC中g(shù)ap超大,因?yàn)镾ciERC中的實(shí)體專(zhuān)業(yè)程度更強(qiáng),也更長(zhǎng),有關(guān)系效果更好),此外,precision的gap尤其大,證明失去了relation信息的,模型在entity上就會(huì)過(guò)擬合。

同時(shí)看到:關(guān)系外實(shí)體的占比 與 NER的效果是負(fù)相關(guān)的。這有可能是因?yàn)閖oint model的一個(gè)缺點(diǎn):考慮到關(guān)系內(nèi)和關(guān)系外的實(shí)體的推斷邏輯是不一樣的(一個(gè)有relation影響,一個(gè)沒(méi)有),那么joint model有可能對(duì)關(guān)系外的NER的效果是有害的。

但我這里弱弱的問(wèn)一句,這是不是說(shuō)對(duì)于類(lèi)外實(shí)體,如果gate可以做的更好,就可以效果依然棒呢,其他兩個(gè)比它好的論文里面(Table Sequence也是交互的啊,PURE我還沒(méi)看,回頭看看)。

4.3.2 NER魯棒性分析

他們與純NER算法做對(duì)比,進(jìn)行了魯棒性的分析,發(fā)現(xiàn)他們的NER的魯棒性還是不錯(cuò)的,可能的原因就是relation signals對(duì)實(shí)體進(jìn)行了約束,從而讓魯棒性更強(qiáng)。

e39e1a78-17df-11ed-ba43-dac502259ad0.png

所以通過(guò)上面兩部分,他們認(rèn)為關(guān)系信息對(duì)NER效果是有幫助的。此外,提一嘴,他們反駁了陳丹琦大佬論文《A Frustratingly Easy Approach for Joint Entity and Relation Extraction》關(guān)于關(guān)系信息對(duì)NER的幫助比較小的結(jié)論,認(rèn)為那篇論文是在ACE2005上面做的實(shí)驗(yàn),類(lèi)外實(shí)體太多了,所以效果不明顯。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3874

    瀏覽量

    140517
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3610

    瀏覽量

    51426
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4922

    瀏覽量

    72232

原文標(biāo)題:復(fù)旦提出PFN: 關(guān)系抽取SOTA之分區(qū)過(guò)濾網(wǎng)絡(luò)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    芯片封裝內(nèi)部結(jié)構(gòu)

    `芯片封裝內(nèi)部結(jié)構(gòu)經(jīng)典封裝知識(shí),內(nèi)部結(jié)構(gòu)完美呈現(xiàn),分析芯片封裝的每一個(gè)知識(shí)點(diǎn)。[hide][/hide]`
    發(fā)表于 06-11 16:10

    [轉(zhuǎn)帖]光耦內(nèi)部結(jié)構(gòu)原理

    光耦內(nèi)部結(jié)構(gòu)原理光耦內(nèi)部結(jié)構(gòu):  光耦合是以光形式傳遞信號(hào)的,內(nèi)部電路是由光敏三極管和發(fā)光二極管組合成一個(gè)電子元件被封裝在個(gè)塑料殼內(nèi),接入電路后,輸入端的電信號(hào)
    發(fā)表于 06-19 10:45

    8051內(nèi)部結(jié)構(gòu)

    8051內(nèi)部結(jié)構(gòu)供大家參考。
    發(fā)表于 12-17 08:59

    變頻內(nèi)部結(jié)構(gòu)_變頻內(nèi)部結(jié)構(gòu)

    變頻內(nèi)部結(jié)構(gòu)_變頻內(nèi)部結(jié)構(gòu)圖 1.主控電路 主要功能如下:(1)接受各種信號(hào) 1)在功能預(yù)置階段,接受對(duì)各功能的預(yù)置信號(hào): 2)接受從鍵盤(pán)或外接輸入端子輸入的給定信號(hào); 3)接受
    發(fā)表于 09-05 10:49

    MAX782內(nèi)部結(jié)構(gòu)框圖

    MAX782內(nèi)部結(jié)構(gòu)框圖 內(nèi)部框圖
    發(fā)表于 11-14 16:24 ?1070次閱讀
    MAX782<b class='flag-5'>內(nèi)部結(jié)構(gòu)</b>框圖

    光電編碼器原理結(jié)構(gòu)

    光電編碼器原理結(jié)構(gòu)圖 增量式光電旋轉(zhuǎn)編碼器???  所謂編碼器即是將某種物理量轉(zhuǎn)換為數(shù)字格式的裝置。運(yùn)動(dòng)控制系統(tǒng)中的編碼器
    發(fā)表于 03-08 15:24 ?1.7w次閱讀

    ABB變頻內(nèi)部結(jié)構(gòu)

    ABB ACS800內(nèi)部結(jié)構(gòu),電路板識(shí)別、連線(xiàn)、作用。
    發(fā)表于 05-03 16:42 ?0次下載

    元件的內(nèi)部結(jié)構(gòu)

    元件的內(nèi)部結(jié)構(gòu)
    發(fā)表于 03-04 17:48 ?6次下載

    基于雙編碼器網(wǎng)絡(luò)結(jié)構(gòu)的CGAtten-GRU模型

    為了解決序列到序列模型編碼器不能充分編碼源文本的問(wèn)題,構(gòu)建一種基于雙編碼器網(wǎng)絡(luò)結(jié)構(gòu)的Cgatten-GRU
    發(fā)表于 04-01 15:10 ?12次下載
    基于雙<b class='flag-5'>編碼器</b>網(wǎng)絡(luò)<b class='flag-5'>結(jié)構(gòu)</b>的CGAtten-GRU<b class='flag-5'>模型</b>

    AN-562:過(guò)濾ADV719x視頻編碼器內(nèi)部濾波規(guī)范

    AN-562:過(guò)濾ADV719x視頻編碼器內(nèi)部濾波規(guī)范
    發(fā)表于 04-21 10:23 ?8次下載
    AN-562:<b class='flag-5'>過(guò)濾</b>ADV719x視頻<b class='flag-5'>編碼器</b><b class='flag-5'>內(nèi)部</b>濾波<b class='flag-5'>器</b>規(guī)范

    基于結(jié)構(gòu)感知的雙編碼器解碼模型

    ,在常見(jiàn)端到端翻譯模型的基礎(chǔ)上,利用代碼抽象語(yǔ)法樹(shù)將源代碼的結(jié)構(gòu)信息嵌入到編碼器解碼翻譯模型中,提出一種基于
    發(fā)表于 05-26 15:38 ?5次下載

    交叉導(dǎo)軌的內(nèi)部結(jié)構(gòu)

    交叉導(dǎo)軌的內(nèi)部結(jié)構(gòu)
    的頭像 發(fā)表于 08-16 17:52 ?1739次閱讀
    交叉導(dǎo)軌的<b class='flag-5'>內(nèi)部結(jié)構(gòu)</b>

    MOSFET和IGBT內(nèi)部結(jié)構(gòu)與應(yīng)用

    MOSFET和IGBT內(nèi)部結(jié)構(gòu)不同,決定了其應(yīng)用領(lǐng)域的不同。
    的頭像 發(fā)表于 11-03 14:53 ?1760次閱讀
    MOSFET和IGBT<b class='flag-5'>內(nèi)部結(jié)構(gòu)</b>與應(yīng)用

    磁性編碼器結(jié)構(gòu)及原理

    磁性編碼器結(jié)構(gòu)及原理,磁性編碼器結(jié)構(gòu):磁性編碼器由兩個(gè)主要組合而成,讀頭和標(biāo)尺。標(biāo)尺是一個(gè)含有磁性條紋的輪子或桿,而讀頭則固定在機(jī)械裝置上
    的頭像 發(fā)表于 01-22 11:24 ?2422次閱讀
    磁性<b class='flag-5'>編碼器</b><b class='flag-5'>結(jié)構(gòu)</b>及原理

    觸發(fā)內(nèi)部結(jié)構(gòu)是什么

    觸發(fā)內(nèi)部結(jié)構(gòu)因類(lèi)型和設(shè)計(jì)而異,但通常包括一些基本的組成部分,如存儲(chǔ)元件、控制門(mén)電路和反饋電路。以邊沿觸發(fā)為例,其內(nèi)部結(jié)構(gòu)相對(duì)復(fù)雜,但可以通過(guò)分解其關(guān)鍵組成部分來(lái)詳細(xì)闡述。
    的頭像 發(fā)表于 08-12 14:43 ?1883次閱讀