chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要引入遠(yuǎn)程監(jiān)督方法?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI自然語(yǔ)言處理與知識(shí)圖譜 ? 作者:AI自然語(yǔ)言處理與 ? 2021-04-02 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從早期到現(xiàn)在來(lái)看關(guān)系抽取任務(wù)的話,基本的做法包括基于規(guī)則匹配、監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)以及遠(yuǎn)程監(jiān)督學(xué)習(xí)等方法,上篇文章《從頭來(lái)看關(guān)系抽取》已經(jīng)介紹了監(jiān)督學(xué)習(xí)早期的一些開(kāi)山之作,而今天的主人公是遠(yuǎn)程監(jiān)督來(lái)做關(guān)系抽取,那么為什么要引入遠(yuǎn)程監(jiān)督的方法,什么是遠(yuǎn)程監(jiān)督的方法,基于遠(yuǎn)程監(jiān)督的關(guān)系抽取的方法從古至今是怎么演變發(fā)展的,帶著這些疑問(wèn),我們簡(jiǎn)單了解一下。

為什么要引入遠(yuǎn)程監(jiān)督方法?

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)是利用標(biāo)注好的訓(xùn)練數(shù)據(jù),傳統(tǒng)的機(jī)器學(xué)習(xí)模型或者是深度學(xué)習(xí)算法構(gòu)建網(wǎng)絡(luò)模型,老生常談的問(wèn)題,這種方法的問(wèn)題在于雖然能夠利用標(biāo)注質(zhì)量高的數(shù)據(jù)獲取很好的效果,但是獲取高質(zhì)量的標(biāo)注數(shù)據(jù)需要花費(fèi)昂貴的人力、物力,因此引出很多其他的學(xué)習(xí)方式,比如半監(jiān)督、無(wú)監(jiān)督、遠(yuǎn)程監(jiān)督、遷移學(xué)習(xí)等等。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)是解決獲取大量高質(zhì)量標(biāo)注數(shù)據(jù)難問(wèn)題的一種解決方式,利用少部分高質(zhì)量標(biāo)注數(shù)據(jù),通過(guò)相關(guān)算法學(xué)習(xí),常用的是Bootstrapping learning 以及遠(yuǎn)程監(jiān)督方法。對(duì)于關(guān)系抽取任務(wù)來(lái)說(shuō),Bootstrapping 算法的輸入少量實(shí)體關(guān)系數(shù)據(jù)作為種子,找到更多有某種關(guān)系的相關(guān)數(shù)據(jù)。但是我們可以想到一個(gè)問(wèn)題就是利用少量的種子數(shù)據(jù)在大規(guī)模數(shù)據(jù)中搜尋出來(lái)的結(jié)果,是否是我們真正想要的,會(huì)不會(huì)存歧義的數(shù)據(jù),畢竟利用一點(diǎn)種子就想達(dá)到我們的目標(biāo),肯定是存在某些問(wèn)題的,這也是 Bootstraping 算法的語(yǔ)義漂移問(wèn)題。

遠(yuǎn)程監(jiān)督學(xué)習(xí)

遠(yuǎn)程監(jiān)督學(xué)習(xí)很早之前就被提出來(lái)了,但是應(yīng)用在關(guān)系抽取任務(wù)上面應(yīng)該是2009年的一篇論文,作為遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開(kāi)山之作,下面會(huì)介紹這個(gè)工作。簡(jiǎn)單來(lái)說(shuō),遠(yuǎn)程監(jiān)督關(guān)系抽取是通過(guò)將大規(guī)模非結(jié)構(gòu)化文本中的語(yǔ)料與知識(shí)庫(kù)對(duì)齊,這樣便可以獲取大量訓(xùn)練數(shù)據(jù)供模型訓(xùn)練。遠(yuǎn)程監(jiān)督關(guān)系抽取的工作可以分為兩階段,其中后期以及目前的發(fā)展都集中在神經(jīng)網(wǎng)絡(luò)提取特征信息結(jié)合多實(shí)例學(xué)習(xí)思想。

開(kāi)山燎原-2009-ACL

論文題目:Distant supervision for relation extraction without labeled data

論文地址:https://www.aclweb.org/anthology/P09-1113.pdf

這篇文章應(yīng)該是最早的將遠(yuǎn)程監(jiān)督學(xué)習(xí)用于關(guān)系抽取,是一篇開(kāi)山之作。

文中提出了一個(gè)強(qiáng)有力的假設(shè):如果兩個(gè)實(shí)體在已知知識(shí)庫(kù)中存在,并且兩者有相對(duì)應(yīng)的某種關(guān)系,那么當(dāng)這兩個(gè)實(shí)體在其他非結(jié)構(gòu)化文本中存在的時(shí)候也能夠表達(dá)這種關(guān)系?;谶@種強(qiáng)有力的假設(shè),遠(yuǎn)程監(jiān)督算法可以利用已有的知識(shí)庫(kù),給外部非結(jié)構(gòu)化文本中的句子標(biāo)注某種關(guān)系標(biāo)簽,相當(dāng)于自動(dòng)語(yǔ)料標(biāo)注,能夠獲取大量的標(biāo)注數(shù)據(jù)供模型訓(xùn)練。

訓(xùn)練階段

文中所采用的知識(shí)庫(kù)為Freebase,非結(jié)構(gòu)化文本采用的是維基百科等數(shù)據(jù)。既然是要判定句子中的實(shí)體是否在知識(shí)庫(kù)中存在,那么必然要識(shí)別出對(duì)應(yīng)的實(shí)體,識(shí)別實(shí)體部分文中依賴NER標(biāo)注工具。如果句子中的兩個(gè)實(shí)體存在于知識(shí)庫(kù)中且具有某種關(guān)系,便從句子中抽取出特征(很多特征),并把具有這種關(guān)系的多個(gè)句子中特征拼接作為這個(gè)關(guān)系的某一特征向量,從不同的句子中抽取出的特征拼接,會(huì)讓后面的分類器獲取更多的信息。

特征

訓(xùn)練的分類器需要很多的特征,2009年的時(shí)候還在大量的構(gòu)造特征工程,因此構(gòu)造的也正也幾乎完全是詞典或者語(yǔ)法特征,主要包括以下:

Lexical features

1、Thesequenceofwordsbetweenthetwoentities 2、Thepart-of-speechtagsofthesewords 3、Aflagindicatingwhichentitycamefirstinthesentence 4、AwindowofkwordstotheleftofEntity1andtheirpart-of-speechtags 5、AwindowofkwordstotherightofEntity2andtheirpart-of-speechtags

另外還有關(guān)系依存句法樹(shù)以及實(shí)體類別特征等。

測(cè)試階段

在測(cè)試階段中,將再次使用NER工具識(shí)別實(shí)體,句子中一起出現(xiàn)的每一對(duì)實(shí)體都被認(rèn)為是一個(gè)潛在的關(guān)系實(shí)例,當(dāng)這些實(shí)體同時(shí)出現(xiàn)便從句子中提取特征添加到該實(shí)體對(duì)的特征向量中。例如在測(cè)試集中10個(gè)句子中出現(xiàn)了一對(duì)實(shí)體,每個(gè)句子提取3個(gè)特征,那么這個(gè)實(shí)體對(duì)將有30個(gè)相關(guān)特征,對(duì)測(cè)試語(yǔ)料庫(kù)中每個(gè)句子的每個(gè)實(shí)體對(duì)進(jìn)行特征提取,分類器根據(jù)實(shí)體對(duì)出現(xiàn)的所有特征為每個(gè)實(shí)體對(duì)預(yù)測(cè)關(guān)系。

問(wèn)題

1、文中提出的假設(shè)太過(guò)強(qiáng)橫,必然會(huì)出現(xiàn)大量的badcase,比如句子中出現(xiàn)的兩個(gè)實(shí)體刻畫的并非實(shí)體庫(kù)中對(duì)應(yīng)的關(guān)系描述,這樣會(huì)引入噪音臟數(shù)據(jù),影響最終的結(jié)果。例如,創(chuàng)始人(喬布斯,蘋果)和ceo(喬布斯,蘋果)都是正確的。

2、文中依賴于NER工具、以及構(gòu)造詞典語(yǔ)法句法等特征,也會(huì)存在錯(cuò)誤傳播問(wèn)題。

多實(shí)例學(xué)習(xí)-2011-ACL

論文題目:Knowledge-Based Weak Supervision for Information Extraction of Overlapping Relations

論文地址:https://www.aclweb.org/anthology/P11-1055.pdf

本文針對(duì)上篇文章中的強(qiáng)假設(shè)導(dǎo)致的badcase,采用多實(shí)例學(xué)習(xí)的思想,減少遠(yuǎn)程監(jiān)督噪音數(shù)據(jù)的影響。提出新的模型MULTIR,引入多實(shí)例學(xué)習(xí)的概率圖形模型,從而解決重疊關(guān)系抽取問(wèn)題,重疊關(guān)系問(wèn)題指的是同一對(duì)實(shí)體之間的存在多種不同類型的關(guān)系,同時(shí)結(jié)合句子級(jí)別和文檔級(jí)別的特征進(jìn)行關(guān)系抽取,MULTIR在計(jì)算推理上面具有很高的效率。

多實(shí)例學(xué)習(xí)可以被描述為:假設(shè)訓(xùn)練數(shù)據(jù)集中的每個(gè)數(shù)據(jù)是一個(gè)包(Bag),每個(gè)包都是一個(gè)示例(instance)的集合,每個(gè)包都有一個(gè)訓(xùn)練標(biāo)記,而包中的示例是沒(méi)有標(biāo)記的;如果包中至少存在一個(gè)正標(biāo)記的示例,則包被賦予正標(biāo)記;而對(duì)于一個(gè)有負(fù)標(biāo)記的包,其中所有的示例均為負(fù)標(biāo)記。(這里說(shuō)包中的示例沒(méi)有標(biāo)記,而后面又說(shuō)包中至少存在一個(gè)正標(biāo)記的示例時(shí)包為正標(biāo)記包,是相對(duì)訓(xùn)練而言的,也就是說(shuō)訓(xùn)練的時(shí)候是沒(méi)有給示例標(biāo)記的,只是給了包的標(biāo)記,但是示例的標(biāo)記是確實(shí)存在的,存在正負(fù)示例來(lái)判斷正負(fù)類別)。通過(guò)定義可以看出,與監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)數(shù)據(jù)集中的樣本示例的標(biāo)記是未知的,而監(jiān)督學(xué)習(xí)的訓(xùn)練樣本集中,每個(gè)示例都有一個(gè)一已知的標(biāo)記;與非監(jiān)督學(xué)習(xí)相比,多示例學(xué)習(xí)僅僅只有包的標(biāo)記是已知的,而非監(jiān)督學(xué)習(xí)樣本所有示例均沒(méi)有標(biāo)記。但是多示例學(xué)習(xí)有個(gè)特點(diǎn)就是它廣泛存在真實(shí)的世界中,潛在的應(yīng)用前景非常大。from http://blog.csdn.net/tkingreturn/article/details/39959931

經(jīng)典-2015-EMNLP

論文題目:Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/D15-1203.pdf

上面的幾篇文章已經(jīng)提出了遠(yuǎn)程監(jiān)督學(xué)習(xí)在關(guān)系抽取的開(kāi)山之作,以及后面會(huì)通過(guò)多實(shí)例學(xué)習(xí)(Multi Instance Learning, MIL)來(lái)減少其中的噪音數(shù)據(jù),這篇文章也是在前人的基礎(chǔ)之上去做的工作,主要有兩部分,其中之一是提出piece-wise卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)抽取句子中的特征信息,從而替換之前設(shè)計(jì)的特征工程;另外和之前一樣,采用多實(shí)例學(xué)習(xí)思想來(lái)減緩錯(cuò)誤的badcase數(shù)據(jù),既這篇文章將多實(shí)例學(xué)習(xí)整合到卷積神經(jīng)網(wǎng)絡(luò)中來(lái)完成關(guān)系抽取任務(wù)。

ad567324-8e8e-11eb-8b86-12bb97331649.png

Piecewise-CNN

Vector representation

上圖是PCNN針對(duì)bags中的一個(gè)句子編碼的情況,主要分為幾部分,其中向量表示部分也和之前我們介紹過(guò)的幾篇一樣,采用的預(yù)訓(xùn)練的word embedding以及句子中詞和兩個(gè)實(shí)體之間的相對(duì)距離向量,下圖中再對(duì)這個(gè)解釋一下,圖中 son 對(duì)兩個(gè)實(shí)體的相對(duì)距離分為是-2和3,到時(shí)候會(huì)把這些均轉(zhuǎn)換為向量表示,采用隨機(jī)初始化的方式。

ad9c5c68-8e8e-11eb-8b86-12bb97331649.png

Convolution

卷積部分從圖中便可以看出采用的是多卷積核操作,文中的Zero Padding值為1 , 卷積核的長(zhǎng)為向量矩陣的長(zhǎng),寬為3,從上到下,單向滑動(dòng)。

Piecewise max pooling

這部分也是之前介紹過(guò)的一篇論文中的類似做法,根據(jù)實(shí)體的位置將句子分為左中右三部分,對(duì)左中右三部分分別max-pooling,最后將所有的結(jié)果拼接,過(guò)softmax層,圖中的一個(gè)細(xì)節(jié)就是分段pooling的時(shí)候并沒(méi)有丟失兩個(gè)實(shí)體,而是將兩個(gè)實(shí)體劃分在在左中兩段中,這是一個(gè)細(xì)節(jié),圖中也很明顯給畫出來(lái)了。

MIL-PCNN

上面的PCNN網(wǎng)絡(luò)結(jié)構(gòu)展示的是多實(shí)例學(xué)習(xí)中一個(gè)bag(包)中的一個(gè)instance(句子)的情況,而多實(shí)例學(xué)習(xí)的輸入到網(wǎng)絡(luò)中的是一個(gè)包,里面包含了很多句子。假設(shè)我們存在 個(gè)bags {},每個(gè)bag包含個(gè)句子 。多實(shí)例學(xué)習(xí)的目的是預(yù)測(cè)看不見(jiàn)的袋子的標(biāo)簽。在本文中,bag中的所有實(shí)例都是獨(dú)立考慮的,并且bag中的instance是沒(méi)有l(wèi)abel的,只有bag中才有l(wèi)abel,因此只需要關(guān)注bag的label即可。

模型圖中經(jīng)過(guò)softmax得到的是bag中的一個(gè)instance的關(guān)系類別概率,而非bag的,因此重新定義了基于bag的損失函數(shù),文中采取的措施是At-Least-One的假設(shè),每個(gè)bag中至少有一個(gè)標(biāo)注正確的instance,這樣就可以找到bag中置信度得分最高的instance,代表當(dāng)前bag的結(jié)果。定義如下的目標(biāo)函數(shù)

adf9db4a-8e8e-11eb-8b86-12bb97331649.png

2016-ACL

論文題目:Neural Relation Extraction with Selective Attention over Instances

論文地址:https://www.aclweb.org/anthology/P16-1200.pdf

這篇文章是在上一篇文章PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要是因?yàn)镻CNN在多實(shí)例學(xué)習(xí)部分采用的是選取bag中置信度最高的instance(句子)作為bag的標(biāo)簽,這樣的做法可能會(huì)丟失太多的信息,因?yàn)橐粋€(gè)bag中正負(fù)樣本的數(shù)量是不定的,可能存在多個(gè)正樣本或者多個(gè)負(fù)樣本。這篇文章為了充分利用bag中的所有instance信息,利用注意力機(jī)制充分利用instance信息,減弱噪音的影響。模型的整體結(jié)構(gòu)如下圖。

ae482642-8e8e-11eb-8b86-12bb97331649.png

模型的整體結(jié)構(gòu)也是分為兩大部分

Sentence Encoder:句子編碼部分采用的方式和上文的PCNN一樣,包括輸入部分的詞向量和位置向量,卷積神經(jīng)網(wǎng)絡(luò),以及分段max-pooling,這部分的方式?jīng)]有區(qū)別,這部分的模型結(jié)構(gòu)如下圖所示。

aea13dd6-8e8e-11eb-8b86-12bb97331649.png

Selective Attention over Instances:這部分是文章的重點(diǎn),改進(jìn)的地方主要是在這里,利用注意力機(jī)制對(duì)bag中的instance進(jìn)行加權(quán),得到bag的最終向量表示,,其中 是權(quán)重,文中具體的有兩種計(jì)算權(quán)重的方式。

Average: 將bag中所有instance的重要程度都等同看待,即,這會(huì)放大instance的噪音影響,文中將其作為對(duì)比實(shí)驗(yàn)的一個(gè)baseline。

Selective Attention: 這部分attention的目的是加強(qiáng)正樣本的instance、弱化負(fù)樣本instance的噪音影響。具體的計(jì)算公式見(jiàn)下面,其中 代表的是句子句子和關(guān)系 的相關(guān)程度, 為attention的對(duì)角矩陣,這樣就可以得到加權(quán)后的bag向量表示 。

aee67cb6-8e8e-11eb-8b86-12bb97331649.png

af257bbe-8e8e-11eb-8b86-12bb97331649.png

2016-COLING

論文題目:Relation Extraction with Multi-instance Multi-label Convolutional Neural Networks

論文地址:https://www.aclweb.org/anthology/C16-1139.pdf

這篇文章也是在PCNN的基礎(chǔ)之上進(jìn)行的改進(jìn),主要有兩方面,其一也是和上文一樣認(rèn)為PCNN的at-least-once假設(shè)太過(guò)強(qiáng)硬,應(yīng)該充分利用bag中的所有instance信息,另外是評(píng)估了數(shù)據(jù)集中存在18.3%的重疊關(guān)系數(shù)據(jù),因此之前的單標(biāo)簽是不合理的,所以這篇文章針對(duì)這兩部分進(jìn)行了改進(jìn),模型的整體結(jié)構(gòu)如下圖。

af9c1954-8e8e-11eb-8b86-12bb97331649.png

Sentence-level Feature Extraction:這部分和之前的PCNN一樣,Embedding (word + position) -> CNN -> 分段最大池化獲取每一個(gè)instance的句子表示。

Cross-sentence Max-pooling:這篇文章融合bag中所有instance信息的方法和上文不一樣,不是采用的注意力機(jī)制,而是采用了非常簡(jiǎn)單直觀或者說(shuō)粗暴的方式,將bag中每個(gè)instance的句子信息取每一維度的最大值,獲取bag的向量表示,就如圖中中間部分所示。

Multi-label Relation Modeling:之前的方式都是采用softmax多標(biāo)簽分類的方式,而這篇文章為了解決重疊關(guān)系問(wèn)題,將不在采用softmax,而是對(duì)每一個(gè) relation 做 sigmoid ,然后根據(jù)閾值來(lái)判定該instance是否應(yīng)該包含這個(gè) relation 。

2017-AAAI

論文題目:Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions

論文地址:https://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/download/14491/14078

這篇文章的關(guān)鍵點(diǎn)主要也是兩部分,其一也是考慮了at-least-once的假設(shè)太多強(qiáng)硬,需要采用注意力機(jī)制考慮bag中更多的instance信息,另外一個(gè)是之前的方法都過(guò)多關(guān)注實(shí)體本身,而忽略了實(shí)體背后的文本描述信息,因此,這篇文章的將實(shí)體鏈接到實(shí)體描述文本上面獲取很多的信息表達(dá),文章的主要結(jié)構(gòu)如下。

aff7c7ae-8e8e-11eb-8b86-12bb97331649.png

主要包括三部分

(a) PCNNs Module:這部分還是和之前一樣,完全延續(xù)了 PCNN 的模型結(jié)構(gòu),采用word + position -> CNN -> Piecewise Max-pooling獲取文中的 bag 中的句子信息表達(dá)。

(b) Sentence-level Attention Module:這部分類似之前的Selective Attention,也是計(jì)算 bag 中每個(gè) instance 與 relation 的相關(guān)性,這里關(guān)系的向量采用的是 兩個(gè)實(shí)體信息來(lái)表達(dá),然后計(jì)算相關(guān)的權(quán)重(如下),最后通過(guò)加權(quán)的方式獲取 bag 的向量表達(dá),然后過(guò)線性層和softmax層做多分類,沒(méi)有考慮重疊關(guān)系。

b147ce24-8e8e-11eb-8b86-12bb97331649.png

Entity Descriptions:這部分是將實(shí)體的文本描述信息編碼,采用的是簡(jiǎn)單的CNN + max-pooling 獲取實(shí)體描述文本的向量表達(dá),文中提出,為了盡可能使實(shí)體的向量表達(dá)與實(shí)體描述文本的向量表達(dá)在語(yǔ)義空間中接近,直接定義了一個(gè)距離公式計(jì)算loss, ,然后和上面判別關(guān)系的loss結(jié)合, ,兩個(gè)損失函數(shù)聯(lián)合訓(xùn)練。

b1abf0fc-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:Hierarchical Relation Extraction with Coarse-to-Fine Grained Attention

論文地址:https://www.aclweb.org/anthology/D18-1247.pdf

這篇文章主要考慮到之前的關(guān)系抽取方法中,沒(méi)有考慮到關(guān)系之間是存在語(yǔ)義依賴關(guān)系的,而且,知識(shí)庫(kù)的關(guān)系中很多都是帶有層級(jí)結(jié)構(gòu)的,另外,之前的方法沒(méi)有對(duì)關(guān)系的長(zhǎng)尾分布問(wèn)題進(jìn)行仔細(xì)的考量,易導(dǎo)致關(guān)系數(shù)量多的則準(zhǔn)確率更高,關(guān)系數(shù)量極少的準(zhǔn)確率堪憂,針對(duì)上面的問(wèn)題,這篇文章提出了在多實(shí)例學(xué)習(xí)中采用注意力機(jī)制的思想,提出層次化注意力機(jī)制來(lái)做具有層級(jí)的關(guān)系抽取問(wèn)題,而且對(duì)于長(zhǎng)尾分布的關(guān)系抽取也有很明顯的改善。

b21b1c2a-8e8e-11eb-8b86-12bb97331649.png

b2762764-8e8e-11eb-8b86-12bb97331649.png

2018-EMNLP

論文題目:RESIDE: Improving Distantly-Supervised Neural Relation Extraction using Side Information

論文地址:https://www.aclweb.org/anthology/D18-1157.pdf

這篇文章主題思想還是遠(yuǎn)程監(jiān)督的思想,考慮到知識(shí)庫(kù)中除了實(shí)體關(guān)系之外,還有很多其他的信息可以加以利用,因此在模型中考慮了這部分特征信息,比如關(guān)系的別名信息以及實(shí)體的類別信息。另外,之前看到的很多文章都是采用了CNN的網(wǎng)絡(luò)結(jié)構(gòu),但是本文不同,摒棄了之前的CNN網(wǎng)絡(luò)結(jié)構(gòu),而是采用Bi-GRU以及GCN的文本編碼方式,考慮到采用GCN的編碼方式還是考量了Bi-GRU對(duì)文本的長(zhǎng)距離信息依賴。文章的模型結(jié)構(gòu)如下。

b289c38c-8e8e-11eb-8b86-12bb97331649.png

總結(jié)

以上是幾篇遠(yuǎn)程監(jiān)督關(guān)系抽取的論文,從09年的開(kāi)山之作,到前兩年的一些工作,文中的工作雖然沒(méi)有覆蓋全部,但是基本的方法已有大概的脈絡(luò)梳理,總體來(lái)說(shuō),輸入表示部分基本都是詞向量與位置編碼結(jié)合,獲取句子語(yǔ)義部分采用CNN,Piecewise max-pool池化較多,當(dāng)然也有采用GRU/GCN等,另外大多數(shù)工作基本都是多實(shí)例學(xué)習(xí) + 注意力機(jī)制的改進(jìn)與創(chuàng)新,其他的一些涉及到重疊關(guān)系、長(zhǎng)尾分布等相關(guān)處理。除了前幾年的一些工作之外,最近也有遠(yuǎn)程監(jiān)督關(guān)系抽取的一些工作。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【關(guān)系抽取】從頭來(lái)看關(guān)系抽取-遠(yuǎn)程監(jiān)督來(lái)襲

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    三格電子積木式遠(yuǎn)程io,多種協(xié)議選擇#

    遠(yuǎn)程io
    jf_68793483
    發(fā)布于 :2026年02月27日 14:10:20

    一分鐘了解遠(yuǎn)程io的原理# 三格電子# 遠(yuǎn)程io

    通信遠(yuǎn)程io
    jf_68793483
    發(fā)布于 :2026年02月02日 13:59:43

    2026年十大遠(yuǎn)程辦公趨勢(shì)

    過(guò)去幾年,遠(yuǎn)程與混合辦公從“可有可無(wú)”的選擇,變成了許多公司的日常標(biāo)配。越來(lái)越多企業(yè)發(fā)現(xiàn):只要方法得當(dāng),遠(yuǎn)程不僅能拓寬人才來(lái)源、降低運(yùn)營(yíng)成本,還能提升員工滿意度,激發(fā)更高效率。那么,到了2026年
    的頭像 發(fā)表于 01-05 17:07 ?1036次閱讀
    2026年十大<b class='flag-5'>遠(yuǎn)程</b>辦公趨勢(shì)

    PLC遠(yuǎn)程控制不求人,手把手教你詳細(xì)設(shè)置方法

    控制設(shè)置方法。 以DTD418MB 實(shí)現(xiàn)組態(tài)王對(duì)AB820 PLC 的遠(yuǎn)程無(wú)線控制為例。 一、硬件連接 將上位機(jī)與 DTD418MB 通過(guò)通訊線連接,一端接入 DTD418MB 的 RJ45 接口
    的頭像 發(fā)表于 12-24 11:36 ?298次閱讀
    PLC<b class='flag-5'>遠(yuǎn)程</b>控制不求人,手把手教你詳細(xì)設(shè)置<b class='flag-5'>方法</b>

    電能質(zhì)量在線監(jiān)測(cè)裝置遠(yuǎn)程能校準(zhǔn)諧波精度嗎?

    電能質(zhì)量在線監(jiān)測(cè)裝置能遠(yuǎn)程校準(zhǔn)諧波精度,但需滿足特定技術(shù)條件并采用標(biāo)準(zhǔn)化流程 。這種遠(yuǎn)程校準(zhǔn)方式可顯著提升運(yùn)維效率,減少現(xiàn)場(chǎng)工作量,已在電力行業(yè)得到實(shí)際應(yīng)用。 一、遠(yuǎn)程校準(zhǔn)諧波精度的核心方法
    的頭像 發(fā)表于 12-05 14:52 ?421次閱讀
    電能質(zhì)量在線監(jiān)測(cè)裝置<b class='flag-5'>遠(yuǎn)程</b>能校準(zhǔn)諧波精度嗎?

    遠(yuǎn)程打印難題?一鍵搞定,再也不用跑辦公室啦!

    臨時(shí)打印外地電腦上的一份文件,卻束手無(wú)策?尤其電商人、跨境黨、老師、產(chǎn)品經(jīng)理、科研黨…怎么能快速又安全地“遠(yuǎn)程打印”?別擔(dān)心,我有辦法!通過(guò)Splashtop簡(jiǎn)單設(shè)置,就能輕松實(shí)現(xiàn)“遠(yuǎn)程文件,本地
    的頭像 發(fā)表于 11-05 17:00 ?1175次閱讀
    <b class='flag-5'>遠(yuǎn)程</b>打印難題?一鍵搞定,再也不用跑辦公室啦!

    信號(hào)發(fā)生器遠(yuǎn)程控制LabVIEW自動(dòng)化方法技巧

    信號(hào)發(fā)生器在現(xiàn)代電子工程與測(cè)試測(cè)量中扮演著重要角色,而通過(guò)LabVIEW實(shí)現(xiàn)其遠(yuǎn)程控制,則進(jìn)一步提高了測(cè)試的靈活性和效率。以下是幾種關(guān)鍵的自動(dòng)化方法技巧,以幫助工程師們更好地實(shí)現(xiàn)這一目標(biāo)。 ? 首先
    的頭像 發(fā)表于 09-23 18:05 ?717次閱讀
    信號(hào)發(fā)生器<b class='flag-5'>遠(yuǎn)程</b>控制LabVIEW自動(dòng)化<b class='flag-5'>方法</b>技巧

    德國(guó)莫爾利用全新的在線配置器改進(jìn)了電纜引入裝置設(shè)計(jì)流程

    在線產(chǎn)品,為定制電纜引入裝置設(shè)定了新的基準(zhǔn)。murrplastik高級(jí)產(chǎn)品經(jīng)理Till Bergmann表示:莫爾是完全根據(jù)客戶要求生產(chǎn)多種結(jié)構(gòu)電纜引入裝置的公司,特別是機(jī)器人和能源鏈應(yīng)用領(lǐng)域
    發(fā)表于 08-20 14:29

    請(qǐng)問(wèn)console線連接怎么才進(jìn)行配置呢?

    如上圖,請(qǐng)問(wèn)console線連接怎么才進(jìn)行配置呢? 還有為什么我的設(shè)備里面,云遠(yuǎn)程管理平臺(tái)一直啟用不起來(lái)是怎么回事?
    發(fā)表于 08-05 08:21

    ESP32通過(guò)OTA無(wú)線局域網(wǎng)遠(yuǎn)程升級(jí)下載程序

    本文介紹了ESP32通過(guò)OTA無(wú)線局域網(wǎng)遠(yuǎn)程升級(jí)固件的基本方法
    的頭像 發(fā)表于 07-22 13:21 ?2021次閱讀
    ESP32通過(guò)OTA無(wú)線局域網(wǎng)<b class='flag-5'>遠(yuǎn)程</b>升級(jí)下載程序

    無(wú)線遠(yuǎn)程模塊:工業(yè)/農(nóng)業(yè)/物流的“遠(yuǎn)程遙控”已就位

    無(wú)線遠(yuǎn)程模塊 是一種能夠擴(kuò)展設(shè)備通信能力,實(shí)現(xiàn)遠(yuǎn)程監(jiān)測(cè)和控制的設(shè)備。它利用無(wú)線技術(shù)(如達(dá)泰全數(shù)字加密無(wú)線傳輸方式等)進(jìn)行數(shù)據(jù)傳輸,使得設(shè)備之間的通信不再受物理連線的限制。達(dá)泰 無(wú)線遠(yuǎn)程模塊 在多個(gè)
    的頭像 發(fā)表于 05-27 15:07 ?611次閱讀
    無(wú)線<b class='flag-5'>遠(yuǎn)程</b>模塊:工業(yè)/農(nóng)業(yè)/物流的“<b class='flag-5'>遠(yuǎn)程</b>遙控”已就位

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1481次閱讀
    使用MATLAB進(jìn)行無(wú)<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    基于RK3576開(kāi)發(fā)板的遠(yuǎn)程桌面調(diào)試方法

    EASY EAI Orin-Nano可以基于MobaXterm的ssh遠(yuǎn)程桌面登錄調(diào)試
    的頭像 發(fā)表于 05-06 09:58 ?814次閱讀
    基于RK3576開(kāi)發(fā)板的<b class='flag-5'>遠(yuǎn)程</b>桌面調(diào)試<b class='flag-5'>方法</b>

    LTspice里壓敏電阻MOV怎么引入?

    LTspice里壓敏電阻MOV怎么引入
    發(fā)表于 04-28 08:26

    礦山泵站遠(yuǎn)程監(jiān)控物聯(lián)網(wǎng)方案

    隨著礦山行業(yè)的快速發(fā)展,傳統(tǒng)的泵站運(yùn)維管理模式已無(wú)法滿足現(xiàn)代化礦山的高效、安全、環(huán)保需求。礦山泵站作為礦山生產(chǎn)的重要基礎(chǔ)設(shè)施,其運(yùn)行狀態(tài)直接影響到整個(gè)礦山的生產(chǎn)效率和安全性。因此,引入一套礦山泵站
    的頭像 發(fā)表于 03-20 11:13 ?723次閱讀
    礦山泵站<b class='flag-5'>遠(yuǎn)程</b>監(jiān)控物聯(lián)網(wǎng)方案