chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實現(xiàn)通用語言智能我們還需要什么

jmiy_worldofai ? 來源:cc ? 2019-02-14 16:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

DeepMind新年力作《學(xué)習(xí)和評估通用語言智能》,從全新的角度對跨任務(wù)NLP模型進行了評估,探討了要實現(xiàn)“通用語言智能”現(xiàn)如今的研究還缺失什么,以及如何實現(xiàn)通用語言智能。

2014年11月,那時候還沒有被廣泛認知為“深度學(xué)習(xí)教父”的Geoffrey Hinton,在國外網(wǎng)站Reddit回答網(wǎng)友提問的活動“AMA” (Ask Me Anything) 中表示,他認為未來5年最令人激動的領(lǐng)域,將是機器真正理解文字和視頻。

Hinton說:“5年內(nèi),如果計算機沒能做到在觀看YouTube視頻后能夠講述發(fā)生了什么,我會感到很失望。”

幸好,現(xiàn)在計算機已經(jīng)能夠在觀看一段視頻后簡述其內(nèi)容,但距離Hinton所說的“真正理解文字和視頻”,還有很遠的距離。

無獨有偶,統(tǒng)計機器學(xué)習(xí)大神Michael I. Jordan在2014年9月Reddit AMA中也提到,如果他有10億美金能夠組建研究項目,他會選擇構(gòu)建一個NASA規(guī)模的自然語言處理 (NLP) 計劃,包括語義學(xué)、語用學(xué)等分支。

Jordan說:“從學(xué)術(shù)上講,我認為NLP是個引人入勝的問題,既讓人專注于高度結(jié)構(gòu)化的推理,也觸及了‘什么是思維 (mind)’ 這一核心,還非常實用,能讓世界變得更加美好?!?/p>

一直以來,NLP/NLU (自然語言理解) 都被視為人工智能桂冠上的明珠,不僅因其意義重大,也表示著目標(biāo)距我們遙不可及。

總之,NLP是個大難題。

前段時間在業(yè)內(nèi)廣泛流傳的一篇“人工智障”的文章,本質(zhì)上講的就是目前NLP領(lǐng)域的困境??v使有谷歌BERT模型所帶來的各項指標(biāo)飛躍,但要讓計算機真正“理解”人類的語言,需要的恐怕不止是時間。

在最近一篇發(fā)布在Arxiv上的論文中,DeepMind的研究人員對“通用語言智能” (General Linguistic Intelligence) 做了定義,并探討了機器如何學(xué)習(xí)并實現(xiàn)通用語言智能。

DeepMind新年力作《學(xué)習(xí)和評估通用語言智能》

實現(xiàn)通用語言智能,首先需要統(tǒng)一的評估標(biāo)準(zhǔn)

DeepMind的研究人員從語言的角度出發(fā),根據(jù)近來不斷發(fā)展的“通用人工智能”(AGI)的配套能力,也即能夠讓智能體與虛擬環(huán)境實現(xiàn)交互而發(fā)展出通用的探索、規(guī)劃和推理能力,將“通用語言智能”定義為:

能夠徹底應(yīng)對各種自然語言任務(wù)的復(fù)雜性;

有效存儲和重用各種表示 (representations)、組合模塊 (combinatorial modules, 如將單詞組成短語、句子和文檔的表示),以及先前獲得的語言知識,從而避免災(zāi)難性遺忘;

在從未經(jīng)歷過的新環(huán)境中適應(yīng)新的語言任務(wù),即對領(lǐng)域轉(zhuǎn)換的魯棒性。

作者還指出,如今在NLP領(lǐng)域存在一種非常明顯且不好的趨勢,那就是越來越多的數(shù)據(jù)集通過眾包完成,量的確是大了,特別是在體現(xiàn)人類語言的“概括” (generalization) 和“抽象” (abstraction) 能力方面大打折扣,并不貼近現(xiàn)實中的自然分布。

此外,對于某一特定任務(wù)(比如問答),存在多個不同的數(shù)據(jù)集。因此,單獨看在某個數(shù)據(jù)集上取得的結(jié)果,很容易讓我們高估所取得的進步。

所以,要實現(xiàn)通用語言智能,或者說朝著這個方向發(fā)展,首先需要確定一個統(tǒng)一的評估標(biāo)準(zhǔn)。在本文中,為了量化現(xiàn)有模型適應(yīng)新任務(wù)的速度,DeepMind的研究人員提出了一個基于在線前序編碼 (online prequential coding) 的新評估指標(biāo)。

接下來,就讓我們看看現(xiàn)有的各個state-of-the-art模型性能如何。

對現(xiàn)有最先進模型的“五大靈魂拷問”

作者選用了兩個預(yù)訓(xùn)練模型,一個基于BERT,一個基于ELMo。其中,BERT(base)擁有12個Transformer層,12個自注意力指針和768個隱藏層,這個預(yù)訓(xùn)練模型中有1.1億個參數(shù)。另一個則基于ELMo(base),這個預(yù)訓(xùn)練模型有將近1億個參數(shù),300個雙向LSTM層,100個輸出層。

另有BERT/ELMo(scratch),表示沒有經(jīng)過預(yù)訓(xùn)練,從頭開始的模型。

首先,作者考察了需要多少與領(lǐng)域知識相關(guān)的訓(xùn)練樣本,兩個模型才能在SQuAD閱讀理解和MNLI自然語言推理這兩個任務(wù)上取得好的表現(xiàn)。

縱軸F1代表在SQuAD閱讀理解數(shù)據(jù)集上的得分函數(shù),橫軸代表訓(xùn)練樣本量的對數(shù)值

答案是4萬。而且,與領(lǐng)域知識相關(guān)的訓(xùn)練樣本量超過4萬以后,兩個模型的提升都不明顯,非要說的話,BERT模型在兩項任務(wù)中比ELMo稍好一點。

那么,改用在其他數(shù)據(jù)集上預(yù)訓(xùn)練過的模型,同樣的任務(wù)性能又能提高多少呢?答案是一點點。但在代碼長度上,預(yù)訓(xùn)練過的模型要顯著優(yōu)于沒有經(jīng)過預(yù)訓(xùn)練的模型。

預(yù)訓(xùn)練模型(+supervised)與非預(yù)訓(xùn)練模型性能比較

作者考察的第三點是這些模型的泛化能力。實驗結(jié)果表明,在SQuAD數(shù)據(jù)集上表現(xiàn)最好的模型,移到其他數(shù)據(jù)集,比如Trivia、QuAC、QA-SRL、QA-ZRE后,仍然需要額外的相關(guān)訓(xùn)練樣本。這個結(jié)果在意料之中,但再次凸顯了“學(xué)會一個數(shù)據(jù)集”和“學(xué)會完成一項任務(wù)”之間存在的巨大鴻溝。

在SQuAD數(shù)據(jù)集上性能最優(yōu)的模型(得分超過80),在其他數(shù)據(jù)集上分數(shù)大幅降低

最后是有關(guān)學(xué)習(xí)課程 (curriculum) 和災(zāi)難性遺忘的問題。模型忘記此前學(xué)會的語言知識有多快?學(xué)習(xí)課程的設(shè)計與模型的性能之間有什么影響?

(上)將在SQuAD數(shù)據(jù)集上訓(xùn)練好的模型改到MNLI上;(下)將在SQuAD數(shù)據(jù)集上訓(xùn)練好的模型改到TriviaQA。兩種情況模型的性能都大幅下降。

BERT模型用隨機訓(xùn)練課程在各種數(shù)據(jù)集上取得的結(jié)果。實際上經(jīng)過5萬次迭代后,模型就能基本完成各項任務(wù)(超過60分)。

從實驗結(jié)果看,在SQuAD數(shù)據(jù)集上訓(xùn)練好的模型改到MNLI或TriviaQA這些不同數(shù)據(jù)集后,模型性能很快出現(xiàn)大幅下降,說明災(zāi)難性遺忘發(fā)生。

雖然采用連續(xù)學(xué)習(xí)的方法,隨機初始化,5萬次迭代后,兩個模型尤其是BERT,基本上能在各個數(shù)據(jù)集上都達到差強人意的表現(xiàn)。

通過隨機訓(xùn)練,20萬次迭代以后,BERT和ELMo在多項任務(wù)上的得分

但缺點是,這樣的隨機訓(xùn)練模型在開始不需要樣本,轉(zhuǎn)換新任務(wù)以后也不需要保留此前學(xué)會的東西。因此,在連續(xù)學(xué)習(xí)的過程中,知識遷移究竟是如何發(fā)生的,目前還不得而知。

綜上,對一系列在各個不同NLP任務(wù)上取得當(dāng)前最佳性能的模型進行實證評估后,DeepMind的研究人員得出結(jié)論:雖然NLP領(lǐng)域如今在模型設(shè)計方面取得了令人矚目的進展,而且這些模型在很多時候都能同時完成不止一項任務(wù),但它們?nèi)匀恍枰罅颗c領(lǐng)域知識相關(guān)的訓(xùn)練樣本 (in-domain training example),并且很容易發(fā)生災(zāi)難性遺忘。

實現(xiàn)通用語言智能,我們還需要什么?

通過上述實驗可以發(fā)現(xiàn),現(xiàn)有的state-of-the-art NLP模型幾乎全部都是:

擁有超大規(guī)模參數(shù)的深度學(xué)習(xí)模型;

事先以監(jiān)督或非監(jiān)督的的方式在訓(xùn)練樣本上經(jīng)過訓(xùn)練;

通常包含了多個針對某項特定任務(wù)的構(gòu)件以完成多項任務(wù);

默認或者說假設(shè)某項任務(wù)的數(shù)據(jù)分布是平均的。

這種方法雖然合理,但仍舊需要大量與領(lǐng)域知識相關(guān)的訓(xùn)練樣本,并且非常容易發(fā)生災(zāi)難性遺忘。

因此,要實現(xiàn)通用語言智能,DeepMind研究人員在論文最后的討論中指出,我們還需要:更加復(fù)雜的遷移學(xué)習(xí)和連續(xù)學(xué)習(xí)方法 (transfer and continual learning method),能讓模型快速跨領(lǐng)域執(zhí)行任務(wù)的記憶模塊 (memory module),訓(xùn)練課程 (training curriculum) 的選擇對模型性能的影響也很重要,在生成語言模型 (generative language models) 方面的進展,也將有助于實現(xiàn)通用語言智能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    11963
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23048

原文標(biāo)題:DeepMind:實現(xiàn)通用語言智能我們還缺什么?

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    請問STM32新出的芯片USB還需要上拉電阻嗎?

    我記得F103的USB需要上拉個電阻,STM32新出的芯片USB還需要上拉電阻嗎?例如H5系列
    發(fā)表于 07-18 06:40

    Matter 智能家居的通用語言

    Matter由連接標(biāo)準(zhǔn)聯(lián)盟(CSA)創(chuàng)建,旨在解決智能家居的互操作性問題。Matter 基于簡單性、互操作性、可靠性和安全性四大核心原則 。 是采用基于 IP 應(yīng)用層的開源協(xié)議,本質(zhì)上是一種“通用語言
    發(fā)表于 05-19 15:35

    請問L9663 Transceiver使用Direct Interface(SYNCx&DOUTx)模式時還需要通過SPI對其寄存器進行配置嗎?

    L9663 Transceiver使用Direct Interface(SYNCx&DOUTx)模式時還需要通過SPI對其寄存器進行配置嗎?
    發(fā)表于 03-13 07:38

    用了TOUCH編程還需要再用CUBE-IDE處理嗎?

    如題 用了TOUCH編程還需要再用CUBE-IDE處理嗎? TOUCH 僅僅只有在線版嗎
    發(fā)表于 03-10 06:19

    STM32和MCP2515通信,STM32這端還需要接CAN PHY嗎?

    最近在做CAN通信的相關(guān)項目,STM32G4負責(zé)接收,對端是一個MCP2510+TJA1040的組合, 想問下應(yīng)該如何接?STM32這端還需要接CAN PHY嗎?
    發(fā)表于 03-10 06:18

    有MES系統(tǒng)還需要上MOM系統(tǒng)嗎?這些不同點你需要了解!

    還需要引入MOM系統(tǒng)? 本文將深入探討MES與MOM系統(tǒng)的區(qū)別,從多個維度深入剖析兩者的不同,幫您做出明智決策。 一、定義與范疇 MES 系統(tǒng)- 聚焦生產(chǎn)執(zhí)行: MES 主要圍繞生產(chǎn)車間的執(zhí)行活動展開,著重監(jiān)控和管理生產(chǎn)任務(wù)的執(zhí)行過程,從生產(chǎn)訂單下達到產(chǎn)
    的頭像 發(fā)表于 02-25 11:09 ?771次閱讀
    有MES系統(tǒng)<b class='flag-5'>還需要</b>上MOM系統(tǒng)嗎?這些不同點你<b class='flag-5'>需要</b>了解!

    請問DLP2010EVM-LC除了要自己另購19V電源,還需要另購什么東西?

    請問DLP2010EVM-LC除了要自己另購19V電源,還需要另購什么東西?
    發(fā)表于 02-25 06:46

    hyper內(nèi)存條,hyper-v 添加虛擬機還需要硬盤嗎

    在計算機技術(shù)的浩瀚星空中,虛擬機猶如一顆璀璨的明星,散發(fā)著獨特的光芒。今天給大家介紹hyper-v添加虛擬機還需要硬盤嗎? ? ?hyper-v添加虛擬機還需要硬盤嗎? ? ?Hyper-V是虛擬機
    的頭像 發(fā)表于 01-24 14:01 ?590次閱讀
    hyper內(nèi)存條,hyper-v 添加虛擬機<b class='flag-5'>還需要</b>硬盤嗎

    ADC324x的CLK和SYSREF信號由CDCE62005提供合適嗎?是否還需要向FPGA提供SYSREF信號?

    你好,我想將ADC324X采集到的數(shù)據(jù)給FPGA,實在不太確定這個SYSREF信號怎么配置,如下圖所示。ADC324x的CLK和SYSREF信號由CDCE62005提供合適嗎?是否還需要向FPGA
    發(fā)表于 01-02 06:15

    ADS1293EVM如果用ubs連接電腦,還需要外部供電嗎?

    你好,我是一名在校大學(xué)生,剛剛接觸ADS1293問題多多,請問如果用ubs連接電腦,還需要外部供電嗎?是不是只需要四根線將電極和輸入端口連接,就可以用自帶的軟件測出心電圖?萬分感謝!
    發(fā)表于 01-01 06:42

    請問DP83822IRHB該PHY要配成RGMII時,到底還需要哪些配置?

    XI_50配置成0,那么就配置成了RGMII,時鐘25MHz的模式。 但是當(dāng)RX_ER配成模式2或3時,無法進行以太網(wǎng)通訊,發(fā)現(xiàn)沒有TX_CK;而當(dāng)RX_ER配置成模式4時,雖然也無法進行以太網(wǎng)通訊,但是TX_CK是存在的。 請問DP83822IRHB該PHY要配成RGMII時,到底還需要哪些配置,謝謝!
    發(fā)表于 12-16 08:09

    DAC5681z從FPGA讀數(shù)據(jù),為什么還需要一個DCLKP/N呢?

    以DAC5681z為例,DAC芯片從FPGA讀數(shù)據(jù),然后按照自己的采樣速率CLKIN/CLKINC 每隔16bit轉(zhuǎn)換成1個電平值,為什么還需要一個DCLKP/N呢?
    發(fā)表于 12-11 07:52

    TXS01088E能不能直接把OE連接到VCCA,是否還需要加上拉、下拉電阻之類的?

    TXS0108E的使能引腳是OE端,應(yīng)該參考的是VCCA。如果我想這個芯片在供電情況下一直處于被使能狀態(tài),能不能直接把OE連接到VCCA,是否還需要加上拉、下拉電阻之類的。。 如果加電阻的話,需要多大?
    發(fā)表于 12-05 08:11

    企業(yè)上云后還需要數(shù)據(jù)庫運維嗎?真實答案看過來!

    企業(yè)上云后還需要數(shù)據(jù)庫運維嗎?企業(yè)上云后,數(shù)據(jù)庫運維仍然是必不可少的。盡管云計算帶來了許多便利和自動化功能,但數(shù)據(jù)庫作為企業(yè)核心數(shù)據(jù)存儲和管理的關(guān)鍵組件,其運維工作依然需要高度重視。以下是UU云小編對這一觀點的詳細闡述:
    的頭像 發(fā)表于 11-08 10:02 ?552次閱讀

    通過DSP6455的MCBSP配置TLV320AIC20,如果想使用LINEI和LINEO,還需要哪些別的配置嗎?

    值為1V的信號輸入LINEI,可是發(fā)現(xiàn)讀到的數(shù)據(jù)和沒給信號時并未發(fā)生變化。由于操作過程是接收一段時間數(shù)據(jù),然后發(fā)送一段時間數(shù)據(jù),測量LINEO時,可以發(fā)現(xiàn)LINEO的輸出是斷斷續(xù)續(xù)的,說明輸出的數(shù)據(jù)通路應(yīng)該是正常的。如果想使用LINEI和LINEO,還需要哪些別的配置嗎?
    發(fā)表于 11-04 07:45