chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探析自然語(yǔ)言處理中的深度遷移學(xué)習(xí)

MqC7_CAAI_1981 ? 來(lái)源:cg ? 2018-12-13 15:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如何讓文本也像圖片一樣經(jīng)過(guò)預(yù)訓(xùn)練?這是一份通用句子編碼器的神秘指南。

簡(jiǎn)介

遷移學(xué)習(xí)是一個(gè)令人興奮的概念,我們?cè)噲D利用先驗(yàn)知識(shí)從一個(gè)領(lǐng)域和任務(wù)到另一個(gè)領(lǐng)域和任務(wù)。靈感來(lái)自我們?nèi)祟?lèi)本身,我們有一種與生俱來(lái)的能力,即不從零開(kāi)始學(xué)習(xí)所有東西。我們從過(guò)去學(xué)到的知識(shí)中轉(zhuǎn)移和利用我們的知識(shí)來(lái)處理各種各樣的任務(wù)。有了計(jì)算機(jī)視覺(jué),我們就有了優(yōu)秀的大型數(shù)據(jù)集,比如ImageNet,在它之上我們可以獲得一套世界級(jí)的、最先進(jìn)的預(yù)訓(xùn)練模型來(lái)利用遷移學(xué)習(xí)。但是自然語(yǔ)言處理呢?考慮到文本數(shù)據(jù)是如此的多樣化、充斥著噪音以及非結(jié)構(gòu)化的特點(diǎn),這是一個(gè)嚴(yán)峻的挑戰(zhàn)。我們最近在文本嵌入方面取得了一些成功,包括Word2vec、GloVe 和 FastText 等方法,我在關(guān)于“文本數(shù)據(jù)的特征工程”[1]的文章中介紹了所有這些方法。

在這篇文章中,我們將展示幾種最先進(jìn)的通用句子嵌入編碼器,特別是在遷移學(xué)習(xí)任務(wù)的少量數(shù)據(jù)上與 Word embedding 模型相比的情況下,它們往往會(huì)給出令人驚訝的良好性能。

我們將嘗試涵蓋基本概念,并展示一些利用pythonTensorFlow的手工操作示例,在文本分類(lèi)問(wèn)題中側(cè)重于情感分析的案例。

為什么我們對(duì)嵌入(embedding)如此瘋狂?

嵌入是一個(gè)固定長(zhǎng)度的向量,通常用于編碼和表示一個(gè)實(shí)體(文檔、句子、單詞、圖形)

我在前一篇文章[2]中談到了在文本數(shù)據(jù)和NLP上下文中嵌入的必要性。但為了方便起見(jiàn),我將在這里簡(jiǎn)短地重復(fù)一下。在語(yǔ)音或圖像識(shí)別系統(tǒng)方面,我們已經(jīng)以豐富的密集特征向量的形式獲得信息,這些特征向量嵌入在高維數(shù)據(jù)集中,如音頻譜圖和圖像像素強(qiáng)度。然而,當(dāng)涉及到原始文本數(shù)據(jù)時(shí),特別是基于計(jì)數(shù)的模型,比如詞袋模型(Bag of words),我們處理的是單個(gè)單詞,它們可能有自己的標(biāo)識(shí)符,并且不捕獲單詞之間的語(yǔ)義關(guān)系。這就導(dǎo)致了文本數(shù)據(jù)的大量稀疏詞向量,因此如果我們沒(méi)有足夠的數(shù)據(jù),我們可能會(huì)因?yàn)榫S度詛咒而得到很糟糕的模型,甚至過(guò)擬合數(shù)據(jù)。

對(duì)比圖片、音頻、文本的特征表示

預(yù)測(cè)方法(predictive methods),比如基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型,試圖從其相鄰的單詞中預(yù)測(cè)單詞,觀察語(yǔ)料庫(kù)中的單詞序列,在學(xué)習(xí)分布式表示的過(guò)程中,給我們提供稠密的單詞嵌入表示。

現(xiàn)在你可能在想,我們從文本中得到了一堆向量,現(xiàn)在怎么辦?如果我們有一個(gè)很好的文本數(shù)據(jù)的數(shù)字表示,它甚至捕捉到上下文和語(yǔ)義,我們可以將它用于各種各樣的下游現(xiàn)實(shí)世界任務(wù),比如情感分析、文本分類(lèi)、聚類(lèi)、摘要、翻譯等等。事實(shí)上,機(jī)器學(xué)習(xí)深度學(xué)習(xí)模型能在這些數(shù)字和嵌入表示上運(yùn)行,是編碼這些模型使用的文本數(shù)據(jù)的關(guān)鍵。

文本嵌入

這里的一個(gè)大趨勢(shì)是找出所謂的“通用嵌入(universal embeddings)”,它基本上是通過(guò)在一個(gè)龐大的語(yǔ)料庫(kù)上訓(xùn)練深度學(xué)習(xí)模型而獲得的預(yù)訓(xùn)練的嵌入表示。這使我們能夠在各種各樣的任務(wù)中使用這些經(jīng)過(guò)預(yù)訓(xùn)練的(一般的)嵌入表示,包括缺乏足夠數(shù)據(jù)等約束的場(chǎng)景。這是遷移學(xué)習(xí)的一個(gè)完美例子,利用預(yù)訓(xùn)練嵌入表示的先驗(yàn)知識(shí)來(lái)解決一個(gè)全新的任務(wù)!下圖顯示了通用詞嵌入(word embedding)和句子嵌入(sentence embedding)的一些最新趨勢(shì)。

最近在通用詞&句子嵌入的趨勢(shì)

來(lái)源:https://medium.com/huggingface/universal-word-sentence-embeddings-ce48ddc8fc3a)

上圖中有一些有趣的趨勢(shì),包括谷歌的通用句子編碼器,我們將在本文中詳細(xì)探討?,F(xiàn)在,讓我們?cè)谏钊胙芯客ㄓ镁渥泳幋a器之前,簡(jiǎn)要介紹單詞和句子嵌入模型的趨勢(shì)和發(fā)展。

詞嵌入模型的發(fā)展趨勢(shì)

詞嵌入模型(Word Embedding Models)是一些比較成熟的模型,這些模型是從2013年的Word2vec開(kāi)始發(fā)展的?;谡Z(yǔ)義和上下文相似性的連續(xù)向量空間嵌入詞向量的三種最常見(jiàn)的利用深度學(xué)習(xí)(無(wú)監(jiān)督方法)的模型是:

Word2Vec

GloVe

FastText

這些模型是基于分布語(yǔ)義學(xué)領(lǐng)域中的分布假設(shè)原理而建立的,它告訴我們,在相同的語(yǔ)境中發(fā)生和使用的詞在語(yǔ)義上是相似的,具有相似的意義。

最近發(fā)展起來(lái)的這一領(lǐng)域的另一個(gè)有趣的模型是由Allen人工智能研究所(Allen Institute for Artificial Intelligence)開(kāi)發(fā)的ELMo(Embeddings from Language Models)模型。

基本上,ELMo給我們提供了從深度雙向語(yǔ)言模型(biLM)中學(xué)習(xí)的單詞嵌入,該模型通常是在大型文本語(yǔ)料庫(kù)上進(jìn)行預(yù)訓(xùn)練,從而使遷移學(xué)習(xí)和這些嵌入能夠跨不同的NLP任務(wù)使用。Allen AI告訴我們,ELMo表示是上下文感知的、深度的和基于字符的,它使用形態(tài)學(xué)線(xiàn)索來(lái)形成表示,甚至對(duì)于OOV(out-of-vocabulary)標(biāo)記也是如此。

通用句子嵌入模型的發(fā)展趨勢(shì)

句子嵌入(Sentence Embedding)的概念并不是一個(gè)非常新的概念,因?yàn)樵跇?gòu)建詞嵌入時(shí),最簡(jiǎn)單的方法之一就是用平均法構(gòu)建baseline句子嵌入模型。

一個(gè)baseline句子嵌入模型可以通過(guò)平均每個(gè)句子的單個(gè)詞嵌入(有點(diǎn)類(lèi)似于我們失去了句子中固有的語(yǔ)境和單詞序列的bag of words)來(lái)建立。下圖顯示了實(shí)現(xiàn)此功能的方法。

當(dāng)然,還有一些更復(fù)雜的方法,比如對(duì)句子中的詞嵌入表示進(jìn)行線(xiàn)性加權(quán)組合。

Doc2Vec也是 mikolov 等人提出的一種非常流行的方法。他們提出了段落向量,這是一種無(wú)監(jiān)督的算法,它從可變長(zhǎng)度的文本 (如句子、段落和文檔) 中學(xué)習(xí)固定長(zhǎng)度的特征嵌入。

Word2Vec vs. Doc2Vec (Source:https://arxiv.org/abs/1405.4053)

在上述描述的基礎(chǔ)上,該模型用一個(gè)稠密向量表示每個(gè)文檔,該向量訓(xùn)練用于預(yù)測(cè)文檔中的單詞,唯一的區(qū)別是使用段落或文檔id與常規(guī)單詞tokens一起構(gòu)建嵌入表示。這樣的設(shè)計(jì)使這種模型克服了詞袋模型的缺點(diǎn)。

神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(NNLM)是 Bengio 等人在2003年提出的。他們討論學(xué)習(xí)單詞的分布式表示,允許每個(gè)訓(xùn)練句子向模型提供關(guān)于語(yǔ)義相鄰句子的信息。該模型同時(shí)學(xué)習(xí)每個(gè)單詞的分布式表示,同時(shí)學(xué)習(xí)詞序列的概率函數(shù),并以這些形式表示出來(lái)。泛化是因?yàn)橐粋€(gè)以前從未見(jiàn)過(guò)的單詞序列,如果它是由類(lèi)似于構(gòu)成一個(gè)已經(jīng)出現(xiàn)過(guò)的句子的單詞構(gòu)成的詞構(gòu)成的,那么它就具有很高的概率。

Google已經(jīng)建立了一個(gè)通用的句子嵌入模型nnlm-en-dim128[3],這是一種基于標(biāo)記的文本嵌入,使用三層前饋神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型在英語(yǔ)google新聞200B語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練。該模型將任意文本映射為128維嵌入。我們很快就會(huì)在接下來(lái)演示中用到這個(gè)。

Skip-Thought Vectors也是基于非監(jiān)督學(xué)習(xí)的句子編碼器領(lǐng)域中最早的模型之一。在他們提議的論文中,利用文本的連續(xù)性,他們訓(xùn)練了一個(gè)編碼器-解碼器模型,試圖重建編碼段落的周?chē)渥?。共享語(yǔ)義和句法屬性的句子被映射到類(lèi)似的向量表示。

Skip-Thought Vectors (Source:https://arxiv.org/abs/1506.06726)

這就像skip-gram模型,但是是針對(duì)于句子而言的,即我們?cè)噲D預(yù)測(cè)給定源句子的周?chē)渥印?/p>

Quick Thought Vectors是最近用來(lái)學(xué)習(xí)句子表達(dá)的一種較新的方法。原論文中詳細(xì)介紹了學(xué)習(xí)句子表示的有效框架。有趣的是,他們通過(guò)在常規(guī)的編解碼結(jié)構(gòu)中用分類(lèi)器替換解碼器,把預(yù)測(cè)句子出現(xiàn)的上下文的問(wèn)題重新定義為分類(lèi)問(wèn)題。

Quick Thought Vectors (Source:https://openreview.net/forum?id=rJvJXZb0W)

因此,給定一個(gè)句子及其出現(xiàn)的上下文,分類(lèi)器根據(jù)它們的嵌入表示來(lái)區(qū)分上下文句子和其他對(duì)比句子。給定一個(gè)輸入語(yǔ)句,它首先使用某種函數(shù)進(jìn)行編碼,但是模型沒(méi)有生成目標(biāo)句子,而是從一組候選句子中選擇正確的目標(biāo)句子。將生成看作是從所有可能的句子中選擇一個(gè)句子,這可以看作是對(duì)生成問(wèn)題的一種判別近似。

InferSet是一種基于自然語(yǔ)言推理數(shù)據(jù)學(xué)習(xí)通用句子嵌入的有監(jiān)督學(xué)習(xí)方法。這是硬核監(jiān)督遷移學(xué)習(xí),就像我們?cè)贗mageNet數(shù)據(jù)集上接受計(jì)算機(jī)視覺(jué)訓(xùn)練一樣,他們使用斯坦福自然語(yǔ)言推理數(shù)據(jù)集的監(jiān)督數(shù)據(jù)來(lái)訓(xùn)練通用句子表示。該模型使用的數(shù)據(jù)集是由570 k人工生成的英語(yǔ)句子對(duì)組成的SNLI數(shù)據(jù)集,它捕捉到了理解句子語(yǔ)義的自然語(yǔ)言推理。

InferSent training scheme (Source:https://arxiv.org/abs/1705.02364)

基于上圖所描述的體系結(jié)構(gòu),我們可以看到,它使用了一個(gè)共享語(yǔ)句編碼器,它為前提u和假設(shè)V輸出一個(gè)表示。一旦生成句子向量,就可以使用3種匹配方法來(lái)提取u和v之間的關(guān)系:

Concatenation (u, v)

Element-wise product u ? v

Absolute element-wise difference |u ? v|

生成的向量隨后被輸入由多個(gè)全連接的層組成的三分類(lèi)器。

Google的通用句子編碼器Universal Sentence Encoder是最新的、最好的通用句子嵌入模型之一,于2018年初發(fā)布。通用句子編碼器將任意文本編碼成512維嵌入,可用于各種NLP任務(wù),包括文本分類(lèi)、語(yǔ)義相似性和聚類(lèi)。它針對(duì)各種數(shù)據(jù)源和各種任務(wù)進(jìn)行訓(xùn)練,目的是動(dòng)態(tài)地容納各種各樣的自然語(yǔ)言理解任務(wù),這些任務(wù)需要對(duì)單詞序列的含義進(jìn)行建模,而不僅僅是單個(gè)單詞。他們的主要發(fā)現(xiàn)是,使用句子嵌入的遷移學(xué)習(xí)往往優(yōu)于詞嵌入級(jí)別的遷移學(xué)習(xí)。

理解我們的文本分類(lèi)問(wèn)題

現(xiàn)在是時(shí)候把這些通用的句子編碼器付諸行動(dòng)了,接下來(lái)我們進(jìn)行演示。我們今天演示集中于一個(gè)非常流行的NLP任務(wù),即在情感分析的背景下對(duì)文本進(jìn)行分類(lèi)。下文演示中所用的數(shù)據(jù)集可以在[4]或[5]中下載。

這個(gè)數(shù)據(jù)集共有50000部電影評(píng)論,其中25k有正面情緒,25k有負(fù)面情緒。我們將在總共30000次評(píng)論上訓(xùn)練我們的模型,在5000個(gè)評(píng)論上進(jìn)行交叉驗(yàn)證,并使用15000次評(píng)論作為我們的測(cè)試數(shù)據(jù)集。主要目的是正確預(yù)測(cè)每一次評(píng)價(jià)的積極或消極情緒。

通用句子嵌入in action

現(xiàn)在我們已經(jīng)明確了我們的主要目標(biāo),讓我們把通用的句子編碼器付諸行動(dòng)!我的設(shè)置是一個(gè)8CPU,30 GB,250 GB的SSD和一個(gè)Nvidia Quadro P4000。

加載包

我們從安裝tensorflow-hub開(kāi)始,它使我們能夠輕松地使用這些句子編碼器。

Ok,接下來(lái)加載本教程要用到的模塊:

importtensorflowastfimporttensorflow_hubashubimportnumpyasnpimportpandasaspd

下面的命令幫助你檢查T(mén)ensorFlow是否將使用GPU(如果您已經(jīng)設(shè)置了一個(gè)GPU):

In [12]: tf.test.is_gpu_available()Out[12]: TrueIn [13]: tf.test.gpu_device_name()Out[13]: '/device:GPU:0'

加載和查看數(shù)據(jù)集

我們現(xiàn)在可以加載數(shù)據(jù)集并使用pandas查看它。

我們將情感表示的列編碼為1和0。

我們的電影評(píng)論數(shù)據(jù)集

構(gòu)建訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集

在開(kāi)始建模之前,我們將創(chuàng)建訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集。我們將使用30000條評(píng)論用于訓(xùn)練,5000條用于驗(yàn)證,15000條用于測(cè)試。你可以使用train_test_split() from scikit-learn。我只是很懶,用簡(jiǎn)單的列表切片對(duì)數(shù)據(jù)集進(jìn)行了細(xì)分。

((30000,), (5000,), (15000,))

基本文本處理

我們有一些基本的文本預(yù)處理需要做,以從我們的文本消除一些噪音,如不必要的特殊字符,html標(biāo)簽的清除等。

下面的代碼幫助我們構(gòu)建一個(gè)簡(jiǎn)單而有效的文本系統(tǒng)。

現(xiàn)在讓我們使用上面實(shí)現(xiàn)的函數(shù)對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理。

構(gòu)建數(shù)據(jù)攝取函數(shù)

由于我們將使用tf.estimator API在TensorFlow中實(shí)現(xiàn)我們的模型,因此我們需要定義一些函數(shù)來(lái)構(gòu)建數(shù)據(jù)和特性工程pipline,以便在訓(xùn)練期間將數(shù)據(jù)輸入到我們的模型中。我們利用numpy_put_fn(),這有助于將大量的numpy數(shù)組輸入到模型中。

我們現(xiàn)在已經(jīng)準(zhǔn)備好建立我們的模型了!

用通用句子編碼器建立深度學(xué)習(xí)模型

在建立模型之前,首先要定義利用通用句子編碼器的語(yǔ)句嵌入特征。我們可以使用下面的代碼來(lái)實(shí)現(xiàn)這一點(diǎn)。

INFO:tensorflow:Using /tmp/tfhub_modules tocache modules.

我們將建立一個(gè)簡(jiǎn)單只有兩個(gè)隱層的前饋DNN,現(xiàn)在只是一個(gè)標(biāo)準(zhǔn)的模型,沒(méi)有太復(fù)雜,因?yàn)槲覀兿肟纯催@些嵌入在一個(gè)簡(jiǎn)單的模型上執(zhí)行得有多好。在這里,我們正在利用預(yù)訓(xùn)練嵌入形式的遷移學(xué)習(xí)方法。

模型訓(xùn)練

在我們的驗(yàn)證數(shù)據(jù)集上,我們獲得了接近87%的總體精度,在這樣一個(gè)簡(jiǎn)單的模型上,AUC達(dá)到了94%,這是相當(dāng)好的!

模型評(píng)估

現(xiàn)在,讓我們?cè)u(píng)估我們的模型在訓(xùn)練和測(cè)試數(shù)據(jù)集上的總體性能。

我們?cè)跍y(cè)試數(shù)據(jù)上獲得了接近87%的總體準(zhǔn)確率,與我們之前在驗(yàn)證數(shù)據(jù)集上觀察到的結(jié)果一致。因此,這應(yīng)該讓你了解利用經(jīng)過(guò)預(yù)訓(xùn)練的通用語(yǔ)句嵌入是多么容易,而不必?fù)?dān)心特征工程或復(fù)雜建模的麻煩。

獎(jiǎng)勵(lì):不同通用句子嵌入的遷移學(xué)習(xí)

現(xiàn)在讓我們嘗試根據(jù)不同的句子嵌入構(gòu)建不同的深度學(xué)習(xí)分類(lèi)器。我們將嘗試以下幾點(diǎn):

NNLM-128

USE-512

我們還將在這里討論兩種最突出的遷移學(xué)習(xí)方法:

使用freezed預(yù)訓(xùn)練語(yǔ)句嵌入建立模型

建立一個(gè)模型,在這個(gè)模型中,我們微調(diào)并更新訓(xùn)練期間預(yù)先訓(xùn)練過(guò)的句子嵌入

我們現(xiàn)在可以使用上述定義的方法來(lái)訓(xùn)練我們的模型。

我在上面的輸出中描述了重要的評(píng)估指標(biāo),可以看到,我們的模型得到了一些好的結(jié)果。下表以一種很好的方式總結(jié)了這些比較結(jié)果。

對(duì)比不同的通用句子編碼器

看起來(lái)像谷歌的通用句子編碼器微調(diào)給我們的測(cè)試數(shù)據(jù)最好的結(jié)果。讓我們加載這個(gè)保存的模型并對(duì)測(cè)試數(shù)據(jù)進(jìn)行評(píng)估。

[0, 1, 0, 1, 1, 0, 1, 1, 1, 1]

評(píng)估模型性能的最佳方法之一是以混淆矩陣的形式可視化模型預(yù)測(cè)。

從我們最好的模型預(yù)測(cè)中的混淆矩陣

我們也可以輸出其他重要的指標(biāo)包括準(zhǔn)確率,召回率和F1。

我們獲得了一個(gè)整體模型的準(zhǔn)確性和F1-分?jǐn)?shù)90%的測(cè)試數(shù)據(jù),很好。

結(jié)論

對(duì)于不同的NLP任務(wù),通用句子嵌入無(wú)疑是在支持遷移學(xué)習(xí)方面向前邁出的一大步。事實(shí)上,我們已經(jīng)看到像ELMo這樣的模型,通用句子編碼器,ULMFiT確實(shí)成為頭條新聞,因?yàn)樗故玖祟A(yù)先訓(xùn)練過(guò)的模型可以用來(lái)在NLP任務(wù)上實(shí)現(xiàn)最先進(jìn)的結(jié)果。著名的研究科學(xué)家和博客作者塞巴斯蒂安·魯?shù)?SebastianRuder)在推特上提到了同樣的問(wèn)題。

我對(duì)NLP的進(jìn)一步推廣和使我們能夠輕松地解決復(fù)雜任務(wù)的未來(lái)感到非常興奮!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123737
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23096

原文標(biāo)題:自然語(yǔ)言處理中的深度遷移學(xué)習(xí)——文本預(yù)訓(xùn)練

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國(guó)人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    python自然語(yǔ)言

    最近,python自然語(yǔ)言是越來(lái)越火了,那么什么是自然語(yǔ)言。自然語(yǔ)言(Natural Language )廣納了眾多技術(shù),對(duì)自然或人類(lèi)語(yǔ)言進(jìn)
    發(fā)表于 05-02 13:50

    自然語(yǔ)言處理怎么最快入門(mén)?

    `本文整理自知乎上的一個(gè)問(wèn)答,分享給正在學(xué)習(xí)自然語(yǔ)言處理的朋友們!一、自然語(yǔ)言處理是什么?
    發(fā)表于 11-28 10:02

    語(yǔ)義理解和研究資源是自然語(yǔ)言處理的兩大難題

    兩方面,語(yǔ)義理解和資源問(wèn)題。 語(yǔ)義理解包括對(duì)自然語(yǔ)言知識(shí)和常識(shí)的學(xué)習(xí),如果只是要學(xué)習(xí)機(jī)器的知識(shí),對(duì)于人類(lèi)來(lái)說(shuō)并不難,但是如果讓機(jī)器掌握人的思考模式和處理方法模式,其模式構(gòu)建和具體實(shí)施則
    發(fā)表于 09-19 14:10

    自然語(yǔ)言處理之66參數(shù)學(xué)習(xí)

    自然語(yǔ)言處理——66參數(shù)學(xué)習(xí)
    發(fā)表于 07-16 09:43

    什么是自然語(yǔ)言處理

    什么是自然語(yǔ)言處理?自然語(yǔ)言處理任務(wù)有哪些?自然語(yǔ)言處理的方法是什么?
    發(fā)表于 09-08 06:51

    什么是人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)自然語(yǔ)言處理?

    領(lǐng)域,包括機(jī)器學(xué)習(xí)深度學(xué)習(xí)、數(shù)據(jù)挖掘、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和其他幾個(gè)學(xué)科。首先,人工智能涉及使計(jì)算機(jī)具有自我意識(shí),利用計(jì)算機(jī)視覺(jué)、
    發(fā)表于 03-22 11:19

    語(yǔ)言學(xué)到深度學(xué)習(xí)NLP,一文概述自然語(yǔ)言處理

    本文從兩篇論文出發(fā)先簡(jiǎn)要介紹了自然語(yǔ)言處理的基本分類(lèi)和基本概念,再向讀者展示了深度學(xué)習(xí)的 NLP。這兩篇論文都是很好的綜述性入門(mén)論文,希望
    的頭像 發(fā)表于 08-22 14:56 ?6811次閱讀

    閑談深度學(xué)習(xí)自然語(yǔ)言處理領(lǐng)域的5大關(guān)鍵優(yōu)勢(shì)

    自然語(yǔ)言處理領(lǐng)域,深度學(xué)習(xí)將給予最大的幫助,深度學(xué)習(xí)方法主要依靠一下這五個(gè)關(guān)鍵優(yōu)勢(shì),閱讀本文將
    發(fā)表于 01-12 16:00 ?4667次閱讀

    深入機(jī)器學(xué)習(xí)自然語(yǔ)言處理

    和方法。隨著深度學(xué)習(xí)在圖像識(shí)別、語(yǔ)音識(shí)別領(lǐng)域的大放異彩,人們對(duì)深度學(xué)習(xí)在NLP的價(jià)值也寄予厚望。自然語(yǔ)言
    發(fā)表于 09-18 22:31 ?1048次閱讀

    采用深度學(xué)習(xí)對(duì)自然語(yǔ)言處理進(jìn)行分類(lèi)

    深度學(xué)習(xí)對(duì)自然語(yǔ)言處理(NLP)進(jìn)行分類(lèi)
    的頭像 發(fā)表于 11-05 06:51 ?3824次閱讀

    面向自然語(yǔ)言處理的神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的答辯PPT

    現(xiàn)實(shí)自然語(yǔ)言處理面臨著多領(lǐng)域、多語(yǔ)種上的多種類(lèi)型的任務(wù),為每個(gè)任務(wù)都單獨(dú)進(jìn)行數(shù)據(jù)標(biāo)注是不大可行的,而遷移學(xué)習(xí)可以將
    的頭像 發(fā)表于 03-02 09:16 ?3364次閱讀

    斯坦福AI Lab主任、NLP大師Manning:將深度學(xué)習(xí)應(yīng)用于自然語(yǔ)言處理領(lǐng)域的領(lǐng)軍者

    像Alexa和Siri那樣的對(duì)話(huà)助手對(duì)自然語(yǔ)言處理產(chǎn)生了巨大的影響。最開(kāi)始這些變化跟深度學(xué)習(xí)自然語(yǔ)言
    的頭像 發(fā)表于 07-07 07:47 ?4734次閱讀

    基于深度學(xué)習(xí)自然語(yǔ)言處理對(duì)抗樣本模型

    深度學(xué)習(xí)模型被證明存在脆弱性并容易遭到對(duì)抗樣本的攻擊,但目前對(duì)于對(duì)抗樣本的研究主要集中在計(jì)算機(jī)視覺(jué)領(lǐng)域而忽略了自然語(yǔ)言處理模型的安全問(wèn)題。針對(duì)自然語(yǔ)
    發(fā)表于 04-20 14:36 ?39次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>對(duì)抗樣本模型

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展,自然語(yǔ)言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問(wèn)題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1.
    的頭像 發(fā)表于 11-11 10:35 ?1920次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。機(jī)器
    的頭像 發(fā)表于 12-05 15:21 ?2371次閱讀