chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Deep Learning如何能在NLP中發(fā)揮出應(yīng)有的real power呢?

lviY_AI_shequ ? 來(lái)源:未知 ? 作者:李倩 ? 2018-04-08 09:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

〇、序

之前一段時(shí)間,在結(jié)合深度學(xué)習(xí)做NLP的時(shí)候一直有思考一些問(wèn)題,其中有一個(gè)問(wèn)題算是最核心一個(gè):究竟深度網(wǎng)絡(luò)是怎么做到讓各種NLP任務(wù)解決地如何完美呢?到底我的數(shù)據(jù)在NN中發(fā)什么了什么呢?

并且,不少的terms like: 詞向量、word embedding、分布式表示、word2vec、glove等等,這一鍋粥的名詞術(shù)語(yǔ)分別代表什么,他們具體的關(guān)系是什么,他們是否處于平級(jí)關(guān)系?

出于對(duì)知識(shí)結(jié)構(gòu)追求完整梳理的強(qiáng)迫癥的老毛病,于是不停地查資料、思考、keep revolving……

然后就感覺(jué)有一點(diǎn)小進(jìn)展了。想到,不如將個(gè)人對(duì)其的理解,無(wú)論對(duì)錯(cuò),先拿出來(lái)跟peer分享下,或許能交換出更有意義的東西呢?

整篇文章的構(gòu)架是按照屬于概念在邏輯上的先后大小順序,一層一層一級(jí)一級(jí)地往下剖析、比較、說(shuō)明。

另外說(shuō)明下,here整篇文字內(nèi)容相對(duì)是比較入門(mén),甚至有的點(diǎn)可能描述的不太客觀正確,限于當(dāng)前的認(rèn)知水平……還請(qǐng)您海涵,希望您在評(píng)論中指正!

一、DeepNLP的核心關(guān)鍵:語(yǔ)言表示(Representation)

最近有一個(gè)新名詞:Deep Learning + NLP = DeepNLP。當(dāng)常規(guī)的機(jī)器學(xué)習(xí)Machine Learning升級(jí)發(fā)展到了一定的階段后,慢慢的被后起的深度學(xué)習(xí)Deep Learning奪勢(shì)而去,并如火如荼地引領(lǐng)了一波新高潮,因?yàn)镈eep Learning有machinelearning過(guò)而不及之處!那當(dāng)Deep Learning進(jìn)入NLP領(lǐng)域,自然是要橫掃ACL一批paper才是。事實(shí)也是這樣的。

先提下數(shù)據(jù)特征表示問(wèn)題。數(shù)據(jù)表示是機(jī)器學(xué)習(xí)的核心問(wèn)題,在過(guò)去的Machine Learning階段,大量興起特征工程,人工設(shè)計(jì)大量的特征解決數(shù)據(jù)的有效表示問(wèn)題。而到了Deep Learning,想都別想,end-2-end,一步到位,hyper-parameter自動(dòng)幫你選擇尋找關(guān)鍵的特征參數(shù)。

那么,Deep Learning如何能在NLP中發(fā)揮出應(yīng)有的real power呢?很明顯,先不提如何設(shè)計(jì)出很強(qiáng)勢(shì)的網(wǎng)絡(luò)結(jié)構(gòu),不提如何在NLP中引入基于NN的解決例如情感分析、實(shí)體識(shí)別、機(jī)器翻譯、文本生成這些高級(jí)任務(wù),咱們首先得把語(yǔ)言表示這一關(guān)過(guò)了——如何讓語(yǔ)言表示成為NN能夠處理的數(shù)據(jù)類(lèi)型。

我們看看圖像和語(yǔ)音是怎么表示數(shù)據(jù)的:

在語(yǔ)音中,用音頻頻譜序列向量所構(gòu)成的matrix作為前端輸入喂給NN進(jìn)行處理,good;在圖像中,用圖片的像素構(gòu)成的matrix展平成vector后組成的vector序列喂給NN進(jìn)行處理,good;那在自然語(yǔ)言處理中呢?噢你可能知道或者不知道,將每一個(gè)詞用一個(gè)向量表示出來(lái)!想法是挺簡(jiǎn)單的,對(duì),事實(shí)上就是這么簡(jiǎn)單,然而真有這么簡(jiǎn)單嗎?可能沒(méi)這么簡(jiǎn)單。

有人提到,圖像、語(yǔ)音屬于比較自然地低級(jí)數(shù)據(jù)表示形式,在圖像和語(yǔ)音領(lǐng)域,最基本的數(shù)據(jù)是信號(hào)數(shù)據(jù),我們可以通過(guò)一些距離度量,判斷信號(hào)是否相似,在判斷兩幅圖片是否相似時(shí),只需通過(guò)觀察圖片本身就能給出回答。而語(yǔ)言作為人類(lèi)在進(jìn)化了幾百萬(wàn)年所產(chǎn)生的一種高層的抽象的思維信息表達(dá)的工具,其具有高度抽象的特征,文本是符號(hào)數(shù)據(jù),兩個(gè)詞只要字面不同,就難以刻畫(huà)它們之間的聯(lián)系,即使是“麥克風(fēng)”和“話筒”這樣的同義詞,從字面上也難以看出這兩者意思相同(語(yǔ)義鴻溝現(xiàn)象),可能并不是簡(jiǎn)單地一加一那么簡(jiǎn)單就能表示出來(lái),而判斷兩個(gè)詞是否相似時(shí),還需要更多的背景知識(shí)才能做出回答。

那么據(jù)上是不是可以自信地下一個(gè)結(jié)論呢:如何有效地表示出語(yǔ)言句子是決定NN能發(fā)揮出強(qiáng)大擬合計(jì)算能力的關(guān)鍵前提!

二、NLP詞的表示方法類(lèi)型

接下來(lái)將按照上面的思路,引出各種詞的表示方法。按照現(xiàn)今目前的發(fā)展,詞的表示分為獨(dú)熱表示one-hot、分布式表示distributed。

1、詞的獨(dú)熱表示one-hot representation

NLP 中最直觀,也是到目前為止最常用的詞表示方法是 One-hot Representation,這種方法把每個(gè)詞表示為一個(gè)很長(zhǎng)的向量。這個(gè)向量的維度是詞表大小,其中絕大多數(shù)元素為 0,只有一個(gè)維度的值為 1,這個(gè)維度就代表了當(dāng)前的詞。關(guān)于one-hot編碼的資料很多,街貨,這里簡(jiǎn)單舉個(gè)栗子說(shuō)明:

“話筒”表示為 [0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 ...] “麥克”表示為 [0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 ...]

每個(gè)詞都是茫茫 0 海中的一個(gè) 1。這種 One-hot Representation 如果采用稀疏方式存儲(chǔ),會(huì)是非常的簡(jiǎn)潔:也就是給每個(gè)詞分配一個(gè)數(shù)字 ID。比如剛才的例子中,話筒記為 3,麥克記為 8(假設(shè)從 0 開(kāi)始記)。如果要編程實(shí)現(xiàn)的話,用 Hash 表給每個(gè)詞分配一個(gè)編號(hào)就可以了。這么簡(jiǎn)潔的表示方法配合上最大熵、SVM、CRF 等等算法已經(jīng)很好地完成了 NLP 領(lǐng)域的各種主流任務(wù)。

現(xiàn)在我們分析他的不當(dāng)處。1、向量的維度會(huì)隨著句子的詞的數(shù)量類(lèi)型增大而增大;2、任意兩個(gè)詞之間都是孤立的,根本無(wú)法表示出在語(yǔ)義層面上詞語(yǔ)詞之間的相關(guān)信息,而這一點(diǎn)是致命的。

2、詞的分布式表示distributed representation

傳統(tǒng)的獨(dú)熱表示( one-hot representation)僅僅將詞符號(hào)化,不包含任何語(yǔ)義信息。如何將語(yǔ)義融入到詞表示中?Harris 在 1954 年提出的分布假說(shuō)( distributional hypothesis)為這一設(shè)想提供了理論基礎(chǔ):上下文相似的詞,其語(yǔ)義也相似。Firth 在 1957 年對(duì)分布假說(shuō)進(jìn)行了進(jìn)一步闡述和明確:詞的語(yǔ)義由其上下文決定( a word is characterized by thecompany it keeps)。

到目前為止,基于分布假說(shuō)的詞表示方法,根據(jù)建模的不同,主要可以分為三類(lèi):基于矩陣的分布表示、基于聚類(lèi)的分布表示和基于神經(jīng)網(wǎng)絡(luò)的分布表示。盡管這些不同的分布表示方法使用了不同的技術(shù)手段獲取詞表示,但由于這些方法均基于分布假說(shuō),它們的核心思想也都由兩部分組成:一、選擇一種方式描述上下文;二、選擇一種模型刻畫(huà)某個(gè)詞(下文稱(chēng)“目標(biāo)詞”)與其上下文之間的關(guān)系。

三、NLP語(yǔ)言模型

在詳細(xì)介紹詞的分布式表示之前,需要將NLP中的一個(gè)關(guān)鍵概念描述清楚:語(yǔ)言模型。語(yǔ)言模型包括文法語(yǔ)言模型和統(tǒng)計(jì)語(yǔ)言模型。一般我們指的是統(tǒng)計(jì)語(yǔ)言模型。之所以要將語(yǔ)言模型擺在詞表示方法之前,是因?yàn)楹竺娴谋硎痉椒R上要用到這一概念。

統(tǒng)計(jì)語(yǔ)言模型: 統(tǒng)計(jì)語(yǔ)言模型把語(yǔ)言(詞的序列)看作一個(gè)隨機(jī)事件,并賦予相應(yīng)的概率來(lái)描述其屬于某種語(yǔ)言集合的可能性。給定一個(gè)詞匯集合 V,對(duì)于一個(gè)由 V 中的詞構(gòu)成的序列S = ?w1, · · · , wT ? ∈ Vn,統(tǒng)計(jì)語(yǔ)言模型賦予這個(gè)序列一個(gè)概率P(S),來(lái)衡量S 符合自然語(yǔ)言的語(yǔ)法和語(yǔ)義規(guī)則的置信度。

用一句簡(jiǎn)單的話說(shuō),就語(yǔ)言模型就是計(jì)算一個(gè)句子的概率大小的這種模型。有什么意義呢?一個(gè)句子的打分概率越高,越說(shuō)明他是更合乎人說(shuō)出來(lái)的自然句子。

就是這么簡(jiǎn)單。常見(jiàn)的統(tǒng)計(jì)語(yǔ)言模型有N元文法模型(N-gram Model),最常見(jiàn)的是unigram model、bigram model、trigram model等等。形式化講,統(tǒng)計(jì)語(yǔ)言模型的作用是為一個(gè)長(zhǎng)度為 m 的字符串確定一個(gè)概率分布 P(w1; w2; :::; wm),表示其存在的可能性,其中 w1 到 wm 依次表示這段文本中的各個(gè)詞。一般在實(shí)際求解過(guò)程中,通常采用下式計(jì)算其概率值:

同時(shí)通過(guò)這些方法均也可以保留住一定的詞序信息,這樣就能把一個(gè)詞的上下文信息capture住。

具體的語(yǔ)言模型詳情屬于街貨,詳細(xì)請(qǐng)自行搜索。

四、詞的分布式表示

1. 基于矩陣的分布表示

基于矩陣的分布表示通常又稱(chēng)為分布語(yǔ)義模型,在這種表示下,矩陣中的一行,就成為了對(duì)應(yīng)詞的表示,這種表示描述了該詞的上下文的分布。由于分布假說(shuō)認(rèn)為上下文相似的詞,其語(yǔ)義也相似,因此在這種表示下,兩個(gè)詞的語(yǔ)義相似度可以直接轉(zhuǎn)化為兩個(gè)向量的空間距離。

常見(jiàn)到的Global Vector 模型( GloVe模型)是一種對(duì)“詞-詞”矩陣進(jìn)行分解從而得到詞表示的方法,屬于基于矩陣的分布表示。

2. 基于聚類(lèi)的分布表示

基于聚類(lèi)的分布表示我也還不是太清楚,所以就不做具體描述。

3. 基于神經(jīng)網(wǎng)絡(luò)的分布表示,詞嵌入( word embedding)

基于神經(jīng)網(wǎng)絡(luò)的分布表示一般稱(chēng)為詞向量、詞嵌入( word embedding)或分布式表示( distributed representation)。這正是我們的主角today。

神經(jīng)網(wǎng)絡(luò)詞向量表示技術(shù)通過(guò)神經(jīng)網(wǎng)絡(luò)技術(shù)對(duì)上下文,以及上下文與目標(biāo)詞之間的關(guān)系進(jìn)行建模。由于神經(jīng)網(wǎng)絡(luò)較為靈活,這類(lèi)方法的最大優(yōu)勢(shì)在于可以表示復(fù)雜的上下文。在前面基于矩陣的分布表示方法中,最常用的上下文是詞。如果使用包含詞序信息的 n-gram 作為上下文,當(dāng) n 增加時(shí), n-gram 的總數(shù)會(huì)呈指數(shù)級(jí)增長(zhǎng),此時(shí)會(huì)遇到維數(shù)災(zāi)難問(wèn)題。而神經(jīng)網(wǎng)絡(luò)在表示 n-gram 時(shí),可以通過(guò)一些組合方式對(duì) n 個(gè)詞進(jìn)行組合,參數(shù)個(gè)數(shù)僅以線性速度增長(zhǎng)。有了這一優(yōu)勢(shì),神經(jīng)網(wǎng)絡(luò)模型可以對(duì)更復(fù)雜的上下文進(jìn)行建模,在詞向量中包含更豐富的語(yǔ)義信息。

五、詞嵌入( word embedding)

1、概念

基于神經(jīng)網(wǎng)絡(luò)的分布表示又稱(chēng)為詞向量、詞嵌入,神經(jīng)網(wǎng)絡(luò)詞向量模型與其它分布表示方法一樣,均基于分布假說(shuō),核心依然是上下文的表示以及上下文與目標(biāo)詞之間的關(guān)系的建模。

前面提到過(guò),為了選擇一種模型刻畫(huà)某個(gè)詞(下文稱(chēng)“目標(biāo)詞”)與其上下文之間的關(guān)系,我們需要在詞向量中capture到一個(gè)詞的上下文信息。同時(shí),上面我們恰巧提到了統(tǒng)計(jì)語(yǔ)言模型正好具有捕捉上下文信息的能力。那么構(gòu)建上下文與目標(biāo)詞之間的關(guān)系,最自然的一種思路就是使用語(yǔ)言模型。從歷史上看,早期的詞向量只是神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型的副產(chǎn)品。

2001年, Bengio 等人正式提出神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型( Neural Network Language Model ,NNLM),該模型在學(xué)習(xí)語(yǔ)言模型的同時(shí),也得到了詞向量。所以請(qǐng)注意一點(diǎn):詞向量可以認(rèn)為是神經(jīng)網(wǎng)絡(luò)訓(xùn)練語(yǔ)言模型的副產(chǎn)品。

2、理解

前面提過(guò),one-hot表示法具有維度過(guò)大的缺點(diǎn),那么現(xiàn)在將vector做一些改進(jìn):1、將vector每一個(gè)元素由整形改為浮點(diǎn)型,變?yōu)檎麄€(gè)實(shí)數(shù)范圍的表示;2、將原來(lái)稀疏的巨大維度壓縮嵌入到一個(gè)更小維度的空間。如圖示:

這也是詞向量又名詞嵌入的緣由了。

六、神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型與word2vec

好了,到目前為止我們已經(jīng)對(duì)的分布式表示以及詞嵌入的概念的層級(jí)關(guān)系有了個(gè)理性的認(rèn)識(shí)了,那這跟word2vec有什么聯(lián)系?

1、神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型

上面說(shuō),通過(guò)神經(jīng)網(wǎng)絡(luò)訓(xùn)練語(yǔ)言模型可以得到詞向量,那么,究竟有哪些類(lèi)型的神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型呢?個(gè)人所知,大致有這么些個(gè):

a) Neural Network Language Model ,NNLM

b) Log-Bilinear Language Model, LBL

c) Recurrent Neural Network based Language Model,RNNLM

d) Collobert 和 Weston 在2008 年提出的 C&W 模型

e) Mikolov 等人提出了 CBOW( Continuous Bagof-Words)和 Skip-gram 模型

到這,估計(jì)有人看到了兩個(gè)熟悉的term:CBOW、skip-gram,有看過(guò)word2vec的同學(xué)應(yīng)該對(duì)此有所了解。我們繼續(xù)。

2.word2vec與CBOW、Skip-gram

現(xiàn)在我們正式引出最火熱的另一個(gè)term:word2vec。

上面提到的5個(gè)神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型,只是個(gè)在邏輯概念上的東西,那么具體我們得通過(guò)設(shè)計(jì)將其實(shí)現(xiàn)出來(lái),而實(shí)現(xiàn)CBOW( Continuous Bagof-Words)和 Skip-gram 語(yǔ)言模型的工具正是well-known word2vec!另外,C&W 模型的實(shí)現(xiàn)工具是SENNA。

所以說(shuō),分布式詞向量并不是word2vec的作者發(fā)明的,他只是提出了一種更快更好的方式來(lái)訓(xùn)練語(yǔ)言模型罷了。分別是:連續(xù)詞袋模型Continous Bag of Words Model(CBOW)和Skip-Gram Model,這兩種都是可以訓(xùn)練出詞向量的方法,再具體代碼操作中可以只選擇其一,不過(guò)據(jù)論文說(shuō)CBOW要更快一些。

順便說(shuō)說(shuō)這兩個(gè)語(yǔ)言模型。統(tǒng)計(jì)語(yǔ)言模型statistical language model就是給你幾個(gè)詞,在這幾個(gè)詞出現(xiàn)的前提下來(lái)計(jì)算某個(gè)詞出現(xiàn)的(事后)概率。CBOW也是統(tǒng)計(jì)語(yǔ)言模型的一種,顧名思義就是根據(jù)某個(gè)詞前面的C個(gè)詞或者前后C個(gè)連續(xù)的詞,來(lái)計(jì)算某個(gè)詞出現(xiàn)的概率。Skip-Gram Model相反,是根據(jù)某個(gè)詞,然后分別計(jì)算它前后出現(xiàn)某幾個(gè)詞的各個(gè)概率。

以“我愛(ài)北京天安門(mén)”這句話為例。假設(shè)我們現(xiàn)在關(guān)注的詞是“愛(ài)”,C=2時(shí)它的上下文分別是“我”,“北京天安門(mén)”。CBOW模型就是把“我” “北京天安門(mén)” 的one hot表示方式作為輸入,也就是C個(gè)1xV的向量,分別跟同一個(gè)VxN的大小的系數(shù)矩陣W1相乘得到C個(gè)1xN的隱藏層hidden layer,然后C個(gè)取平均所以只算一個(gè)隱藏層。這個(gè)過(guò)程也被稱(chēng)為線性激活函數(shù)(這也算激活函數(shù)?分明就是沒(méi)有激活函數(shù)了)。然后再跟另一個(gè)NxV大小的系數(shù)矩陣W2相乘得到1xV的輸出層,這個(gè)輸出層每個(gè)元素代表的就是詞庫(kù)里每個(gè)詞的事后概率。輸出層需要跟ground truth也就是“愛(ài)”的one hot形式做比較計(jì)算loss。這里需要注意的就是V通常是一個(gè)很大的數(shù)比如幾百萬(wàn),計(jì)算起來(lái)相當(dāng)費(fèi)時(shí)間,除了“愛(ài)”那個(gè)位置的元素肯定要算在loss里面,word2vec就用基于huffman編碼的Hierarchical softmax篩選掉了一部分不可能的詞,然后又用nagetive samping再去掉了一些負(fù)樣本的詞所以時(shí)間復(fù)雜度就從O(V)變成了O(logV)。Skip gram訓(xùn)練過(guò)程類(lèi)似,只不過(guò)輸入輸出剛好相反。

補(bǔ)充下,Word embedding的訓(xùn)練方法大致可以分為兩類(lèi):一類(lèi)是無(wú)監(jiān)督或弱監(jiān)督的預(yù)訓(xùn)練;一類(lèi)是端對(duì)端(end to end)的有監(jiān)督訓(xùn)練。無(wú)監(jiān)督或弱監(jiān)督的預(yù)訓(xùn)練以word2vec和auto-encoder為代表。這一類(lèi)模型的特點(diǎn)是,不需要大量的人工標(biāo)記樣本就可以得到質(zhì)量還不錯(cuò)的embedding向量。不過(guò)因?yàn)槿鄙倭巳蝿?wù)導(dǎo)向,可能和我們要解決的問(wèn)題還有一定的距離。因此,我們往往會(huì)在得到預(yù)訓(xùn)練的embedding向量后,用少量人工標(biāo)注的樣本去fine-tune整個(gè)模型。

相比之下,端對(duì)端的有監(jiān)督模型在最近幾年里越來(lái)越受到人們的關(guān)注。與無(wú)監(jiān)督模型相比,端對(duì)端的模型在結(jié)構(gòu)上往往更加復(fù)雜。同時(shí),也因?yàn)橛兄鞔_的任務(wù)導(dǎo)向,端對(duì)端模型學(xué)習(xí)到的embedding向量也往往更加準(zhǔn)確。例如,通過(guò)一個(gè)embedding層和若干個(gè)卷積層連接而成的深度神經(jīng)網(wǎng)絡(luò)以實(shí)現(xiàn)對(duì)句子的情感分類(lèi),可以學(xué)習(xí)到語(yǔ)義更豐富的詞向量表達(dá)。

3.個(gè)人對(duì)word embedding的理解

現(xiàn)在,詞向量既能夠降低維度,又能夠capture到當(dāng)前詞在本句子中上下文的信息(表現(xiàn)為前后距離關(guān)系),那么我們對(duì)其用來(lái)表示語(yǔ)言句子詞語(yǔ)作為NN的輸入是非常自信與滿(mǎn)意的。

另外一點(diǎn)很實(shí)用的建議,在你做某一項(xiàng)具體的NLP任務(wù)時(shí)如你要用到詞向量,那么我建議你:要么1、選擇使用別人訓(xùn)練好的詞向量,注意,得使用相同語(yǔ)料內(nèi)容領(lǐng)域的詞向量;要么2、自己訓(xùn)練自己的詞向量。我建議是前者,因?yàn)椤犹嗔恕?/p>

七、后言

說(shuō)到這里,其實(shí)我并沒(méi)有想繼續(xù)說(shuō)下去的打算了,即并沒(méi)有打算將word2vec的數(shù)學(xué)原理、詳解啥的統(tǒng)統(tǒng)來(lái)一頓講了,因?yàn)槲野l(fā)現(xiàn)網(wǎng)上關(guān)于講解word2vec的文章實(shí)在是太多了,多到幾乎所有的文章都是一樣的。所以我也沒(méi)有必要再copy一份過(guò)來(lái)咯。

所以,要詳細(xì)了解word2vec、cbow、skip-gram細(xì)節(jié)的請(qǐng)您仔細(xì)搜索。我相信,在了解了這一系列的前提上下文知識(shí)的背景下,你再去讀word2vec相關(guān)的細(xì)節(jié)文章時(shí),一定不會(huì)感到有多吃力。

另外這也反映出來(lái)了一個(gè)更大的問(wèn)題,即網(wǎng)絡(luò)文章缺少critical思維的原創(chuàng)性。

網(wǎng)上隨便一搜“word2vec”、“詞向量”,然后一大堆的關(guān)于word2vec、cbow、skip-gram數(shù)學(xué)公式的講解,并且還都是千篇一律的東西……但最讓人無(wú)法理解的是,基本上沒(méi)有人去詳細(xì)地提一提這些東西他的出現(xiàn)他的存在的上下文、他的發(fā)展的過(guò)程、他在整個(gè)相關(guān)技術(shù)框架的所處位置等等。這讓我很郁悶……

其實(shí)順便分享下,在我個(gè)人的方法論思維中,一個(gè)帶有完整上下文以及結(jié)構(gòu)構(gòu)建良好的知識(shí)框架,在某種程度上,比一些細(xì)枝末節(jié)的詳細(xì)知識(shí)點(diǎn)來(lái)的重要的多了!因?yàn)椋坏?gòu)建了一個(gè)完備的知識(shí)結(jié)構(gòu)框架,那么剩下你要做的是將一些零零碎碎的細(xì)節(jié)進(jìn)行填補(bǔ)而已;而反過(guò)來(lái)卻根本不行,知識(shí)堆砌只會(huì)讓你思維混亂,走不了多遠(yuǎn)。

所以here我也呼吁各位blogger,大家能充分發(fā)揮自己的能動(dòng)性,主動(dòng)去創(chuàng)造一些沒(méi)有的東西,分享一些獨(dú)有的思維見(jiàn)解,也算是對(duì)中國(guó)網(wǎng)絡(luò)blog以及CS事業(yè)的推動(dòng)貢獻(xiàn)啊!I mean,即便是copy別人的原來(lái)的東西,也最好是咀嚼咀嚼,消化后加上自己的東西再share??!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    107932
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23308

原文標(biāo)題:DeepNLP的核心關(guān)鍵/NLP語(yǔ)言模型 /詞的分布式表示/word embedding/word2vec

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛(ài)好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    VisionPro Deep Learning幫助軟包鋰電池實(shí)現(xiàn)外觀檢測(cè)自動(dòng)化

    VisionPro Deep Learning基于大量圖片建立了高精度的神經(jīng)網(wǎng)絡(luò)模型,大大縮短了同類(lèi)型產(chǎn)品新項(xiàng)目的實(shí)施周期。
    發(fā)表于 10-19 15:52 ?3365次閱讀
    VisionPro <b class='flag-5'>Deep</b> <b class='flag-5'>Learning</b>幫助軟包鋰電池實(shí)現(xiàn)外觀檢測(cè)自動(dòng)化

    NVIDIA火熱招聘深度學(xué)習(xí) (Deep Learning) 達(dá)人

    崗位:1. Deep Learning Solution Architect - Beijing/Shanghai/Shenzhen2. Deep Learning Performan
    發(fā)表于 08-25 17:04

    收藏貼:機(jī)器學(xué)習(xí)教程集合干貨

    Learning in Deep Neural Networks (sebastianruder.com)自然語(yǔ)言處理(NLP)A Primer on Neural Network Models
    發(fā)表于 03-07 20:22

    Neural network and deep learning閱讀筆記梯度消失怎么辦

    Neural network and deep learning閱讀筆記(5)梯度消失問(wèn)題
    發(fā)表于 05-29 12:29

    怎樣將驅(qū)動(dòng)模塊的作用發(fā)揮出來(lái)

    將驅(qū)動(dòng)模塊的作用發(fā)揮出來(lái)。首先大家要了解PWM這個(gè)概念。PWM??脈寬調(diào)制(PWM)基本原理:控制方式就是對(duì)逆變電路開(kāi)關(guān)器件的通斷進(jìn)行控制,使輸出端得到一系列幅值相等的脈沖,用這些脈沖來(lái)代替正弦波或
    發(fā)表于 09-07 09:12

    在PC機(jī)上編寫(xiě)好的Android app如何能在RK3288運(yùn)行

    在PC機(jī)上編寫(xiě)好的Android app如何能在RK3288運(yùn)行
    發(fā)表于 03-04 06:34

    什么是智能影像辨識(shí)系統(tǒng)?

    發(fā)揮出數(shù)字信息驚人的妙用,從基本的手寫(xiě)文字辨識(shí)、對(duì)象識(shí)別、人臉辨識(shí),到自動(dòng)化圖像描述(Image Captioning)、無(wú)人駕駛車(chē)(Self-Driving Car),還有最新的馬賽克還原技術(shù),都是深度學(xué)習(xí)和影像辨識(shí)整合后的應(yīng)用。
    發(fā)表于 06-15 07:51

    教你選購(gòu)LED日光燈電源

    和大家分享一些如何選購(gòu)LED日光燈電源相關(guān)的經(jīng)驗(yàn)總結(jié),如果選擇不恰當(dāng),LED日光燈不能發(fā)揮出應(yīng)有的性能,甚至不能正常使用。
    發(fā)表于 12-17 00:02 ?1584次閱讀

    基于deep_learning的語(yǔ)音識(shí)別

    針對(duì)目前智能計(jì)算機(jī)及大規(guī)模數(shù)據(jù)的發(fā)展,依據(jù)大腦處理語(yǔ)音、圖像數(shù)據(jù)方法的deep learning技術(shù)應(yīng)運(yùn)而生。傳統(tǒng)的語(yǔ)音識(shí)別技術(shù)對(duì)特征篩選的人工技能要求高,而且準(zhǔn)確率低。deep learni
    發(fā)表于 12-24 16:05 ?22次下載

    什么是音響電源濾波器 音響電源濾波器品牌有哪些

    純凈電源讓音響器材可以發(fā)揮出最高潛質(zhì),還原音響原本應(yīng)有的音質(zhì)。
    發(fā)表于 08-08 17:02 ?2.8w次閱讀

    物聯(lián)網(wǎng)的潛力為什么沒(méi)有發(fā)揮出來(lái)

    物聯(lián)網(wǎng)沒(méi)有發(fā)揮出它的潛力,因?yàn)閺倪B網(wǎng)設(shè)備上獲得的數(shù)據(jù)沒(méi)有被用于持續(xù)改進(jìn)。
    發(fā)表于 07-11 10:48 ?1093次閱讀

    想將示波器用記錄儀的效果 需要把存儲(chǔ)深度發(fā)揮出極致

    傳統(tǒng)波形記錄儀能長(zhǎng)時(shí)間的采集信號(hào),并將數(shù)據(jù)保存到設(shè)備的硬盤(pán)中,采集的時(shí)間長(zhǎng)度取決于采樣率以及硬盤(pán)容量,其缺點(diǎn)是不具備實(shí)時(shí)分析功能,而這正好是示波器的強(qiáng)項(xiàng),示波器能在長(zhǎng)時(shí)間采集的同時(shí)對(duì)波形進(jìn)行分析。示波器沒(méi)有配備大容量硬盤(pán),要將示波器用記錄儀的效果,需要把存儲(chǔ)深度
    發(fā)表于 01-23 16:19 ?2394次閱讀
    想將示波器用<b class='flag-5'>出</b>記錄儀的效果 需要把存儲(chǔ)深度<b class='flag-5'>發(fā)揮出</b>極致

    物聯(lián)網(wǎng)在抗擊新冠肺炎疫情中發(fā)揮了怎樣的作用

    物聯(lián)網(wǎng)是“新基建”的重要組成部分,同時(shí),它也在“抗疫”中發(fā)揮出極大價(jià)值。物聯(lián)網(wǎng)迎來(lái)了發(fā)展轉(zhuǎn)折點(diǎn),預(yù)期在行業(yè)增長(zhǎng)速度、重點(diǎn)領(lǐng)域的發(fā)展,以及業(yè)務(wù)模式上都有變化。
    發(fā)表于 03-23 09:20 ?7805次閱讀

    蔡司工業(yè)CT如何在疊片電池的生產(chǎn)過(guò)程中發(fā)揮出更大作用

    的無(wú)損CT可以發(fā)現(xiàn)更小的金屬顆粒。目前電池制造商通常配備多臺(tái)CT設(shè)備來(lái)提高檢測(cè)效率。 可以看到,工業(yè) CT 在疊片電池的生產(chǎn)過(guò)程中發(fā)揮出更大作用。像蔡司的工業(yè) CT 方案,CT 測(cè)試可以幫助客戶(hù)完成多種缺陷的甄別,無(wú)論在線邊抽檢還是
    的頭像 發(fā)表于 08-30 17:21 ?1183次閱讀
    蔡司工業(yè)CT如何在疊片電池的生產(chǎn)過(guò)程<b class='flag-5'>中發(fā)揮出</b>更大作用

    小小 BNC 座子,為何能在信號(hào)傳輸中發(fā)揮關(guān)鍵作用?

    小小的BNC座子,憑借其精妙的結(jié)構(gòu)設(shè)計(jì)、卓越的電氣性能和廣泛的應(yīng)用領(lǐng)域,在信號(hào)傳輸中發(fā)揮著不可替代的關(guān)鍵作用。而德索精密工業(yè)作為行業(yè)內(nèi)的佼佼者,通過(guò)不斷創(chuàng)新和改進(jìn),為我們提供了性能卓越的BNC座子
    的頭像 發(fā)表于 03-31 11:36 ?735次閱讀
    小小 BNC 座子,為<b class='flag-5'>何能在</b>信號(hào)傳輸<b class='flag-5'>中發(fā)揮</b>關(guān)鍵作用?