chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于能量模型的神經(jīng)網(wǎng)絡(luò)架構(gòu)受限玻爾茲曼機(jī)

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-07-26 10:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

受限玻爾茲曼機(jī)是一種基于能量模型的神經(jīng)網(wǎng)絡(luò)架構(gòu),雖然不像通常的卷積神經(jīng)網(wǎng)絡(luò)一樣被人熟知,但近年來在推薦系統(tǒng)中受到了越來越多的關(guān)注,在協(xié)同過濾推薦等領(lǐng)域表現(xiàn)出越來越重要的作用。在這篇文章中,我們將從基礎(chǔ)理論和基本結(jié)構(gòu)方面梳理受限玻爾茲曼機(jī)的原理,以便對(duì)受限玻爾茲曼機(jī)(RBM: Restricted Boltzmann Machine)有更深的了解。

最典型的受限玻爾茲曼機(jī)如下圖所示,在兩層簡(jiǎn)單的結(jié)構(gòu)中分布式的輸入的可見層(visible layer)和隱含層結(jié)構(gòu)。

和通常的前饋神經(jīng)網(wǎng)絡(luò)不同的是,受限玻爾茲曼機(jī)可以通過可見層的狀態(tài)預(yù)測(cè)對(duì)應(yīng)隱含層的狀態(tài),相反亦可以由隱含層預(yù)測(cè)可見層對(duì)應(yīng)單元的狀態(tài)。同時(shí),它與玻爾茲曼機(jī)不同在于同一層內(nèi)的單元之間沒有相互連接。

能量模型

為了更好地理解RBM是如何工作的,我們需要引入基于能量的模型來進(jìn)行解釋。在重力場(chǎng)中,不同高度的物體具有不同的重力勢(shì)能,我們可以利用能量來描述物體所具有潛在做功的能力。基于這樣的啟發(fā),科學(xué)家們將這一觀點(diǎn)應(yīng)用到深度學(xué)習(xí)中,來度量模型質(zhì)量。

深度學(xué)習(xí)模型的目的之一便是對(duì)變量之間的依賴關(guān)系進(jìn)行編碼,將變量組合與一個(gè)標(biāo)量能量聯(lián)系起來,而這一能量就作為模型能力的度量。通常情況下,較小的能量意味著更加合理的變量組合。所以基于能量的模型在訓(xùn)練過程中會(huì)不斷最小化事先定義好的能量函數(shù)從而實(shí)現(xiàn)變量間的最優(yōu)組合,RBM的能量函數(shù)定義為如下的形式:

可以看到能量函數(shù)與可見層、隱含層的狀態(tài)以及對(duì)應(yīng)的權(quán)重和偏置都有關(guān)系。RBM的訓(xùn)練過程就是最小化這一能量函數(shù)的過程。

概率模型

RBM同時(shí)也是一種典型的概率模型,模型中的狀態(tài)通過概率來表示。在每一個(gè)時(shí)間點(diǎn)上受限玻爾茲曼機(jī)的狀態(tài)由可見層和隱含層單元決定,其可被觀測(cè)到的狀態(tài)可由以下聯(lián)合概率分布來表示:

其中p為可見層和隱藏層的聯(lián)合概率分布函數(shù),Z為配分函數(shù),用于表示系統(tǒng)所有可能的狀態(tài)。這一聯(lián)合概率分布在物理上就是著名的玻爾茲曼分布——在給定能量E上粒子在某個(gè)狀態(tài)上被觀測(cè)到的概率。但由于Z中h和v的組合情況十分龐大,使得這一聯(lián)合概率分布難以計(jì)算,但幸運(yùn)的是對(duì)于對(duì)于給定隱含層或者可見層狀態(tài)下的概率卻是更加容易計(jì)算的:

需要注意的是在RBM中每一個(gè)單元都是0/1的二值狀態(tài),實(shí)際使用中通常會(huì)計(jì)算出每個(gè)單元處于1,也就是被激活的概率。在給定可見層v的條件下,隱含層單元j被激活的概率可以寫成下圖的表示,同樣給定隱含層的狀態(tài)下,可見層單元i的概率也可以被寫成下面的表示形式。

上式通過前述的條件概率推導(dǎo)得到,求得的值為對(duì)應(yīng)單元取1激活的概率。其中σ是Sigmoid函數(shù)。

訓(xùn)練

RBM的訓(xùn)練與通常神經(jīng)網(wǎng)絡(luò)的訓(xùn)練有很大的區(qū)別,研究人員們使用了吉布斯采樣(GibbsSampling)和對(duì)比散度(Contrastive Divergence,CD)兩個(gè)數(shù)學(xué)手段來對(duì)訓(xùn)練過程進(jìn)行處理。簡(jiǎn)單來說吉布斯采樣利用了上述的條件概率公式,通過輸入v可以計(jì)算得到隱含層的條件概率h,隨后根據(jù)這一h反過來預(yù)測(cè)輸入層的值v,經(jīng)過k次迭代后的輸出vk分布將會(huì)收斂于v0的分布,從而得到了可見層的聯(lián)合概率。

為了更新權(quán)重,還需要計(jì)算出每次訓(xùn)練過后誤差,這時(shí)候就需要使用對(duì)比散度來進(jìn)行計(jì)算:

基于RBM的協(xié)同過濾系統(tǒng)

在推薦系統(tǒng)中RBM常常被用于識(shí)別數(shù)據(jù)的隱含因素。例如在電影推薦系統(tǒng)中,人們常常將不同的電影按照不同的潛在變量進(jìn)行分析,例如速度與激情會(huì)被歸并到動(dòng)作片里,而玩具總動(dòng)員和瓦力則會(huì)更多的包含皮克斯的因素。模型通過對(duì)用戶打分?jǐn)?shù)據(jù)進(jìn)行學(xué)習(xí),在多個(gè)循環(huán)后將得出用戶的個(gè)性化偏好以及用戶群體的整體偏好。

在電影推薦的例子中,受限玻爾茲曼機(jī)面對(duì)的數(shù)據(jù)是二進(jìn)制的0/1而不是連續(xù)的打分?jǐn)?shù)據(jù)。這意味著用于對(duì)于電影的評(píng)價(jià)要么是喜歡(1)要么是不喜歡(0)。這些評(píng)價(jià)值作為輸入層/可見層被送入模型。在給定的數(shù)據(jù)下,RBM會(huì)發(fā)掘數(shù)據(jù)中能解釋用戶偏好的隱含因素,并在隱含層中用不同的單元表示出來。

圖中是一個(gè)用戶對(duì)于幾部電影評(píng)分的簡(jiǎn)單例子,其中霍比特人由于用戶沒有評(píng)分,數(shù)據(jù)中使用-1來標(biāo)注,由于電影的數(shù)量龐大,某個(gè)用戶只對(duì)小部分電影進(jìn)行了評(píng)價(jià),需要告訴模型哪些是沒有用戶評(píng)價(jià)的輸入從而可以忽略這些因素的影響。

上圖就對(duì)應(yīng)了給定可見層狀態(tài),求出隱含層單元激活概率的情況。圖中可以看出只有Fantasy類型是被激活的,在給定用戶評(píng)分的情況下,RBM正確地識(shí)別出這一用戶喜歡的類型更多的偏向于科幻電影。

在另一種情況下,在知道了用戶的偏好后(hidden),如果要為用戶推薦電影(visible)就可以利用已知隱含層求得可見層單元被激活的條件概率,從而為用戶推薦偏好類型的電影。

上圖中可以看到,RBM計(jì)算出被激活的電影除了輸入數(shù)據(jù)中指環(huán)王和哈利波特,還為用戶推薦了原來沒有看過的霍比特人。模型認(rèn)為喜歡科幻的用戶很有可能也喜歡霍比特人。

總結(jié)來看,在推薦系統(tǒng)中使用RBM主要分為以下幾個(gè)步驟:

1.在所有用戶數(shù)據(jù)上訓(xùn)練模型;

2.使用特定用戶的數(shù)據(jù)來進(jìn)行預(yù)測(cè);

3.得到隱含層的激活情況;

4.基于隱含層的激活來計(jì)算輸出層的激活情況;

5.可見層的新激活單元表示了用戶對(duì)未看過的電影/節(jié)目/音樂的評(píng)價(jià),并選取其中大概率的激活單元向用戶推薦。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:簡(jiǎn)單明了地告訴你不明覺厲的「受限玻爾茲曼機(jī)」到底是個(gè)啥?

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?670次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在些不容忽視的缺點(diǎn)。以下是對(duì)BP
    的頭像 發(fā)表于 02-12 15:36 ?924次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹:
    的頭像 發(fā)表于 02-12 15:18 ?771次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    如何訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型

    BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)一種經(jīng)典的人工神經(jīng)網(wǎng)絡(luò)模型,其訓(xùn)練過程主要分為兩個(gè)階段:前向傳播和反向傳播。以下是訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:10 ?922次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1196次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>架構(gòu)</b>方法

    文詳解物理信息神經(jīng)網(wǎng)絡(luò)

    物理信息神經(jīng)網(wǎng)絡(luò) (PINN) 是一種神經(jīng)網(wǎng)絡(luò),它將微分方程描述的物理定律納入其損失函數(shù)中,以引導(dǎo)學(xué)習(xí)過程得出更符合基本物理定律的解。
    的頭像 發(fā)表于 12-05 16:50 ?8427次閱讀
    <b class='flag-5'>一</b>文詳解物理信息<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    一種新型機(jī)翼應(yīng)變載荷關(guān)系神經(jīng)網(wǎng)絡(luò)模型

    兼顧適用范圍和預(yù)測(cè)精度。對(duì)此,本文提出了映射式與補(bǔ)償式兩融合“試驗(yàn)-仿真”虛實(shí)數(shù)據(jù)的多級(jí)神經(jīng)網(wǎng)絡(luò)架構(gòu),開發(fā)了基于子學(xué)習(xí)器方差的模型認(rèn)知程度度量方法,形成了精度高、適用性廣、能夠預(yù)警不
    的頭像 發(fā)表于 11-21 10:59 ?551次閱讀
    <b class='flag-5'>一種</b>新型機(jī)翼應(yīng)變載荷關(guān)系<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識(shí)別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)一種前饋神經(jīng)網(wǎng)絡(luò),其靈感來源于生物的視覺皮層機(jī)制。它通過模擬人類視覺系統(tǒng)的處理方式,能夠自動(dòng)提取圖像特征,從而在圖像識(shí)別和分類任務(wù)中表現(xiàn)出色。 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1129次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長(zhǎng)期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    【飛凌嵌入式OK3576-C開發(fā)板體驗(yàn)】RKNN神經(jīng)網(wǎng)絡(luò)-車牌識(shí)別

    LPRNet基于深層神經(jīng)網(wǎng)絡(luò)設(shè)計(jì),通過輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)車牌識(shí)別。它采用端到端的訓(xùn)練方式,不依賴字符分割,能夠直接處理整張車牌圖像,并輸出最終的字符序列。這種設(shè)計(jì)提高了識(shí)別的實(shí)時(shí)性和準(zhǔn)確性
    發(fā)表于 10-10 16:40

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國(guó)弗萊堡大學(xué)計(jì)算機(jī)科學(xué)系的研究人員在2015年提出,專為生物醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-24 10:59 ?5558次閱讀

    如何構(gòu)建多層神經(jīng)網(wǎng)絡(luò)

    構(gòu)建多層神經(jīng)網(wǎng)絡(luò)(MLP, Multi-Layer Perceptron)模型個(gè)在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域廣泛使用的技術(shù),尤其在處理分類和回歸問題時(shí)。在本文中,我們將深入探討如何從頭開始構(gòu)建
    的頭像 發(fā)表于 07-19 17:19 ?1569次閱讀