chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于能量模型的神經(jīng)網(wǎng)絡(luò)架構(gòu)受限玻爾茲曼機(jī)

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-07-26 10:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

受限玻爾茲曼機(jī)是一種基于能量模型的神經(jīng)網(wǎng)絡(luò)架構(gòu),雖然不像通常的卷積神經(jīng)網(wǎng)絡(luò)一樣被人熟知,但近年來在推薦系統(tǒng)中受到了越來越多的關(guān)注,在協(xié)同過濾推薦等領(lǐng)域表現(xiàn)出越來越重要的作用。在這篇文章中,我們將從基礎(chǔ)理論和基本結(jié)構(gòu)方面梳理受限玻爾茲曼機(jī)的原理,以便對受限玻爾茲曼機(jī)(RBM: Restricted Boltzmann Machine)有更深的了解。

最典型的受限玻爾茲曼機(jī)如下圖所示,在兩層簡單的結(jié)構(gòu)中分布式的輸入的可見層(visible layer)和隱含層結(jié)構(gòu)。

和通常的前饋神經(jīng)網(wǎng)絡(luò)不同的是,受限玻爾茲曼機(jī)可以通過可見層的狀態(tài)預(yù)測對應(yīng)隱含層的狀態(tài),相反亦可以由隱含層預(yù)測可見層對應(yīng)單元的狀態(tài)。同時,它與玻爾茲曼機(jī)不同在于同一層內(nèi)的單元之間沒有相互連接。

能量模型

為了更好地理解RBM是如何工作的,我們需要引入基于能量的模型來進(jìn)行解釋。在重力場中,不同高度的物體具有不同的重力勢能,我們可以利用能量來描述物體所具有潛在做功的能力?;谶@樣的啟發(fā),科學(xué)家們將這一觀點(diǎn)應(yīng)用到深度學(xué)習(xí)中,來度量模型質(zhì)量。

深度學(xué)習(xí)模型的目的之一便是對變量之間的依賴關(guān)系進(jìn)行編碼,將變量組合與一個標(biāo)量能量聯(lián)系起來,而這一能量就作為模型能力的度量。通常情況下,較小的能量意味著更加合理的變量組合。所以基于能量的模型在訓(xùn)練過程中會不斷最小化事先定義好的能量函數(shù)從而實(shí)現(xiàn)變量間的最優(yōu)組合,RBM的能量函數(shù)定義為如下的形式:

可以看到能量函數(shù)與可見層、隱含層的狀態(tài)以及對應(yīng)的權(quán)重和偏置都有關(guān)系。RBM的訓(xùn)練過程就是最小化這一能量函數(shù)的過程。

概率模型

RBM同時也是一種典型的概率模型,模型中的狀態(tài)通過概率來表示。在每一個時間點(diǎn)上受限玻爾茲曼機(jī)的狀態(tài)由可見層和隱含層單元決定,其可被觀測到的狀態(tài)可由以下聯(lián)合概率分布來表示:

其中p為可見層和隱藏層的聯(lián)合概率分布函數(shù),Z為配分函數(shù),用于表示系統(tǒng)所有可能的狀態(tài)。這一聯(lián)合概率分布在物理上就是著名的玻爾茲曼分布——在給定能量E上粒子在某個狀態(tài)上被觀測到的概率。但由于Z中h和v的組合情況十分龐大,使得這一聯(lián)合概率分布難以計(jì)算,但幸運(yùn)的是對于對于給定隱含層或者可見層狀態(tài)下的概率卻是更加容易計(jì)算的:

需要注意的是在RBM中每一個單元都是0/1的二值狀態(tài),實(shí)際使用中通常會計(jì)算出每個單元處于1,也就是被激活的概率。在給定可見層v的條件下,隱含層單元j被激活的概率可以寫成下圖的表示,同樣給定隱含層的狀態(tài)下,可見層單元i的概率也可以被寫成下面的表示形式。

上式通過前述的條件概率推導(dǎo)得到,求得的值為對應(yīng)單元取1激活的概率。其中σ是Sigmoid函數(shù)。

訓(xùn)練

RBM的訓(xùn)練與通常神經(jīng)網(wǎng)絡(luò)的訓(xùn)練有很大的區(qū)別,研究人員們使用了吉布斯采樣(GibbsSampling)和對比散度(Contrastive Divergence,CD)兩個數(shù)學(xué)手段來對訓(xùn)練過程進(jìn)行處理。簡單來說吉布斯采樣利用了上述的條件概率公式,通過輸入v可以計(jì)算得到隱含層的條件概率h,隨后根據(jù)這一h反過來預(yù)測輸入層的值v,經(jīng)過k次迭代后的輸出vk分布將會收斂于v0的分布,從而得到了可見層的聯(lián)合概率。

為了更新權(quán)重,還需要計(jì)算出每次訓(xùn)練過后誤差,這時候就需要使用對比散度來進(jìn)行計(jì)算:

基于RBM的協(xié)同過濾系統(tǒng)

在推薦系統(tǒng)中RBM常常被用于識別數(shù)據(jù)的隱含因素。例如在電影推薦系統(tǒng)中,人們常常將不同的電影按照不同的潛在變量進(jìn)行分析,例如速度與激情會被歸并到動作片里,而玩具總動員和瓦力則會更多的包含皮克斯的因素。模型通過對用戶打分?jǐn)?shù)據(jù)進(jìn)行學(xué)習(xí),在多個循環(huán)后將得出用戶的個性化偏好以及用戶群體的整體偏好。

在電影推薦的例子中,受限玻爾茲曼機(jī)面對的數(shù)據(jù)是二進(jìn)制的0/1而不是連續(xù)的打分?jǐn)?shù)據(jù)。這意味著用于對于電影的評價要么是喜歡(1)要么是不喜歡(0)。這些評價值作為輸入層/可見層被送入模型。在給定的數(shù)據(jù)下,RBM會發(fā)掘數(shù)據(jù)中能解釋用戶偏好的隱含因素,并在隱含層中用不同的單元表示出來。

圖中是一個用戶對于幾部電影評分的簡單例子,其中霍比特人由于用戶沒有評分,數(shù)據(jù)中使用-1來標(biāo)注,由于電影的數(shù)量龐大,某個用戶只對小部分電影進(jìn)行了評價,需要告訴模型哪些是沒有用戶評價的輸入從而可以忽略這些因素的影響。

上圖就對應(yīng)了給定可見層狀態(tài),求出隱含層單元激活概率的情況。圖中可以看出只有Fantasy類型是被激活的,在給定用戶評分的情況下,RBM正確地識別出這一用戶喜歡的類型更多的偏向于科幻電影。

在另一種情況下,在知道了用戶的偏好后(hidden),如果要為用戶推薦電影(visible)就可以利用已知隱含層求得可見層單元被激活的條件概率,從而為用戶推薦偏好類型的電影。

上圖中可以看到,RBM計(jì)算出被激活的電影除了輸入數(shù)據(jù)中指環(huán)王和哈利波特,還為用戶推薦了原來沒有看過的霍比特人。模型認(rèn)為喜歡科幻的用戶很有可能也喜歡霍比特人。

總結(jié)來看,在推薦系統(tǒng)中使用RBM主要分為以下幾個步驟:

1.在所有用戶數(shù)據(jù)上訓(xùn)練模型;

2.使用特定用戶的數(shù)據(jù)來進(jìn)行預(yù)測;

3.得到隱含層的激活情況;

4.基于隱含層的激活來計(jì)算輸出層的激活情況;

5.可見層的新激活單元表示了用戶對未看過的電影/節(jié)目/音樂的評價,并選取其中大概率的激活單元向用戶推薦。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:簡單明了地告訴你不明覺厲的「受限玻爾茲曼機(jī)」到底是個啥?

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機(jī)器學(xué)習(xí)問題的強(qiáng)大工具。然而,這種能力往往伴隨著模型規(guī)模和計(jì)算復(fù)雜度的增加。當(dāng)輸入維度較大(例如長時序窗口、高分辨率特征空間)
    的頭像 發(fā)表于 02-24 15:37 ?4465次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>優(yōu)化:<b class='flag-5'>模型</b>壓縮深度解析

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2068次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    激活函數(shù)ReLU的理解與總結(jié)

    限制玻爾茲曼機(jī)(restricted Boltzmann machines)提出的,并且首次成功地應(yīng)用于神經(jīng)網(wǎng)絡(luò)(Glorot,2011)。除了產(chǎn)生稀疏代碼,主要優(yōu)勢是ReLUs緩解了消失的梯度
    發(fā)表于 10-31 06:16

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    :Dropout層隨機(jī)跳過神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過隨機(jī)制造缺陷進(jìn)行訓(xùn)練提升整個神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策略:
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練個手寫數(shù)字識
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀
    的頭像 發(fā)表于 09-28 10:03 ?1194次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+神經(jīng)形態(tài)計(jì)算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外個主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片。它結(jié)合微電子技術(shù)和新型神經(jīng)形態(tài)器件,模仿人腦
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1115次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3465次閱讀

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積
    的頭像 發(fā)表于 08-27 14:06 ?937次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后
    的頭像 發(fā)表于 06-03 15:51 ?1186次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    【「芯片通識課:本書讀懂芯片技術(shù)」閱讀體驗(yàn)】從deepseek看今天芯片發(fā)展

    的: 神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種模仿人腦神經(jīng)網(wǎng)絡(luò)的電路系統(tǒng),是實(shí)現(xiàn)人工智能中神經(jīng)網(wǎng)絡(luò)計(jì)算的專用處理器,主要用于人工智能深度學(xué)習(xí)模型的加速
    發(fā)表于 04-02 17:25