chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI科技評(píng)論 ? 作者:AI科技評(píng)論 ? 2021-03-05 15:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Twitter 上發(fā)現(xiàn)了一篇Hinton的新論文,作者只有Hinton本人,這篇論文沒(méi)有介紹具體的算法,而是描繪了一個(gè)關(guān)于表示的宏觀構(gòu)想:如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)。

AI科技評(píng)論在Twitter 上發(fā)現(xiàn)了一篇Hinton的新論文,作者只有Hinton本人,這篇論文沒(méi)有介紹具體的算法,而是描繪了一個(gè)關(guān)于表示的宏觀構(gòu)想:如何在神經(jīng)網(wǎng)絡(luò)中表示部分-整體層次結(jié)構(gòu)。

值得一提的是,分享論文的Kosta Derpanis也在推特里介紹了Hinton的第一篇論文:“Using Relaxation To Find A Puppy”。Kosta Derpanis在論文里標(biāo)記了一句話(huà):“局部的模糊性必須必須通過(guò)尋找最佳的全局解釋來(lái)解決?!辈⒈硎荆琀inton現(xiàn)在又回到了最初的起點(diǎn)。

Hinton第一篇論文:https://www.cs.toronto.edu/~hinton/absps/puppet.pdf

局部和整體的一致性表示似乎一直是Hinton的研究重點(diǎn)。比如,膠囊網(wǎng)絡(luò)通過(guò)局部到整體的動(dòng)態(tài)路徑選擇一致性來(lái)學(xué)習(xí)識(shí)別,近期Hinton還將其擴(kuò)展到了無(wú)監(jiān)督學(xué)習(xí),并應(yīng)用了Transformer架構(gòu);對(duì)比學(xué)習(xí)則學(xué)習(xí)一種表示,使得同一幅圖像的的各個(gè)局部具有相似的表示;認(rèn)知神經(jīng)科學(xué)出身的Hinton還一直堅(jiān)持探索著大腦的學(xué)習(xí)機(jī)制,比如back relaxation試圖在自頂向下表示和自底向上表示之間產(chǎn)生一致性,而這又和對(duì)比學(xué)習(xí)有聯(lián)系。

在這篇新論文中,Hinton又將為我們描繪出怎樣一幅圖景呢?

論文鏈接:https://arxiv.org/pdf/2102.12627.pdf

這篇論文沒(méi)有描述工作系統(tǒng),而是單單提出了一個(gè)關(guān)于表示的想法。這個(gè)想法能夠把Transformer、神經(jīng)場(chǎng)(neural fields)、對(duì)比表示學(xué)習(xí)、蒸餾和膠囊等先進(jìn)觀點(diǎn)整合到一個(gè)名為“GLOM 1”的設(shè)想系統(tǒng)中。

一個(gè)具有固定架構(gòu)的神經(jīng)網(wǎng)絡(luò)如何將一張圖像解析成一個(gè)整體的分級(jí)體系(其中,每張圖像都有不同的結(jié)構(gòu))?針對(duì)這個(gè)問(wèn)題,GLOM 給出了一個(gè)簡(jiǎn)單的答案,即使用相同向量的孤島來(lái)表示解析樹(shù)中的節(jié)點(diǎn)。如果 GLOM 真的能夠正常運(yùn)轉(zhuǎn),那么,當(dāng)它在視覺(jué)或語(yǔ)言上應(yīng)用時(shí),它能夠極大地提高類(lèi)似Transformer的系統(tǒng)所生成的表示的可解釋性。

“GLOM”一詞源自一句俗語(yǔ)“ glom together”(“抓”到一起),可能是來(lái)源于“凝聚”(agglomerate)一詞。

1

觀點(diǎn)總覽

心理學(xué)提供了一個(gè)有力證據(jù),表明:人們會(huì)將視覺(jué)場(chǎng)景解析為整個(gè)分層體系,并將部分與整體之間視角不變的空間關(guān)系,建模為他們分配給該部分和整體的內(nèi)在坐標(biāo)系之間的坐標(biāo)轉(zhuǎn)換。

如果我們想要建立像人類(lèi)一樣理解圖像的神經(jīng)網(wǎng)絡(luò),那么我們需要想明白:神經(jīng)網(wǎng)絡(luò)是如何表示部分-整體的分層體系?這很困難,因?yàn)橐粋€(gè)真實(shí)的神經(jīng)網(wǎng)絡(luò)無(wú)法將一組神經(jīng)元進(jìn)行動(dòng)態(tài)分配,以表示解析樹(shù)中的一個(gè)節(jié)點(diǎn)。

神經(jīng)網(wǎng)絡(luò)無(wú)法動(dòng)態(tài)分配神經(jīng)元,也是一系列用到“膠囊”觀點(diǎn)的模型所出現(xiàn)的原因。這些模型會(huì)作出如下假設(shè):被稱(chēng)為“膠囊”的一組神經(jīng)元會(huì)永遠(yuǎn)成為圖像特定區(qū)域中的某一特定類(lèi)型的一部分。通過(guò)激活這些預(yù)先存在的、類(lèi)型特定的膠囊子集,以及膠囊之間的適合連接,可以構(gòu)建一個(gè)解析樹(shù)。

這篇論文介紹了一種非常不同的方式,可以使用膠囊來(lái)表示神經(jīng)網(wǎng)絡(luò)中的部分-整體分層體系。

雖然這篇論文主要討論了單個(gè)靜態(tài)圖像的感知,但我們可以簡(jiǎn)單地將 GLOM 理解為用于處理一系列幀的管道,因此靜態(tài)圖像可以被視為一系列相同的幀。

GLOM 架構(gòu)由許多列(column)組成,所有列均使用完全相同的權(quán)重。每一列都是一堆空間局部自動(dòng)編碼器,這些編碼器會(huì)學(xué)習(xí)小圖像塊(image patch)中的多個(gè)不同級(jí)別的表示。每個(gè)自動(dòng)編碼器都會(huì)使用多層自下而上的編碼器和多層自上而下的解碼器,將同一個(gè)級(jí)別的嵌入轉(zhuǎn)換為相鄰級(jí)別的嵌入。這些級(jí)別與部分-整體分層體系中的級(jí)別一一對(duì)應(yīng)。比如,顯示一張人臉圖像時(shí),一個(gè)單列可能會(huì)收斂到表示一個(gè)鼻孔、一個(gè)鼻子、一張臉和一個(gè)人的嵌入向量上。圖 1 顯示了不同級(jí)別的嵌入如何在單列中進(jìn)行交互。

71b90fda-7c22-11eb-8b86-12bb97331649.png

圖1:?jiǎn)瘟兄?,GLOM架構(gòu)的三個(gè)相鄰級(jí)別的自下而上、自上而下、同列的交互。

代表自下而上和自上而下交互的藍(lán)色和紅色箭頭是由兩個(gè)具有多個(gè)隱藏層的不同神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)。這些網(wǎng)絡(luò)在成對(duì)的級(jí)別中有所差異,但它們可以跨列、跨時(shí)間步分享。自上而下的網(wǎng)絡(luò)也許應(yīng)該使用正弦單位。對(duì)于靜態(tài)圖,綠色箭頭可以簡(jiǎn)單看作按比例縮放的殘差連接,以實(shí)現(xiàn)每個(gè)級(jí)別的嵌入的時(shí)間平滑。對(duì)于視頻,綠色連接可以是基于多個(gè)先前狀態(tài)的膠囊來(lái)學(xué)習(xí)時(shí)間動(dòng)態(tài)的神經(jīng)網(wǎng)絡(luò)。不同列中,相同級(jí)別的的嵌入向量之間的交互可以通過(guò)非自適應(yīng)的、注意力加權(quán)的局部平滑器(圖中沒(méi)有顯示)來(lái)實(shí)現(xiàn)。

圖 1 沒(méi)有顯示不同列中同一級(jí)別的嵌入之間的交互。這比同一列內(nèi)的交互要簡(jiǎn)單得多,因?yàn)樗鼈儾恍枰獔?zhí)行部分-整體坐標(biāo)轉(zhuǎn)換。它們就像代表一個(gè)多頭 transformer 中不同單詞片段的列之間的注意力加權(quán)交互,但更簡(jiǎn)單,因?yàn)椴樵?xún)、鍵和值向量都與嵌入向量相同。列與列之間的交互作用是,通過(guò)使一個(gè)級(jí)別的每個(gè)嵌入向量向附近位置的其他類(lèi)似向量回歸,從而在該級(jí)別上產(chǎn)生具有相同嵌入的島。這將創(chuàng)建多個(gè)局部“回音室”,其中一個(gè)級(jí)別的嵌入主要聽(tīng)從其他想法相似的嵌入。

在每一段離散時(shí)間和每一列中,一個(gè)級(jí)別的嵌入將被更新為擁有四個(gè)貢獻(xiàn)(如下)的加權(quán)平均值:

自下而上的神經(jīng)網(wǎng)絡(luò)在前一個(gè)時(shí)間作用于下層級(jí)別的嵌入而產(chǎn)生的預(yù)測(cè);

自上而下的神經(jīng)網(wǎng)絡(luò)在前一個(gè)時(shí)間作用于上層級(jí)別的嵌入而產(chǎn)生的預(yù)測(cè);

上一個(gè)時(shí)間步的嵌入向量;

前一個(gè)時(shí)間在附近列相同級(jí)別的嵌入的注意力加權(quán)平均值。

對(duì)于靜態(tài)圖,一個(gè)級(jí)別的嵌入應(yīng)隨著時(shí)間的流逝而沉淀,以生成擁有幾乎相同向量的不同島。如圖 2 所示, 這些島在更高的級(jí)別上應(yīng)該更大。使用相似的島來(lái)表示圖像的解析,避免了需要分配神經(jīng)元組來(lái)動(dòng)態(tài)表示正在運(yùn)行的解析樹(shù)的節(jié)點(diǎn),或預(yù)先為所有可能的節(jié)點(diǎn)設(shè)置神經(jīng)元的情況。GLOM 系統(tǒng)不是分配神經(jīng)硬件來(lái)表示解析樹(shù)中的節(jié)點(diǎn),或?yàn)楣?jié)點(diǎn)提供指向其祖先和后代的指針,而是分配了一個(gè)合適的活動(dòng)向量來(lái)表示該節(jié)點(diǎn),并在屬于該節(jié)點(diǎn)的所有位置上使用了相同的活動(dòng)向量。訪問(wèn)節(jié)點(diǎn)的祖先和后代的能力是通過(guò)自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,而不是通過(guò)使用 RAM 檢查表格來(lái)實(shí)現(xiàn)的。

71fcc09a-7c22-11eb-8b86-12bb97331649.png

圖 2:在特定時(shí)間里,6 個(gè)相鄰列的嵌入。

圖 2 所顯示的所有位置都屬于同一對(duì)象,且場(chǎng)景級(jí)別尚未在共享矢量上定居。通過(guò)將向量劃分為部分-整體分層體系中每個(gè)級(jí)別的單獨(dú)部分,然后將一個(gè)級(jí)別的的高維嵌入向量顯示為二維向量,那么每個(gè)位置的完整嵌入向量就可以顯示出來(lái)。這可以很好地解釋不同位置的嵌入向量的對(duì)齊。圖 2 所示的不同級(jí)別上向量相同的島,實(shí)則表示一棵解析樹(shù)。但是,相同的島比短語(yǔ)結(jié)構(gòu)語(yǔ)法要強(qiáng)大得多。比如,在“這是否會(huì)減慢短語(yǔ)結(jié)構(gòu)語(yǔ)法的速度”的問(wèn)題上,它們可以毫不費(fèi)力地表示斷開(kāi)連接的對(duì)象。

就像BERT一樣,整個(gè) GLOM 系統(tǒng)可以進(jìn)行端到端的訓(xùn)練,以在最后的時(shí)間步從缺少某一區(qū)域的輸入圖像中重建圖像。但是,目標(biāo)函數(shù)還包含兩個(gè)倡導(dǎo)在每個(gè)級(jí)別上向量幾乎相同的島的正則化器(regularizer)。正則化器只是一個(gè)級(jí)別的新嵌入與自下而上、自上而下的預(yù)測(cè)之間的一致性。提高這個(gè)一致性能夠促進(jìn)局部島的形成。

722ee048-7c22-11eb-8b86-12bb97331649.png

圖 4:這是將圖 1 所示架構(gòu)進(jìn)行可視化的另一種方式,可以使該架構(gòu)與 transformer 之間的關(guān)系更加明顯。圖 1 中表示時(shí)間的水平尺寸變成了圖 4 中表示層的垂直尺寸。此時(shí),在每一個(gè)位置,每一層都有部分-整體分層體系中所有級(jí)別的嵌入。這與垂直壓縮圖 1 中單個(gè)時(shí)間片內(nèi)的級(jí)別描述一致。

靜態(tài)圖的解釋僅需要使用該架構(gòu)進(jìn)行一次前向傳遞。這里將所有級(jí)別特定的自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)都顯示為單個(gè)神經(jīng)網(wǎng)絡(luò)。圖 5 顯示了另一種查看 GLOM 架構(gòu)的自下而上和自上而下的神經(jīng)網(wǎng)絡(luò)。

7273be70-7c22-11eb-8b86-12bb97331649.png

圖 5:GLOM 在同一個(gè)位置(即單列的一部分)的兩個(gè)相鄰層。在前向傳遞的過(guò)程中,L 級(jí)的嵌入向量通過(guò)多層自下而上的神經(jīng)網(wǎng)絡(luò)從上一層 L-1 級(jí)的嵌入向量中接收輸入。L 級(jí)還通過(guò)多層自上而下的神經(jīng)網(wǎng)絡(luò)從上一層 L+1 級(jí)的嵌入中接收輸入。在前向傳遞的過(guò)程中,對(duì)上一層 L+1 級(jí)的依賴(lài)取得了自上而下的效果。嵌入在 t+1 層中的 L 級(jí)還取決于嵌入在 t 層中的 L 級(jí)嵌入和 t 層中其他附近位置的 L 級(jí)嵌入的注意力加權(quán)總和。圖中沒(méi)有顯示級(jí)內(nèi)的交互。

2

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107876
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4785

    瀏覽量

    98106
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67570

原文標(biāo)題:Hinton一作新論文:如何在神經(jīng)網(wǎng)絡(luò)中表示“部分-整體層次結(jié)構(gòu)”?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大
    的頭像 發(fā)表于 12-17 15:05 ?339次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過(guò)程,是用來(lái)對(duì)MNIST手寫(xiě)數(shù)字圖像進(jìn)行分類(lèi)的。模型將圖像作為輸入,通過(guò)卷積和池化層提取圖像的特征,然后通過(guò)全連接層進(jìn)行分類(lèi)預(yù)測(cè)。訓(xùn)練過(guò)程中,模型通過(guò)最小化損失函數(shù)來(lái)優(yōu)化模型參數(shù),從而提高分類(lèi)準(zhǔn)確性。
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線(xiàn)蟲(chóng)的神經(jīng)
    的頭像 發(fā)表于 09-28 10:03 ?1256次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1148次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概念對(duì)非專(zhuān)業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?918次閱讀
    如<b class='flag-5'>何在</b>機(jī)器視覺(jué)中部署深度學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3482次閱讀

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開(kāi)發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問(wèn)題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1253次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    結(jié)構(gòu)可視化:利用數(shù)據(jù)編輯器剖析數(shù)據(jù)內(nèi)在架構(gòu)?

    結(jié)構(gòu)可視化聚焦于展示數(shù)據(jù)的內(nèi)部結(jié)構(gòu)和各部分之間的關(guān)系,使企業(yè)能夠深入理解數(shù)據(jù)的組織方式和層次體系,從而更好地進(jìn)行數(shù)據(jù)管理和分析。通過(guò)結(jié)構(gòu)可視
    的頭像 發(fā)表于 05-07 18:42 ?701次閱讀

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開(kāi)
    的頭像 發(fā)表于 04-07 11:33 ?1208次閱讀