chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Microsoft最新研究提基于關(guān)系網(wǎng)絡(luò)的視覺(jué)建模

WpOh_rgznai100 ? 來(lái)源:YXQ ? 2019-07-19 13:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)語(yǔ):最近兩年,自注意力機(jī)制、圖和關(guān)系網(wǎng)絡(luò)等模型在NLP領(lǐng)域刮起了一陣旋風(fēng),基于這些模型的Transformer、BERT、MASS等框架已逐漸成為NLP的主流方法。這些模型在計(jì)算機(jī)視覺(jué)領(lǐng)域是否能同樣有用呢?近日,微軟亞洲研究院視覺(jué)計(jì)算組主管研究員胡瀚受邀參加VALSE Webinar,分享了他們最近的一些相關(guān)工作。他們的研究以及同期的一些其它工作表明這些模型也能廣泛地用于視覺(jué)基本元素之間關(guān)系的建模,包括物體與物體間、物體與像素間、以及像素與像素間的關(guān)系,特別是在建模像素與像素間關(guān)系上,既能與卷積操作形成互補(bǔ),甚至有望能取代卷積操作,實(shí)現(xiàn)最基本的圖像特征提取。

大腦和機(jī)器智能都應(yīng)是通用學(xué)習(xí)機(jī)器

首先,我們從一個(gè)很有意思的實(shí)驗(yàn)講起,這個(gè)實(shí)驗(yàn)將老鼠大腦里的聽(tīng)覺(jué)皮層接到視覺(jué)的輸入上,經(jīng)過(guò)一段時(shí)間訓(xùn)練后,發(fā)現(xiàn)聽(tīng)覺(jué)皮層也能實(shí)現(xiàn)視覺(jué)的感知任務(wù)。這個(gè)實(shí)驗(yàn)引起我們思考一個(gè)問(wèn)題,機(jī)器智能是否同樣能實(shí)現(xiàn)結(jié)構(gòu)和學(xué)習(xí)的通用性呢?

目前的機(jī)器學(xué)習(xí)范式基本是統(tǒng)一的,一般遵循收集數(shù)據(jù)、進(jìn)行標(biāo)注、定義網(wǎng)絡(luò)結(jié)構(gòu)、以及利用方向傳播算法訓(xùn)練網(wǎng)絡(luò)權(quán)值的過(guò)程,但是不同任務(wù)里用到的基本模型卻是多樣的。當(dāng)前計(jì)算機(jī)視覺(jué)主要被卷積網(wǎng)絡(luò)所主導(dǎo),而自然語(yǔ)言處理則經(jīng)歷了LSTM、GRU、卷積以及自注意等多種模型階段。那是否有一種基本模型,能解決視覺(jué)、NLP、圖結(jié)構(gòu)數(shù)據(jù)感知、甚至推理等不同智能任務(wù)呢?

目前最通用的模型:關(guān)系和圖網(wǎng)絡(luò)

目前來(lái)看,關(guān)系網(wǎng)絡(luò)是最接近這一目標(biāo)的一種模型。在解釋這個(gè)模型之前,我們首先對(duì)一些名詞作一些澄清,包括圖神經(jīng)網(wǎng)絡(luò)以及自注意力機(jī)制。

圖1:關(guān)系網(wǎng)絡(luò)架構(gòu)

圖神經(jīng)網(wǎng)絡(luò)概念上更通用一些,包括了對(duì)節(jié)點(diǎn)、對(duì)邊、對(duì)全局屬性的特征表示,而自注意模型則是圖神經(jīng)網(wǎng)絡(luò)的一種特殊實(shí)現(xiàn),里面只對(duì)節(jié)點(diǎn)進(jìn)行了特征表示,而邊(也就是關(guān)系)則通過(guò)key嵌入和query嵌入后的內(nèi)積計(jì)算得到,是一種圖為全連接時(shí)(所有節(jié)點(diǎn)之間都有連接)非常經(jīng)濟(jì)的模型,但表達(dá)能力又足夠強(qiáng),因?yàn)槿魏问挛锖透拍钪g都可以通過(guò)不同的投影后(key和query)的特征來(lái)使得兩者可比。

注意力機(jī)制里key和query的集合往往不一致,例如分別是單詞集合和圖像塊集合,或者分別是不同語(yǔ)言的句子,而自注意力機(jī)制則是key和query的對(duì)象為同一集合的情況。最近在NLP領(lǐng)域的革命,主要在于發(fā)現(xiàn)了“自”注意力機(jī)制在編碼同一句子單詞與單詞之間關(guān)系上的價(jià)值。而關(guān)系網(wǎng)絡(luò)和圖神經(jīng)網(wǎng)絡(luò)還有自注意力機(jī)制從實(shí)現(xiàn)上是同樣的,字面上更關(guān)注對(duì)于節(jié)點(diǎn)與節(jié)點(diǎn)間聯(lián)系的建模。

將關(guān)系網(wǎng)絡(luò)應(yīng)用于基本視覺(jué)建模

考慮到關(guān)系網(wǎng)絡(luò)在圖結(jié)構(gòu)數(shù)據(jù)和NLP序列數(shù)據(jù)建模上取得了巨大成功,很自然的一個(gè)問(wèn)題是這一建模方法是否也適用于視覺(jué)里的建模。計(jì)算機(jī)視覺(jué)里面主要涉及兩個(gè)層次的基本元素:一個(gè)是物體;一個(gè)是像素。于是我們研究了物體和物體、物體和像素以及像素和像素的關(guān)系建模問(wèn)題。

圖2:將關(guān)系網(wǎng)絡(luò)應(yīng)用于基本視覺(jué)建模

物體與物體關(guān)系建模,第一個(gè)完全端到端的物體檢測(cè)器

物體是很多視覺(jué)感知任務(wù)的核心,在深度學(xué)習(xí)時(shí)代,單個(gè)物體的感知有了很好的進(jìn)展,但如何去建模物體與物體間的關(guān)系卻一直沒(méi)有很好的工具。我們?cè)谌ツ闏VPR上提出了一個(gè)能即插即用的物體關(guān)系模塊(Object Relation Module),簡(jiǎn)稱(chēng)ORM。物體關(guān)系模塊的建?;旧鲜且环N自注意力機(jī)制的應(yīng)用,和基本的自注意力機(jī)制的主要不同在于添加了相對(duì)幾何項(xiàng),我們發(fā)現(xiàn)這一項(xiàng)對(duì)于視覺(jué)問(wèn)題來(lái)說(shuō)很重要,物體之間的相對(duì)位置關(guān)系能幫助對(duì)于物體本身的感知。這一模塊可以很方便地嵌入到現(xiàn)有的物體檢測(cè)框架(圖3所示是目前應(yīng)用最廣泛的Faster R-CNN算法),去改進(jìn)頭部(head)網(wǎng)絡(luò),以及替換手工的去重模塊,也就是目前通常采用的非極大化抑制方法(NMS)。其中替換前者使得物體不是獨(dú)立識(shí)別的,而是一起識(shí)別的,而替換后者則幫助實(shí)現(xiàn)了第一個(gè)完全的端到端物體檢測(cè)系統(tǒng)。我們還將物體關(guān)系模塊推廣到時(shí)空維度,去解決多目標(biāo)跟蹤問(wèn)題。

圖3:第一個(gè)完全端到端的物體檢測(cè)器

物體與像素關(guān)系建模

物體與像素關(guān)系建模的一個(gè)最直接的應(yīng)用是從圖像特征里提取物體區(qū)域特征,此前最常用的算法是RoIPooling或者RoIAlign,我們用關(guān)系網(wǎng)絡(luò)實(shí)現(xiàn)了自適應(yīng)地從圖像特征里提取區(qū)域特征的方法,并證明這一方法比RoIAlign在物體檢測(cè)的標(biāo)準(zhǔn)數(shù)據(jù)集COCO上要好1 mAP左右。

像素與像素關(guān)系建模,替代卷積的局部關(guān)系網(wǎng)絡(luò)及全局上下文網(wǎng)絡(luò)

像素與像素關(guān)系的建??梢杂脕?lái)實(shí)現(xiàn)最基本的圖像局部特征提取,也可以用來(lái)提取圖像的全局信息,從而作為基本圖像特征提取網(wǎng)絡(luò)(例如卷積神經(jīng)網(wǎng)絡(luò))的補(bǔ)充。

1)替代卷積神經(jīng)網(wǎng)絡(luò)的局部關(guān)系網(wǎng)絡(luò)

現(xiàn)在的基本圖像特征提取方法幾乎都采用卷積算子,但卷積本質(zhì)上是一個(gè)模板匹配(template matching)算子,效率是偏低的,例如圖4中的三個(gè)鳥(niǎo)頭,很簡(jiǎn)單的變化,卻需要三個(gè)通道來(lái)去建模它。我們提出了一個(gè)局部關(guān)系層(local relation layer)來(lái)實(shí)現(xiàn)更高效的圖像特征提取,它本質(zhì)上還是基于關(guān)系網(wǎng)絡(luò)。在應(yīng)用到基本的像素與像素關(guān)系建模問(wèn)題時(shí),我們發(fā)現(xiàn)如下幾個(gè)細(xì)節(jié)很重要:一是關(guān)系的建模要限制在局部?jī)?nèi),只有限制在局部才能構(gòu)造信息瓶頸,才能把圖像里的模式學(xué)出來(lái);二是需要引入可學(xué)習(xí)的幾何先驗(yàn)項(xiàng),這一項(xiàng)的引入也是注意到目前最流行的卷積算子所采用的模板匹配過(guò)程就是嚴(yán)重依賴(lài)相對(duì)位置關(guān)系的建模方法;三是采用標(biāo)量的key和query,在標(biāo)準(zhǔn)的關(guān)系網(wǎng)絡(luò)中,key和query通常是用向量表示的,采用標(biāo)量的key和query能節(jié)省很多參數(shù)和計(jì)算,也因此能在有限計(jì)算量情況下建模多種關(guān)系。

與卷積相比,局部關(guān)系層概念上最大的不同是它是在根據(jù)兩個(gè)像素自己的特征來(lái)計(jì)算像素間的可組合性,而不是用一個(gè)全局的模板來(lái)作匹配。圖4右上還顯示了學(xué)到的部分key和query圖(標(biāo)量),從左到右分別是由淺到深的層,發(fā)現(xiàn)淺層學(xué)到了邊緣和內(nèi)部的概念,深層學(xué)到了不同物體的概念。圖4右下顯示了學(xué)到的幾何先驗(yàn),從上到下分別是由淺到深的層,發(fā)現(xiàn)在淺層里幾何先驗(yàn)比較集中和稀疏,暗示幾何先驗(yàn)起很大作用,而深層里幾何先驗(yàn)比較模糊,暗示key和query起更主要的作用。

圖4:局部關(guān)系層

局部關(guān)系層可以用來(lái)替換卷積網(wǎng)絡(luò)里面所有的空間卷積層,包括所有的3x3的卷積,以及一開(kāi)始的7x7卷積,于是得到了一個(gè)完全沒(méi)有空間卷積層的網(wǎng)絡(luò),我們稱(chēng)為局部關(guān)系網(wǎng)絡(luò)(LR-Net),圖5左側(cè)是用局部關(guān)系層替代ResNet-50網(wǎng)絡(luò)中所有卷積層的例子,在相同計(jì)算量情況下,LR-Net相比于ResNet擁有更少的參數(shù)。圖5右側(cè)是26層LR-Net與26層帶標(biāo)準(zhǔn)卷積或depthwise卷積的ResNet在ImageNet分類(lèi)上top-1準(zhǔn)確率的比較??梢钥闯?,在不包含任何幾何先驗(yàn)的情況下,LR-Net已與ResNet相匹敵,而在添加幾何先驗(yàn)項(xiàng)后,與標(biāo)準(zhǔn)卷積的ResNet-50相比能取得高2.7%的性能。此外,局部關(guān)系網(wǎng)絡(luò)在鄰域?yàn)?x7時(shí)表現(xiàn)最好,而對(duì)應(yīng)的標(biāo)準(zhǔn)ResNet網(wǎng)絡(luò)則在3x3和5x5時(shí)表現(xiàn)更好,這表明局部關(guān)系網(wǎng)絡(luò)相比普通基于卷積算子的ResNet網(wǎng)絡(luò)能建模更大范圍的像素關(guān)系。

圖5:局部關(guān)系層替代ResNet-50網(wǎng)絡(luò)中所有卷積層(左);26層的LR-Net與ResNet相同運(yùn)算量下在ImageNet分類(lèi)上top-1準(zhǔn)確率的對(duì)比(右)

2) 非局部網(wǎng)絡(luò)遇上SE-Net,更高效的全局上下文網(wǎng)絡(luò)

非局部關(guān)系網(wǎng)絡(luò)在多個(gè)視覺(jué)感知任務(wù)上取得了非常好的效果,學(xué)界通常認(rèn)為這得益于非局部網(wǎng)絡(luò)對(duì)于遠(yuǎn)距離像素與像素間關(guān)系的建模。但我們?cè)诳梢暬瘜W(xué)到的像素與像素間相似度時(shí)發(fā)現(xiàn)一個(gè)很不一樣的現(xiàn)象,對(duì)于不同的query像素點(diǎn)(圖中紅色點(diǎn)),不管query像素點(diǎn)在前景、或是草地、或是天空中,它們和key像素的相似度形成的attention map幾乎一模一樣。

圖6:不同query像素點(diǎn)對(duì)應(yīng)的attention map

很自然地,如果我們顯示地讓所有query像素點(diǎn)共享同一個(gè)attention map,是否會(huì)降低performance呢?我們實(shí)驗(yàn)發(fā)現(xiàn)在一些重要的感知任務(wù),例如圖像分類(lèi)、物體檢測(cè)、動(dòng)作識(shí)別中,這一答案是否定的。也就是說(shuō),即使讓所有query像素點(diǎn)共享同一個(gè)attention map,也不會(huì)降低識(shí)別的精度,而相應(yīng)的計(jì)算則大幅降低,即使添加到ResNet網(wǎng)絡(luò)中所有的residual block后也不怎么增加網(wǎng)絡(luò)整體的計(jì)算量。

進(jìn)一步可以發(fā)現(xiàn)這樣一種簡(jiǎn)化的非局部網(wǎng)絡(luò)(SNL)和2017年ImageNet比賽的冠軍算法SE-Net結(jié)構(gòu)很相似,都是首先建模全局上下文信息,把HxW的圖像特征集合起來(lái),生成一個(gè)全局的向量,第二步都是對(duì)這一全局的向量作特征變換,最后是變換后的全局特征和圖像每個(gè)位置原來(lái)的特征融合起來(lái),于是可以抽象出來(lái)一個(gè)通用的建模全局上下文信息的框架。進(jìn)一步的,在每一步里面選擇最好的實(shí)現(xiàn),于是可以得到全局上下文模塊(Global Context Block),這一網(wǎng)絡(luò)可以在COCO物體檢測(cè),ImageNet圖像分類(lèi),和動(dòng)作識(shí)別任務(wù)中均取得比非局部網(wǎng)絡(luò)和SE-Net更優(yōu)的準(zhǔn)確率,而計(jì)算量則保持基本不變或者低于非局部網(wǎng)絡(luò)和SE-Net。

圖7:通用的建模全局上下文信息的框架

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6684

    瀏覽量

    105673
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103432

原文標(biāo)題:有望替代卷積神經(jīng)網(wǎng)絡(luò)?微軟最新研究提基于關(guān)系網(wǎng)絡(luò)的視覺(jué)建模

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)刷雙饋異步電機(jī)潮流建模和收斂性研究

    研究.pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容,謝謝!
    發(fā)表于 06-25 13:12

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」6月25日(周三)20:00精彩開(kāi)播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺(jué)感知系統(tǒng)空間
    的頭像 發(fā)表于 05-29 10:04 ?183次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的<b class='flag-5'>視覺(jué)</b>感知系統(tǒng)空間<b class='flag-5'>建模</b>與微調(diào)學(xué)習(xí)

    索尼FCB-ER8530:三維建模視覺(jué)感知的跨界融合

    的“視覺(jué)基石”? 三維建模依賴(lài)高精度視覺(jué)數(shù)據(jù)實(shí)現(xiàn)虛擬場(chǎng)景重構(gòu),而索尼FCB-ER8530的4K分辨率(3840×2160)與20倍光學(xué)變焦能力,為建模提供毫米級(jí)細(xì)節(jié)捕捉能力。例如,在三
    的頭像 發(fā)表于 05-19 17:30 ?193次閱讀

    車(chē)用鋰離子電池機(jī)理建模與并聯(lián)模組不一致性研究

    車(chē)用鋰離子電池機(jī)理建模與并聯(lián)模組不一致性研究
    發(fā)表于 05-16 21:02

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)
    的頭像 發(fā)表于 02-12 15:15 ?841次閱讀

    ANN神經(jīng)網(wǎng)絡(luò)——器件建模

    隨著半導(dǎo)體行業(yè)的新材料、新工藝、新器件的不斷發(fā)展,人工神經(jīng)網(wǎng)絡(luò)作為一種替代方法已經(jīng)被引入器件建模領(lǐng)域。本文介紹了ANN神經(jīng)網(wǎng)絡(luò)建模的起源、優(yōu)勢(shì)、實(shí)現(xiàn)方式和應(yīng)用場(chǎng)景。 ? 隨著半導(dǎo)體行業(yè)
    的頭像 發(fā)表于 01-06 13:41 ?971次閱讀
    ANN神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>——器件<b class='flag-5'>建模</b>

    Splashtop 加入 Microsoft 智能安全協(xié)會(huì)

    ,他們將其解決方案與Microsoft安全技術(shù)集成,以更好地保護(hù)我們共同的客戶免受日益增長(zhǎng)的網(wǎng)絡(luò)威脅。Splashtop用戶多達(dá)數(shù)百萬(wàn),可幫助企業(yè)在混合和遠(yuǎn)程辦公
    的頭像 發(fā)表于 09-28 08:08 ?434次閱讀
    Splashtop 加入 <b class='flag-5'>Microsoft</b> 智能安全協(xié)會(huì)

    高速PCB信號(hào)和電源完整性問(wèn)題的建模方法研究

    高速PCB信號(hào)和電源完整性問(wèn)題的建模方法研究
    發(fā)表于 09-21 14:13 ?1次下載

    電源分配網(wǎng)絡(luò)分析及電容器精確建模

    電子發(fā)燒友網(wǎng)站提供《電源分配網(wǎng)絡(luò)分析及電容器精確建模.pdf》資料免費(fèi)下載
    發(fā)表于 09-20 11:31 ?0次下載

    分布式電源分配網(wǎng)絡(luò)建模及去耦設(shè)計(jì)研究

    電子發(fā)燒友網(wǎng)站提供《分布式電源分配網(wǎng)絡(luò)建模及去耦設(shè)計(jì)研究.pdf》資料免費(fèi)下載
    發(fā)表于 09-19 17:42 ?0次下載

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    目標(biāo)檢測(cè)與識(shí)別技術(shù)的關(guān)系是什么

    目標(biāo)檢測(cè)與識(shí)別技術(shù)是計(jì)算機(jī)視覺(jué)領(lǐng)域的兩個(gè)重要研究方向,它們之間存在著密切的聯(lián)系和相互依賴(lài)的關(guān)系。 一、目標(biāo)檢測(cè)與識(shí)別技術(shù)的概念 目標(biāo)檢測(cè)技術(shù) 目標(biāo)檢測(cè)技術(shù)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要
    的頭像 發(fā)表于 07-17 09:38 ?1253次閱讀

    機(jī)器視覺(jué)和人工智能的關(guān)系與應(yīng)用

    機(jī)器視覺(jué)和人工智能的關(guān)系是一個(gè)廣泛而深入的話題,涉及到計(jì)算機(jī)科學(xué)、電子工程、光學(xué)、圖像處理、模式識(shí)別等多個(gè)領(lǐng)域。 一、機(jī)器視覺(jué)和人工智能的定義 機(jī)器視覺(jué)的定義 機(jī)器
    的頭像 發(fā)表于 07-16 10:27 ?1644次閱讀

    BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的建模步驟

    BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過(guò)反向傳播算法來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測(cè)或分類(lèi)。BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的
    的頭像 發(fā)表于 07-11 16:57 ?2699次閱讀