chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來(lái)或許深度學(xué)習(xí)江湖統(tǒng)一真的不是夢(mèng)

新機(jī)器視覺(jué) ? 來(lái)源:量子位 ? 作者:量子位 ? 2021-05-23 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你能想象某一天打開(kāi)深度學(xué)習(xí)的詞條,發(fā)現(xiàn):

深度學(xué)習(xí)的江湖已經(jīng)能夠被統(tǒng)一了嗎?

幾何學(xué)上的對(duì)稱(chēng)性可以玩轉(zhuǎn)整個(gè)深度學(xué)習(xí)嗎?

通過(guò)對(duì)稱(chēng)性和的變換,可以提煉出覆蓋CNNs, GNNs, LSTMs, Transformers, DeepSets, mesh CNN等一切你所需構(gòu)建的架構(gòu)嗎?

不要驚訝,不要懷疑。

一百多年前埃爾蘭根大學(xué)一位23歲的小伙就給出了答案。

他僅憑一己之力開(kāi)創(chuàng)的“埃爾蘭根計(jì)劃”,從而在幾何學(xué)上做出了一項(xiàng)開(kāi)創(chuàng)性的工作,改變了數(shù)學(xué)史。

幾何學(xué)對(duì)稱(chēng)問(wèn)題的源起

在1872年10月,德國(guó)的埃爾蘭根大學(xué)任命了一位新的年輕教授。按照慣例,他被要求提供一個(gè)就職研究計(jì)劃,他以長(zhǎng)而乏味的標(biāo)題Vergleichende Betrachtungen über neuere geometrische Forschungen(“對(duì)幾何學(xué)最新研究的比較評(píng)論”)進(jìn)行了發(fā)表。

這位就是菲利克斯·克萊因(Felix Klein),當(dāng)時(shí)他只有23歲,他的開(kāi)創(chuàng)性工作被稱(chēng)為“埃爾蘭根計(jì)劃”,在數(shù)學(xué)史上有濃墨重彩的一筆。

十九世紀(jì)簡(jiǎn)直就是幾何學(xué)的大爆發(fā)時(shí)代。歐幾里得之后的近兩千年來(lái),龐塞萊特(Poncelet)構(gòu)造了投影幾何,高斯(Gauss)、波利亞伊(Galys)和洛巴切夫斯基(Lobachevsky)構(gòu)造了雙曲線(xiàn)幾何,而黎曼(Riemann)構(gòu)造了橢圓幾何。

克萊因的Erlangen program(埃爾蘭根綱領(lǐng))的突破性體現(xiàn)在研究幾何學(xué)時(shí)運(yùn)用了結(jié)構(gòu)的對(duì)稱(chēng)性??巳R因采用群論的形式來(lái)定義此類(lèi)轉(zhuǎn)換,并采用群及其子群的層次結(jié)構(gòu)來(lái)分類(lèi)由此產(chǎn)生的不同幾何形狀。

因此,剛性運(yùn)動(dòng)會(huì)產(chǎn)生傳統(tǒng)的歐幾里得幾何,而仿射或投影變換分別產(chǎn)生仿射和投影幾何。

Erlangen program不僅對(duì)幾何和數(shù)學(xué)影響非常深遠(yuǎn),同時(shí)也影響了物理領(lǐng)域,對(duì)稱(chēng)性可以從第一原理推導(dǎo)守恒律,即Noether定理。

經(jīng)過(guò)幾十年的發(fā)展,直到楊振寧和米爾斯在1954年提出的規(guī)范不變性的概念的廣義形式證明了這一基本原理,成功地統(tǒng)一了除重力以外的所有自然基本力。

這種標(biāo)準(zhǔn)模型已經(jīng)描述了我們目前所知道的所有物理學(xué)知識(shí)。

所以啊,還是諾貝爾獎(jiǎng)得主物理學(xué)家菲利普·安德森(Philip Anderson)的話(huà)說(shuō)得好:

“it is only slightly overstating the case to say that physics is the study of symmetry.”

“說(shuō)物理學(xué)本質(zhì)上就是研究對(duì)稱(chēng)性的,這只是有點(diǎn)夸大其詞了?!?/p>

目前深度學(xué)習(xí)領(lǐng)的現(xiàn)狀和19世紀(jì)的幾何情況驚人的類(lèi)似:

一方面,在過(guò)去的十年中,深度學(xué)習(xí)帶來(lái)了數(shù)據(jù)科學(xué)的一場(chǎng)革命,并完成了許多以前被認(rèn)為無(wú)法實(shí)現(xiàn)的任務(wù):無(wú)論是計(jì)算機(jī)視覺(jué)語(yǔ)音識(shí)別,自然語(yǔ)言翻譯,還是下圍棋。

另一方面,現(xiàn)在存在一個(gè)針對(duì)不同類(lèi)型數(shù)據(jù)的不同神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的“動(dòng)物園”,但統(tǒng)一的原理很少。這樣很難理解不同方法之間的關(guān)系,也導(dǎo)致相同概念的多次發(fā)明和資源的浪費(fèi)。

機(jī)器學(xué)習(xí)中,對(duì)稱(chēng)性的重要性實(shí)際上早已得到認(rèn)可。

尤其是在模式識(shí)別和計(jì)算機(jī)視覺(jué)的應(yīng)用中,有關(guān)等變特征檢測(cè)的早期工作可以追溯到Shunichi Amari和Reiner Lenz。

在神經(jīng)網(wǎng)絡(luò)文獻(xiàn)中,Marvin Minsky和Seymour Papert提出的感知器的群不變性定理對(duì)(單層)感知器學(xué)習(xí)不變性的能力提出了基本限制。

幾何深度學(xué)習(xí)

具體怎么個(gè)“統(tǒng)一”,請(qǐng)看采用的“幾何深度學(xué)習(xí)”:

幾何深度學(xué)習(xí)是Michael M. Bronstein,Joan Bruna,Taco Cohen,Petar Veli?kovi? 等人中引入的一個(gè)籠統(tǒng)術(shù)語(yǔ),指的是類(lèi)似于Klein的Erlangen program,在幾何機(jī)器學(xué)習(xí)上統(tǒng)一的嘗試的總稱(chēng)。

它有兩個(gè)目的:首先,提供一個(gè)通用的數(shù)學(xué)框架以推導(dǎo)最成功的神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu);其次,給出一個(gè)建設(shè)性的過(guò)程,并以有原則的方式構(gòu)建未來(lái)的體系結(jié)構(gòu)。

在最簡(jiǎn)單的情況下,有監(jiān)督的機(jī)器學(xué)習(xí)本質(zhì)上是一個(gè)函數(shù)估計(jì)問(wèn)題:給定訓(xùn)練集上某些未知函數(shù)的輸出(例如標(biāo)記的狗和貓圖像),人們?cè)噲D從某個(gè)假設(shè)函數(shù)類(lèi)別中找到一個(gè)適合訓(xùn)練的函數(shù)f ,并可以預(yù)測(cè)以前看不見(jiàn)的輸入的輸出。

在過(guò)去的十年中,大型的、高質(zhì)量的數(shù)據(jù)集(如ImageNet)的可用性與不斷增長(zhǎng)的計(jì)算資源(GPU)吻合,從而可以設(shè)計(jì)功能豐富的類(lèi),這些類(lèi)可以?xún)?nèi)插此類(lèi)大型數(shù)據(jù)集。

神經(jīng)網(wǎng)絡(luò)似乎是表征功能的合適選擇,因?yàn)榧词故亲詈?jiǎn)單的體系結(jié)構(gòu)(如Perceptron),僅使用兩層時(shí)也可以生成密集類(lèi)的功能,從而可以將任何連續(xù)函數(shù)近似為任何所需的精度,這種特性稱(chēng)為“通用逼近”(Universal Approximation)。

低維問(wèn)題的設(shè)置是逼近理論中的經(jīng)典問(wèn)題,該問(wèn)題已得到廣泛研究,并通過(guò)精確的數(shù)學(xué)方法控制估算誤差。但是,在高維度上情況卻完全不同:人們可以很快地看到,即使近似一類(lèi)簡(jiǎn)單的Lipschitz連續(xù)函數(shù),樣本數(shù)量也隨維度呈指數(shù)增長(zhǎng),這種現(xiàn)象俗稱(chēng)“維數(shù)詛咒”。

由于現(xiàn)代機(jī)器學(xué)習(xí)方法需要處理成千上萬(wàn)甚至數(shù)百萬(wàn)個(gè)維度的數(shù)據(jù),因此維度的詛咒總是在幕后出現(xiàn),使得我們無(wú)法通過(guò)樸素的方式進(jìn)行學(xué)習(xí)。

△維度詛咒的圖示:為了近似由高斯核構(gòu)成的Lipschitz連續(xù)函數(shù),該函數(shù)位于誤差為ε的d維單位超立方體(藍(lán)色)的象限中,需要

在計(jì)算機(jī)視覺(jué)問(wèn)題(例如圖像分類(lèi))中可能最好地看到了這一點(diǎn)。即使是很小的圖像也往往具有很高的尺寸,但是從直觀上講,當(dāng)人們將圖像解析為向量以將其饋反饋送到感知器時(shí),很多圖像的結(jié)構(gòu)會(huì)被破壞并丟棄。如果現(xiàn)在僅將圖像移位一個(gè)像素,則向量化的輸入將有很大的不同,并且神經(jīng)網(wǎng)絡(luò)將需要顯示很多示例,因此必須以相同的方式對(duì)移位的輸入進(jìn)行分類(lèi)。

原理簡(jiǎn)介

通過(guò)對(duì)稱(chēng)性,不變性和群的視角,包含兩大原理:

“先驗(yàn)對(duì)稱(chēng)性”

在許多高維ML問(wèn)題的情況下,我們可以采用一個(gè)附加結(jié)構(gòu)信息,它來(lái)自輸入信號(hào)的幾何形狀。我們稱(chēng)這種結(jié)構(gòu)為“先驗(yàn)對(duì)稱(chēng)性”,它是一種普遍有效的原理,它使我們對(duì)由維數(shù)引起的問(wèn)題感到樂(lè)觀。在我們的圖像分類(lèi)示例中,輸入圖像x不僅是d維向量,而且是在某個(gè)域Ω上定義的信號(hào),在這種情況下,該信號(hào)是二維網(wǎng)格。

域的結(jié)構(gòu)由對(duì)稱(chēng)群變換????(在我們的示例中為一組二位變換-作用于域上的點(diǎn)。在信號(hào)????(Ω)的空間中,底層域上的群動(dòng)作(群元素,????∈????)通過(guò)所謂的群表征ρ(????)來(lái)表示,在我們的例子中,上述操作是平移操作,即一個(gè)作用于d維向量的d×d矩陣。

輸入信號(hào)底層的域的幾何結(jié)構(gòu)為我們?cè)噲D學(xué)習(xí)的函數(shù) f 的類(lèi)別施加了架構(gòu)信息。一個(gè)不變函數(shù)可以不受群的操作作用的影響,即對(duì)于任何????∈????和x,f(ρ(????)x)= f(x)。另一方面,函數(shù)可能具有相同的輸入和輸出結(jié)構(gòu),并且以與輸入相同的方式進(jìn)行轉(zhuǎn)換,這種函數(shù)稱(chēng)為等變函數(shù),即滿(mǎn)足f(ρ(????)x)= ρ(???? )f(x)。

在計(jì)算機(jī)視覺(jué)領(lǐng)域中,圖像分類(lèi)是一種典型的人們希望得到不變函數(shù)的任務(wù)(例如,無(wú)論貓位于圖像的什么位置,我們都希望將該圖分類(lèi)為貓);而圖像分割任務(wù)的輸出是一個(gè)像素級(jí)別的標(biāo)簽掩模,這是一種等變函數(shù)(分割掩模需要遵循輸入圖像的變化)。

“尺度分離”

另一個(gè)強(qiáng)大的幾何先驗(yàn)是“尺度分離”。在某些情況下,我們可以通過(guò)“同化”附近的點(diǎn)并產(chǎn)生與粗粒度算子P相關(guān)的信號(hào)空間的層次結(jié)構(gòu),來(lái)構(gòu)建域的多尺度層次結(jié)構(gòu)(下圖中的Ω和Ω’)。

在這些粗尺度上,我們可以應(yīng)用粗尺度函數(shù)。我們分析出,如果一個(gè)函數(shù) f 可以被近似為粗粒度算子 P 和粗尺度函數(shù)的組合 f≈f’°P,則 f 是局部穩(wěn)定的。盡管 f 可能取決于長(zhǎng)距離依賴(lài),如果 f 是局部穩(wěn)定的,它們可以被分解為局部交互,然后向著粗尺度傳播。

這兩個(gè)原理為他們提供了一個(gè)非常通用的深度學(xué)習(xí)藍(lán)圖,可以在大多數(shù)用于表示學(xué)習(xí)的流行深度神經(jīng)體系結(jié)構(gòu)中得到認(rèn)可:一個(gè)典型設(shè)計(jì)由一系列等變層(例如,CNN中的卷積層)組成,可能遵循通過(guò)不變的全局池層將所有內(nèi)容聚合到一個(gè)輸出中。在某些情況下,也可以通過(guò)一些采用局部池化形式的粗化過(guò)程(coarsening procedure)來(lái)創(chuàng)建域的層次結(jié)構(gòu)。

這是一種非常通用的設(shè)計(jì),可以應(yīng)用于不同類(lèi)型的幾何結(jié)構(gòu),包括幾何深度學(xué)習(xí)的“ 5G”(Grid,Groups,Graphs,Geodesics & Gauges):網(wǎng)格(具有全局轉(zhuǎn)換群的齊次空間),圖形(以及特殊情況下的集合)和流形,幾何先驗(yàn)通過(guò)全局等距不變性表示(可以使用測(cè)地學(xué)表示) 和局部規(guī)范的對(duì)稱(chēng)性。

這些原則的實(shí)現(xiàn)導(dǎo)致了深度學(xué)習(xí)中當(dāng)今存在的一些最流行的體系結(jié)構(gòu):從平移對(duì)稱(chēng)導(dǎo)出的卷積網(wǎng)絡(luò)(CNN)、圖神經(jīng)網(wǎng)絡(luò)、DeepSets和Transformers,實(shí)現(xiàn)了置換不變性, 時(shí)間扭曲不變導(dǎo)出的門(mén)控RNN(例如LSTM網(wǎng)絡(luò)),以及由規(guī)范對(duì)稱(chēng)性導(dǎo)出的計(jì)算機(jī)圖形和視覺(jué)中使用的 Intrinsic Mesh CNN。

下一步他們還打算在“ 5G”上繼續(xù)“幾何深度學(xué)習(xí)”藍(lán)圖。

貌似高深的理論,用到了群論、微分幾何和各類(lèi)機(jī)器學(xué)習(xí)高級(jí)算法,期待有更多研究人員參與并開(kāi)展進(jìn)一步深入研究。

未來(lái),也許整個(gè)深度學(xué)習(xí)“動(dòng)物園”的在原理上的統(tǒng)一真的不是夢(mèng)。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:收藏 | 從“幾何深度學(xué)習(xí)”看深度學(xué)習(xí)江湖的統(tǒng)一

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么國(guó)產(chǎn)MCU的工程生態(tài)很難統(tǒng)一

    背景 國(guó)產(chǎn) MCU 種類(lèi)多、廠商眾多,生態(tài)碎片化明顯。 主要原因 廠商 SDK 不統(tǒng)一 :API、驅(qū)動(dòng)結(jié)構(gòu)差異大 開(kāi)發(fā)工具閉源 :無(wú)法統(tǒng)一配置流程 工程模板缺失 :初始化步驟、外設(shè)配置不致 社區(qū)
    發(fā)表于 01-28 09:25

    電子廠效率升級(jí)秘訣:UV膠10秒固化,產(chǎn)能翻倍不是夢(mèng)

    電子廠效率升級(jí)秘訣:UV膠10秒固化,產(chǎn)能翻倍不是夢(mèng)
    的頭像 發(fā)表于 01-12 17:06 ?315次閱讀
    電子廠效率升級(jí)秘訣:UV膠10秒固化,產(chǎn)能翻倍<b class='flag-5'>不是</b><b class='flag-5'>夢(mèng)</b>

    無(wú)人值守不是夢(mèng):智能工廠讓倉(cāng)儲(chǔ) + 產(chǎn)線(xiàn)全流程自動(dòng)化

    從倉(cāng)儲(chǔ)的智能調(diào)度到產(chǎn)線(xiàn)的自主運(yùn)行,無(wú)人值守工廠的落地,本質(zhì)是技術(shù)與場(chǎng)景的深度融合。它不是對(duì)人工的簡(jiǎn)單替代,而是通過(guò)智能化手段,讓設(shè)備更高效、數(shù)據(jù)更透明、決策更精準(zhǔn),讓制造業(yè)從“拼人力”轉(zhuǎn)向“拼效率”。
    的頭像 發(fā)表于 01-12 09:57 ?338次閱讀
    無(wú)人值守<b class='flag-5'>不是</b><b class='flag-5'>夢(mèng)</b>:智能工廠讓倉(cāng)儲(chǔ) + 產(chǎn)線(xiàn)全流程自動(dòng)化

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不
    的頭像 發(fā)表于 01-07 15:37 ?251次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測(cè)頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過(guò)Keras實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實(shí)現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場(chǎng)需求的模型,進(jìn)步提升檢測(cè)的準(zhǔn)確性和現(xiàn)場(chǎng)的適應(yīng)性。 應(yīng)用范圍
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?253次閱讀

    星光不負(fù),碼向未來(lái):1024致敬每位“以碼為夢(mèng)”的鴻蒙開(kāi)發(fā)者

    ,發(fā)起“星光不負(fù) 碼向未來(lái)”致敬活動(dòng),就是想親口告訴您:鴻蒙生態(tài)每點(diǎn)“加速度”的背后,都是您智慧與汗水的結(jié)晶;您書(shū)寫(xiě)的不是冰冷的代碼,而是我們共同熱愛(ài)的未來(lái)。你們,值得被看見(jiàn)、被喝彩
    的頭像 發(fā)表于 10-24 18:47 ?299次閱讀
    星光不負(fù),碼向<b class='flag-5'>未來(lái)</b>:1024致敬每<b class='flag-5'>一</b>位“以碼為<b class='flag-5'>夢(mèng)</b>”的鴻蒙開(kāi)發(fā)者

    開(kāi)源鴻蒙技術(shù)大會(huì)2025丨統(tǒng)一生態(tài)共建分論壇:共建共享開(kāi)源鴻蒙,聚力共贏統(tǒng)一未來(lái)

    生態(tài)共建的創(chuàng)新路徑與未來(lái)藍(lán)圖,主題涵蓋了產(chǎn)品發(fā)布、特性介紹、技術(shù)交流和路徑探討等多個(gè)層面,旨在促進(jìn)開(kāi)源鴻蒙統(tǒng)一生態(tài)共建的發(fā)展。 統(tǒng)一生態(tài)共建分論壇成功舉辦 開(kāi)源鴻蒙項(xiàng)目群工作委員會(huì)委員、江蘇潤(rùn)開(kāi)鴻數(shù)字科技有限公司副總裁于大
    的頭像 發(fā)表于 10-12 21:05 ?755次閱讀
    開(kāi)源鴻蒙技術(shù)大會(huì)2025丨<b class='flag-5'>統(tǒng)一</b>生態(tài)共建分論壇:共建共享開(kāi)源鴻蒙,聚力共贏<b class='flag-5'>統(tǒng)一</b><b class='flag-5'>未來(lái)</b>

    《AI芯片:科技探索與AGI愿景》—— 勾勒計(jì)算未來(lái)的戰(zhàn)略羅盤(pán)

    、數(shù)據(jù)與算力三者間錯(cuò)綜復(fù)雜的共生關(guān)系,并前瞻性地討論了能耗、倫理與全球競(jìng)爭(zhēng)等關(guān)鍵議題。 書(shū)中幅AGI技術(shù)演進(jìn)路線(xiàn)圖(如圖2)令人印象深刻,它清晰地標(biāo)定了我們從“深度學(xué)習(xí)爆發(fā)”到“具身智能”,最終邁向
    發(fā)表于 09-17 09:32

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?949次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開(kāi)分析: 、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1085次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心言等大語(yǔ)言模型在生成文本、對(duì)話(huà)交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這
    的頭像 發(fā)表于 08-13 09:15 ?4252次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門(mén)的研究領(lǐng)域之。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1268次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    CES Asia 2025蓄勢(shì)待發(fā),聚焦低空經(jīng)濟(jì)與AI,引領(lǐng)未來(lái)產(chǎn)業(yè)新變革

    CES Asia 2025 第七屆亞洲消費(fèi)電子技術(shù)貿(mào)易展即將盛大開(kāi)啟,作為科技領(lǐng)域一年一度的盛會(huì),今年的 CES Asia 承載著更多的期待與使命,致力于成為前沿科技與未來(lái)產(chǎn)業(yè)深度融合的引領(lǐng)者
    發(fā)表于 07-09 10:29

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1559次閱讀