chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何描述機器學(xué)習(xí)中的一些綜合能力

mK5P_AItists ? 來源:未知 ? 作者:鄧佳佳 ? 2018-04-04 11:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)我在閱讀機器學(xué)習(xí)相關(guān)文獻的時候, 我經(jīng)常思考這項工作是否:

提高了模型的表達(dá)能力;

使模型更易于訓(xùn)練;

提高了模型的泛化性能。

在這篇博文中, 我們討論當(dāng)前的機器學(xué)習(xí)研究:監(jiān)督學(xué)習(xí), 無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)在這些方面的表現(xiàn)。談到模型的泛化性能的時候, 我把它分為兩類:「弱泛化」和「強泛化」。我將會在后面分別討論它們。 下表總結(jié)了我眼中的研究現(xiàn)狀:

這篇博文涵蓋了相當(dāng)寬泛的研究領(lǐng)域,僅表達(dá)我個人對相關(guān)研究的看法,不反映我的同事和公司的觀點。歡迎讀者進行討論以及給出修改的建議, 請在評論中提供反饋或發(fā)送電子郵件給我。

表達(dá)能力 expressivity

模型可以進行什么樣的計算, 擬合多么復(fù)雜的函數(shù)?

模型的表達(dá)能力用來衡量參數(shù)化模型如神經(jīng)網(wǎng)絡(luò)的可以擬合的函數(shù)的復(fù)雜程度。深度神經(jīng)網(wǎng)絡(luò)的表達(dá)能力隨著它的深度指數(shù)上升, 這意味著中等規(guī)模的神經(jīng)網(wǎng)絡(luò)就擁有表達(dá)監(jiān)督、 半監(jiān)督、強化學(xué)習(xí)任務(wù)的能力[2]。 深度神經(jīng)網(wǎng)絡(luò)可以記住非常大的數(shù)據(jù)集就是一個很好的佐證。

最近在產(chǎn)生式模型研究上的突破證明了神經(jīng)網(wǎng)絡(luò)強大的表達(dá)能力:神經(jīng)網(wǎng)絡(luò)可以找到幾乎與真實數(shù)據(jù)難以分辨的極為復(fù)雜的數(shù)據(jù)流形(如音頻, 圖像數(shù)據(jù)的流形)。下面是NVIDIA研究人員提出的新的基于產(chǎn)生式對抗神經(jīng)網(wǎng)絡(luò)的模型的生成結(jié)果:

產(chǎn)生的圖像仍然不是很完美(注意不自然的背景),但是已經(jīng)非常好了。同樣的, 在音頻合成中,最新的 WaveNet 模型產(chǎn)生的音頻也已經(jīng)非常像人類了。

在強化學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)看起來也有足夠的表達(dá)能力。 很小的網(wǎng)絡(luò)(2個卷積層2個全連接層)就足夠解決Atari 和 MuJoCo 控制問題了(雖然它們的訓(xùn)練還是一個問題,我們將在下一個部分討論)。

模型的表達(dá)能力問題是最容易的(增加一些層即可), 但同時也是最神秘的:我們無法找到一個很好的方法來度量對于一個給定的任務(wù)我們需要多強的(或什么類型的)表達(dá)能力。

什么樣的問題會需要比我們現(xiàn)在用的神經(jīng)網(wǎng)絡(luò)大得多的網(wǎng)絡(luò)?為什么這些任務(wù)需要這么大量的計算?我們現(xiàn)有的神經(jīng)網(wǎng)絡(luò)是否有足夠的表達(dá)能力來表現(xiàn)像人類一樣的智能?要解決更加困難的問題的泛化問題會需要表達(dá)能力超級強的模型嗎?

人的大腦有比我們現(xiàn)在的大網(wǎng)絡(luò)(Inception-ResNet-V2 有大概 25e6 ReLU結(jié)點)多很多數(shù)量級的「神經(jīng)節(jié)點」(1e11)。 這個結(jié)點數(shù)量上的差距已經(jīng)很巨大了, 更別提 ReLU 單元根本無法比擬生物神經(jīng)元。

訓(xùn)練難度 trainability

給定一個有足夠表達(dá)能力的模型結(jié)構(gòu), 我能夠訓(xùn)練出一個好的模型嗎(找到好的參數(shù))

任何一個從數(shù)據(jù)中學(xué)習(xí)到一定功能的計算機程序都可以被稱為機器學(xué)習(xí)模型。在「學(xué)習(xí)」過程中, 我們在(可能很大的)模型空間內(nèi)搜索一個比較好的, 利用數(shù)據(jù)中的知識學(xué)到的模型來做決策。 搜索的過程常常被構(gòu)造成一個在模型空間上的優(yōu)化問題。

優(yōu)化的不同類型

一個具體的例子:最小化平均交叉熵是訓(xùn)練神經(jīng)網(wǎng)絡(luò)分類圖像的標(biāo)準(zhǔn)方法。我們希望模型在訓(xùn)練集上的交叉熵?fù)p失達(dá)到最小時, 模型在測試數(shù)據(jù)上可以以一定精度或召回來正確分類圖像。

搜索好的模型(訓(xùn)練)最終會變?yōu)橐粋€優(yōu)化問題——沒有別的途徑! 但是有時候我們很難去定義優(yōu)化目標(biāo)。 在監(jiān)督學(xué)習(xí)中的一個經(jīng)典的例子就是圖像下采樣:我們無法定義一個標(biāo)量可以準(zhǔn)確反映出我們?nèi)搜鄹惺艿降南虏蓸釉斐傻摹敢曈X損失」。

同樣地, 超分辨率圖像和圖像合成也非常困難,因為我們很難把效果的好壞寫成一個標(biāo)量的最大化目標(biāo):想象一下, 如何設(shè)計一個函數(shù)來判斷一張圖片有多像一張真實的照片?事實上關(guān)于如何去評價一個產(chǎn)生式模型的好壞一直爭論到現(xiàn)在。

近年來最受歡迎的的方法是 「協(xié)同適應(yīng)」(co-adaptation)方法:它把優(yōu)化問題構(gòu)造成求解兩個相互作用演化的非平穩(wěn)分布的平衡點求解問題[3]。這種方法比較「自然」, 我們可以將它類比為捕食者和被捕食者之間的生態(tài)進化過程。

捕食者會逐漸變得聰明, 這樣它可以更有效地捕獲獵物。然后被捕食者也逐漸變得更聰明以避免被捕食。兩種物種相互促進進化, 最終它們都會變得更加聰明。

演化策略通常把優(yōu)化看作是仿真。用戶對模型群體指定一些動力系統(tǒng), 在仿真過程中的每個時間步上, 根據(jù)動力系統(tǒng)的運行規(guī)則來更新模型群體。 這些模型可能會相互作用也可能不會。 隨著時間的演變, 系統(tǒng)的動態(tài)特性可能會使模型群體最終收斂到好的模型上面。

David Ha所著的 《A Visual Guide to Evolution Strategies》 是一部非常好的演化策略在強化學(xué)習(xí)中應(yīng)用的教材(其中的「參考文獻和延伸閱讀」部分非常棒?。?/p>

研究現(xiàn)狀

監(jiān)督學(xué)習(xí)中前饋神經(jīng)網(wǎng)絡(luò)和有顯式目標(biāo)函數(shù)的問題已經(jīng)基本解決了(經(jīng)驗之談, 沒有理論保障)。2015年發(fā)表的一些重要的突破(批歸一化 Batch Norm,殘差網(wǎng)絡(luò) Resnets,良好初始化 Good Init)現(xiàn)在被廣泛使用, 這使得前饋神經(jīng)網(wǎng)絡(luò)的訓(xùn)練變得非常容易。

事實上, 數(shù)百層的深度網(wǎng)絡(luò)已經(jīng)可以把大的分類數(shù)據(jù)集的訓(xùn)練損失減小到零。關(guān)于現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)的硬件和算法基礎(chǔ)結(jié)構(gòu),參考 https://arxiv.org/abs/1703.09039。

有證據(jù)表明很多 RNN 結(jié)構(gòu)有相同的表達(dá)能力, 模型最終效果的差異僅僅是由于一些結(jié)構(gòu)比另一些更加易于訓(xùn)練[4]。

無監(jiān)督學(xué)習(xí)的模型輸出常常大很多(并不是總是),比如,1024 x 1024 像素的圖片, 很長的語音和文本序列。很不幸, 這導(dǎo)致模型更加難以訓(xùn)練。

最近 NVIDA 的工作改進了Wasserstein GAN 使之對很多超參, 比如 BN 的參數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)等不再敏感。模型的穩(wěn)定性在實踐和工業(yè)應(yīng)用中非常重要:穩(wěn)定性讓我們相信它會和我們未來的研究思路和應(yīng)用相兼容。

總的來講, 這些成果令人振奮, 因為這證明了我們的產(chǎn)生網(wǎng)絡(luò)有足夠的表達(dá)能力來產(chǎn)生正確的圖像, 效果的瓶頸在于訓(xùn)練的問題——不幸的是對于神經(jīng)網(wǎng)絡(luò)來講我們很難辯別一個模型表現(xiàn)較差僅僅是因為它的表達(dá)能力不夠還是我們沒有訓(xùn)練到位。

不幸的是, 即使在僅僅考慮可訓(xùn)練性,不考慮泛化的情況下, 強化學(xué)習(xí)也遠(yuǎn)遠(yuǎn)地落在了后面。在有多于一個時間步的環(huán)境中, 我們實際是在首先搜索一個模型, 這個模型在推理階段會最大化獲得的獎勵。

強化學(xué)習(xí)比較困難,因為我們要用一個外部的(outer loop)、僅僅依賴角色(agent)見過的數(shù)據(jù)的優(yōu)化過程來找到最優(yōu)的模型, 同時用一個內(nèi)部的(inner loop)、模型引導(dǎo)的最優(yōu)控制(optimal control)過程來最大化獲得的獎勵。

不同環(huán)境下,實現(xiàn)同樣的算法我們經(jīng)常得到不同的結(jié)果, 因此強化學(xué)習(xí)文章中報告的結(jié)果我們也不能輕易完全相信。

如果我們把強化學(xué)習(xí)看作一個單純的優(yōu)化問題(先不考慮模型的泛化和復(fù)雜的任務(wù)), 這個問題同樣非常棘手。假設(shè)現(xiàn)在有一個環(huán)境, 只有在一個場景結(jié)束時才會有非常稀疏的獎勵(例如:保姆照看孩子, 只有在父母回家時她才會得到酬勞)。

因此, 要想估計模型優(yōu)化過程中任意一處的策略梯度, 我們都要采樣指數(shù)增長的動作空間(action space)中的樣本來獲得一些對學(xué)習(xí)有用的信號。這就像是我們想要使用蒙特卡洛方法關(guān)于一個分布計算期望(在所有動作序列上), 而這個分布集中于一個狄拉克函數(shù)(dirac delta distribution)(密度函數(shù)見下圖)。

在建議分布(proposal distribution)和獎勵分布(reward distribution)之間幾乎沒有重疊時, 基于有限樣本的蒙特卡洛估計會失效,不管你采了多少樣本。

此外, 如果數(shù)據(jù)布不是平穩(wěn)的(比如我們采用帶有重放緩存 replay buffer 的離策略 off-policy 算法), 數(shù)據(jù)中的「壞點」會給外部的優(yōu)化過程(outer loop)提供不穩(wěn)定的反饋。

不從蒙特卡洛估計的角度, 而從優(yōu)化的角度來看的話:在沒有關(guān)于狀態(tài)空間的任何先驗的情況下(比如對于世界環(huán)境的理解或者顯式地給角色 agent 一些明確的指示), 優(yōu)化目標(biāo)函數(shù)的形狀(optimization landscape)看起來就像「瑞士芝士」——一個個凸的極值(看作小孔)周圍都是大面積的平地,這樣平坦的「地形」上策略梯度信息幾乎沒用。這意味著整個模型空間幾乎不包含信息(非零的區(qū)域幾乎沒有,學(xué)習(xí)的信號在整個模型空間里是均勻的)。

如果沒有更好的表示方法,我們可能就僅僅是在隨機種子附近游走,隨機采樣一些策略,直到我們幸運地找到一個恰好落在「芝士的洞里」的模型。事實上,這樣訓(xùn)練出的模型效果其實很好。這說明強化學(xué)習(xí)的優(yōu)化目標(biāo)函數(shù)形狀很有可能就是這樣子的。

我相信像 Atari 和 MuJoCo 這樣的強化學(xué)習(xí)基準(zhǔn)模型并沒有真正提高機器學(xué)習(xí)的能力極限, 雖然從一個單純優(yōu)化問題來看它們很有趣。這些模型還只是在一個相對簡單的環(huán)境中去尋找單一的策略來使模型表現(xiàn)得更好, 沒有任何的選擇性機制讓他們可以泛化。 也就是說, 它們還僅僅是單純的優(yōu)化問題, 而不是一個復(fù)雜的機器學(xué)習(xí)問題。

要想解決更高維,更復(fù)雜的強化學(xué)習(xí)問題, 在解決數(shù)值優(yōu)化問題之前,我們必須先考慮模型的泛化和一般的感性認(rèn)知能力。反之就會愚蠢地浪費計算力和數(shù)據(jù)(當(dāng)然這可能會讓我們明白僅僅通過暴力計算我們可以做得多好)。

我們要讓每個數(shù)據(jù)點都給強化學(xué)習(xí)提供訓(xùn)練信息,也需要能夠在不用指數(shù)增長的數(shù)據(jù)時就能通過重要性采樣(importance sampling)獲得非常復(fù)雜的問題的梯度。只有在這樣的情況下, 我們才能確保通過暴力計算我們可以獲得這個問題的解。

最后做一個總結(jié):監(jiān)督學(xué)習(xí)的訓(xùn)練比較容易。 無監(jiān)督學(xué)習(xí)的訓(xùn)練相對困難但是已經(jīng)取得了很大的進展。但是對于強化學(xué)習(xí),訓(xùn)練還是一個很大的問題。

泛化性能

在這三個問題中, 泛化性能是最深刻的,也是機器學(xué)習(xí)的核心問題。簡單來講, 泛化性能用來衡量一個在訓(xùn)練集上訓(xùn)練好的模型在測試集上的表現(xiàn)。

泛化問題主要可以分為兩大類:

1) 訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)來自于同一個分布(我們使用訓(xùn)練集來學(xué)習(xí)這個分布)。

2)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)來自不同的分布(我們要讓在訓(xùn)練集上學(xué)習(xí)的模型在測試集上也表現(xiàn)良好)。

通常我們把(1)稱為「弱泛化」,把(2)稱為「強泛化」。我們也可以把它們理解為「內(nèi)插(interpolation)」和「外推(extrapolation)」,或「魯棒性(robustness)」與「理解(understanding)」。

弱泛化:考慮訓(xùn)練集與測試集數(shù)據(jù)服從兩個類似的分布

如果數(shù)據(jù)的分布發(fā)生了較小的擾動, 模型還能表現(xiàn)得多好?

在「弱泛化」中,我們通常假設(shè)訓(xùn)練集和數(shù)據(jù)集的數(shù)據(jù)分布是相同的。但是在實際問題中,即使是「大樣本」(large sample limit)情況下,二者的分布也總會有些許差異。

這些差異有可能來源于傳感器噪聲、物體的磨損、周圍光照條件的變化(可能攝影者收集測試集數(shù)據(jù)時恰好是陰天)。對抗樣本的出現(xiàn)也可能導(dǎo)致一些不同,對抗的擾動很難被人眼分辨,因此我們可以認(rèn)為對抗樣本也是從相同的分布里采出來的。

因此,實踐中把「弱泛化」看作是評估模型在「擾動」的訓(xùn)練集分布上的表現(xiàn)是有用的。

數(shù)據(jù)分布的擾動也會導(dǎo)致優(yōu)化目標(biāo)函數(shù)(optimization landscape)的擾動。

不能事先知道測試數(shù)據(jù)的分布為我們優(yōu)化帶來了一些困難。如果我們在訓(xùn)練集上優(yōu)化得過于充分(上圖藍(lán)色曲線左邊的最低的局部極小點), 我們會得到一個在測試集上并不是最好的模型(紅色曲線左邊的局部極小點)。 這時, 我們就在訓(xùn)練集上過擬合(overfitting)了, 模型在測試集上沒有很好地泛化。

「正則化」包含一切我們用來防止過擬合的手段。我們一點都不知道測試集分布的擾動是什么,所以我們只能在訓(xùn)練集或訓(xùn)練過程中加入噪聲,希望這些引入的噪聲中會包含測試集上的擾動。隨機梯度下降、隨機剪結(jié)點(dropout)、權(quán)值噪聲(weight noise)、 激活噪聲(activation noise)、 數(shù)據(jù)增強等都是深度學(xué)習(xí)中常用的正則化技術(shù)。在強化學(xué)習(xí)中,隨機仿真參數(shù)(randomizing simulation parameters)會讓訓(xùn)練變得更加魯棒。張馳原在 ICLR2017 的報告中認(rèn)為正則化是所有的可能「增加訓(xùn)練難度」的方法(而不是傳統(tǒng)上認(rèn)為的「限制模型容量」)??偟膩碇v,讓優(yōu)化變得困難一些有助于模型的泛化。

對于弱泛化最大的挑戰(zhàn)可能就是對抗攻擊了。 對抗方法會產(chǎn)生對模型最糟糕的的干擾,在這些擾動下模型會表現(xiàn)得非常差。 我們現(xiàn)在還沒有對對抗樣本魯棒的深度學(xué)習(xí)方法, 但是我感覺這個問題最終會得到解決[5]。

現(xiàn)在有一些利用信息論的工作表明在訓(xùn)練過程中神經(jīng)網(wǎng)絡(luò)會明顯地經(jīng)歷一個由「記住」數(shù)據(jù)到」壓縮」數(shù)據(jù)的轉(zhuǎn)換。這種理論正在興起,雖然仍然有關(guān)于這種理論是不是真的有效的討論。請關(guān)注這個理論,這個關(guān)于「記憶」和」壓縮」的直覺是令人信服的。

強泛化:自然流形

在強泛化范疇,模型是在完全不同的數(shù)據(jù)分布上進行評估的, 但是數(shù)據(jù)來自于同一個流形(或數(shù)據(jù)產(chǎn)生過程)

如果測試數(shù)據(jù)分布于訓(xùn)練數(shù)據(jù)分布「完全不同」,我們?nèi)绾蝸碛?xùn)練一個好的模型呢?實際上這些數(shù)據(jù)都來自同一個「自然數(shù)據(jù)流形」(natural data manifold)。只要來源于同一個數(shù)據(jù)產(chǎn)生過程,訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)仍然含有很多的信息交疊。

強泛化可以看作是模型可以多好地學(xué)到這個「超級流形」,訓(xùn)練這個模型只使用了流形上的很小一部分樣本。一個圖像分類器不需要去發(fā)現(xiàn)麥克斯韋方程組——它只需要理解與流形上的數(shù)據(jù)點相一致的事實。

在 ImageNet 上訓(xùn)練的現(xiàn)代分類器已經(jīng)基本上可以做到強泛化了。模型已經(jīng)可以理解基礎(chǔ)的元素比如邊緣、輪廓以及實體。這也是為什么常常會把這些分類器的權(quán)值遷移到其它數(shù)據(jù)集上來進行少樣本學(xué)習(xí)(few shot learning)和度量學(xué)習(xí)(metric learning)。

和弱泛化一樣,我們可以對抗地采樣測試集來讓它的數(shù)據(jù)分布與訓(xùn)練集盡量不同。AlphaGo Zero 是我最喜歡的例子:在測試階段,它看到的是與它在訓(xùn)練階段完全不一樣的, 來自人類選手的數(shù)據(jù)。

遺憾的是, 強化學(xué)習(xí)的研究忽略了強泛化問題。 大部分的基準(zhǔn)都基于靜態(tài)的環(huán)境, 沒有多少認(rèn)知的內(nèi)容(比如人型機器人只知道一些關(guān)節(jié)的位置可能會帶來獎勵, 而不知道它的它的世界和它的身體是什么樣子的)。

我相信解決強化學(xué)習(xí)可訓(xùn)練性問題的關(guān)鍵在于解決泛化性。我們的學(xué)習(xí)系統(tǒng)對世界的理解越多,它就更容易獲得學(xué)習(xí)的信號可能需要更少的樣本。這也是為什么說少樣本學(xué)習(xí)(few shot learning)、模仿學(xué)習(xí)(imitation learning)、學(xué)習(xí)如何學(xué)習(xí)(learning to learn)重要的原因了:它們將使我們擺脫采用方差大而有用信息少的暴力求解方式。

我相信要達(dá)到更強的泛化,我們要做到兩件事:

首先我們需要模型可以從觀察和實驗中積極推理世界基本規(guī)律。符號推理(symbolic reasoning)和因果推理(causal inference)看起來已經(jīng)是成熟的研究了, 但是對任何一種無監(jiān)督學(xué)習(xí)可能都有幫助。

我們的基于模型的機器學(xué)習(xí)方法(試圖去「預(yù)測」環(huán)境的模型)現(xiàn)在正處于哥白尼革命之前的時期:它們僅僅是膚淺地基于一些統(tǒng)計原理進行內(nèi)插,而不是提出深刻的,一般性的原理來解釋和推斷可能在數(shù)百萬光年以外或很久遠(yuǎn)的未來的事情。

注意人類不需要對概率論有很好的掌握就能推導(dǎo)出確定性的天體力學(xué),這就產(chǎn)生了一個問題:是否有可能在沒有明確的統(tǒng)計框架下進行機器學(xué)習(xí)和因果推理?

讓我們的學(xué)習(xí)系統(tǒng)更具適應(yīng)性可以大大降低復(fù)雜性。我們需要訓(xùn)練可以在線實時地思考、記憶、學(xué)習(xí)的模型,而不僅僅是只能靜態(tài)地預(yù)測和行動的模型。

其次, 我們需要把足夠多樣的數(shù)據(jù)送給模型來促使它學(xué)到更為抽象的表示。

沒有這些限制的話,學(xué)習(xí)本身就是欠定義的,我們能夠恰好找到一個好的解的可能性也非常小。 也許如果人類不能站起來看到天空,就不會想要知道為什么星星會以這樣奇怪的橢圓形軌跡運行,也就不會獲得智慧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    90

    文章

    38225

    瀏覽量

    297095
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49772

    瀏覽量

    261716
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8541

    瀏覽量

    136245

原文標(biāo)題:如何理解和評價機器學(xué)習(xí)中的表達(dá)能力、訓(xùn)練難度和泛化性能

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    嵌入式應(yīng)掌握的幾種能力

    地 使用。 gcc、gdb的使用。 git的使用。 對比工具、串口工具、網(wǎng)絡(luò)工具的使用。 5. 解決問題的能力 上面幾點都可以通過一些技術(shù)資料進行學(xué)習(xí)。這點則需要需要在實戰(zhàn)
    發(fā)表于 12-08 06:05

    FPGA在機器學(xué)習(xí)的具體應(yīng)用

    隨著機器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2645次閱讀

    Debian和Ubuntu哪個好一些?

    兼容性對比Debian和Ubuntu哪個好一些,并為您揭示如何通過RAKsmart服務(wù)器釋放Linux系統(tǒng)的最大潛能。
    的頭像 發(fā)表于 05-07 10:58 ?874次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    和模擬切規(guī)律,但實際上,這個過程效率非常低,需要消耗大量的存儲空間描述網(wǎng)絡(luò)的參數(shù),并且需要大量的數(shù)據(jù)樣本覆蓋規(guī)律可能涉及到的情景。 優(yōu)秀的數(shù)學(xué)家們在過往的研究,已經(jīng)發(fā)現(xiàn)和總結(jié)出了一些
    的頭像 發(fā)表于 04-02 18:21 ?1294次閱讀

    十大鮮為人知卻功能強大的機器學(xué)習(xí)模型

    本文轉(zhuǎn)自:QuantML當(dāng)我們談?wù)?b class='flag-5'>機器學(xué)習(xí)時,線性回歸、決策樹和神經(jīng)網(wǎng)絡(luò)這些常見的算法往往占據(jù)了主導(dǎo)地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?925次閱讀
    十大鮮為人知卻功能強大的<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>模型

    樹莓派在自動化控制項目中的一些潛在應(yīng)用

    自動化控制項目中的一些潛在應(yīng)用。之前,我們已經(jīng)為Arduino平臺探討了相同的話題。我們確定Arduino是個出色的教育工具,但由于一些限制,它無法在工業(yè)環(huán)境完全
    的頭像 發(fā)表于 03-25 09:45 ?480次閱讀
    樹莓派在自動化控制項目中的<b class='flag-5'>一些</b>潛在應(yīng)用

    機器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學(xué)習(xí)模型市場
    的頭像 發(fā)表于 02-13 09:39 ?628次閱讀

    獨立服務(wù)器和云服務(wù)器哪個快一些?

    獨立服務(wù)器和云服務(wù)器哪個快一些?在數(shù)字服務(wù)部署,獨立服務(wù)器與云服務(wù)器的速度差異并非絕對,需結(jié)合資源配置與應(yīng)用場景綜合判斷。以下是UU云對獨立服務(wù)器和云服務(wù)器的核心維度對比分析:
    的頭像 發(fā)表于 02-05 10:08 ?807次閱讀

    嵌入式機器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng),必須采用嵌入式機器學(xué)習(xí)(Embedded Machine Learning)技術(shù),這是指將機器
    的頭像 發(fā)表于 01-25 17:05 ?1234次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    華為云 Flexus X 實例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機器算法,AI 算法的知識,需要搭建學(xué)習(xí)環(huán)境,所以就在最近購買的華為云 Flexus X 實例上安裝了
    的頭像 發(fā)表于 01-02 13:43 ?872次閱讀
    華為云 Flexus X 實例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>算法

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上篇文章,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多
    的頭像 發(fā)表于 12-30 09:16 ?1986次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    將自然語言理解與運動規(guī)劃融為體。這種端到端的方法使機器人能夠直接從人類指令生成動作序列,大幅簡化了控制流程。該項目的工作流程包含設(shè)計并封裝一個人機器人函數(shù)庫、編寫清晰地描述提示詞、在
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    解決許多技術(shù)的和非技術(shù)的挑戰(zhàn),如提高智能體的自主性、處理復(fù)雜環(huán)境互動的能力及確保行為的倫理和安全性。 未來的研究需要將視覺、語音和其他傳感技術(shù)與機器人技術(shù)相結(jié)合,以探索更加先進的知識表示和記憶模塊,利用強化學(xué)習(xí)
    發(fā)表于 12-20 19:17

    zeta在機器學(xué)習(xí)的應(yīng)用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學(xué)習(xí)的應(yīng)用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進行的分析:
    的頭像 發(fā)表于 12-20 09:11 ?1633次閱讀

    【面試題】人工智能工程師高頻面試題匯總:機器學(xué)習(xí)深化篇(題目+答案)

    ,或者深度學(xué)習(xí)的框架,還有怎么優(yōu)化模型,這些都是加分項,能有效提高面試通過率。本篇小編整理了一些高頻的機器學(xué)習(xí)深化方面的面試題,這些題目都是從實際面試
    的頭像 發(fā)表于 12-16 13:42 ?3321次閱讀
    【面試題】人工智能工程師高頻面試題匯總:<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>深化篇(題目+答案)