chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文快速了解機器學(xué)習(xí)任務(wù)中的重要成分和結(jié)構(gòu)

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-06-22 08:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

??▌基本概念

我們從一個實例來了解機器學(xué)習(xí)的基本概念。假設(shè)我們現(xiàn)在面臨這樣一個任務(wù)(Task),任務(wù)的內(nèi)容是識別手寫體的數(shù)字。對于計算機而言,這些手寫數(shù)字是一張張圖片,如下所示:

對人來說,識別這些手寫數(shù)字是非常簡單的,但是對于計算機而言,這種任務(wù)很難通過固定的編程來完成,即使我們把我們已經(jīng)知道的所有手寫數(shù)字都存儲到數(shù)據(jù)庫中,一旦出現(xiàn)一個全新的手寫數(shù)字(從未出現(xiàn)在數(shù)據(jù)庫中),固定的程序就很難識別出這個數(shù)字來。所以,在這里,我們的任務(wù)指的就是這類很難通過固定編程解決的任務(wù)。

要解決這類任務(wù),我們的計算機需要有一定的“智能”,但是在我們的認(rèn)知中,只有人類才具備這種“高級智能”(某些靈長類動物雖然具備一定的運用工具的能力,但我們認(rèn)為那距離我們所說的智能還有很遠(yuǎn)的距離),所以如果我們想讓計算機具備這種“智能”,由于這是人造的事物,我們稱這種智能為人工智能(Artificial Intelligence, AI)。

正式地講,人工智能,是指由人制造出來的機器所表現(xiàn)出來的智能。通常人工智能是指通過普通計算機程序的手段實現(xiàn)的類人智能技術(shù)。機器學(xué)習(xí)可以幫助我們解決這類任務(wù),所以我們說,機器學(xué)習(xí)是一種人工智能技術(shù)。

那么機器學(xué)習(xí)是怎么解決這類任務(wù)的呢?

機器學(xué)習(xí)(Machine learning)是一類基于數(shù)據(jù)或者既往的經(jīng)驗,優(yōu)化計算機程序的性能標(biāo)準(zhǔn)的方法。這是機器學(xué)習(xí)的定義,看起來可能難以理解,我們對它進(jìn)行分解:

1、首先,對于手寫數(shù)字識別這個任務(wù)來說,數(shù)據(jù)或者既往的經(jīng)驗就是我們已經(jīng)收集到的手寫數(shù)字,我們要讓我們的程序從這些數(shù)據(jù)中學(xué)習(xí)到一種能力/智能,這種能力就是:通過學(xué)習(xí),這個程序能夠像人一樣識別手寫數(shù)字。

2、性能標(biāo)準(zhǔn),就是指衡量我們的程序的這種能力高低的指標(biāo)了。在識別任務(wù)中,這個指標(biāo)就是識別的精度。給定100個手寫數(shù)字,有99個數(shù)字被我們的“智能”程序識別正確,那么精度就是99%。

3、優(yōu)化,就是指我們基于既往的經(jīng)驗或者數(shù)據(jù),讓我們的“智能”程序變得越來越聰明,甚至比人類更加聰明。

機器學(xué)習(xí),就是能夠從經(jīng)驗中不斷“學(xué)習(xí)進(jìn)步”的算法,在很多情況下,我們將這些經(jīng)驗用數(shù)值描述,因此,經(jīng)驗=數(shù)據(jù),這些收集在一起的數(shù)據(jù)被成為數(shù)據(jù)集(Dataset),在這些已有的數(shù)據(jù)集上學(xué)習(xí)的過程我們稱之為訓(xùn)練(Train),因此,這個數(shù)據(jù)集又被稱為訓(xùn)練集。

很顯然,我們真正關(guān)心的并不是機器學(xué)習(xí)算法在訓(xùn)練集上的表現(xiàn),我們希望我們的“智能”程序?qū)奈匆娺^的手寫字也能夠正確的識別,這種在新的樣本(數(shù)據(jù))上的性能我們稱之為泛化能力(generalization ability),對于一個任務(wù)而言,泛化能力越強,這個機器學(xué)習(xí)算法就越成功。

根據(jù)數(shù)據(jù)集的不同,機器學(xué)習(xí)可以分成如下三類:

監(jiān)督學(xué)習(xí)(Supervised learning):數(shù)據(jù)集既包含樣本(手寫字圖片),還包含其對應(yīng)的標(biāo)簽(每張手寫字圖片對應(yīng)的是那個數(shù)字)

無監(jiān)督學(xué)習(xí)(Unsupervised learning):與監(jiān)督學(xué)習(xí)相對,數(shù)據(jù)集僅包含樣本,不包含樣本對應(yīng)的標(biāo)簽,機器學(xué)習(xí)算法需要自行確定樣本的類別歸屬

強化學(xué)習(xí)(Reinforcement learning):又稱為增強學(xué)習(xí),是一種半監(jiān)督學(xué)習(xí),強調(diào)如何基于環(huán)境而行動,以取得最大化的預(yù)期利益。

當(dāng)前大熱的神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)等等都是監(jiān)督學(xué)習(xí),隨著大數(shù)據(jù)時代的到來以及GPU帶來的計算能力的提升,監(jiān)督學(xué)習(xí)已經(jīng)在諸如圖像識別,目標(biāo)檢測和跟蹤,機器翻譯,語音識別,自然語言處理的大量領(lǐng)域取得了突破性的進(jìn)展。

然而,當(dāng)前在無監(jiān)督學(xué)習(xí)領(lǐng)域并沒有取得像監(jiān)督學(xué)習(xí)那樣的突破性進(jìn)展。由于在無人駕駛領(lǐng)域主要應(yīng)用的機器學(xué)習(xí)技術(shù)仍然是監(jiān)督學(xué)習(xí),本文將重點講監(jiān)督學(xué)習(xí)的相關(guān)內(nèi)容。

在本文中,為了便于理解,我們使用手寫數(shù)字識別來描述處理的任務(wù),實際上,機器學(xué)習(xí)算法能夠處理的任務(wù)還有很多,例如:分類,回歸,轉(zhuǎn)錄,機器翻譯,結(jié)構(gòu)化輸出,異常檢測,合成與采樣, 缺失值填補等等。這些任務(wù)看似不同,卻有著一個共性,那就是很難通過人為設(shè)計的確定性程序來解決。

▌監(jiān)督學(xué)習(xí)

經(jīng)驗風(fēng)險最小化

監(jiān)督學(xué)習(xí),本質(zhì)上就是在給定一個集合(X,Y)的基礎(chǔ)上去學(xué)得一個函數(shù):

y=f(x)

在 MNIST 問題中,X就表示我們收集到的所有的手寫數(shù)字圖片的集合,Y表示這些圖片對應(yīng)的真實的數(shù)字,函數(shù)f則表示輸入一張手寫字圖片,輸出這張圖片表示的數(shù)值這樣的一個映射關(guān)系。

很顯然,這樣的映射關(guān)系中的x有著一個極其巨大的取值域(甚至有無限種可能取值), 所以我們可以把我們已有的樣本集合(X,Y)理解為從某個更大甚至是無限的母體中,根據(jù)某種未知的概率分布p,以獨立同分布隨機變量方式來取樣。現(xiàn)在,我們假定存在一個損失函數(shù)(Loss function)L,這個損失函數(shù)可以表述為:

L(f(x),y)

這個損失函數(shù)描述的是我們學(xué)得的函數(shù)f(x)的輸出和x樣本對應(yīng)的真實值y之間的距離,很顯然,這個損失越小,表示我們學(xué)得的函數(shù)f更貼近于真實映射g。以損失函數(shù)為基礎(chǔ),我們定義風(fēng)險:

函數(shù)f的風(fēng)險,就是損失函數(shù)的期望值。由于我們以手寫字分類為例,所以這里各個樣本的概率分布p是離散的,我們可以用如下公式定義風(fēng)險:

如果是連續(xù)的,則可以使用定積分和概率密度函數(shù)來表示。這里的xi是指整個樣本空間的所有可能取值,所以,現(xiàn)在的目標(biāo)就變成了:在很多可能的函數(shù)中,去尋找一個f,使得風(fēng)險R(f)最小。

然而,真實的風(fēng)險是建立在對整個樣本空間進(jìn)行考量的,我們并不能獲得整個樣本空間,我們有的只是一個從我們要解決的任務(wù)的樣本空間中使用獨立同分布的方法隨機采樣得到的子集(X,Y),那么,在這個子集上,我們可以求出這個真實分布的近似值,比如說經(jīng)驗風(fēng)險:

其中(xi,yi)是我們已有的數(shù)據(jù)集中的樣本,所以,我們選擇能夠最小化經(jīng)驗風(fēng)險的函數(shù)f這樣的一個策略就被稱之為經(jīng)驗風(fēng)險最小化原則。

很顯然,當(dāng)訓(xùn)練數(shù)據(jù)集足夠大的時候,經(jīng)驗風(fēng)險最小化這一策略能夠保證很好的學(xué)習(xí)效果——這也就是我們當(dāng)代深度神經(jīng)網(wǎng)絡(luò)取得很多方面的成功的一個重要原因。專業(yè)的說,我們把我們已有的數(shù)據(jù)集的大小稱之為樣本容量。不論是什么應(yīng)用領(lǐng)域,規(guī)范的大數(shù)據(jù)集合,就意味著我們的機器學(xué)習(xí)任務(wù)已經(jīng)成功了一半。

模型,過擬合,欠擬合

那么學(xué)習(xí)這個f需要一個載體, 這個載體的作用就是,用它我們可以表述各種各樣的函數(shù)f這樣我們就可以通過調(diào)整這個載體去選擇一個最優(yōu)的f,這個最優(yōu)的f能夠使經(jīng)驗風(fēng)險最小化,這個載體我們專業(yè)地說,就是機器學(xué)習(xí)中的模型(model), 單純地說模型的抽象概念可能讓人難以理解,我們選取一種模型的實例來看。

我們以人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)為例來討論。首先,我們知道我們現(xiàn)在需要的是一個模型,這個模型具有能夠描述各種各樣的函數(shù)的能力,下圖是一個神經(jīng)網(wǎng)絡(luò):

它看起來很復(fù)雜,讓人費解,那么我們把它簡化,如下圖:

我們把這個模型理解成一個黑箱,這個黑箱里有很多參數(shù):(w1,w2,w3,...,wn),我們用W來描述這個黑箱中的參數(shù),這些參數(shù)叫模型參數(shù),即使模型內(nèi)部的結(jié)構(gòu)不變,僅僅修改這些參數(shù),模型也能表現(xiàn)出不同的本領(lǐng)。

具體來說:對于手寫字識別任務(wù),我們在手寫字?jǐn)?shù)據(jù)集上通過一定的算法調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù),使得神經(jīng)網(wǎng)絡(luò)擬合出一個函數(shù)f,這個f是經(jīng)驗風(fēng)險最小化的函數(shù),那么我們訓(xùn)練出來的這個“黑箱”就可以用于手寫字識別了;另一方面,對于車輛識別來說,假設(shè)我們有車輛數(shù)據(jù)集,相同的思路,我們可以訓(xùn)練出一個黑箱來最做車輛識別。如下圖所示:

在前文中我們知道,考量一個機器學(xué)習(xí)模型的關(guān)鍵在于其泛化能力,一個考量泛化能力的重要指標(biāo)就是模型的訓(xùn)練誤差和測試誤差的情況:

訓(xùn)練誤差:模型在訓(xùn)練集上的誤差

測試誤差:模型在從未“見過的”測試集上的誤差

這兩個誤差,分別對應(yīng)了機器學(xué)習(xí)任務(wù)中需要解決的兩個問題:欠擬合和過擬合。當(dāng)訓(xùn)練誤差過高時,模型學(xué)到的函數(shù)并沒有滿足經(jīng)驗風(fēng)險最小化,對手寫字識別來說,模型即使在我們的訓(xùn)練集中識別的精度也很差,我們稱這種情況為欠擬合。

當(dāng)訓(xùn)練誤差低但是測試誤差高,即訓(xùn)練誤差和測試誤差的差距過大時,我們稱之為過擬合,此時模型學(xué)到了訓(xùn)練集上的一些“多余的規(guī)律”,表現(xiàn)為在訓(xùn)練數(shù)據(jù)集上識別精度很高,在測試數(shù)據(jù)集(未被用于訓(xùn)練,或者說未被用于調(diào)整模型參數(shù)的數(shù)據(jù)集合)上識別精度不高。

模型的容量(capacity)決定了模型是否傾向于過擬合還是欠擬合。模型的容量指的是模型擬合各種函數(shù)的能力,很顯然,越復(fù)雜的模型就能夠表述越復(fù)雜的函數(shù)(或者說規(guī)律,或者說模式)。那么對于一個特定的任務(wù)(比如說手寫字識別),如何去選擇合適的模型容量來擬合相應(yīng)的函數(shù)呢?這里就引入了奧卡姆剃刀原則:

奧卡姆剃刀原則:在同樣能夠解釋已知觀測現(xiàn)象的假設(shè)中,我們應(yīng)該挑選”最簡單”的那一個。

這可以理解為一個簡約設(shè)計原則,在處理一個任務(wù)是,我們應(yīng)當(dāng)使用盡可能簡單的模型結(jié)構(gòu)。

“一定的算法”–>梯度下降算法

前面我們說到我們可以通過一定的算法調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù),這里我們就來介紹一下這個定向(朝著經(jīng)驗風(fēng)險最小化的方向)調(diào)整模型參數(shù)的算法——梯度下降算法。

要最小化經(jīng)驗風(fēng)險Rˉ(f),等同于最小化損失函數(shù),在機器學(xué)習(xí)中,損失函數(shù)可以寫成每個樣本的損失函數(shù)的總和:

其中θ表示模型中的所有參數(shù),現(xiàn)在我們要最小化L(θ),我們首先想到的是求解導(dǎo)數(shù),我們把這個L對θ的導(dǎo)數(shù)記作L′(θ)或者dLdθ, 導(dǎo)數(shù)L′(θ)就代表了函數(shù)L(θ)在θ處的斜率,我們可以把函數(shù)的輸入輸出關(guān)聯(lián)性用斜率來描述:

L(θ+α)≈L(θ)+αL′(θ)

其中,α是一個變化量,利用這個公式,我們就可以利用導(dǎo)數(shù)來逐漸使L變小,具體來說,我們只要讓α的符號和導(dǎo)數(shù)的符號相反,即:

sign(α)=?sign(L′(θ))

這樣,L(θ+α)就會比原來的L(θ)更小:

L(θ+α)=L(θ)?|αL′(θ)|

這種通過向?qū)?shù)的反方向移動一小步來最小化目標(biāo)函數(shù)(在我們機器學(xué)習(xí)中,也就是損失函數(shù))的方法,我們稱之為梯度下降(gradient descent)。

對于神經(jīng)網(wǎng)絡(luò)這種復(fù)雜的模型來說,模型包含了很多參數(shù),所以這里的θ就表示一個參數(shù)集合,或者說參數(shù)向量, 所以我們要求的導(dǎo)數(shù)就變成了包含所有參數(shù)的偏導(dǎo)數(shù)的向量▽θL(θ)。

這里的α就可以理解為我們進(jìn)行梯度下降的過程中的步長了,我們將學(xué)習(xí)的步長稱為學(xué)習(xí)率(learning rate), 它描述了梯度下降的速度。

▌小結(jié)

在本文中,我們沒有介紹任何一種具體的機器學(xué)習(xí)算法和模型,但是我們快速的了解了機器學(xué)習(xí)任務(wù)中的重要成分和結(jié)構(gòu),以下我們來進(jìn)行一個小的總結(jié):

首先,機器學(xué)習(xí)是用來完成特定的任務(wù)的:比如說手寫字識別,行人檢測,房價預(yù)測等等。這個任務(wù)必須要有一定的性能度量,比如說識別精度,預(yù)測誤差等等。

然后,為了處理這個任務(wù),我們需要設(shè)計模型,這個模型能夠從數(shù)據(jù)中基于一定的策略(比如說經(jīng)驗風(fēng)險最小化原則) 和一定的算法(比如說梯度下降算法) 去學(xué)習(xí)一個函數(shù)。

最后,這個函數(shù)要能夠處理這個任務(wù)中的各種各樣的情況(包括沒有出現(xiàn)在訓(xùn)練集中的情況),這個模型要有很好的泛化能力,這樣,我們的機器學(xué)習(xí)任務(wù)就成功了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49806

    瀏覽量

    262201
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8544

    瀏覽量

    136350
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1232

    瀏覽量

    26075

原文標(biāo)題:機器學(xué)習(xí)入門概覽

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么FPU在MCU重要呢?

    甚至上百個周期。 并行處理: 些高性能 FPU(如 Cortex-M7 的 DPFPU)具有流水線結(jié)構(gòu),可以并行處理多個操作。 降低 CPU 負(fù)載: FPU 承擔(dān)了繁重的浮點計算任務(wù),釋放了主 CPU
    發(fā)表于 11-18 07:05

    了解Mojo編程語言

    Mojo 語言的具體介紹: 核心特點 Python 兼容性 Mojo 支持大部分 Python 語法和標(biāo)準(zhǔn)庫,可直接調(diào)用 Python 生態(tài)系統(tǒng)的庫,降低了學(xué)習(xí)成本。 極致性能優(yōu)化 通過靜態(tài)編譯
    發(fā)表于 11-07 05:59

    讀懂!掃描電鏡mapping圖如何助力靜電紡絲纖維結(jié)構(gòu)觀察

    在微觀世界的探索,材料的宏觀性能究竟由其微觀世界哪些區(qū)域的哪些元素所決定?掃描電鏡mapping圖為我們深入了解材料的微觀結(jié)構(gòu)成分分布
    的頭像 發(fā)表于 08-29 11:49 ?989次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>讀懂!掃描電鏡mapping圖如何助力靜電紡絲纖維<b class='flag-5'>結(jié)構(gòu)</b>觀察

    【「Yocto項目實戰(zhàn)教程:高效定制嵌入式Linux系統(tǒng)」閱讀體驗】+基礎(chǔ)概念學(xué)習(xí)理解

    是 Yocto 項目的重要組成部分,它提供了套完整的參考發(fā)行版,方便開發(fā)者快速構(gòu)建和定制嵌入式 Linux 系統(tǒng)。通過學(xué)習(xí)這部分內(nèi)容
    發(fā)表于 08-04 22:29

    FPGA在機器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機器學(xué)習(xí)
    的頭像 發(fā)表于 07-16 15:34 ?2667次閱讀

    帶你了解什么是機器視覺網(wǎng)卡

    千兆以太網(wǎng)或萬兆以太網(wǎng)相機產(chǎn)生的大量圖像數(shù)據(jù)流。萬兆網(wǎng)卡能提供更高的帶寬,滿足高分辨率、高幀率相機的需求。支持GigEVision協(xié)議:這是機器視覺領(lǐng)域最重要的工業(yè)
    的頭像 發(fā)表于 07-09 16:18 ?443次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>帶你<b class='flag-5'>了解</b>什么是<b class='flag-5'>機器</b>視覺網(wǎng)卡

    了解人形機器

    人形機器人是仿照人類形態(tài)設(shè)計的通用雙足機器人,旨在與人類起工作以提高生產(chǎn)力。它們能夠學(xué)習(xí)和執(zhí)行各種任務(wù),例如抓取物體、移動貨柜、裝卸箱子等
    的頭像 發(fā)表于 06-13 09:42 ?1649次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    的限制和調(diào)控) 本書還有很多前沿技術(shù)項目的擴展 比如神經(jīng)網(wǎng)絡(luò)識別例程,機器學(xué)習(xí)圖像識別的原理,yolo圖像追蹤的原理 機器學(xué)習(xí)訓(xùn)練三大點: 先準(zhǔn)備
    發(fā)表于 04-30 01:05

    當(dāng)我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    并行架構(gòu)使其在處理深度學(xué)習(xí)的矩陣運算、卷積運算等任務(wù)時,效率遠(yuǎn)高于傳統(tǒng)的CPU和GPU。例如,在圖像識別任務(wù),F(xiàn)PGA可以通過并行處理多
    發(fā)表于 02-19 13:55

    如何快速學(xué)習(xí)硬件電路

    對于想要學(xué)習(xí)硬件電路的新手來說,開始可能感到有些困難,但只要掌握了正確的學(xué)習(xí)方法和技巧,就能夠快速地成為名優(yōu)秀的硬件電路工程師。 首先,
    的頭像 發(fā)表于 01-20 11:11 ?2028次閱讀
    如何<b class='flag-5'>快速</b><b class='flag-5'>學(xué)習(xí)</b>硬件電路

    講清芯片封裝的塑封材料:環(huán)氧塑封料(EMC)成分與作用

    在半導(dǎo)體封裝領(lǐng)域,塑封技術(shù)以其低成本、高效率、良好的保護性能,成為封裝工藝的關(guān)鍵環(huán)。Mold工藝,作為塑封技術(shù)的重要組成部分,通過特定的模具將芯片等組件包裹在加熱的模塑材料中,固化后形成堅硬
    的頭像 發(fā)表于 12-30 13:52 ?1.3w次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>講清芯片封裝<b class='flag-5'>中</b>的塑封材料:環(huán)氧塑封料(EMC)<b class='flag-5'>成分</b>與作用

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上篇文章,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多
    的頭像 發(fā)表于 12-30 09:16 ?2023次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.全書概覽與第學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學(xué)習(xí)大模型和人工智能的相關(guān)知識,深刻體會到機器人技術(shù)是個極具潛力的未來方向,甚至可以說是推動時代變革的重要力量。能參與這次活動
    發(fā)表于 12-27 14:50

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。在預(yù)訓(xùn)練-微調(diào)范式,我們要注意
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+數(shù)據(jù)在具身人工智能的價值

    嵌入式人工智能(EAI)將人工智能集成到機器人等物理實體,使它們能夠感知、學(xué)習(xí)環(huán)境并與之動態(tài)交互。這種能力使此類機器人能夠在人類社會中有效地提供商品及服務(wù)。 數(shù)據(jù)是
    發(fā)表于 12-24 00:33