chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何改進和加速擴散模型采樣的方法2

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-05-07 14:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這是 NVIDIA 研究人員如何改進和加速擴散模型采樣的系列文章的一部分,擴散模型是一種新的、強大的生成模型。 Part 1 介紹了擴散模型作為深層生成模型的一個強大類,并研究了它們在解決生成性學習三重困境中的權衡。

雖然擴散模型同時滿足 生成性學習三位一體 的第一和第二個要求,即高樣本質量和多樣性,但它們?nèi)狈鹘y(tǒng) GAN 的采樣速度。在這篇文章中,我們回顧了 NVIDIA 最近開發(fā)的三種技術,它們克服了擴散模型中緩慢采樣的挑戰(zhàn)。

潛空間擴散模型

擴散模型的采樣速度較慢的主要原因之一是,從簡單的高斯噪聲分布到具有挑戰(zhàn)性的多模態(tài)數(shù)據(jù)分布的映射非常復雜。最近, NVIDIA 推出了 基于潛在分數(shù)的生成模型 ( LSGM ),這是一種新的框架,可以在潛在空間而不是直接在數(shù)據(jù)空間中訓練擴散模型。

在 LSGM 中,我們利用變分自動編碼器( VAE )框架將輸入數(shù)據(jù)映射到一個潛在空間,并在那里應用擴散模型。然后,擴散模型的任務是對數(shù)據(jù)集潛在嵌入的分布進行建模,這在本質上比數(shù)據(jù)分布更簡單。

新的數(shù)據(jù)合成是通過從簡單的基分布中提取嵌入,然后迭代去噪,然后使用解碼器將該嵌入轉換為數(shù)據(jù)空間來實現(xiàn)的(圖 1 )。

pYYBAGJ2FOKAdn0EAAFSsy-pVec759.png

圖 1 基于潛在分數(shù)的生成模型

圖 1 顯示,在基于潛在分數(shù)的生成模型( LSGM )中:

合成速度

通過先用高斯先驗對 VAE 進行預訓練,可以使數(shù)據(jù)分布的潛在編碼接近高斯先驗分布,這也是擴散模型的基本分布。擴散模型只需對剩余的不匹配進行建模,從而形成一個簡單得多的模型,從中采樣變得更容易、更快。

可以相應地調(diào)整潛在空間。例如,我們可以使用分層潛變量,并僅在其中的一個子集上或以較小的分辨率應用擴散模型,從而進一步提高合成速度。

表現(xiàn)力

訓練一個規(guī)則的擴散模型可以看作是直接在數(shù)據(jù)上訓練一個神經(jīng)網(wǎng)絡。然而,之前的研究發(fā)現(xiàn),用潛在變量增強神經(jīng)微分方程以及其他類型的生成模型通常可以提高它們的表達能力。

我們期望通過將擴散模型與潛在變量框架相結合,獲得類似的表現(xiàn)力收益。

定制編碼器和解碼器

在潛在空間中使用擴散模型時,可以使用精心設計的編碼器和解碼器在潛在空間和數(shù)據(jù)空間之間映射,進一步提高合成質量。因此, LSGM 方法可以自然地應用于非連續(xù)數(shù)據(jù)。

原則上, LSGM 可以通過使用編碼器和解碼器網(wǎng)絡,輕松地對文本、圖形和類似的離散或分類數(shù)據(jù)類型等數(shù)據(jù)進行建模,這些網(wǎng)絡將這些數(shù)據(jù)轉換為連續(xù)的潛在表示并返回。

直接對數(shù)據(jù)進行操作的常規(guī)擴散模型無法輕松對此類數(shù)據(jù)類型進行建模。標準擴散框架僅適用于連續(xù)數(shù)據(jù),這些數(shù)據(jù)可以逐漸擾動并以有意義的方式生成。

后果

在實驗上, LSGM 在 CIFAR-10 和 CelebA-HQ-256 這兩個廣泛使用的圖像生成基準數(shù)據(jù)集上實現(xiàn)了最先進的 Fr é chet Inception 距離( FID ),這是量化視覺圖像質量的標準度量。在這些數(shù)據(jù)集上,它優(yōu)于先前的生成模型,包括 GANs 。

在 CelebA-HQ-256 上, LSGM 的合成速度比以前的擴散模型快兩個數(shù)量級。在對 CelebA-HQ-256 數(shù)據(jù)建模時, LSGM 只需要 23 次神經(jīng)網(wǎng)絡調(diào)用,而之前在數(shù)據(jù)空間上訓練的擴散模型通常依賴數(shù)百次或數(shù)千次網(wǎng)絡調(diào)用。

臨界阻尼朗之萬擴散

擴散模型中的一個關鍵因素是固定前向擴散過程,以逐漸擾動數(shù)據(jù)。與數(shù)據(jù)本身一起,它唯一地決定了去噪模型學習的難度。因此,我們能否設計一種特別容易去噪的前向擴散,從而實現(xiàn)更快、更高質量的合成?

擴散模型中使用的擴散過程在統(tǒng)計學和物理學等領域得到了很好的研究,它們在各種抽樣應用中都很重要。受這些領域的啟發(fā),我們最近提出了 臨界阻尼朗之萬擴散 ( CLD )。

在 CLD 中,必須擾動的數(shù)據(jù)與可被視為 velocities 的輔助變量耦合,這與物理學中的速度相似,因為它們基本上描述了數(shù)據(jù)向擴散模型的基本分布移動的速度。

就像一個落在山頂上的球,在相對直接的路徑上迅速滾動到山谷中,積累一定的速度,這種受物理啟發(fā)的技術有助于數(shù)據(jù)快速平穩(wěn)地擴散。描述 CLD 的正向擴散 SDE 如下所示:

pYYBAGJ2FMeADRC_AAAZ6QHV7Rs091.png

這里,xt表示數(shù)據(jù),vt表示速度。m、t和b是決定擴散以及速度和數(shù)據(jù)之間耦合的參數(shù)。dwt是一個高斯白噪聲過程,負責噪聲注入,如公式所示。

CLD 可以解釋為兩個不同術語的組合。首先是一個 Ornstein-Uhlenback 過程,這是一種特殊的噪聲注入過程,作用于速度變量vt。

其次,在哈密頓動力學中,數(shù)據(jù)和速度相互耦合,因此注入速度的噪聲也會影響數(shù)據(jù)xt。哈密頓動力學提供了物理系統(tǒng)力學的基本描述,比如前面提到的例子中滾下山的球。

圖 2 顯示了一個簡單的一維玩具問題的數(shù)據(jù)和速度如何在 CLD 中擴散:

poYBAGJ2FLaAIflWAAHy4dEsif0591.png

圖 2 在嚴重阻尼的朗之萬擴散中,數(shù)據(jù) xT增加了速度 vT.擴散耦合 xT和 vT在聯(lián)合數(shù)據(jù)速度空間中運行(紅色表示概率)。噪聲只注入 vT.這將導致數(shù)據(jù) x 的平滑擴散軌跡(綠色)T.

在擴散開始時,我們從簡單的高斯分布中提取一個隨機速度,然后在聯(lián)合數(shù)據(jù)速度空間中進行完全擴散。當觀察數(shù)據(jù)的演變(圖中右下角)時,模型的擴散方式比之前的擴散方式要平滑得多。

直觀地說,這也應該使去噪和反轉生成過程更容易。我們只在擴散參數(shù)m和t的特定選擇下獲得這種行為,特別是T*T=4M。這種結構在物理學上被稱為臨界阻尼,對應于更廣泛的隨機動力系統(tǒng) Langevin dynamics 的一個特例,因此被稱為臨界阻尼 Langevin 擴散。

我們還可以可視化圖像在正向擴散和生成期間如何在高維聯(lián)合數(shù)據(jù)速度空間中演化:

poYBAGJ2FK-AdlWPAAJcCL29y0A428.png

圖 3 CLD 的正向擴散和反向時間合成過程

在圖 3 的頂部,我們可視化了一維數(shù)據(jù)分布和速度如何在聯(lián)合數(shù)據(jù)速度空間中擴散,以及生成如何以相反的方向進行。我們對三種不同的擴散軌跡進行了采樣,并在右側顯示了到數(shù)據(jù)和速度空間的投影。在底部,我們將相應的擴散和合成過程可視化,以生成圖像。我們看到速度在中間時間對數(shù)據(jù)進行“編碼”t。

在培訓生成性擴散模型時使用 CLD 有兩個關鍵優(yōu)勢:

更簡單的評分函數(shù)和培訓目標

使用定制 SDE 解算器加速采樣

更簡單的評分函數(shù)和培訓目標

在常規(guī)擴散模型中,神經(jīng)網(wǎng)絡的任務是學習擴散數(shù)據(jù)分布的得分函數(shù)

latex.php?latex=%5Cnabla_%7B%5Cbf+%7Bx%7Dt%7D+log+%7Ep_t+%28%5Cbf%7Bx%7D_t%29&bg=ffffff&fg=000&s=0&c=20201002

相比之下,在基于 CLD 的模型中,我們的任務是學習

latex.php?latex=%5Cnabla%7B%5Cbf+%7Bv%7D_t%7D+log+%7Ep_t+%28%5Cbf%7Bv%7D_t%7C%5Cbf%7Bx%7D_t%29&bg=ffffff&fg=000&s=0&c=20201002

即給定數(shù)據(jù)的速度的條件分數(shù)函數(shù)。這是只向速度變量中注入噪聲的結果。

然而,由于速度總是遵循比數(shù)據(jù)本身更平滑的分布,這是一個更容易學習的問題。基于 CLD 的擴散模型中使用的神經(jīng)網(wǎng)絡可以更簡單,同時仍能實現(xiàn)較高的生成性能。與此相關,我們還可以針對基于 CLD 的擴散模型制定改進的、更穩(wěn)定的訓練目標。

使用定制 SDE 解算器加速采樣

要集成 CLD 的反向時間合成 SDE ,可以導出定制的 SDE 解算器,以便對 CLD 中產(chǎn)生的更平滑的正向擴散進行更有效的去噪。這會加速合成。

在實驗上,對于廣泛使用的 CIFAR-10 圖像建?;鶞?,對于類似的神經(jīng)網(wǎng)絡結構和采樣計算預算, CLD 在合成質量上優(yōu)于以前的擴散模型。此外, CLD 為生成性 SDE 量身定制的 SDE 解算器在生成速度方面明顯優(yōu)于 Euler – Maruyama 等解算器,后者是一種解決擴散模型中 SDE 的常用方法。有關更多信息,請參閱 基于分數(shù)的臨界阻尼朗之萬擴散生成模型 。

我們已經(jīng)證明,只要仔細設計固定正向擴散過程,就可以改進擴散模型。

擴散算子去噪

到目前為止,我們已經(jīng)討論了如何通過將訓練數(shù)據(jù)移動到平滑的潛在空間(如 LSGM )來加速擴散模型的采樣,或者通過使用輔助速度變量來增加數(shù)據(jù),以及設計改進的前向擴散過程(如基于 CLD 的擴散模型)。

然而,加速擴散模型采樣的最直觀的方法之一是直接減少反向過程中的去噪步驟。在這一部分中,我們回到離散時間擴散模型,在數(shù)據(jù)空間中進行訓練,并分析在減少去噪步驟的數(shù)量和執(zhí)行大步驟時,去噪過程的行為。

在最近的 study 中,我們觀察到擴散模型通常假設反向合成過程中學習到的去噪分布P0(xt-1!xt)可以近似為高斯分布。然而,眾所周知,高斯假設只適用于許多小的去噪步驟的無窮小極限,這最終導致擴散模型的合成緩慢。

當反向生成過程使用較大的步長(去噪步驟較少)時,我們需要一個非高斯、多峰分布來建模去噪分布P0(xt-1!xt)。

直觀地說,在圖像合成中,多峰分布產(chǎn)生于多個看似合理且干凈的圖像可能對應于同一個噪聲圖像的事實。由于這種多模性,簡單地減少去噪步驟的數(shù)量,同時在去噪分布中保持高斯假設,會損害發(fā)電質量。

pYYBAGJ2FH2AI8BsAAB96BNbCaY224.png

Figure 5. ( 頂部) 一維數(shù)據(jù)分布 q ( x )的演化0) 根據(jù)正向擴散過程。(下)在固定 x 軸條件下真實去噪分布的可視化5以不同的顏色顯示不同的步長。

在圖 5 中,小步距(以黃色顯示)的真實去噪分布接近高斯分布。然而,隨著步長的增加,它變得更加復雜和多模態(tài)。

受上述觀察結果的啟發(fā),我們建議使用表達性多峰分布參數(shù)化去噪分布,以實現(xiàn)大步長去噪。特別是,我們引入了一種新的生成模型 去噪擴散 GAN ,在該模型中,使用條件 GAN 對去噪分布進行建模(圖 6 )。

poYBAGJ2FIOAT5wfAAJg6PO6Eqc405.png

圖 6 去噪擴散過程

生成性去噪擴散模型通常假設去噪分布可以用高斯分布建模。這一假設僅適用于小的去噪步驟,實際上,這意味著合成過程中有數(shù)千個去噪步驟。

在我們的去噪擴散算法中,我們使用多模態(tài)和復雜條件算法來表示去噪模型,使我們能夠在兩個步驟中高效地生成數(shù)據(jù)。

使用對抗性訓練設置對去噪擴散裝置進行訓練(圖 7 )。給定一個訓練圖像x0,我們使用前向高斯擴散過程從xt-1和xt兩個連續(xù)步驟的擴散樣本中取樣。

給定xt,我們的條件去噪 GAN 首先隨機生x‘0,然后使用可處理的后驗分布q(xt-1!xt,x’0)通過加回噪聲生成x‘t-1。訓練鑒別器來區(qū)分實際(xt-1,xt)和生成的(x’t-1,xt)對,并提供反饋以學習條件去噪算法。

在訓練之后,我們通過從噪聲中采樣并使用我們的去噪擴散生成器在幾個步驟中迭代去噪來生成新實例。

poYBAGJ2FImAQDfsAAFh6j4LAO8385.png

圖 7 去噪擴散算子的訓練過程

我們訓練了一個條件 GAN 發(fā)生器,利用擴散過程中不同步驟的對抗性損失對輸入xt進行去噪。

與傳統(tǒng)干草相比的優(yōu)勢

與我們通過去噪迭代生成樣本的模型相比,為什么不訓練一個可以使用傳統(tǒng)設置一次性生成樣本的 GAN 呢?與傳統(tǒng)的 GaN 相比,我們的模型有幾個優(yōu)點。

眾所周知, GAN 會遭受訓練不穩(wěn)定和模式崩潰的影響。一些可能的原因包括難以從復雜分布中一次性直接生成樣本,以及當鑒別器僅查看干凈樣本時存在過度擬合問題。

相比之下,由于xt上的強條件作用,我們的模型將生成過程分解為幾個條件去噪擴散步驟,其中每個步驟對建模相對簡單。擴散過程平滑了數(shù)據(jù)分布,使鑒別器不太可能過度擬合。

我們觀察到,我們的模型具有更好的訓練穩(wěn)定性和模式覆蓋率。在圖像生成中,我們觀察到我們的模型實現(xiàn)了與擴散模型競爭的樣本質量和模式覆蓋率,同時只需要兩個去噪步驟。 與常規(guī)擴散模型相比,它的采樣速度提高了 2000 倍。我們還發(fā)現(xiàn),我們的模型在樣本多樣性方面顯著優(yōu)于最先進的傳統(tǒng) GAN ,同時在樣本保真度方面具有競爭力。

pYYBAGJ2FDCAfqEmAAD2RpLuiIs773.png

圖 8 基于擴散的不同生成模型的樣本質量與采樣時間

圖 8 顯示了與 CIFAR-10 圖像建?;鶞实牟煌跀U散的生成模型的采樣時間相比,樣本質量(通過 Fr é chet Inception 距離測量;越低越好)。與其他擴散模型相比,去噪擴散 GaN 在保持相似合成質量的同時實現(xiàn)了幾個數(shù)量級的加速。

結論

擴散模型是一類很有前途的深層生成模型,因為它們結合了高質量的合成、強大的多樣性和模式覆蓋。這與常規(guī) GAN 等方法形成對比,后者很受歡迎,但樣本多樣性有限。擴散模型的主要缺點是合成速度慢。

在本文中,我們介紹了 NVIDIA 最近開發(fā)的三種技術,它們成功地解決了這一挑戰(zhàn)。有趣的是,他們每個人都從不同的角度處理問題,分析擴散模型的不同組成部分:

潛空間擴散模型 基本上簡化了數(shù)據(jù)本身,首先將其嵌入平滑的潛在空間,在那里可以訓練更有效的擴散模型。

臨界阻尼朗之萬擴散 是一種改進的前向擴散過程,特別適合于更簡單、更快的去噪和生成。

擴散算子去噪 通過表達性多峰去噪分布,直接學習顯著加速的反向去噪過程。

我們相信,擴散模型非常適合克服生成性學習的三重困境,尤其是在使用本文中強調(diào)的技術時。原則上,這些技術也可以結合使用。

事實上,擴散模型已經(jīng)在深層生成性學習方面取得了重大進展。我們預計,它們可能會在圖像和視頻處理、 3D 內(nèi)容生成和數(shù)字藝術以及語音和語言建模等領域得到實際應用。它們還將用于藥物發(fā)現(xiàn)和材料設計等領域,以及其他各種重要應用。我們認為,基于擴散的方法有可能推動下一代領先的生成模型。

最后但并非最不重要的一點是,我們是 2022 年 6 月 19 日在美國路易斯安那州新奧爾良舉行的 計算機視覺與模式識別 ( CVPR )會議期間舉辦的擴散模型、其基礎和應用教程組織委員會的成員。

關于作者

Arash Vahdat 是 NVIDIA research 的首席研究科學家,專攻計算機視覺和機器學習。在加入 NVIDIA 之前,他是 D-Wave 系統(tǒng)公司的研究科學家,從事深度生成學習和弱監(jiān)督學習。在 D-Wave 之前,阿拉什是西蒙·弗雷澤大學( Simon Fraser University , SFU )的一名研究人員,他領導了深度視頻分析的研究,并教授大數(shù)據(jù)機器學習的研究生課程。阿拉什在格雷格·莫里( Greg Mori )的指導下獲得了 SFU 的博士和理學碩士學位,致力于視覺分析的潛變量框架。他目前的研究領域包括深層生成學習、表征學習、高效神經(jīng)網(wǎng)絡和概率深層學習。

Karsten Kreis 是 NVIDIA 多倫多人工智能實驗室的高級研究科學家。在加入 NVIDIA 之前,他在 D-Wave Systems 從事深度生成建模工作,并與他人共同創(chuàng)立了變分人工智能,這是一家利用生成模型進行藥物發(fā)現(xiàn)的初創(chuàng)公司??ㄋ闺隈R克斯·普朗克光科學研究所獲得量子信息理論理學碩士學位,并在馬克斯·普朗克聚合物研究所獲得計算和統(tǒng)計物理博士學位。目前,卡斯滕的研究重點是開發(fā)新的生成性學習方法,以及將深層生成模型應用于計算機視覺、圖形和數(shù)字藝術等領域的問題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5495

    瀏覽量

    109016
  • 人工智能
    +關注

    關注

    1813

    文章

    49708

    瀏覽量

    261235
  • 機器學習
    +關注

    關注

    66

    文章

    8540

    瀏覽量

    136207
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi 2E以更低的投入、更高的效率,實現(xiàn)從模型訓練的深度突破
    的頭像 發(fā)表于 08-26 19:18 ?2547次閱讀
    英特爾Gaudi <b class='flag-5'>2</b>E AI<b class='flag-5'>加速</b>器為DeepSeek-V3.1提供<b class='flag-5'>加速</b>支持

    MSCMG無刷直流電機改進的I_f無位置起動方法

    針對磁懸浮控制力矩陀螺無刷直流電機電阻、電感值極小的特點和已有的無位置傳感器 I/f 起動算法加速階段換相精度不高且算法復雜的問題,通過分析電磁轉矩和換相時刻的關系,提出了一種改進的 I/f起動方法
    發(fā)表于 08-06 14:27

    MSCMG無刷直流電機改進的I_f無位置起動方法

    方法。該方法在電磁轉矩恒定的情況下,結合電機模型,精確計算出電機換相的具體時刻。為保證電磁轉矩恒定確保換相時刻的準確性,采用神經(jīng)網(wǎng)絡法估計反電勢系數(shù),并設計了基于三相繞組不對稱補償?shù)?b class='flag-5'>改進
    發(fā)表于 07-23 13:19

    模型推理顯存和計算量估計方法研究

    、顯存估計方法 基于模型結構的顯存估計 根據(jù)深度學習模型的層次結構和參數(shù)數(shù)量,可以估算模型在推理過程中所需的顯存大小。具體方法如下: (1)
    發(fā)表于 07-03 19:43

    請問如何通過OpenVINO?加速啟用穩(wěn)定的擴散 Web UI?

    無法運行具有OpenVINO?加速的穩(wěn)定擴散 Web UI。
    發(fā)表于 06-24 06:48

    NVIDIA GTC巴黎亮點:全新Cosmos Predict-2世界基礎模型與CARLA集成加速智能汽車訓練

    全新的 Cosmos Predict-2 世界基礎模型與 CARLA 的集成加速了智能汽車訓練。 輔助駕駛堆棧正在從許多不同的模型演變?yōu)榻y(tǒng)一的端到端架構,端到端架構可直接根據(jù)傳感器數(shù)據(jù)
    的頭像 發(fā)表于 06-12 10:00 ?923次閱讀

    改進電壓模型的異步電機無速度傳感器矢量控制

    無速度傳感器矢量控制技術能夠有效提高交流傳動系統(tǒng)的可靠性,降低系統(tǒng)成本。該技術的核心問題是準確獲取電機轉子轉速,并將其反饋到速度閉環(huán)控制環(huán)節(jié)。介紹一種采用改進模型參考自適應轉速估計方法的異步電機矢量
    發(fā)表于 05-28 15:43

    晶圓擴散清洗方法

    晶圓擴散前的清洗是半導體制造中的關鍵步驟,旨在去除表面污染物(如顆粒、有機物、金屬離子等),確保擴散工藝的均勻性和器件性能。以下是晶圓擴散清洗的主要方法及工藝要點: 一、RCA清洗工藝
    的頭像 發(fā)表于 04-22 09:01 ?1147次閱讀

    DiffusionDrive首次在端到端自動駕駛中引入擴散模型

    多樣性是提升自動駕駛魯棒性和安全性的關鍵,但現(xiàn)有方法往往受限于單一軌跡回歸或固定錨點采樣,難以全面建模駕駛決策空間。 擴散模型 (Diffusion Model) 憑借強大的多模態(tài)建模
    的頭像 發(fā)表于 03-08 13:59 ?1445次閱讀
    DiffusionDrive首次在端到端自動駕駛中引入<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>

    ASM330的速度隨機游走和加速度零偏不穩(wěn)定性參數(shù)如何獲取?

    我在手冊里只找到了陀螺儀的零偏不穩(wěn)定性和角度隨機游走,沒有看見速度隨機游走和加速度零偏不穩(wěn)定性,不知道如何獲取這個參數(shù)
    發(fā)表于 03-07 07:06

    直播預約 |數(shù)據(jù)智能系列講座第5期:理解并改進基礎模型

    鷺島論壇數(shù)據(jù)智能系列講座第5期「理解并改進基礎模型2月19日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目理解并改進基礎
    的頭像 發(fā)表于 02-11 14:33 ?677次閱讀
    直播預約 |數(shù)據(jù)智能系列講座第5期:理解并<b class='flag-5'>改進</b>基礎<b class='flag-5'>模型</b>

    NVIDIA Cosmos世界基礎模型平臺發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺由先進的生成式世界基礎模型、高級 tokenizer、護欄和加速視頻處理管線組成,將推動自動駕駛汽車(AV)和機器人等物理 AI 系統(tǒng)的發(fā)展。
    的頭像 發(fā)表于 01-08 10:39 ?1016次閱讀

    基于移動自回歸的時序擴散預測模型

    在人工智能領域,目前有很多工作采用自回歸方法來模擬或是替代擴散模型,其中視覺自回歸建模(Visual AutoRegressive modeling,簡稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?1637次閱讀
    基于移動自回歸的時序<b class='flag-5'>擴散</b>預測<b class='flag-5'>模型</b>

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機器人控制技術的另一個重要突破在于多模態(tài)大模型的應用。相比于僅通過文字進行人機交互的傳統(tǒng)方法,現(xiàn)代機器人能夠融合視覺、聲音、定位等多模態(tài)輸入信息,為任務執(zhí)行提供更加全面的感知
    發(fā)表于 12-29 23:04

    淺談加密芯片的一種破解方法和加密方案改進設計

    為了增加加密方案可靠度,設計成讓主MCU的芯片序列號ID1、產(chǎn)生的隨機數(shù)R1和加密芯片的芯片序列號ID2、產(chǎn)生的隨機數(shù)R2參與計算臨時過程秘鑰,加密芯片使用秘鑰Key對(ID1⊕RAND1⊕ID
    發(fā)表于 12-20 15:10