chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

三維場景生成:無需任何神經(jīng)網(wǎng)絡訓練,從單個樣例生成多樣結果

OpenCV學堂 ? 來源:機器之心 ? 2023-06-20 10:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

北京大學陳寶權團隊聯(lián)合山東大學和騰訊AI Lab的研究人員,提出了首個基于單樣例場景無需訓練便可生成多樣高質量三維場景的方法。

471786d2-0eb3-11ee-962d-dac502259ad0.png

多樣高質的三維場景生成結果

論文地址:https://arxiv.org/abs/2304.12670

項目主頁:http://weiyuli.xyz/Sin3DGen/

引言 使用人工智能輔助內容生成(AIGC)在圖像生成領域涌現(xiàn)出大量的工作,從早期的變分自編碼器(VAE),到生成對抗網(wǎng)絡(GAN),再到最近大紅大紫的擴散模型(Diffusion Model),模型的生成能力飛速提升。以 Stable Diffusion,Midjourney 等為代表的模型在生成具有高真實感圖像方面取得了前所未有的成果。同時,在視頻生成領域,最近也涌現(xiàn)出很多優(yōu)秀的工作,如 Runway 公司的生成模型能夠生成充滿想象力的視頻片段。這些應用極大降低了內容創(chuàng)作門檻,使得每個人都可以輕易地將自己天馬行空的想法變?yōu)楝F(xiàn)實。 但是隨著承載內容的媒介越來越豐富,人們漸漸不滿足于圖文、視頻這些二維的圖形圖像內容。隨著交互式電子游戲技術的不斷發(fā)展,特別是虛擬和增強現(xiàn)實等應用的逐步成熟,人們越來越希望能身臨其境地從三維視角與場景和物體進行互動,這帶來了對三維內容生成的更大訴求。 如何快速地生成高質量且具有精細幾何結構和高度真實感外觀的三維內容,一直以來是計算機圖形學社區(qū)研究者們重點探索的問題。通過計算機智能地進行三維內容生成,在實際生產(chǎn)應用中可以輔助游戲、影視制作中重要數(shù)字資產(chǎn)的生產(chǎn),極大地減少了美術制作人員的開發(fā)時間,大幅地降低資產(chǎn)獲取成本,并縮短整體的制作周期,也為用戶帶來千人千面的個性化視覺體驗提供了技術可能。而對于普通用戶來說,快速便捷的三維內容創(chuàng)作工具的出現(xiàn),結合如桌面級三維打印機等應用,未來將為普通消費者的文娛生活帶來更加無限的想象空間。 目前,雖然普通用戶可以通過便攜式相機等設備輕松地創(chuàng)建圖像和視頻等二維內容,甚至可以對三維場景進行建模掃描,但總體來說,高質量三維內容的創(chuàng)作往往需要有經(jīng)驗的專業(yè)人員使用如 3ds Max、Maya、Blender 等軟件手動建模和渲染,但這些有很高的學習成本和陡峭的成長曲線。 其中一大主要原因是,三維內容的表達十分復雜,如幾何模型、紋理貼圖或者角色骨骼動畫等。即使就幾何表達而言,就可以有點云、體素和網(wǎng)格等多種形式。三維表達的復雜性極大地限制了后續(xù)數(shù)據(jù)采集和算法設計。 另一方面,三維數(shù)據(jù)天然具有稀缺性,數(shù)據(jù)獲取的成本高昂,往往需要昂貴的設備和復雜的采集流程,且難以大量收集某種統(tǒng)一格式的三維數(shù)據(jù)。這使得大多數(shù)數(shù)據(jù)驅動的深度生成模型難有用武之地。 在算法層面,如何將收集到的三維數(shù)據(jù)送入計算模型,也是難以解決的問題。三維數(shù)據(jù)處理的算力開銷,要比二維數(shù)據(jù)有著指數(shù)級的增長。暴力地將二維生成算法拓展到三維,即使是最先進的并行計算處理器也難以在可接受的時間內進行處理。 上述原因導致了當前三維內容生成的工作大多只局限于某一特定類別或者只能生成較低分辨率的內容,難以應用于真實的生產(chǎn)流程中。 為了解決上述問題,北京大學陳寶權團隊聯(lián)合山東大學和騰訊 AI Lab 的研究人員,提出了首個基于單樣例場景無需訓練便可生成多樣高質量三維場景的方法。該算法具有如下優(yōu)點: 1,無需大規(guī)模的同類訓練數(shù)據(jù)和長時間的訓練,僅使用單個樣本便可快速生成高質量三維場景; 2,使用了基于神經(jīng)輻射場的 Plenoxels 作為三維表達,場景具有高真實感外觀,能渲染出照片般真實的多視角圖片。生成的場景也完美的保留了樣本中的所有特征,如水面的反光隨視角變化的效果等; 3,支持多種應用制作場景,如三維場景的編輯、尺寸重定向、場景結構類比和更換場景外觀等。 方法介紹 研究人員提出了一種多尺度的漸進式生成框架,如下圖所示。算法核心思想是將樣本場景拆散為多個塊,通過引入高斯噪聲,然后以類似拼積木的方式將其重新組合成類似的新場景。 作者使用坐標映射場這種和樣本異構的表達來表示生成的場景,使得高質量的生成變得可行。為了讓算法的優(yōu)化過程更加魯棒,該研究還提出了一種基于值和坐標混合的優(yōu)化方法。同時,為了解決三維計算的大量資源消耗問題,該研究使用了精確到近似的優(yōu)化策略,使得能在沒有任何訓練的情況下,在分鐘級的時間生成高質量的新場景。更多的技術細節(jié)請參考原始論文。

4792902a-0eb3-11ee-962d-dac502259ad0.png

隨機場景生成

4820b6e8-0eb3-11ee-962d-dac502259ad0.png

通過如左側框內的單個三維樣本場景,可以快速地生成具有復雜幾何結構和真實外觀的新場景。該方法可以處理具有復雜拓撲結構的物體,如仙人掌,拱門和石凳等,生成的場景完美地保留了樣本場景的精細幾何和高質量外觀。當前沒有任何基于神經(jīng)網(wǎng)絡的生成模型能做到相似的質量和多樣性。 高分辨率大場景生成 該方法能高效地生成極高分辨率的三維內容。如上所示,我們可以通過輸入單個左上角分辨率為 512 x 512 x 200 的三維 “千里江山圖” 的一部分,生成 1328 x 512 x 200 分辨率的 “萬里江山圖”,并渲染出 4096 x 1024 分辨率的二維多視角圖片。 真實世界無邊界場景生成

496f2ee4-0eb3-11ee-962d-dac502259ad0.png

作者在真實的自然場景上也驗證了所提出的生成方法。通過采用與 NeRF++ 類似的處理方法,顯式的將前景和天空等背景分開后,單獨對前景內容進行生成,便可在真實世界的無邊界場景中生成新場景。 其他應用場景場景編輯

49c419fe-0eb3-11ee-962d-dac502259ad0.png

使用相同的生成算法框架,通過加入人為指定限制,可以對三維場景內的物體進行刪除,復制和修改等編輯操作。如圖中所示,可以移除場景中的山并自動補全孔洞,復制生成三座山峰或者使山變得更大。 尺寸重定向

4a3b556e-0eb3-11ee-962d-dac502259ad0.png

該方法也可以對三維物體進行拉伸或者壓縮的同時,保持其局部的形狀。圖中綠色框線內為原始的樣本場景,將一列三維火車進行拉長的同時保持住窗戶的局部尺寸。 結構類比生成

4ad1dd72-0eb3-11ee-962d-dac502259ad0.png

和圖像風格遷移類似,給定兩個場景 A 和 B,我們可以創(chuàng)建一個擁有 A 的外觀和幾何特征,但是結構與 B 相似的新場景。如我們可以參考一座雪山將另一座山變?yōu)槿S雪山。 更換樣本場景

4b649522-0eb3-11ee-962d-dac502259ad0.png

由于該方法對生成場景采用了異構表達,通過簡單地修改其映射的樣本場景,便可生成更加多樣的新場景。如使用同一個生成場景映射場 S,映射不同時間或季節(jié)的場景,得到了更加豐富的生成結果。 總結 這項工作面向三維內容生成領域,首次提出了一種基于單樣本的三維自然場景生成模型,嘗試解決當前三維生成方法中數(shù)據(jù)需求大、算力開銷多、生成質量差等問題。該工作聚焦于更普遍的、語義信息較弱的自然場景,更多的關注生成內容的多樣性和質量。算法主要受傳統(tǒng)計算機圖形學中紋理圖像生成相關的技術,結合近期的神經(jīng)輻射場,能快速地生成高質量三維場景,并展示了多種實際應用。 未來展望 該工作有較強的通用性,不僅能結合當前的神經(jīng)表達,也適用于傳統(tǒng)的渲染管線幾何表達,如多邊形網(wǎng)格 (Mesh)。我們在關注大型數(shù)據(jù)和模型的同時,也應該不時地回顧傳統(tǒng)的圖形學工具。研究人員相信,不久的未來,在 3D AIGC 領域,傳統(tǒng)的圖形學工具結合高質量的神經(jīng)表達以及強力的生成模型,將會碰撞出更絢爛的火花,進一步推進三維內容生成的質量和速度,解放人們的創(chuàng)造力。 這一研究得到了廣大網(wǎng)友的討論: 有網(wǎng)友表示:(這項研究)對于游戲開發(fā)來說十分棒,只需要建模單個模型就能生成很多新的版本。

4b923d10-0eb3-11ee-962d-dac502259ad0.png

對于上述觀點,有人表示完全同意,游戲開發(fā)者、個人和小公司可以從這類模型中得到幫助。

4bbdc44e-0eb3-11ee-962d-dac502259ad0.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4819

    瀏覽量

    106044
  • 三維
    +關注

    關注

    1

    文章

    519

    瀏覽量

    29770
  • 人工智能
    +關注

    關注

    1811

    文章

    49492

    瀏覽量

    258118

原文標題:CVPR 2023 | 三維場景生成:無需任何神經(jīng)網(wǎng)絡訓練,從單個樣例生成多樣結果

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經(jīng)網(wǎng)絡50

    神經(jīng)網(wǎng)絡50
    發(fā)表于 11-28 16:49

    神經(jīng)網(wǎng)絡解決方案讓自動駕駛成為現(xiàn)實

    、成本及功耗的要求。輕型嵌入式神經(jīng)網(wǎng)絡卷積式神經(jīng)網(wǎng)絡 (CNN) 的應用可分為個階段:訓練、轉化及 CNN 在生產(chǎn)就緒解決方案中的執(zhí)行。要想獲得一個高性價比、針對大規(guī)模車輛應用的高效
    發(fā)表于 12-21 17:11

    非局部神經(jīng)網(wǎng)絡,打造未來神經(jīng)網(wǎng)絡基本組件

    時空記憶。增加了幾個非局部模塊后,我們的“非局部神經(jīng)網(wǎng)絡”結構能比二三維卷積網(wǎng)絡在視頻分類中取得更準確的結果。另外,非局部
    發(fā)表于 11-12 14:52

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    神經(jīng)網(wǎng)絡在學習新知識的同時要保持對之前學習的知識的記憶,而不是狗熊掰棒子SOM神經(jīng)網(wǎng)絡是一種競爭學習型的無監(jiān)督神經(jīng)網(wǎng)絡,它能將高輸入數(shù)據(jù)映射到低維空間(通常為二
    發(fā)表于 07-21 04:30

    卷積神經(jīng)網(wǎng)絡卷積的處理過程

    。本文就以一卷積神經(jīng)網(wǎng)絡談談怎么來進一步優(yōu)化卷積神經(jīng)網(wǎng)絡使用的memory。文章(卷積神經(jīng)網(wǎng)絡中一
    發(fā)表于 12-23 06:16

    如何進行高效的時序圖神經(jīng)網(wǎng)絡訓練

    訓練過程與數(shù)據(jù)傳輸過程進行流水線化處理。具體來說,我們將GPU的顯存劃分為部分:第一部分存儲固定的數(shù)據(jù)(神經(jīng)網(wǎng)絡參數(shù)以及源點的特征向量),第二部分存儲當前神經(jīng)網(wǎng)絡
    發(fā)表于 09-28 10:37

    卷積神經(jīng)網(wǎng)絡簡介:什么是機器學習?

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來越多地支持以前無法實現(xiàn)或非常難以實現(xiàn)的應用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡 (CNN) 及其在 AI 系統(tǒng)中機器學習中的重要性。CNN 是
    發(fā)表于 02-23 20:11

    基于BP神經(jīng)網(wǎng)絡的電路最優(yōu)測試集的生成設計

    BP 神經(jīng)網(wǎng)絡是目前用于模擬電路故障診斷的神經(jīng)網(wǎng)絡之一。本文應用BP 神經(jīng)網(wǎng)絡完成了實際電路最優(yōu)測試集的生成設計,驗證了基于BP 神經(jīng)網(wǎng)絡
    發(fā)表于 12-16 16:08 ?9次下載

    BP神經(jīng)網(wǎng)絡的電路最優(yōu)測試集的生成設計

    BP神經(jīng)網(wǎng)絡的電路最優(yōu)測試集的生成設計 1 引言   人工神經(jīng)網(wǎng)絡是基于模仿生物大腦的結構和功能而構成的一種信息處理系統(tǒng)。國際著名 的神經(jīng)網(wǎng)絡專家Hecht N
    發(fā)表于 02-02 10:35 ?1474次閱讀
    BP<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的電路最優(yōu)測試集的<b class='flag-5'>生成</b>設計

    基于神經(jīng)網(wǎng)絡的路徑覆蓋測試數(shù)據(jù)生成方法

    間.為了降低運行程序帶來的時間消耗,提出一種基于神經(jīng)網(wǎng)絡的路徑覆蓋測試數(shù)據(jù)進化生成方法,主要思想是:首先,利用一定樣本訓練神經(jīng)網(wǎng)絡,以模擬個體的適應值;在利用遺傳算法
    發(fā)表于 01-15 11:35 ?0次下載
    基于<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的路徑覆蓋測試數(shù)據(jù)<b class='flag-5'>生成</b>方法

    卷積神經(jīng)網(wǎng)絡結構_卷積神經(jīng)網(wǎng)絡訓練過程

    (channel)。比如黑白圖片的深度為1,而在RGB色彩模式下,圖像的深度為3。輸入層開始,卷積神經(jīng)網(wǎng)絡通過不同的神經(jīng)網(wǎng)絡結構下將上一層的三維矩陣轉化為下一層的
    的頭像 發(fā)表于 05-11 17:02 ?2w次閱讀
    卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>結構_卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>訓練</b>過程

    卷積神經(jīng)網(wǎng)絡模型訓練步驟

    卷積神經(jīng)網(wǎng)絡模型訓練步驟? 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)是一種常用的深度學習算法,廣泛應用于圖像識別、語音識別、自然語言處理等諸多領域。CNN
    的頭像 發(fā)表于 08-21 16:42 ?2460次閱讀

    cnn卷積神經(jīng)網(wǎng)絡模型 卷積神經(jīng)網(wǎng)絡預測模型 生成卷積神經(jīng)網(wǎng)絡模型

    cnn卷積神經(jīng)網(wǎng)絡模型 卷積神經(jīng)網(wǎng)絡預測模型 生成卷積神經(jīng)網(wǎng)絡模型? 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network
    的頭像 發(fā)表于 08-21 17:11 ?1812次閱讀

    生成式AI與神經(jīng)網(wǎng)絡模型的區(qū)別和聯(lián)系

    生成式AI與神經(jīng)網(wǎng)絡模型是現(xiàn)代人工智能領域的兩個核心概念,它們在推動技術進步和應用拓展方面發(fā)揮著至關重要的作用。本文將詳細探討生成式AI與神經(jīng)網(wǎng)絡模型的定義、特點、區(qū)別、聯(lián)系以及它們在
    的頭像 發(fā)表于 07-02 15:03 ?2047次閱讀

    基于神經(jīng)網(wǎng)絡的全息圖生成算法

    全息圖生成技術作為光學與計算機科學交叉領域的重要研究方向,近年來隨著神經(jīng)網(wǎng)絡技術的飛速發(fā)展,取得了顯著進展。基于神經(jīng)網(wǎng)絡的全息圖生成算法,以其強大的非線性擬合能力和高效的計算性能,為全
    的頭像 發(fā)表于 07-09 15:54 ?1256次閱讀