chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度預測模型推斷移動中的人的場景深度

電子工程師 ? 來源:YXQ ? 2019-05-27 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。

當攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設(shè)需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標本身是靜止狀態(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(將移動目標的深度固定為“零”),要么直接忽略移動目標(會導致深度值發(fā)生錯誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學習的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標都可以自由移動。模型從數(shù)據(jù)中學習人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學習進行深度預測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標都在運動的狀態(tài)下的基于學習的方法。

本研究中的觀察目標是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標。

我們的模型可以預測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓練數(shù)據(jù)

我們以監(jiān)督學習的方式訓練深度預測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學習:即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持攝像機則在現(xiàn)場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預測模型的訓練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當于單幀圖像)。雖然這種模型改進了用于深度預測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結(jié)果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負責對訓練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡(luò)可以通過觀察多個訓練樣例,在模型內(nèi)部學習這些先驗知識。經(jīng)過訓練后,模型就可以處理任意攝像頭和人體同時運動的視頻。

來看一段介紹視頻:

以下是基于視頻的深度預測模型結(jié)果的一些示例,并與最近基于最新學習的方法做了比較。

上圖:基于學習的單眼深度預測方法。 下圖:基于學習的立體方法(DeMoN)和我們的估計深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111506
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124434

原文標題:Google AI:機器學習預測場景深度圖,模擬人眼更進一步

文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    銀河通用機器人拿下1000 臺機器人訂單,推進具身智能工業(yè)場景深度應用

    模型技術(shù)+場景深耕的雙輪驅(qū)動,銀河通用機器人成中國具身第一 北京2025年12月23日 /美通社/ -- 12月22日,銀河通用機器人(以下簡稱"銀河通用")與精密制造的領(lǐng)先工業(yè)企業(yè)百達精工
    的頭像 發(fā)表于 12-23 18:24 ?1557次閱讀
    銀河通用機器人拿下1000 臺機器人訂單,推進具身智能工業(yè)<b class='flag-5'>場景深度</b>應用

    模型賦能物資需求精準預測與采購系統(tǒng)軟件平臺

    、功能模塊、應用場景、優(yōu)勢與挑戰(zhàn)、未來方向五維度精簡解析: ? ?應用案例 ? ?目前,已有多個大模型賦能物資需求精準預測與采購平臺系統(tǒng)在實際應用取得了顯著成效。例如,北京華盛恒輝和
    的頭像 發(fā)表于 12-17 16:37 ?294次閱讀

    模型賦能物資需求精準預測與采購系統(tǒng):功能特點與平臺架構(gòu)解析

    ? ? 大模型賦能物資需求預測與采購智能化:核心功能與價值解析 ? ?大模型賦能物資需求精準預測與采購系統(tǒng)通過深度整合多源數(shù)據(jù)、構(gòu)建動態(tài)
    的頭像 發(fā)表于 12-16 11:54 ?322次閱讀

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領(lǐng)域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學習的外觀質(zhì)量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?232次閱讀

    景深顯微鏡在材料學的應用

    算法融合與三維重建,合成全深度清晰的圖像,徹底解決“局部清晰、整體模糊”的痛點。下文,光子灣科技將詳細介紹超景深顯微鏡在材料科學的應用。#Photonixbay.
    的頭像 發(fā)表于 11-11 18:03 ?1384次閱讀
    超<b class='flag-5'>景深</b>顯微鏡在材料學<b class='flag-5'>中</b>的應用

    FOSAN富捷科技:多元場景深度賦能,釋放半導體器件核心價值

    作為 FOSAN 富捷科技集團旗下專注半導體領(lǐng)域的核心企業(yè),安徽富信半導體科技有限公司憑借豐富的半導體分立器件產(chǎn)品線與場景化解決方案能力,深度滲透 BMS 電池管理、儲能電源、智能裝備、消費
    的頭像 發(fā)表于 09-08 14:45 ?959次閱讀
    FOSAN富捷科技:多元<b class='flag-5'>場景深度</b>賦能,釋放半導體器件核心價值

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉(zhuǎn)自:騰訊技術(shù)工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數(shù)學解決了工業(yè)場景的問題,筆者基于過往工程經(jīng)驗
    的頭像 發(fā)表于 09-02 13:34 ?3488次閱讀
    3萬字長文!<b class='flag-5'>深度</b>解析大語言<b class='flag-5'>模型</b>LLM原理

    自動駕駛Transformer大模型會取代深度學習嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學習”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4215次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大<b class='flag-5'>模型</b>會取代<b class='flag-5'>深度</b>學習嗎?

    毫米之間定成敗:PCB背鉆深度設(shè)計與生產(chǎn)如何精準把控

    。 PCB 背鉆(Back Drilling)的核心目的是去除多層板中導通孔(Via)在深層多余的 “stub”(未連接的孔壁鍍層殘留),以減少高頻信號傳輸的反射、損耗和串擾。背鉆深度的精準控制直接影響其
    發(fā)表于 07-28 14:20

    晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預測控制

    摘要:本文針對超薄晶圓切割過程 TTV 均勻性控制難題,研究晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預測控制方法。分析影響切割深度
    的頭像 發(fā)表于 07-23 09:54 ?585次閱讀
    晶圓切割<b class='flag-5'>深度</b>動態(tài)補償?shù)闹悄軟Q策<b class='flag-5'>模型</b>與 TTV <b class='flag-5'>預測</b>控制

    寧暢與與百度文心大模型展開深度技術(shù)合作

    與部署。 憑借覆蓋訓練、推理、微調(diào)全流程的AI?服務(wù)器產(chǎn)品矩陣,寧暢幫助企業(yè)在大模型時代一鍵打通算力與應用“任督二脈”,顯著縮短模型落地周期。 在已啟動的深度技術(shù)合作,雙方將基于文心
    的頭像 發(fā)表于 07-07 16:26 ?886次閱讀

    模型推理顯存和計算量估計方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學習模型進行預測或分類的過程。然而,大模型的推理過程對顯存和計算資源的需求較
    發(fā)表于 07-03 19:43

    存儲示波器的存儲深度對信號分析有什么影響?

    存儲深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程能夠記錄的采樣點數(shù)量。存儲深度對信號分析的影響貫穿時域細節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定性等多個維度
    發(fā)表于 05-27 14:39

    摩爾線程與當虹科技達成深度合作

    近日,摩爾線程與當虹科技達成深度合作,基于國產(chǎn)GPU成功完成了與BlackEye多模態(tài)視聽大模型深度融合。雙方聯(lián)手打造專業(yè)級視聽“引擎”,并在超高清GPU算力場景
    的頭像 發(fā)表于 03-20 15:22 ?1523次閱讀

    【AIBOX 應用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預測場景深度信息的技術(shù),廣泛應用于計算機視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知
    的頭像 發(fā)表于 03-19 16:33 ?1133次閱讀
    【AIBOX 應用案例】單目<b class='flag-5'>深度</b>估計