chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)團(tuán)隊(duì)使用深度學(xué)習(xí),能將任意視頻變?yōu)椤案咔迓俨シ拧蹦J?/h1>

英偉達(dá)團(tuán)隊(duì)CVPR-18論文Super SloMo使用深度學(xué)習(xí),能將任意視頻變?yōu)椤案咔迓俨シ拧蹦J?,從此不再錯(cuò)過(guò)任何細(xì)節(jié)。今天有人開(kāi)源了PyTorch實(shí)現(xiàn),趕緊來(lái)試試吧!

總有那么一些細(xì)節(jié),你瞪大雙眼拼了命想看清卻依然奈不了何,比如下面這個(gè):

跟得上球嗎?要看清男子羽毛球比賽的細(xì)節(jié)實(shí)在不容易

有時(shí)候想盯住飛來(lái)飛去的羽毛球,非常吃力,這就是人類肉眼的極限。

你或許會(huì)說(shuō),好解決啊,用慢速回放功能就行了。

確實(shí)可以回放,但慢速回放的前提,是攝像機(jī)一開(kāi)始就捕捉到了這些細(xì)節(jié)。如今,一些大型體育賽事已經(jīng)用上了工業(yè)高速攝像頭,為的就是在裁判的裁決引發(fā)爭(zhēng)議時(shí),可以用慢鏡頭回放來(lái)判定結(jié)果。

但是,沒(méi)有專業(yè)的高速攝像頭怎么辦?

像我們用智能手機(jī)拍的視頻,記錄下生活中很多美好,隨風(fēng)飄逝的晚霞,又或者池塘濺起的漣漪,還有孩子們?cè)谟境乩餄娝覒颍绻寄軌蚍怕擞^看,必將帶來(lái)全新的感受。

正因如此,當(dāng)今年計(jì)算機(jī)視覺(jué)頂會(huì)CVPR舉行時(shí),英偉達(dá)團(tuán)隊(duì)的一篇能讓手機(jī)拍攝的視頻也“高清慢速播放”的論文,在業(yè)界引發(fā)了很大的反響。

這項(xiàng)被稱為Super SloMo的工作,使用深度神經(jīng)網(wǎng)絡(luò),對(duì)視頻中缺失的幀進(jìn)行預(yù)測(cè)并補(bǔ)全,從而生成連續(xù)慢速回放的效果。

更贊的是,他們提出的方法,能夠排除原視頻幀當(dāng)中被遮擋的像素,從而避免在生成的內(nèi)插中間幀里產(chǎn)生模糊的偽像(artifact)。

值得一提,這篇論文的第一作者,是本碩畢業(yè)于西安交通大學(xué)、現(xiàn)在馬薩諸塞大學(xué)阿默斯特分校讀博四的Huaizu Jiang。第二作者Deqing Sun是英偉達(dá)學(xué)習(xí)與感知研究小組的高級(jí)研究員,本科畢業(yè)于哈工大,碩士讀的港中文,在布朗大學(xué)取得博士學(xué)位后,在哈佛Hanspeter Pfister教授的視覺(jué)研究小組做過(guò)博士后。

感受一下Super-SloMo生成的“慢速回放”效果:

注意,左右兩邊都是Super SloMo生成的視頻。左邊是原始慢速視頻,右邊是將這個(gè)結(jié)果再放慢4倍的效果,如果不告訴你中間的細(xì)節(jié)(幀)是神經(jīng)網(wǎng)絡(luò)生成的,你會(huì)不會(huì)把它們當(dāng)做真的慢速回放?來(lái)源:Huaizu Jiang個(gè)人主頁(yè)

實(shí)際用手機(jī)拍攝的畫面是這樣的,對(duì)比后,意識(shí)到Super SloMo補(bǔ)充多少細(xì)節(jié)了嗎?

論文作者稱,他們能將30FPS(畫面每秒幀數(shù))的視頻變?yōu)?80FPS,也即每秒幀數(shù)增加了16倍。

根據(jù)Super SloMo項(xiàng)目主頁(yè),作者表示,使用他們未經(jīng)優(yōu)化的PyTorch代碼,在單個(gè)NVIDIA GTX 1080Ti 和 Tesla V100 GPU上,生成7個(gè)分辨率為1280*720的中間幀,分別只需要0.97秒和0.79秒。(補(bǔ)充說(shuō)明:從標(biāo)準(zhǔn)序列30-fps生成240-fps視頻,一般需要在兩個(gè)連續(xù)幀內(nèi)插入7個(gè)中間幀。)

效果當(dāng)然稱得上驚艷。然而,令很多人失望的是,論文發(fā)布時(shí)并沒(méi)有將代碼和數(shù)據(jù)集公開(kāi),盡管作者表示可以聯(lián)系 Huaizu Jiang 獲取部分原始資料。

僅在論文中提到的數(shù)據(jù)和示例。來(lái)源:Super SloMo論文

今天,有人在 Github 上開(kāi)源了他對(duì) Super-SloMo 的 PyTorch 實(shí)現(xiàn)。這位ID為atplwl的Reddit用戶,在作者提供的adobe24fps數(shù)據(jù)集上預(yù)訓(xùn)練的模型(下圖中pretrained mine),實(shí)現(xiàn)了與論文描述相差無(wú)幾的結(jié)果。

o4YBAFwmzh-AGS4vAABiFvhcsog188.png

現(xiàn)在,這個(gè)預(yù)訓(xùn)練模型,還有相關(guān)的代碼、數(shù)據(jù)集,以及實(shí)現(xiàn)條件,都能在GitHub上查到。

自稱新手的atplwl表示,他目前在努力完善這個(gè)GitHub庫(kù),接下來(lái)預(yù)計(jì)添加一個(gè)PyThon腳本,將視頻轉(zhuǎn)換為更高的fps視頻,歡迎大家提供建議。

Super SloMo PyTorch實(shí)現(xiàn)地址(點(diǎn)擊閱讀原文訪問(wèn)):https://github.com/avinashpaliwal/Super-SloMo

Super SloMo:將任意視頻變?yōu)椤案咔迓俨シ拧?/p>

代碼在手,再看論文——前文已經(jīng)說(shuō)過(guò),從已有視頻中生成高清慢速視頻是一件非常有意義的事情。

除了專業(yè)的高速攝像機(jī)尚未普及到每個(gè)人手里,人們用手機(jī)拍攝的視頻 (一般為240FPS) 想要放慢的時(shí)刻是不可預(yù)測(cè)的,要實(shí)現(xiàn)這一點(diǎn)就不得不用標(biāo)準(zhǔn)幀速率來(lái)記錄所有視頻,但這樣做需要的內(nèi)存過(guò)大,對(duì)移動(dòng)設(shè)備來(lái)說(shuō)耗電量也花不起。

現(xiàn)在,計(jì)算機(jī)視覺(jué)領(lǐng)域,除了將標(biāo)準(zhǔn)視頻轉(zhuǎn)換為更高的幀速率之外,還可以使用視頻插值來(lái)生成平滑的視圖轉(zhuǎn)換。在自監(jiān)督學(xué)習(xí)中,這也可以作為監(jiān)控信號(hào)來(lái)學(xué)習(xí)未標(biāo)記視頻的光流。

不過(guò),生成多個(gè)中間視頻幀 (intermediate video frame) 是具有挑戰(zhàn)性的,因?yàn)閹仨氃诳臻g和時(shí)間上是連貫的。例如,從30-fps標(biāo)準(zhǔn)序列生成240-fps視頻,需要在兩個(gè)連續(xù)幀內(nèi)插入7個(gè)中間幀。

成功的解決方案不僅要正確解釋兩個(gè)輸入圖像之間的運(yùn)動(dòng)(隱式或顯式),還要理解遮擋 (occlusion)。 否則,就可能導(dǎo)致插值幀中產(chǎn)生嚴(yán)重的偽像,尤其是在運(yùn)動(dòng)邊界附近。

現(xiàn)有方法主要集中于單幀視頻插值,而且已經(jīng)取得了不錯(cuò)的進(jìn)展。然而,這些方法不能直接用于生成任意高幀率視頻。

雖然遞歸地應(yīng)用單幀視頻插值方法生成多個(gè)中間幀是一個(gè)很不錯(cuò)的想法,但這種方法至少有兩個(gè)限制:

首先,遞歸單幀插值不能完全并行化,速度較慢,因?yàn)橛行窃谄渌麕瓿珊蟛胚M(jìn)行計(jì)算的(例如,在七幀插值中,幀2取決于0和4,而幀4取決于0和8)。

其次,它只能生成2i-1個(gè)中間幀。因此,不能使用這種方法有效生地生成1008 - fps 24幀的視頻,這需要生成41中間幀。

論文Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation提出了一種高質(zhì)量的變長(zhǎng)多幀插值方法,該方法可以在兩幀之間的任意時(shí)間步長(zhǎng)進(jìn)行插值。

其主要思想是,將輸入的兩幅圖像扭曲到特定的時(shí)間步長(zhǎng),然后自適應(yīng)地融合這兩幅扭曲圖像,生成中間圖像,其中的運(yùn)動(dòng)解釋和遮擋推理在單個(gè)端到端可訓(xùn)練網(wǎng)絡(luò)中建模。

Super SloMo效果展示:注意在放慢過(guò)渡區(qū)域?qū)蜗竦奶幚怼?/p>

具體來(lái)說(shuō),首先使用流量計(jì)算CNN來(lái)估計(jì)兩幅輸入圖像之間的雙向光流,然后線性融合來(lái)近似所需的中間光流,從而使輸入圖像發(fā)生扭曲。這種近似方法適用于光滑區(qū)域,但不適用于運(yùn)動(dòng)邊界。

因此,Super SloMo 論文作者使用另一個(gè)流量插值CNN來(lái)細(xì)化流近似并預(yù)測(cè)軟可見(jiàn)性圖。

通過(guò)在融合之前將可見(jiàn)性圖應(yīng)用于變形圖像,排除了被遮擋像素對(duì)內(nèi)插中間幀的貢獻(xiàn),從而減少了偽像。

Super SloMo網(wǎng)絡(luò)架構(gòu)

“我們的流計(jì)算和插值網(wǎng)絡(luò)的參數(shù)都獨(dú)立于被插值的具體時(shí)間步長(zhǎng),是流插值網(wǎng)絡(luò)的輸入。因此,我們的方法可以并行生成任意多的中間幀?!弊髡咴谡撐闹袑懙馈?/p>

為了訓(xùn)練該網(wǎng)絡(luò),團(tuán)隊(duì)從YouTube和手持?jǐn)z像機(jī)收集了240-fps的視頻。總量有1.1K視頻剪輯,由300K個(gè)獨(dú)立視頻幀組成,典型分辨率為1080×720。

然后,團(tuán)隊(duì)在其他幾個(gè)需要不同插值數(shù)量的獨(dú)立數(shù)據(jù)集上評(píng)估了訓(xùn)練模型,包括Middlebury 、 UCF101 、慢流(slowflow)數(shù)據(jù)集和高幀率(high-frame-rate) MPI Sintel。

實(shí)驗(yàn)結(jié)果表明,該方法明顯優(yōu)于所有數(shù)據(jù)集上的現(xiàn)有方法。 團(tuán)隊(duì)還在KITTI 2012光流基準(zhǔn)上評(píng)估了無(wú)監(jiān)督(自監(jiān)督)光流結(jié)果,并獲得了比現(xiàn)有最近方法更好的結(jié)果。

Super SloMo項(xiàng)目主頁(yè):https://people.cs.umass.edu/~hzjiang/projects/superslomo/

Super SloMo PyTorch實(shí)現(xiàn)Github地址:

https://github.com/avinashpaliwal/Super-SloMo

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4831

    瀏覽量

    107223
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5594

    瀏覽量

    124142
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14781

原文標(biāo)題:干掉高速攝像頭!神經(jīng)網(wǎng)絡(luò)生成極慢視頻,突破人類肉眼極限(PyTorch實(shí)現(xiàn))

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    麥格納宣布擴(kuò)大與英偉達(dá)的戰(zhàn)略合作

    麥格納宣布擴(kuò)大與英偉達(dá)的戰(zhàn)略合作,為整車廠基于英偉達(dá)DRIVE Hyperion平臺(tái)的項(xiàng)目落地提供支持。
    的頭像 發(fā)表于 01-09 12:59 ?254次閱讀

    英偉達(dá)重磅出手!AI 推理存儲(chǔ)全面覺(jué)醒

    許可合作,將采用Groq的推理技術(shù)。 ? 隨后,Groq公司宣布已與英偉達(dá)就其推理技術(shù)達(dá)成非獨(dú)家許可協(xié)議。根據(jù)協(xié)議條款,Groq創(chuàng)始人喬納森·羅斯(Jonathan Ross)、總裁桑尼·馬達(dá)拉(Sunny Madra)及其他核心團(tuán)隊(duì)
    的頭像 發(fā)表于 12-26 08:44 ?1w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>重磅出手!AI 推理存儲(chǔ)全面覺(jué)醒

    深度剖析DS90UH925AQ-Q1:汽車娛樂(lè)系統(tǒng)中的高清視頻傳輸利器

    深度剖析DS90UH925AQ-Q1:汽車娛樂(lè)系統(tǒng)中的高清視頻傳輸利器 在汽車娛樂(lè)系統(tǒng)的設(shè)計(jì)領(lǐng)域,可靠且高效的高清視頻傳輸解決方案至關(guān)重要。
    的頭像 發(fā)表于 12-22 17:35 ?396次閱讀

    NVIDIA新聞:英偉達(dá)10億美元入股諾基亞 英偉達(dá)推出全新量子設(shè)備

    給大家分享一些NVIDIA新聞: 英偉達(dá)10億美元入股諾基亞 在當(dāng)?shù)貢r(shí)間10月28日,英偉達(dá)正式宣布將以10億美元入股諾基亞;據(jù)悉英偉
    的頭像 發(fā)表于 10-29 17:12 ?1503次閱讀

    英偉達(dá)自研HBM基礎(chǔ)裸片

    電子發(fā)燒友網(wǎng)綜合報(bào)道,據(jù)臺(tái)媒消息,傳聞英偉達(dá)已開(kāi)始開(kāi)發(fā)自己的HBM基礎(chǔ)裸片,預(yù)計(jì)英偉達(dá)的自研HBM基礎(chǔ)裸片采用3nm工藝制造,計(jì)劃在2027年下半年進(jìn)行小批量試產(chǎn)。并且這一時(shí)間點(diǎn)大致對(duì)
    的頭像 發(fā)表于 08-21 08:16 ?2635次閱讀

    國(guó)家網(wǎng)信辦約談英偉達(dá)

    近日,英偉達(dá)算力芯片被曝出存在嚴(yán)重安全問(wèn)題。此前,美議員呼吁要求美出口的先進(jìn)芯片必須配備“追蹤定位”功能。美人工智能領(lǐng)域?qū)<彝嘎叮?b class='flag-5'>英偉達(dá)算力芯片“追蹤定位”“遠(yuǎn)程關(guān)閉”技術(shù)已成熟。為維
    的頭像 發(fā)表于 07-31 13:56 ?2633次閱讀
    國(guó)家網(wǎng)信辦約談<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>

    擺脫依賴英偉達(dá)!OpenAI首次轉(zhuǎn)向使用谷歌芯片

    地使用非英偉達(dá)芯片,更顯示出其正在逐步擺脫對(duì)英偉達(dá)芯片的深度依賴,在算力布局上邁出了重要戰(zhàn)略調(diào)整的一步。 ? OpenAI 依賴
    的頭像 發(fā)表于 07-02 00:59 ?8183次閱讀

    施耐德電氣與英偉達(dá)深化合作

    近日,施耐德電氣宣布與英偉達(dá)深化合作,旨在滿足市場(chǎng)對(duì)可持續(xù)、AI就緒基礎(chǔ)設(shè)施日益增長(zhǎng)的需求。
    的頭像 發(fā)表于 06-24 15:02 ?1043次閱讀

    特朗普要叫停英偉達(dá)對(duì)華特供版 英偉達(dá)H20出口限制 或損失55億美元

    據(jù)外媒報(bào)道,英偉達(dá)公司發(fā)布了一項(xiàng)通知稱,美國(guó)政府于9日告知英偉達(dá)公司;特供版的H20芯片出口到中國(guó)需要許可證,緊接著在14日又告知英偉
    的頭像 發(fā)表于 04-16 16:59 ?1995次閱讀

    英偉達(dá)Cosmos-Reason1 模型深度解讀

    英偉達(dá)近期發(fā)布的 Cosmos-Reason1 模型在物理常識(shí)推理領(lǐng)域引發(fā)廣泛關(guān)注。作為專為物理世界交互設(shè)計(jì)的多模態(tài)大語(yǔ)言模型,它通過(guò)融合視覺(jué)感知與復(fù)雜邏輯推理,重新定義了AI對(duì)物理世界的理解邊界
    的頭像 發(fā)表于 03-29 23:29 ?2827次閱讀

    深度解讀英偉達(dá)Newton機(jī)器人平臺(tái):技術(shù)革新與跨界生態(tài)構(gòu)建

    :高性能物理引擎與AI融合 Newton是英偉達(dá)聯(lián)合Google DeepMind和迪士尼研究院共同開(kāi)發(fā)的 開(kāi)源物理引擎 ,專為機(jī)器人學(xué)習(xí)與仿真優(yōu)化設(shè)計(jì)。其核心技術(shù)特點(diǎn)包括: 多
    的頭像 發(fā)表于 03-20 15:15 ?2700次閱讀
    <b class='flag-5'>深度</b>解讀<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>Newton機(jī)器人平臺(tái):技術(shù)革新與跨界生態(tài)構(gòu)建

    英偉達(dá)市值一夜蒸發(fā)近2萬(wàn)億 英偉達(dá)股價(jià)下跌超8%

    在美東時(shí)間周一,美股三大指數(shù)集體收跌,截至收盤,英偉達(dá)股價(jià)下跌超8%,英偉達(dá)市值一夜蒸發(fā)2650億美元(換算下來(lái)約合人民幣19345億元);目前英偉
    的頭像 發(fā)表于 03-04 10:19 ?1060次閱讀

    英偉達(dá)發(fā)布DeepSeek R1于NIM平臺(tái)

    英偉達(dá)近日宣布,其DeepSeek R1 671b版本已正式上線英偉達(dá)NIM(NVIDIA Inference Microservices)平臺(tái),并以預(yù)覽版的形式在build.nvid
    的頭像 發(fā)表于 02-05 14:48 ?1012次閱讀

    英偉達(dá)介紹RTX 5090 FE 顯卡

    北京時(shí)間1月23日,英偉達(dá)GeForce官方發(fā)布視頻,詳細(xì)介紹了RTX 5090 Founders Edition(FE)顯卡的設(shè)計(jì)。 在PCB設(shè)計(jì)方面,RTX 5090 FE采用獨(dú)特的四部分結(jié)構(gòu)
    的頭像 發(fā)表于 01-24 15:44 ?1763次閱讀