chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出能一次生成完整視頻的擴(kuò)散模型

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-01-29 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌研究院近日發(fā)布了一款名為Lumiere的文生視頻擴(kuò)散模型,基于自家研發(fā)的Space-Time U-Net基礎(chǔ)架構(gòu),獨(dú)立生成具有高效、完整且動作連貫性的視頻效果。

該公司指出,當(dāng)前眾多文生視頻模型普遍存在無法生成長時、高品質(zhì)及動作連貫的問題。這些模型往往采用“分段生成視頻”策略,即先生成少量關(guān)鍵幀,再借助時間超級分辨率(TSM)技術(shù)生成其間的視頻文件。盡管此策略可減緩RAM負(fù)擔(dān),但難以生成理想的連續(xù)視頻效果。

針對此問題,谷歌的Lumiere模型創(chuàng)新地引入了新型Space-Time U-Net基礎(chǔ)架構(gòu),這種架構(gòu)能在空間和時間兩個維度同時降低信號采樣率,使其具備更高的計算效率,進(jìn)而實現(xiàn)生成更具持續(xù)性、動作連貫的視頻效果。

此外,開發(fā)者們特別說明,Lumiere每次可生成80幀視頻(在16FPS模式下相當(dāng)于5秒視頻,或在24FPS模式下為約3.34秒視頻)。盡管這一時光貌似短暫,然而他們強(qiáng)調(diào),事實上,這段5秒視頻所包含的鏡頭時長已超出大多數(shù)媒體作品中單一鏡頭的平均時長。

除運(yùn)用架構(gòu)創(chuàng)新以外,作為AI構(gòu)建基礎(chǔ)的預(yù)訓(xùn)練文生圖像模型也得到了谷歌團(tuán)隊的特別關(guān)注。該模型首次生成簡單像素草稿作為視頻分幀,然后借助空間超分辨率(SRM)模型,逐步提高分幀分辨率,同時引入通用生成框架Multi-Diffusion以增強(qiáng)模型穩(wěn)定性,從而確保最終輸出的視頻效果一致且連續(xù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6238

    瀏覽量

    109833
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1396

    瀏覽量

    119253
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37022

    瀏覽量

    290055
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3611

    瀏覽量

    51428
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    種基于擴(kuò)散模型視頻生成框架RoboTransfer

    在機(jī)器人操作領(lǐng)域,模仿學(xué)習(xí)是推動具身智能發(fā)展的關(guān)鍵路徑,但高度依賴大規(guī)模、高質(zhì)量的真實演示數(shù)據(jù),面臨高昂采集成本與效率瓶頸。仿真器雖提供了低成本數(shù)據(jù)生成方案,但顯著的“模擬到現(xiàn)實”(Sim2Real)鴻溝,制約了仿真數(shù)據(jù)訓(xùn)練策略的泛化能力與落地應(yīng)用。
    的頭像 發(fā)表于 07-09 14:02 ?490次閱讀
    <b class='flag-5'>一</b>種基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的<b class='flag-5'>視頻生成</b>框架RoboTransfer

    谷歌生成式AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新一生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?725次閱讀

    一次消諧裝置與二消諧裝置區(qū)別、一次消諧器與二消諧器的區(qū)別

    一次消諧器與二消諧器是電力系統(tǒng)中用于抑制諧振過電壓的不同裝置,主要區(qū)別如下: 安裝位置:一次消諧器串聯(lián)于電壓互感器(PT)一次側(cè)中性點與地之間,直接承受高電壓;二
    的頭像 發(fā)表于 05-07 09:58 ?2452次閱讀
    <b class='flag-5'>一次</b>消諧裝置與二<b class='flag-5'>次</b>消諧裝置區(qū)別、<b class='flag-5'>一次</b>消諧器與二<b class='flag-5'>次</b>消諧器的區(qū)別

    字節(jié)跳動即將推出多模態(tài)視頻生成模型OmniHuman

    完整的AI視頻。 據(jù)即夢AI相關(guān)負(fù)責(zé)人透露,OmniHuman模型在研發(fā)過程中融入了前沿的人工智能技術(shù),通過復(fù)雜的算法和深度學(xué)習(xí)機(jī)制,實現(xiàn)了圖片與音頻的精準(zhǔn)匹配和
    的頭像 發(fā)表于 02-08 10:53 ?1013次閱讀

    谷歌 Gemini 2.0 Flash 系列 AI 模型上新

    谷歌旗下 AI 大模型 Gemini 系列全面上新,正式版 Gemini 2.0 Flash、Gemini 2.0 Flash-Lite 以及新代旗艦大模型 Gemini 2.0 P
    的頭像 發(fā)表于 02-07 15:07 ?963次閱讀

    一次性鋰電池為什么不能充電?文講清!

    一次性鋰電池不能充電,是由它的正負(fù)極材料、電解液等決定的。雖然它不能充電,但在某些場景下,還是有著不可替代的作用。希望通過這篇文章,能讓大家對一次性鋰電池有更深入的了解,以后在生活中使用的時候,也更安全、更環(huán)保。
    的頭像 發(fā)表于 01-23 14:11 ?2031次閱讀
    <b class='flag-5'>一次</b>性鋰電池為什么不能充電?<b class='flag-5'>一</b>文講清!

    阿里云通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這創(chuàng)新成果標(biāo)志著阿里云在視頻生成技術(shù)領(lǐng)域的又
    的頭像 發(fā)表于 01-13 10:00 ?987次閱讀

    基于移動自回歸的時序擴(kuò)散預(yù)測模型

    回歸取得了比傳統(tǒng)基于噪聲的擴(kuò)散模型更好的生成效果,并且獲得了人工智能頂級會議 NeurIPS 2024 的 best paper。 然而在時間序列預(yù)測領(lǐng)域,當(dāng)前主流的擴(kuò)散方法還是傳統(tǒng)的
    的頭像 發(fā)表于 01-03 14:05 ?1452次閱讀
    基于移動自回歸的時序<b class='flag-5'>擴(kuò)散</b>預(yù)測<b class='flag-5'>模型</b>

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3
    的頭像 發(fā)表于 01-03 10:38 ?1185次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量圖像

    OpenAI暫不推出Sora視頻生成模型API

    OpenAI近日宣布,目前暫無推出視頻生成模型Sora的應(yīng)用程序接口(API)的計劃。Sora模型能夠基于文本和圖像生成
    的頭像 發(fā)表于 12-20 14:23 ?800次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,Sora與OpenAI旗下的AI工具DALL-E有著
    的頭像 發(fā)表于 12-12 09:40 ?927次閱讀

    OpenAI開放Sora視頻生成模型

    升級,準(zhǔn)備迎接廣大用戶的深入探索與廣泛應(yīng)用。 據(jù)官方公告介紹,Sora Turbo作為Sora的升級版本,具備強(qiáng)大的視頻生成能力。它能夠根據(jù)用戶的文本提示,快速創(chuàng)建出最長達(dá)20秒的高清視頻片段。更令人驚喜的是,Sora Turbo還能針對同
    的頭像 發(fā)表于 12-10 11:16 ?917次閱讀

    浙大、微信提出精確反演采樣器新范式,徹底解決擴(kuò)散模型反演問題

    隨著擴(kuò)散生成模型的發(fā)展,人工智能步入了屬于?AIGC?的新紀(jì)元。擴(kuò)散生成模型可以對初始高斯噪聲進(jìn)
    的頭像 發(fā)表于 11-27 09:21 ?956次閱讀
    浙大、微信提出精確反演采樣器新范式,徹底解決<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>反演問題

    字節(jié)跳動自研視頻生成模型Seaweed開放

    近日,字節(jié)跳動旗下的AI內(nèi)容平臺即夢AI傳來新消息,宣布自研的視頻生成模型Seaweed即日起正式面向平臺用戶開放使用。這舉措標(biāo)志著字節(jié)跳動在AI視頻領(lǐng)域邁出了堅實的
    的頭像 發(fā)表于 11-11 14:31 ?917次閱讀

    擴(kuò)散模型的理論基礎(chǔ)

    擴(kuò)散模型的迅速崛起是過去幾年機(jī)器學(xué)習(xí)領(lǐng)域最大的發(fā)展之。在這本簡單易懂的指南中,學(xué)習(xí)你需要知道的關(guān)于擴(kuò)散模型
    的頭像 發(fā)表于 10-28 09:30 ?1885次閱讀
    <b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的理論基礎(chǔ)