chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

驚!大腦視覺信號被Stable Diffusion復現(xiàn)成視頻!

CVer ? 來源:量子位 ? 2023-06-02 16:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現(xiàn)在,AI可以把人類腦中的信息,用高清視頻展示出來了!

例如你坐在副駕所欣賞到的沿途美景信息,AI分分鐘給重建了出來:

e8e12ad0-fae1-11ed-90ce-dac502259ad0.gif

看到過的水中的魚兒、草原上的馬兒,也不在話下:

e8f91f00-fae1-11ed-90ce-dac502259ad0.gif

e90528ea-fae1-11ed-90ce-dac502259ad0.gif

這就是由新加坡國立大學和香港中文大學共同完成的最新研究,團隊將項目取名為MinD-Video。

e914e28a-fae1-11ed-90ce-dac502259ad0.png

Cinematic Mindscapes: High-quality Video Reconstruction from Brain Activity 主頁:https://mind-video.com/ 論文:https://arxiv.org/abs/2305.11675 代碼:https://github.com/jqin4749/MindVideo

這波操作,宛如科幻電影《超體》中Lucy讀取反派大佬記憶一般:

e91f001c-fae1-11ed-90ce-dac502259ad0.gif

引得網(wǎng)友直呼:

推動人工智能和神經(jīng)科學的前沿。

e94a5302-fae1-11ed-90ce-dac502259ad0.png

值得一提的是,大火的Stable Diffusion也在這次研究中立了不小的功勞。

e9588300-fae1-11ed-90ce-dac502259ad0.png

怎么做到的?

從大腦活動中重建人類視覺任務,尤其是功能磁共振成像技術(fMRI)這種非侵入式方法,一直是受到學界較多的關注。

因為類似這樣的研究,有利于理解我們的認知過程。

但以往的研究都主要聚焦在重建靜態(tài)圖像,而以高清視頻形式來展現(xiàn)的工作還是較為有限。

之所以會如此,是因為與重建一張靜態(tài)圖片不同,我們視覺所看到的場景、動作和物體的變化是連續(xù)、多樣化的。

而fMRI這項技術的本質(zhì)是測量血氧水平依賴(BOLD)信號,并且在每隔幾秒鐘的時間里捕捉大腦活動的快照。

相比之下,一個典型的視頻每秒大約包含30幀畫面,如果要用fMRI去重建一個2秒的視頻,就需要呈現(xiàn)起碼60幀。

因此,這項任務的難點就在于解碼fMRI并以遠高于fMRI時間分辨率的FPS恢復視頻。

為了彌合圖像和視頻大腦解碼之間差距,研究團隊便提出了MinD-Video的方法。

整體來看,這個方法主要包含兩大模塊,它們分別做訓練,然后再在一起做微調(diào)。

e96f0e18-fae1-11ed-90ce-dac502259ad0.png

這個模型從大腦信號中逐步學習,在第一個模塊多個階段的過程,可以獲得對語義空間的更深入理解。

具體而言,便是先利用大規(guī)模無監(jiān)督學習與mask brain modeling(MBM)來學習一般的視覺fMRI特征。

然后,團隊使用標注數(shù)據(jù)集的多模態(tài)提取語義相關特征,在對比語言-圖像預訓練(CLIP)空間中使用對比學習訓練fMRI編碼器

在第二個模塊中,團隊通過與增強版Stable Diffusion模型的共同訓練來微調(diào)學習到的特征,這個模型是專門為fMRI技術下的視頻生成量身定制的。

如此方法之下,團隊也與此前的諸多研究做了對比,可以明顯地看到MinD-Video方法所生成的圖片、視頻質(zhì)量要遠優(yōu)于其它方法。

e97b83f0-fae1-11ed-90ce-dac502259ad0.png

而且在場景連續(xù)變化的過程中,也能夠呈現(xiàn)高清、有意義的連續(xù)幀。

e98d88ac-fae1-11ed-90ce-dac502259ad0.png

研究團隊

這項研究的共同一作,其中一位是來自新加坡國立大學的博士生Zijiao Chen,目前在該校的神經(jīng)精神疾病多模式神經(jīng)成像實驗室(MNNDL_Lab)。

另一位一作則是來自香港中文大學的Jiaxin Qing,就讀專業(yè)是信息工程系。

除此之外,通訊作者是新加坡國立大學副教授Juan Helen ZHOU。

據(jù)了解,這次的新研究是他們團隊在此前一項名為MinD-Vis的功能磁共振成像圖像重建工作的延伸。

MinD-Vis已經(jīng)被CVPR 2023所接收。

e99ee28c-fae1-11ed-90ce-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    37065

    瀏覽量

    290450
  • 人工智能
    +關注

    關注

    1811

    文章

    49507

    瀏覽量

    258430
  • 視覺
    +關注

    關注

    1

    文章

    171

    瀏覽量

    24630
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    信號處理到視覺感知:CM2001AT 與 索尼FCB-EV9520L 驅(qū)動車載智能升級

    系統(tǒng)的關鍵支撐:前者以 “信號處理中樞” 解決高清視頻高效編碼與穩(wěn)定傳輸難題,后者以 “敏銳視覺之眼” 實現(xiàn)復雜環(huán)境下精準圖像采集。二者形成 “感知 - 處理 - 傳輸” 閉環(huán),為自動駕駛、車輛監(jiān)控提供核心動力,推動車載
    的頭像 發(fā)表于 09-15 16:25 ?498次閱讀

    視頻信號延長方案

    新龍鵬科技延長方案簡介? Introduction to the Extension Scheme ? 適用于部署大屏幕廣告、大型視頻會議、家庭影院、醫(yī)療設備、金融系統(tǒng)、公共交通設施等場所的高清信號
    的頭像 發(fā)表于 08-29 10:42 ?312次閱讀
    <b class='flag-5'>視頻信號</b>延長方案

    是德N5173B信號發(fā)生器在EMC測試中的干擾信號精準復現(xiàn)技巧

    具備寬頻段覆蓋、高精度調(diào)制和靈活的信號生成能力,成為EMC實驗室中復現(xiàn)干擾信號的重要工具。掌握其使用技巧,可有效提升測試的精準性和效率。 ? 二、干擾信號精準
    的頭像 發(fā)表于 06-03 16:09 ?443次閱讀
    是德N5173B<b class='flag-5'>信號</b>發(fā)生器在EMC測試中的干擾<b class='flag-5'>信號</b>精準<b class='flag-5'>復現(xiàn)</b>技巧

    ?Diffusion生成式動作引擎技術解析

    Diffusion生成式動作引擎 Diffusion生成式動作引擎是一種基于擴散模型(Diffusion Models)的生成式人工智能技術,專注于生成連續(xù)、逼真的人類動作或動畫序列。這類引擎在游戲
    的頭像 發(fā)表于 03-17 15:14 ?2528次閱讀

    IGBT模塊的反向恢復現(xiàn)

    IGBT模塊的反向恢復現(xiàn)象是指在IGBT關斷時,其內(nèi)部集成的續(xù)流二極管(FWD)從正向?qū)顟B(tài)轉(zhuǎn)變?yōu)榉聪蚪刂範顟B(tài)過程中出現(xiàn)的一些特定物理現(xiàn)象和電氣特性變化。
    的頭像 發(fā)表于 03-13 14:39 ?2921次閱讀
    IGBT模塊的反向恢<b class='flag-5'>復現(xiàn)</b>象

    使用OpenVINO GenAI和LoRA適配器進行圖像生成

    借助生成式 AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺效果。
    的頭像 發(fā)表于 03-12 13:49 ?1261次閱讀
    使用OpenVINO GenAI和LoRA適配器進行圖像生成

    安裝OpenVINO?工具包穩(wěn)定擴散后報錯,怎么解決?

    :\\stable-openvino2\\stable-diffusion-webui-master\\venv\\lib\\site-packages\\diffusers\\models
    發(fā)表于 03-05 06:56

    Meta非入侵式腦機技術:AI讀取大腦信號打字準確率80%

    腦機技術主要通過AI模型與特定硬件的結(jié)合,將用戶的大腦信號映射成具體的鍵盤字符。該技術的準確率高達約80%,能夠準確判斷用戶在“敲擊”的按鍵,從而實現(xiàn)文字輸入。 值得注意的是,這項設備完全依靠外部腦機讀取用戶的大腦
    的頭像 發(fā)表于 02-11 15:45 ?922次閱讀

    Meta AI推出Brain2Qwerty:非侵入性大腦信號轉(zhuǎn)文本系統(tǒng)

    。 Brain2Qwerty系統(tǒng)主要依賴于非侵入性的技術手段來捕捉和解析大腦活動。具體而言,它結(jié)合了腦電圖(EEG)和腦磁圖(MEG)這兩種先進的神經(jīng)科學工具,以精確記錄志愿者在思考過程中的大腦信號。 在研究過程中,Meta A
    的頭像 發(fā)表于 02-11 13:37 ?783次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?1015次閱讀
    如何開啟<b class='flag-5'>Stable</b> <b class='flag-5'>Diffusion</b> WebUI模型推理部署

    HDMI光端機:打造高清視頻信號傳輸?shù)臉蛄?/a>

    在當今這個追求高清畫質(zhì)與極致視覺體驗的時代,HDMI信號傳輸?shù)馁|(zhì)量與穩(wěn)定性成為了眾多行業(yè)關注的焦點。無論是網(wǎng)絡平板顯示、大屏幕幕墻顯示廣告工程,還是工業(yè)自動化控制、醫(yī)療設備、安防監(jiān)控以及多媒體教學等
    的頭像 發(fā)表于 11-28 09:17 ?1090次閱讀

    AMS-MC158:重塑視覺邊界,引領LED視頻處理新風尚

    在科技與藝術交匯的當代,LED顯示屏已經(jīng)成為各大場景中的視覺焦點。然而,如何讓這些絢爛的屏幕呈現(xiàn)出最佳效果,卻離不開一款卓越的視頻處理器。今天,我們就來深入了解一款在市場上備受矚目的LED視頻處理器——AMS-MC158,它不僅
    的頭像 發(fā)表于 11-28 09:05 ?870次閱讀

    @視覺工程師丨15分鐘上手《AIDI3.2腳本開發(fā)教程》視頻,請查收!

    AIDI有什么系統(tǒng)性地進階開發(fā)教程?AIDI調(diào)用Python腳本的基本原理是什么?常見的Python異常如何處理?區(qū)域計算工具有哪些常用案例?……為幫助廣大視覺工程師及開發(fā)者更好地掌握AI視覺算法
    的頭像 發(fā)表于 11-09 01:06 ?1226次閱讀
    @<b class='flag-5'>視覺</b>工程師丨15分鐘上手《AIDI3.2腳本開發(fā)教程》<b class='flag-5'>視頻</b>,請查收!

    如何應對UWB室內(nèi)定位信號遮擋

    遇到信號遮擋的問題,這會影響到定位的準確性和穩(wěn)定性。那么,面對信號遮擋的情況,我們應該如何解決呢?本文將為您詳細介紹。  首先,我們需要了解UWB室內(nèi)定位的工作
    的頭像 發(fā)表于 11-01 11:25 ?1106次閱讀
    如何應對UWB室內(nèi)定位<b class='flag-5'>信號</b><b class='flag-5'>被</b>遮擋

    常見視頻接口的優(yōu)勢與劣勢

    隨著技術的發(fā)展,視頻接口的種類和標準也在不斷更新。從模擬信號的VGA、DVI,到數(shù)字信號的HDMI、DisplayPort,再到無線傳輸?shù)腁irPlay和Miracast,每種接口都有其獨特的優(yōu)勢
    的頭像 發(fā)表于 10-30 16:14 ?1805次閱讀