chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA Clara AGX深度學(xué)習(xí)減少MRI掃描次數(shù)

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-17 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

磁共振成像( MRI )是一種有用的軟組織或分子擴散成像技術(shù)。然而,獲取 MR 圖像的掃描時間可能相當(dāng)長。有幾種方法可以用來減少掃描時間,包括矩形視場( RFOV )、部分傅里葉成像和采樣截斷。這些方法要么導(dǎo)致信噪比( SNR )降低,要么導(dǎo)致分辨率降低。有關(guān)更多信息,請參閱k 空間教程:更好地理解 k 空間的 MRI 教育工具。

當(dāng)使用采樣截斷技術(shù)以減少掃描和數(shù)據(jù)傳輸時間時,吉布斯現(xiàn)象也稱為振鈴或截斷偽影,會出現(xiàn)在結(jié)果圖像中。通常,通過平滑圖像來消除吉布斯現(xiàn)象,從而降低圖像分辨率。

在這篇文章中,我們探索了一種使用 NVIDIA Clara AGX 開發(fā)者套件的深度學(xué)習(xí)方法,以消除磁共振圖像中的吉布斯現(xiàn)象和噪聲,同時保持高圖像分辨率。

信號可以表示為頻率和相位變化的正弦波的無限和。 MR 圖像通過使用相對較少的 h ARM 電子近似,從而導(dǎo)致吉布斯現(xiàn)象的存在。圖 1 顯示了一個類似的一維情況,即僅用幾個 h ARM 電子近似方波,右側(cè) MRI 模型中的吉布斯現(xiàn)象。

poYBAGJbzKSAH5onAADVpqwjTNQ793.png

圖 1 。(左)截斷偽影,也稱為吉布斯現(xiàn)象,僅使用五個 h ARM 源近似方波時顯示:Wikipedia. (右)二維 MRI 模型中顯示的吉布斯現(xiàn)象。

數(shù)據(jù)集和模型

我們擴展了現(xiàn)有的用于 Gibbs 和噪聲消除的深度學(xué)習(xí)方法 dldegibbs 的工作。有關(guān)更多信息,請參閱擴散磁共振成像中 Gibbs 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練與去噪。該白皮書的代碼在/mmuckley/dldegibbs GitHub repo 中。

在他們的工作中,大約 130 萬張模擬吉布斯現(xiàn)象和高斯噪聲的 ImageNet 圖像被用作訓(xùn)練數(shù)據(jù)。在我們的項目中,我們測試了 Muckley 等人開發(fā)的一些預(yù)訓(xùn)練 dldegibbs 模型,并使用開放圖像數(shù)據(jù)集訓(xùn)練了我們自己的模型。我們最后用 MRI 擴散數(shù)據(jù)測試了不同的模型。

為什么要模擬吉布斯現(xiàn)象?

與其他網(wǎng)絡(luò)相比,使用 dldegibbs 的一個好處是它不需要訪問原始 MRI 數(shù)據(jù)和系統(tǒng)參數(shù)。該數(shù)據(jù)很難獲得,因為該數(shù)據(jù)的存儲要求很高,并且在圖像重建后通常不會保留該數(shù)據(jù)。

另一個好處是不需要專有信息或與供應(yīng)商簽署研究協(xié)議。此外,還可以節(jié)省收集和分發(fā)醫(yī)療數(shù)據(jù)的時間,這可能是一項挑戰(zhàn)。使用異構(gòu)數(shù)據(jù)集(如 ImageNet 或 Open Images )對模型進行訓(xùn)練有可能使該方法應(yīng)用于其他 MRI 序列或成像模式,因為訓(xùn)練數(shù)據(jù)本質(zhì)上是對象不可知的。

dldegibbs 的數(shù)據(jù)加載程序為每個加載的映像創(chuàng)建兩個映像:一個訓(xùn)練映像和一個目標(biāo)映像。在傅里葉域中模擬原始圖像上的吉布斯現(xiàn)象生成訓(xùn)練圖像。將調(diào)整原始圖像的大小并將其用作目標(biāo)圖像。數(shù)據(jù)加載程序包括標(biāo)準(zhǔn)數(shù)據(jù)增強方法(隨機翻轉(zhuǎn)、裁剪),然后是隨機相位模擬和橢圓裁剪。接下來,對原始圖像進行 FFT 處理,進行 Gibbs 裁剪,添加復(fù)高斯噪聲,并模擬部分傅里葉變換。最后,應(yīng)用逆 FFT 對圖像進行歸一化處理。圖 2 顯示了模擬管道。

pYYBAGJbzKWAUKX0AABMWr4ZCDw973.png

圖 2 。吉布斯現(xiàn)象方框圖與噪聲模擬。

在這個項目中,我們使用了由 170 多萬張訓(xùn)練圖像組成的開放圖像數(shù)據(jù)集。然后,我們在由 170 名患者( 996424 個軸向切片)[5]組成的磁共振擴散數(shù)據(jù)集上測試訓(xùn)練模型。圖 3 顯示了一個示例 MRI 擴散切片。

poYBAGJbzKaAOUyLAAD85yGWQsY595.png

圖 3 。測試集中使用的 MRI 擴散軸向切片示例。

結(jié)果

圖 4 顯示了使用 dldegibbs 模型測試的驗證圖像示例,該模型使用完全開放的圖像訓(xùn)練數(shù)據(jù)集進行訓(xùn)練。圖 5 顯示了相應(yīng)的錯誤。訓(xùn)練圖像在傅里葉空間從 256 × 256 裁剪到 100 × 100 。該模型未模擬部分傅里葉成像。

pYYBAGJbzKeAQfvYAADlAEF9hKo735.png

圖 4 。示例 dldegibbs 輸入(數(shù)據(jù))、輸出(估計)和來自 Open Images 驗證數(shù)據(jù)集的目標(biāo)圖像。

poYBAGJbzKiATM-JAAIWKkzFA4E614.png

圖 5 。數(shù)據(jù)輸入和目標(biāo)之間的誤差(左)和估計輸出和目標(biāo)之間的誤差(右)。

數(shù)據(jù)與目標(biāo)之間的平均 MSE 為 13 。 2 ± 9 。 2% 。估計值與目標(biāo)值之間的平均誤差為 2 。 9 ± 2 。 7% 。對于此圖像, dldegibbs 模型可使圖像質(zhì)量提高 10% 以上。

概括

在這篇文章中,我們提供了一個可以與 Clara AGX 開發(fā)工具包一起使用的解決方案,使用以下資源從 MR 圖像中去除噪聲和吉布斯現(xiàn)象:

一種商用數(shù)據(jù)集,稱為 Open Images

一個開源的 ML 模型,稱為 dldegibbs

關(guān)于作者

Emily Anaya 是 NVIDIA Clara AGX團隊的實習(xí)生,致力于消除磁共振成像(MRI)中的吉布斯現(xiàn)象和噪音。她也是一名博士。斯坦福大學(xué)電子工程專業(yè)的候選人,她的顧問是克雷格·萊文博士。她的研究重點是解決正電子發(fā)射斷層成像和磁共振成像(PET/MRI)組合中的光子衰減問題。

Emmett McQuinn 是 NVIDIA Clara AGX 團隊的高級工程師。埃米特之前是一家助聽器初創(chuàng)公司的創(chuàng)始工程師,領(lǐng)導(dǎo)機器學(xué)習(xí)DSP 團隊,具有自主機器人、科學(xué)可視化和超低功耗神經(jīng)網(wǎng)絡(luò)芯片的工作經(jīng)驗。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    459

    文章

    52447

    瀏覽量

    439902
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4813

    瀏覽量

    103421
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5298

    瀏覽量

    106255
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA NVLink 深度解析

    訓(xùn)練萬億參數(shù)人工智能模型至關(guān)重要 ^4^。本深度分析報告旨在全面探討 NVIDIA NVLink,涵蓋其定
    的頭像 發(fā)表于 05-06 18:14 ?1467次閱讀

    邊緣AI MPU深度盤點:品牌、型號與技術(shù)特性全解析

    三個維度,結(jié)合典型應(yīng)用場景,對主流邊緣AI MPU進行全面盤點。 一、國際品牌:技術(shù)領(lǐng)先,場景覆蓋全面 NVIDIA(英偉達) 代表型號 :Jetson系列(Orin Nano/NX/AGX
    的頭像 發(fā)表于 04-30 17:27 ?2173次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?515次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?839次閱讀

    交通運輸領(lǐng)先企業(yè)率先采用NVIDIA Cosmos平臺

    支撐自動駕駛汽車開發(fā)有三個關(guān)鍵計算平臺:NVIDIA DGX 平臺用于在數(shù)據(jù)中心訓(xùn)練基于 AI 的堆棧;運行在NVIDIA OVX 平臺上的NVIDIA Omniverse 平臺,用于仿真和合成數(shù)據(jù)的生成;以及車載計算平臺
    的頭像 發(fā)表于 01-09 16:02 ?535次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1875次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?642次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1320次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1186次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2854次閱讀

    GPU計算主板學(xué)習(xí)資料第735篇:基于3U VPX的AGX Xavier GPU計算主板 信號計算主板 視頻處理 相機信號

    GPU計算主板學(xué)習(xí)資料第735篇:基于3U VPX的AGX Xavier GPU計算主板 信號計算主板 視頻處理 相機信號
    的頭像 發(fā)表于 10-23 10:09 ?629次閱讀
    GPU計算主板<b class='flag-5'>學(xué)習(xí)</b>資料第735篇:基于3U VPX的<b class='flag-5'>AGX</b> Xavier GPU計算主板 信號計算主板 視頻處理 相機信號

    FPGA做深度學(xué)習(xí)能走多遠?

    ,共同進步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1108次閱讀

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2458次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時盡量保持模型性能。從而達到把模型部署到邊緣或者低算力設(shè)備上,實現(xiàn)降本增效的目標(biāo)。
    的頭像 發(fā)表于 07-15 11:01 ?1086次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型量化方法