chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于對(duì)抗生成模型的新方法,名曰“CosmoGAN”

DPVg_AI_era ? 來源:lq ? 2019-06-23 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

宇宙中大部分物質(zhì)都是人類看不見的暗物質(zhì)。目前,觀測(cè)暗物質(zhì)的最佳方式:引力透鏡技術(shù)的成本太高,耗時(shí)太久。最近,研究人員希望利用AI技術(shù)來解決這個(gè)問題,提出了一種基于對(duì)抗生成模型的新方法,名曰“CosmoGAN”。

隨著宇宙學(xué)家和天體物理學(xué)家對(duì)宇宙中最黑暗的凹陷的探索越來越深入,對(duì)越來越強(qiáng)大的觀測(cè)和計(jì)算工具的需求呈指數(shù)級(jí)增長。科學(xué)家們正在尋求收集、模擬和分析可以幫助解釋的越來越多的數(shù)據(jù),解釋我們看到或看不到的事物的本質(zhì)。

目前,引力透鏡技術(shù)是科學(xué)家提取這些信息的最有前途的工具之一。根據(jù)伯克利實(shí)驗(yàn)室國家能源研究科學(xué)計(jì)算中心(NERSC)數(shù)據(jù)科學(xué)團(tuán)隊(duì)負(fù)責(zé)人Deborah Bard的說法,引力透鏡以某種方向視線中物質(zhì)的數(shù)量確定遙遠(yuǎn)星系的圖像,并提供了一種觀察暗物質(zhì)二維圖的方法。

“引力透鏡是研究暗物質(zhì)的最佳方法之一,這種方法讓我們了解了很多關(guān)于宇宙結(jié)構(gòu)的信息,”她說。 “宇宙中的大部分物質(zhì)都是暗物質(zhì),我們無法直接看到,因此必須使用間接方法來研究暗物質(zhì)的分布?!?/p>

但隨著實(shí)驗(yàn)和理論數(shù)據(jù)集規(guī)模的增長,以及對(duì)這些數(shù)據(jù)進(jìn)行成像和分析的模擬,出現(xiàn)了一個(gè)新問題:這些模擬實(shí)驗(yàn)的成本越來越高,計(jì)算成本非常昂貴。因此,宇宙學(xué)家經(jīng)常采用在計(jì)算上更便宜的替代模型,這類模型可以對(duì)昂貴的模擬實(shí)驗(yàn)進(jìn)行二次模擬。

不過最近,“基于神經(jīng)網(wǎng)絡(luò)的深度生成模型的進(jìn)步,讓許多類型的模擬器(包括宇宙學(xué)中的模擬器)構(gòu)建性能更強(qiáng)大、手工設(shè)計(jì)部分更少的替代模型成為可能,”機(jī)器學(xué)習(xí)工程師Mustafa Mustafa說。 他是NERSC一項(xiàng)新研究的主要作者,該研究描述的新方法就是基于二次模擬,由伯克利實(shí)驗(yàn)室、谷歌研究院和夸祖魯-納塔爾大學(xué)合作開發(fā)。

研究團(tuán)隊(duì)由伯克利實(shí)驗(yàn)室領(lǐng)導(dǎo),主要研究用于科學(xué)應(yīng)用的各種深度生成模型。團(tuán)隊(duì)采取一種獨(dú)特的策略:生成對(duì)抗網(wǎng)絡(luò)(GAN)。

在近日發(fā)表在計(jì)算《天體物理學(xué)和宇宙學(xué)》期刊上的論文中,研究人員考慮了新的基于GAN的深度學(xué)習(xí)網(wǎng)絡(luò),名為CosmoGAN,并說明了其創(chuàng)建高保真、弱引力透鏡會(huì)聚圖的能力。

“它實(shí)際上是我們?cè)谘刂暰€的天空中看到的引力透鏡的二維圖,”論文作者之一Bard說。 “如果圖中有一個(gè)峰值,相當(dāng)于沿著視線方向存在大量物質(zhì)的峰值,也就是說該方向上存在大量暗物質(zhì)?!?/p>

CosmoGAN的優(yōu)勢(shì):性能強(qiáng)大精度高

為什么選擇GAN而不是其他類型的生成模型?據(jù)Mustafa表示,主要是因?yàn)樾阅芎途葐栴}。

“從深度學(xué)習(xí)的角度來看,還存在其他方法可以學(xué)習(xí)如何從圖像生成收斂圖,但是當(dāng)我們啟動(dòng)這個(gè)項(xiàng)目時(shí)發(fā)現(xiàn),與其他方法相比,GAN可以生成非常高分辨率的圖像,同時(shí)仍具備在計(jì)算成本和神經(jīng)網(wǎng)絡(luò)規(guī)模的成本效應(yīng)上的優(yōu)勢(shì)?!八f。

“我們尋求兩點(diǎn):準(zhǔn)確和快速,”論文共同作者,伯克利實(shí)驗(yàn)室計(jì)算宇宙學(xué)中心的研究科學(xué)家ZariaLukic補(bǔ)充說。 “與完整的模擬相比,GAN提供了幾乎同樣的準(zhǔn)確率?!?/p>

研究人員特別感興趣的是構(gòu)建一個(gè)可以降低運(yùn)行這些模擬的計(jì)算成本的替代模型。在論文中,他們概述了GAN在大型物理模擬研究中的許多優(yōu)點(diǎn)。

“GAN在訓(xùn)練期間非常不穩(wěn)定,特別是在訓(xùn)練結(jié)束時(shí),生成的圖像開始看起來很好,但是可能網(wǎng)絡(luò)一更新,就會(huì)變得一團(tuán)亂?!盡ustafa說。 “但是因?yàn)槲覀冋莆樟擞钪鎸W(xué)中的匯總統(tǒng)計(jì)數(shù)據(jù),我們能夠在訓(xùn)練的每一步中對(duì)GAN進(jìn)行評(píng)估GAN,這有助于我們確定最好的生成器。通常這個(gè)流程不用于訓(xùn)練GAN。“

使用CosmoGAN生成器網(wǎng)絡(luò),團(tuán)隊(duì)已經(jīng)能夠生成具有高統(tǒng)計(jì)信度的收斂映射,數(shù)據(jù)匯總統(tǒng)計(jì)與完全模擬映射相同。收斂圖之間的這種非常高水平的一致性,在統(tǒng)計(jì)學(xué)上與基于物理的生成模型生成的圖無法區(qū)分,這是深度神經(jīng)網(wǎng)絡(luò)構(gòu)建仿真器的過程中邁出的重要一步。

“這里的巨大優(yōu)勢(shì)在于,我們處理的問題是一個(gè)與相關(guān)指標(biāo)有關(guān)的物理問題,”巴德說。 “但是通過我們的方法,有一些實(shí)際指標(biāo)可以量化GAN的準(zhǔn)確度。對(duì)我來說,真正令人興奮的是:這些物理問題會(huì)對(duì)機(jī)器學(xué)習(xí)方法產(chǎn)生什么影響。

最終,這些方法可以改變現(xiàn)有暗物質(zhì)搜尋實(shí)驗(yàn)中過于依賴計(jì)算力和存儲(chǔ)空間、以及極其耗時(shí)的問題。但未來仍有仍有大量工作要做。宇宙學(xué)的數(shù)據(jù)(以及一般的科學(xué)數(shù)據(jù))可能需要非常高的圖像分辨率的量度,比如全天空望遠(yuǎn)鏡圖像。

“在這個(gè)項(xiàng)目中考慮使用二維圖像是有價(jià)值的,但實(shí)際的物理模擬是三維的,結(jié)果可能隨時(shí)間發(fā)生不規(guī)則的變化,產(chǎn)生豐富的網(wǎng)狀結(jié)構(gòu)特征,”論文共同作者、NERSC大數(shù)據(jù)與分析服務(wù)團(tuán)隊(duì)的數(shù)據(jù)架構(gòu)師WahidBhmiji說。 “此外,我們需要對(duì)該方法進(jìn)行擴(kuò)展,以探索新的虛擬宇宙,而不是已經(jīng)模擬過的虛擬宇宙,最終構(gòu)建一個(gè)可控的CosmoGAN。”

“做可控GAN的想法實(shí)際上是整個(gè)問題的最高目標(biāo):真正模擬基于可控GAN的替代模型的物理模擬器,現(xiàn)在我們正在過去幾年領(lǐng)域內(nèi)的進(jìn)步的基礎(chǔ)上,努力了解如何穩(wěn)定GAN的訓(xùn)練動(dòng)態(tài)。這對(duì)于實(shí)現(xiàn)這個(gè)最高目標(biāo)而言非常重要。”他說。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2281

    瀏覽量

    78799
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3616

    瀏覽量

    51504
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1311

    瀏覽量

    25512

原文標(biāo)題:CosmoGAN:訓(xùn)練GAN,讓AI尋找宇宙中的暗物質(zhì)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開源RISC-V的AI加速器 RISC-V是一種開源、模塊化的指令集架構(gòu)(ISA)。優(yōu)勢(shì)如下: ①模塊化特性②標(biāo)準(zhǔn)接口③開源
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽

    ,其中第章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰(zhàn)。第二章和第三章分別介紹實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法和架構(gòu)。以及些新型的算法和思路。第四章是全面介紹半導(dǎo)體芯產(chǎn)業(yè)的前沿技
    發(fā)表于 09-05 15:10

    芯片制造中高精度膜厚測(cè)量與校準(zhǔn):基于紅外干涉技術(shù)的新方法

    、環(huán)境光干擾及薄膜傾斜等因素限制,測(cè)量精度難以滿足高精度工業(yè)需求。為此,本研究提出一種融合紅外干涉與激光校準(zhǔn)的薄膜厚度測(cè)量新方法,旨在突破傳統(tǒng)技術(shù)瓶頸,實(shí)現(xiàn)更精準(zhǔn)、
    的頭像 發(fā)表于 07-21 18:17 ?2103次閱讀
    芯片制造中高精度膜厚測(cè)量與校準(zhǔn):基于紅外干涉技術(shù)的<b class='flag-5'>新方法</b>

    無刷直流電機(jī)反電勢(shì)過零檢測(cè)新方法

    新方法。在三相采樣等效電路上分別并聯(lián)組三極管控制的電阻分壓開關(guān)電路,參考電機(jī)轉(zhuǎn)速線性調(diào)節(jié)控制信號(hào)占空比,以此控制三極管通斷,從而調(diào)節(jié)電阻分樂開關(guān)電路阻值,可以避免高速時(shí)反電勢(shì)幅值高于檢測(cè)電路供電電壓
    發(fā)表于 06-26 13:50

    一種多模態(tài)駕駛場(chǎng)景生成框架UMGen介紹

    端到端自動(dòng)駕駛技術(shù)的快速發(fā)展對(duì)閉環(huán)仿真器提出了迫切需求,而生成模型為其提供了一種有效的技術(shù)架構(gòu)。然而,現(xiàn)有的駕駛場(chǎng)景生成方法大多側(cè)重于圖像模態(tài),忽略了其他關(guān)鍵模態(tài)的建模,如地圖信息、
    的頭像 發(fā)表于 03-24 15:57 ?1430次閱讀
    <b class='flag-5'>一種</b>多模態(tài)駕駛場(chǎng)景<b class='flag-5'>生成</b>框架UMGen介紹

    一種基于正交與縮放變換的大模型量化方法

    近年來,大規(guī)模語言模型(Large Language Models, LLMs)在自然語言處理領(lǐng)域取得了革命性進(jìn)展。以 GPT 系列、LLaMA 等為代表的模型,通過千億級(jí)參數(shù)的復(fù)雜結(jié)構(gòu)展現(xiàn)出強(qiáng)大的語義理解和生成能力。
    的頭像 發(fā)表于 03-04 11:10 ?744次閱讀
    <b class='flag-5'>一種</b>基于正交與縮放變換的大<b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?2773次閱讀
    <b class='flag-5'>一</b>文詳解視覺語言<b class='flag-5'>模型</b>

    大華股份榮獲中國創(chuàng)新方法大賽等獎(jiǎng)

    ,大華股份憑借其卓越的創(chuàng)新能力和深厚的技術(shù)積累,脫穎而出,斬獲了全國等獎(jiǎng)。大華股份的獲獎(jiǎng)項(xiàng)目為“不懼強(qiáng)光,分毫必現(xiàn),基于TRIZ的強(qiáng)逆光銳捕技術(shù)”。該項(xiàng)目通過靈活運(yùn)用創(chuàng)新方法,成功突破了行業(yè)性技術(shù)難題,實(shí)現(xiàn)了在強(qiáng)逆光
    的頭像 發(fā)表于 12-27 14:50 ?780次閱讀

    基于遺傳算法的QD-SOA設(shè)計(jì)新方法

    了QD-SOA的設(shè)計(jì),提出了一種基于遺傳算法的QD-SOA設(shè)計(jì)新方法。由于具有用于設(shè)計(jì)的模型是必不可少的,因此在第步中獲得數(shù)值模型。然后,
    的頭像 發(fā)表于 12-17 09:58 ?618次閱讀
    基于遺傳算法的QD-SOA設(shè)計(jì)<b class='flag-5'>新方法</b>

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出了一種新方法,通過使用點(diǎn)到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點(diǎn)云與數(shù)字孿生體進(jìn)行對(duì)齊,從而實(shí)現(xiàn)精確且全球致的定位,無需視覺數(shù)據(jù)關(guān)聯(lián)。所提
    的頭像 發(fā)表于 12-13 11:18 ?1041次閱讀
    <b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的<b class='flag-5'>新方法</b>

    大華股份榮獲2024年中國創(chuàng)新方法大賽等獎(jiǎng)

    近日,由中國科協(xié)、重慶市人民政府舉辦的2024年中國創(chuàng)新方法大賽全國總決賽在重慶落下帷幕。大華股份靈活運(yùn)用創(chuàng)新方法、突破行業(yè)性技術(shù)難題,憑借“不懼強(qiáng)光,分毫必現(xiàn),基于TRIZ的強(qiáng)逆光銳捕技術(shù)”項(xiàng)目,斬獲全國等獎(jiǎng)。
    的頭像 發(fā)表于 12-04 17:19 ?979次閱讀

    大語言模型優(yōu)化生成管理方法

    大語言模型的優(yōu)化生成管理是個(gè)系統(tǒng)工程,涉及模型架構(gòu)、數(shù)據(jù)處理、內(nèi)容控制、實(shí)時(shí)響應(yīng)以及倫理監(jiān)管等多個(gè)層面。以下,是對(duì)大語言模型優(yōu)化
    的頭像 發(fā)表于 12-02 10:45 ?573次閱讀

    利用全息技術(shù)在硅晶圓內(nèi)部制造納米結(jié)構(gòu)的新方法

    本文介紹了一種利用全息技術(shù)在硅晶圓內(nèi)部制造納米結(jié)構(gòu)的新方法。 研究人員提出了一種在硅晶圓內(nèi)部制造納米結(jié)構(gòu)的新方法。傳統(tǒng)上,晶圓上的微結(jié)構(gòu)加工,僅限于通過光刻技術(shù)在晶圓表面加工納米結(jié)構(gòu)。
    的頭像 發(fā)表于 11-18 11:45 ?961次閱讀

    一種創(chuàng)新的動(dòng)態(tài)軌跡預(yù)測(cè)方法

    本文提出了一種動(dòng)態(tài)軌跡預(yù)測(cè)方法,通過結(jié)合歷史幀和歷史預(yù)測(cè)結(jié)果來提高預(yù)測(cè)的穩(wěn)定性和準(zhǔn)確性。它引入了歷史預(yù)測(cè)注意力模塊,以編碼連續(xù)預(yù)測(cè)之間的動(dòng)態(tài)關(guān)系,并通過三重因子注意力模塊實(shí)現(xiàn)了最先進(jìn)的性能。本方法能夠
    的頭像 發(fā)表于 10-28 14:34 ?1477次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動(dòng)態(tài)軌跡預(yù)測(cè)<b class='flag-5'>方法</b>

    一種將NeRFs應(yīng)用于視覺定位任務(wù)的新方法

    視覺定位旨在估計(jì)在已知環(huán)境中捕獲的給定圖像的旋轉(zhuǎn)和位置,大致可以分為絕對(duì)姿態(tài)回歸(APR),場(chǎng)景坐標(biāo)回歸(SCR)和分層方法(HM)。
    的頭像 發(fā)表于 10-28 10:03 ?794次閱讀
    <b class='flag-5'>一種</b>將NeRFs應(yīng)用于視覺定位任務(wù)的<b class='flag-5'>新方法</b>