chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

ExMh_zhishexues ? 來源:fqj ? 2019-05-16 14:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來機(jī)器學(xué)習(xí)算法在包括自然語言處理,圖像識(shí)別等諸多領(lǐng)域大放異彩。得益于如Materials Project1, QM92,3等材料數(shù)據(jù)庫的不斷完善和發(fā)展,機(jī)器學(xué)習(xí)正在被越來越多的應(yīng)用在材料學(xué)領(lǐng)域的研究中。然而,由于研究目標(biāo)的單一性,多數(shù)工作仍然局限于解決特定的晶體結(jié)構(gòu)以及特定的材料性質(zhì)預(yù)測(cè)問題。一種泛化的,普適性的機(jī)器學(xué)習(xí)模型仍然是材料學(xué)領(lǐng)域研究的重點(diǎn)目標(biāo)。此研究是基于

基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

在材料學(xué)領(lǐng)域,對(duì)分子或晶體結(jié)構(gòu)的特征描述需要滿足平移,轉(zhuǎn)動(dòng),鏡面不變性,以及對(duì)整體結(jié)構(gòu)特異信息的表征。常見的結(jié)構(gòu)特征描述由于其局域性,缺乏對(duì)整體結(jié)構(gòu)信息的表達(dá),因而不具有普適性。圖網(wǎng)絡(luò)模型(graph-network)是一種基于圖論的結(jié)構(gòu)化模型,從理論上完美解決了這一問題。在圖論中,圖(graph)由若干給定的頂點(diǎn)(node)及連接頂點(diǎn)的邊(edge)構(gòu)成。運(yùn)用到分子(或晶體)結(jié)構(gòu)中,原子(atom)可以由頂點(diǎn)(node)描述,連接原子之間的化學(xué)鍵(bond)可以由邊(edge)描述,從而可以把一個(gè)個(gè)分子或晶體結(jié)構(gòu)看作一個(gè)個(gè)獨(dú)立的“圖”?;诖祟惸P偷慕Y(jié)構(gòu)描述方法,科研工作者可以開發(fā)出針對(duì)任何材料結(jié)構(gòu)或任何物理化學(xué)性質(zhì)的普適性模型。盡管具有理論可行性,此類模型由于模型復(fù)雜度,材料數(shù)據(jù)量的限制,仍很少被應(yīng)用在材料學(xué)領(lǐng)域中4,5。近日,UC San Diego 的 Shyue Ping Ong 課題組基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架6,開發(fā)了一套分子和晶體通用性質(zhì)預(yù)測(cè)模型(MEGNet),在各項(xiàng)性質(zhì)預(yù)測(cè)測(cè)試中達(dá)到了領(lǐng)先水平7。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

圖 1. MEGNet 概述。每個(gè)分子/晶體結(jié)構(gòu)由化學(xué)鍵信息,原子信息,和狀態(tài)信息描述。每個(gè)結(jié)構(gòu)描述輸入模型后,依次更新,直到總的結(jié)構(gòu)輸出性質(zhì)與DFT計(jì)算值接近。

圖1中描述了該模型的工作模式: 每個(gè)結(jié)構(gòu)可用三個(gè)向量表征,分別包含原子信息,化學(xué)鍵信息,和狀態(tài)函數(shù)信息。在每一次模型訓(xùn)練迭代中,依次更新化學(xué)鍵向量,原子向量,和狀態(tài)函數(shù)向量,得到新的結(jié)構(gòu)表征向量,直到通過該表征輸出的性質(zhì)與DFT計(jì)算結(jié)果趨于一致。作者首先用QM9 分子數(shù)據(jù)集中超過130k數(shù)據(jù)作為訓(xùn)練集訓(xùn)練模型,并用得到的模型預(yù)測(cè)分子中的13項(xiàng)物理化學(xué)性質(zhì),在其中的11項(xiàng)中達(dá)到同類模型中的最優(yōu)結(jié)果(表1)。更為先進(jìn)的是,之前的工作對(duì)由狀態(tài)參數(shù)關(guān)聯(lián)的狀態(tài)函數(shù),如內(nèi)能(U0, U),焓(H),和吉布斯自由能(G),采用的是分別訓(xùn)練模型進(jìn)行預(yù)測(cè)的方法。

然而本工作中,作者采用加入狀態(tài)參數(shù)作為輸入的方法,可由單一模型同時(shí)預(yù)測(cè)U0, U, H和G,并保持與分別模型訓(xùn)練類似的準(zhǔn)確度,大大提高了訓(xùn)練效率[YZ1]。在針對(duì)晶體結(jié)構(gòu)的應(yīng)用中,作者用Materials Project數(shù)據(jù)庫中超過69k數(shù)據(jù)作為訓(xùn)練集,針對(duì)生成能,能帶帶隙,體積模量和剪切模量進(jìn)行了回歸(Regression)分析,并用帶隙值作為金屬和非金屬的判據(jù)進(jìn)行分類(classification)分析?;貧w分析中的平均絕對(duì)誤差(MAE)低于同類型模型SchNet4和CGCNN5(表2),金屬和非金屬分類分析中綜合準(zhǔn)確率達(dá)86.9%,ROC中AUC達(dá)到0.926,與此前最優(yōu)模型CGCNN類似。

表1. 不同模型在QM9上預(yù)測(cè)13項(xiàng)性質(zhì)的平均絕對(duì)誤差(MAE)對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

表2. MEGNet和其他基于圖像模型

在Materials Project數(shù)據(jù)集的預(yù)測(cè)準(zhǔn)確度對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

在對(duì)模型的深入分析中,作者發(fā)現(xiàn),從最優(yōu)模型中提取出的元素映射(embedding)與化學(xué)常識(shí)吻合。例如,將元素映射投影二維空間可發(fā)現(xiàn),Eu和Yb與其他鑭系元素距離較遠(yuǎn),而與堿土金屬更接近,這與化學(xué)經(jīng)驗(yàn)相符。這樣的分析一方面佐證了模型可以學(xué)習(xí)到可靠的化學(xué)信息,另一方面可將學(xué)習(xí)到的化學(xué)信息用于遷移學(xué)習(xí),以大大降低訓(xùn)練新模型訓(xùn)練所需數(shù)據(jù)量。例如,在此例中,作者通過用~69k生成熱的數(shù)據(jù)訓(xùn)練的模型提取的元素映射,用于預(yù)測(cè)帶隙和彈性性質(zhì)的模型訓(xùn)練,后者的數(shù)據(jù)量只有生成熱的一半甚至十分之一。通過遷移學(xué)習(xí)的方法作者得到比直接訓(xùn)練更低的MAE和提高兩倍的收斂速度。這為小數(shù)據(jù)量的性質(zhì)的高效準(zhǔn)確模型訓(xùn)練提供了可行的方案。

在模型的使用方面,用戶可登陸http://megnet.crystals.ai,根據(jù)提示輸入晶體結(jié)構(gòu)編碼或cif文件即可得到模型預(yù)測(cè)的性質(zhì)。另外,文章所涉及的Python代碼均已開源(https://github.com/materialsvirtuallab/megnet.git)。下面示例如何使用已有模型和訓(xùn)練新的模型。

1示例一: 使用分子模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

2示例二:使用晶體模型預(yù)測(cè)剪切模量

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

3示例三:訓(xùn)練新模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:MEGNet普適性圖神經(jīng)網(wǎng)絡(luò),精確預(yù)測(cè)分子和晶體性質(zhì)

文章出處:【微信號(hào):zhishexueshuquan,微信公眾號(hào):知社學(xué)術(shù)圈】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對(duì)MNIST手寫數(shù)字圖像進(jìn)行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進(jìn)行分類預(yù)測(cè)。訓(xùn)練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)與動(dòng)態(tài)適應(yīng)神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?707次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)<b class='flag-5'>性</b>與動(dòng)態(tài)適應(yīng)<b class='flag-5'>性</b>的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證了該算法的有效。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?871次閱讀

    使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)

    使用BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)是一種常見且有效的方法。以下是一個(gè)基于BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)的詳細(xì)步驟和考慮因素: 一、數(shù)據(jù)準(zhǔn)備 收集數(shù)據(jù) :
    的頭像 發(fā)表于 02-12 16:44 ?1268次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?1311次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要 學(xué)習(xí)率決定了模型參數(shù)在每次迭代時(shí)更新的幅度。過大的學(xué)習(xí)率可能導(dǎo)致模型在
    的頭像 發(fā)表于 02-12 15:51 ?1427次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的分類、回歸等任務(wù),無需人工進(jìn)行復(fù)雜的特征工程。 泛化能力強(qiáng) : BP神經(jīng)網(wǎng)絡(luò)通過訓(xùn)練數(shù)據(jù)學(xué)習(xí)到的特征表示,能夠?qū)ξ粗獢?shù)據(jù)進(jìn)行
    的頭像 發(fā)表于 02-12 15:36 ?1592次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這些誤差反向傳播到前一層,從而調(diào)整權(quán)重,使得
    的頭像 發(fā)表于 02-12 15:18 ?1279次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?1342次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?1522次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?2256次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法