chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

首個科學計算基座大模型BBT-Neutron開源,助力突破大科學裝置數(shù)據(jù)分析瓶頸

科訊視點 ? 來源:科訊視點 ? 作者:科訊視點 ? 2024-12-26 15:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大語言模型能否解決傳統(tǒng)大語言模型在大規(guī)模數(shù)值數(shù)據(jù)分析中的局限性問題,助力科學界大科學裝置設計、高能物理領域科學計算?

高能物理是探索宇宙基本組成與規(guī)律的前沿科學領域,研究粒子在極高能量下的相互作用,是揭示宇宙起源、暗物質與暗能量等未解之謎的重要手段。高能物理實驗(如粒子對撞實驗、暗物質與暗能量實驗等)產生的數(shù)據(jù)量極為龐大且復雜,傳統(tǒng)的數(shù)據(jù)分析方法在處理海量數(shù)據(jù)和復雜物理結構時,面臨計算瓶頸。

2024年12月3日,arxiv上更新了一篇將多模態(tài)基座大模型運用于粒子物理科研場景的最新論文《Scaling Particle Collision Data Analysis》,從粒子對撞實驗出發(fā),探索了大語言模型在大科學裝置數(shù)據(jù)分析與科學計算領域的全新應用場景。作者團隊來自超越對稱(上海)技術有限公司,與中國高能物理研究所(高能所)大對撞機CEPC團隊、北京大學等機構的研究人員合作,將其最新研發(fā)的科學基座大模型BBT-Neutron應用于粒子對撞實驗。模型應用了全新的二進制分詞方法(Binary Tokenization),可實現(xiàn)對多模態(tài)數(shù)據(jù)(包括大規(guī)模數(shù)值實驗數(shù)據(jù)、文本和圖像數(shù)據(jù))的混合預訓練。

wKgZO2dtBeSAByRSAAG2Z51mBiM463.png

論文鏈接:https://arxiv.org/abs/2412.00129

代碼地址:https://github.com/supersymmetry-technologies/bbt-neutron

論文中對比了BBT-Neutron的通用架構模型與最先進的專業(yè)JoI模型(如ParticleNet和Particle Transformer)在粒子物理領域的Jet Origin Identification(JoI)分類任務上的實驗結果。粒子分類的識別準確率(圖1-3)表明,研究表明該通用架構的性能與專業(yè)模型持平,這也驗證了基于sequence-to-sequence建模的decoder-only架構在學習物理規(guī)律方面的能力。

wKgZPGdtBeaASCZ_AAIxfO9j1cQ492.png

這些模型在數(shù)據(jù)集大小擴展時都顯示出性能提升,Jet Flavor Tagging Efficiency, Charge Flip Rate形成了S曲線。然而,BBT-Neutron和專業(yè)模型之間觀察到不同的擴展行為,S曲線上的關鍵數(shù)據(jù)閾值表明BBT-Neutron中出現(xiàn)了涌現(xiàn)現(xiàn)象(在專業(yè)架構中未出現(xiàn)),不僅打破了傳統(tǒng)觀念認為該架構不適用于連續(xù)性物理特征建模的局限,更驗證了通用模型在大規(guī)??茖W計算任務中的可擴展性。

wKgZO2dtBeiADt_NAAFmELPvkJY657.png

二進制分詞:統(tǒng)一多模態(tài)數(shù)據(jù)處理,突破數(shù)值數(shù)據(jù)分析瓶頸

近年來大語言模型在文本處理、常識問答等任務上取得了顯著進展,但在處理大規(guī)模數(shù)值數(shù)據(jù)方面依然面臨挑戰(zhàn)。傳統(tǒng)的BPE分詞方法在分詞數(shù)字時可能會引入歧義和不一致,特別是在高能物理、天文觀測等領域,分析復雜的實驗數(shù)據(jù)成為瓶頸。

為了讓大模型更加適配科學計算場景,該研究通過引入一種創(chuàng)新的二進制分詞方法(Binary Tokenization),即利用計算機存儲中使用的二進制表示數(shù)據(jù),實現(xiàn)了數(shù)值數(shù)據(jù)與文本、圖像等多模態(tài)數(shù)據(jù)的統(tǒng)一表示。以使其能夠在無需額外預處理的情況下,通過二進制分詞,實現(xiàn)對所有數(shù)據(jù)類型的統(tǒng)一處理,簡化預處理流程,確保輸入數(shù)據(jù)的一致性。研發(fā)團隊在論文中詳細展示了如何克服傳統(tǒng)BPE方法的局限性及其數(shù)據(jù)處理過程。

BPE方法的局限性

歧義和不一致性

BPE是一種基于頻率的token 化方法,它會根據(jù)上下文將數(shù)字分割成不同的子單元,這可能導致同一數(shù)字在不同上下文中有不同的分割方式。

例如,數(shù)字12345在一個上下文中可能被分割成‘12’、‘34’和‘5’,在另一個上下文中可能被分割成‘1’、‘23’和‘45’。這種分割方式丟失了原始數(shù)值的固有意義,因為數(shù)字的完整性和數(shù)值關系被破壞了。

token ID的不連續(xù)性

BPE會導致數(shù)值的token ID不連續(xù)。例如,數(shù)字‘7’和‘8’的token ID可能被分配為4779和5014。

這種不連續(xù)性使得管理和處理數(shù)值數(shù)據(jù)變得更加復雜,特別是在需要順序或模式化的token ID時,這種不連續(xù)性會影響模型處理和分析數(shù)值數(shù)據(jù)的能力。

單數(shù)字token化的問題

盡管單數(shù)字token 化方法簡單直接,但它也會導致多位數(shù)數(shù)字的token ID不連續(xù)。例如,數(shù)字15可能會被分解為獨立的token ‘1’和‘5’,每個token 都被映射到獨立的token ID。這種分割可能會破壞數(shù)值信息的連續(xù)性,使得模型更難捕捉多位數(shù)數(shù)字內在的結構和關系。

數(shù)值處理方式

對于文本數(shù)據(jù),使用UTF-8編碼將字符轉換為字節(jié)序列。

對于數(shù)值數(shù)據(jù),提供了雙重策略:一種是當保留數(shù)字的確切格式和任何可能重要的前導零時,數(shù)字被視為字符串,然后使用UTF-8編碼;另一種是在進行算術運算或處理重要數(shù)值時,數(shù)字被轉換成其數(shù)值形式(例如,整數(shù)),然后轉換成字節(jié)數(shù)組。 這種方法保證了模型能夠統(tǒng)一且高效地處理各種數(shù)據(jù)類型。

對于科學公式或符號: 復雜的表達式被解析并序列化成字節(jié)序列,捕捉公式的結構和內容。 例如,公式E = mc^2被編碼為字節(jié)數(shù)組[69, 61, 109, 99, 94, 50],代表了公式的結構和變量。

對于圖像數(shù)據(jù),使用patch方法將圖像分解為小塊,提高對高密度像素數(shù)據(jù)的處理效率。

BBT-Neutron模型架構:高效捕獲數(shù)值關系與多功能任務適配

BBT-Neutron模型架構主要由三個關鍵部分組成:Patch Embedding、Patch Self-Attention和LM Head,能夠將輸入序列通過字節(jié)分詞轉換為高維向量,使其具備了包括執(zhí)行分類、回歸任務在內的多種能力。這些任務在許多科學應用中非常常見,目標不一定是生成新序列,也可以是對輸入分類或預測連續(xù)值。

Patch Embedding

包含兩個線性層,第一層將輸入patch投影到高維空間,第二層細化這一表示,產生最終的嵌入向量。

兩層之間引入ReLU激活函數(shù),使模型能夠非線性地表達輸入字節(jié)patch,捕捉patch內部byte之間更復雜的結構。與通常只使用單一層線性嵌入的字節(jié)級模型相比,能夠提供更大的靈活性,更好地表示輸入patch的細節(jié)和非線性關系。

Patch Self-Attention

在patch自注意力機制中,注意力操作在patch層面執(zhí)行,每個patch嵌入包含其所有點的信息,通過矩陣乘法促進不同patch之間的信息交換,同時促進單個patch內部字節(jié)之間的交互,使模型能夠有效捕捉局部和全局依賴。

LM Head

輸出維度定義為Patch Size × 257,其中257代表從0到255的字節(jié)值總數(shù),加上由256表示的填充ID,Patch Size是文本序列被劃分的patch數(shù)量。這種設計允許模型獨立地為每個patch生成預測,保持基于patch方法的效率和有效性。

wKgZPGdtBeuAVumRAAKPgEq6kRs437.png

應用于粒子物理對撞數(shù)據(jù)分析:通用架構性能達到專業(yè)領域的SOTA

開發(fā)團隊在論文中分享了BBT-Neutron通用架構的首次落地實驗結果,輔助粒子物理學中的關鍵任務——噴注來源識別(Jet Origin Identification, JoI),并已取得了突破性成果。

噴注來源識別是高能物理實驗中的核心挑戰(zhàn)之一,旨在區(qū)分來自不同夸克或膠子的噴注。在高能碰撞中產生的夸克或膠子會立即產生一束粒子——主要是強子——朝同一方向運動。這束粒子通常被稱為噴注,是碰撞實驗中物理測量的關鍵對象。識別噴注的起源對于許多物理分析至關重要,尤其是在研究希格斯玻色子、W和Z玻色子時,這些玻色子幾乎70%會直接衰變?yōu)閮蓚€噴注。此外,噴注是我們理解量子色動力學(QCD,描述原子核、質子、中子、夸克的相互作用機制)的基礎。來自不同類型色荷粒子的噴注在它們的可觀測量上只有微小的差異,這使得準確識別噴注的起源極具挑戰(zhàn)性。

wKgZO2dtBeyAROf0AAEqKvNYl3w299.png

實驗結果顯示,該研究與最先進的專業(yè)模型(如Particle Transformer和ParticleNet,將專業(yè)物理定律融入GNN架構設計)的最佳性能持平,達到行業(yè)的SOTA(圖1-3)。這個結果驗證了以sequence to sequence建模方式為基礎的decoder only通用架構,在學習物質世界和物理規(guī)律上具備與專業(yè)模型同等的學習能力。而傳統(tǒng)的觀念認為,seq2seq 建模不適用于時間、空間、能量等具有連續(xù)性特征的物理實在建模,只適合于人類語言這樣的離散符號的建模。而且從左到右具有位置特性的學習方式,不適用于具有時空對稱性的物理結構,要讓模型學習專業(yè)物理定律,需要在專業(yè)模型架構中融入該領域相關結構。該論文研究的成果證明了這種觀念的局限性,為表征時間、空間、能量等基礎的物理量提供了一種有效方案,同時也為物理化學等專業(yè)科學領域構建一個統(tǒng)一模型提供了基礎。

wKgZPGdtBeyABtwEAAGdA8SntDY059.png

Scaling分析:發(fā)現(xiàn)涌現(xiàn)行為

文中通過與ParticleNet和Particle Transformer在JoI任務上的擴展行為的方式進行對比,在數(shù)據(jù)規(guī)模增加下的Scaling行為進行了深入分析。這些訓練數(shù)據(jù)集從100到1000萬事件不等,實驗結果通過混淆矩陣(confusion matrix)、噴注風味標記效率(jet flavor tagging efficiency)和電荷翻轉率(charge flip rate)這三個關鍵指標來衡量模型的表現(xiàn)。

混淆矩陣(Confusion Matrix)即使用了一個11維的混淆矩陣M11來分類每個噴注,根據(jù)最高預測分數(shù)歸類到相應的類別, 塊對角化成2×2的塊,每個塊對應特定的夸克種類。混淆矩陣提供了模型分類性能的全面概覽,突出顯示了在各種噴注類別中正確和錯誤預測的情況。

噴注味標記效率(Jet Flavor Tagging Efficiency)定義為每個塊內值的總和的一半,不區(qū)分由夸克和反夸克產生的噴注。

電荷翻轉率(Charge Flip Rate)定義為塊中非對角線元素與塊總和的比率,代表誤識別夸克和反夸克產生的噴注的概率。

wKgZO2dtBe2ASX58AAEyumZ2Hus874.png

圖4顯示,這些模型在十一種類的粒子噴注來源鑒別的分類問題上表現(xiàn)出相似的性能,并且在數(shù)據(jù)集大小擴展時都顯示出性能提升,Jet Flavor Tagging Efficiency, Charge Flip Rate形成了S曲線。

開發(fā)團隊指出,該模型和專業(yè)模型之間出現(xiàn)了不同的擴展行為。BBT-Neutron的S曲線上的關鍵數(shù)據(jù)閾值,特別是Charge Flip Rate的數(shù)據(jù)發(fā)生到了性能突變,表現(xiàn)出顯著的涌現(xiàn)現(xiàn)象(Model Emergence),然而該現(xiàn)象在ParticleNet或Particle Transformer中并沒有被觀察到。

可能的原因是這些專業(yè)模型納入了特定領域的結構特征,它們采用專門設計的架構來表示粒子相互作用和分類,這可能導致隨著數(shù)據(jù)規(guī)模的增加,性能提升更快達到飽和。與此相反,研究中的通用架構模型,使用統(tǒng)一的數(shù)據(jù)表示來處理所有物理結構。專業(yè)模型架構通過消除位置編碼或相關操作來實現(xiàn)粒子的置換不變性(permutative invariance),BBT-Neutron不依賴置換不變性,而是采用從左到右的序列輸入,這與語言模型的seq2seq范式一致。雖然這種方法需要更大的數(shù)據(jù)集來推斷,但一旦超過臨界數(shù)據(jù)集閾值,它就能實現(xiàn)顯著的性能飛躍,這表明了該模型即使沒有像專業(yè)模型那樣明確在架構設計中納入置換不變性,也能夠通過足量數(shù)據(jù)的學習學到空間對稱性。

通俗而言,當數(shù)據(jù)規(guī)模逐步增加時,該模型在性能上出現(xiàn)了顯著躍遷。這一發(fā)現(xiàn)驗證了通用模型在大規(guī)??茖W計算任務中的可擴展性,即該模型有望成為跨領域的科學計算基座模型。

該論文研究標志著大模型在多模態(tài)數(shù)據(jù)處理與科學計算任務中的巨大潛力。隨著人工智能技術與大科學裝置的深度融合,在未來或許能夠加速中國大對撞機CEPC等前沿科研項目的實施落地。該項目參與者、CEPC團隊成員阮曼奇曾評論道,“人工智能技術將助力大科學設施的設計研發(fā),能大幅提高其科學發(fā)現(xiàn)能力,更好地幫助我們探索世界的奧秘、拓寬人類的知識邊界。反過來,通過總結對比在具體科學問題上觀測到的AI性能差異,也能加深我們對AI技術本身的理解,更好推動AI技術的發(fā)展?!?/p>

wKgZPGdtBe6AO8a9AAIma7cYc00797.png

目前BBT-Neutron科學計算基座模型已經落地到粒子物理、核聚變、強磁場、石油化工、儲能、鈣鈦礦太陽能、飛行傳感器、基因編輯等真實科研工程難題。

關于超對稱技術

超越對稱(上海)技術有限公司位于上海市徐匯區(qū)漕河涇開發(fā)區(qū)內,專注于研發(fā)跨學科、跨結構、跨尺度的科學基座大模型 BigBangTransformer[乾元],賦能科學計算、工業(yè)智能、空間智能、醫(yī)療健康等領域,致力于通過大模型技術攻克物理世界的復雜難題,推動人類邁進“Type II 文明“。

BBT模型發(fā)展歷程

BBT模型歷經三代迭代,持續(xù)探索大模型的科學應用路徑:

2022年:發(fā)布BBT-1,10億參數(shù)的金融預訓練語言模型;

2023年:推出BBT-2,120億參數(shù)的通用大語言模型;

2024年:發(fā)布BBT-Neutron,1.4億參數(shù)的科學基座大語言模型,實現(xiàn)文本、數(shù)值和圖像數(shù)據(jù)的多模態(tài)統(tǒng)一預訓練

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3874

    瀏覽量

    45188
  • 數(shù)據(jù)處理

    關注

    0

    文章

    635

    瀏覽量

    29645
  • 數(shù)據(jù)分析

    關注

    2

    文章

    1493

    瀏覽量

    35708
  • 大模型
    +關注

    關注

    2

    文章

    3348

    瀏覽量

    4701
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【產品介紹】Altair RapidMiner數(shù)據(jù)分析與人工智能平臺

    AltairRapidMiner賦能組織解鎖數(shù)據(jù)洞察,運用數(shù)據(jù)分析和先進的人工智能自動化,提供可擴展的面向未來的解決方案。Altair數(shù)據(jù)分析和人工智能平臺包括數(shù)據(jù)準備、
    的頭像 發(fā)表于 09-18 17:56 ?465次閱讀
    【產品介紹】Altair RapidMiner<b class='flag-5'>數(shù)據(jù)分析</b>與人工智能平臺

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    科學發(fā)現(xiàn)的重要組成部分。 實驗科學:通過觀察和實驗來驗證假說 理論科學:通過構建邏輯框架來解釋觀察到的現(xiàn)象 模型科學:通過數(shù)學
    發(fā)表于 09-17 11:45

    NVIDIA AI助力科學研究領域持續(xù)突破

    隨著 AI 技術的廣泛應用,AI 正在成為科學研究的引擎。NVIDIA 作為重要的技術推手,持續(xù)驅動著 AI 系統(tǒng)解鎖更多領域的科學突破。
    的頭像 發(fā)表于 08-05 16:30 ?794次閱讀

    開源科學計算與系統(tǒng)建模分論壇即將召開

    2025開放原子開源生態(tài)大會即將于7月23-24日在北京國家會議中心二期盛大啟幕。作為大會重要組成部分,開源科學計算與系統(tǒng)建模(openSCS)分論壇將于7月24日上午9:00在會議室
    的頭像 發(fā)表于 07-21 17:48 ?739次閱讀

    AI數(shù)據(jù)分析儀設計原理圖:RapidIO信號接入 平板AI數(shù)據(jù)分析

    AI數(shù)據(jù)分析儀, 平板數(shù)據(jù)分析儀, 數(shù)據(jù)分析儀, AI邊緣計算, 高帶寬數(shù)據(jù)輸入
    的頭像 發(fā)表于 07-17 09:20 ?366次閱讀
    AI<b class='flag-5'>數(shù)據(jù)分析</b>儀設計原理圖:RapidIO信號接入 平板AI<b class='flag-5'>數(shù)據(jù)分析</b>儀

    NVIDIA驅動的現(xiàn)代超級計算機如何突破速度極限并推動科學發(fā)展

    現(xiàn)代高性能計算不僅使得更快的計算成為可能,它正驅動著 AI 系統(tǒng)解鎖更多領域的科學突破。 高性能計算經歷了多次迭代,每一次都源于對技術的創(chuàng)造
    的頭像 發(fā)表于 06-26 19:39 ?794次閱讀
    NVIDIA驅動的現(xiàn)代超級<b class='flag-5'>計算</b>機如何<b class='flag-5'>突破</b>速度極限并推動<b class='flag-5'>科學</b>發(fā)展

    云 GPU 加速計算突破傳統(tǒng)算力瓶頸的利刃

    在數(shù)字化時代,數(shù)據(jù)呈爆炸式增長,傳統(tǒng)的算力已難以滿足復雜計算任務的需求。無論是人工智能的深度學習、大數(shù)據(jù)分析處理,還是科學研究中的模擬
    的頭像 發(fā)表于 02-17 10:36 ?421次閱讀

    Mathematica 在數(shù)據(jù)分析中的應用

    數(shù)據(jù)分析是現(xiàn)代科學研究和商業(yè)決策中不可或缺的一部分。隨著數(shù)據(jù)量的爆炸性增長,對數(shù)據(jù)分析工具的需求也在不斷增加。Mathematica,作為一種強大的
    的頭像 發(fā)表于 12-26 15:41 ?973次閱讀

    數(shù)據(jù)可視化與數(shù)據(jù)分析的關系

    在當今這個信息爆炸的時代,數(shù)據(jù)無處不在。無論是企業(yè)運營、科學研究還是個人決策,我們都需要從海量的數(shù)據(jù)中提取有價值的信息。數(shù)據(jù)分析數(shù)據(jù)可視化
    的頭像 發(fā)表于 12-06 17:09 ?1247次閱讀

    數(shù)據(jù)科學工作流原理

    數(shù)據(jù)科學工作流包括數(shù)據(jù)收集、數(shù)據(jù)預處理、數(shù)據(jù)探索與可視化、特征選擇與工程、模型選擇與訓練、
    的頭像 發(fā)表于 11-20 10:36 ?759次閱讀

    LLM在數(shù)據(jù)分析中的作用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)分析已經成為企業(yè)和組織決策的關鍵工具。數(shù)據(jù)科學家和分析師需要從海量數(shù)據(jù)
    的頭像 發(fā)表于 11-19 15:35 ?1459次閱讀

    為什么選擇eda進行數(shù)據(jù)分析

    數(shù)據(jù)科學領域,數(shù)據(jù)分析是一個復雜且多步驟的過程,它涉及到數(shù)據(jù)的收集、清洗、探索、建模和解釋。在這些步驟中,探索性數(shù)據(jù)分析(EDA)扮演著至
    的頭像 發(fā)表于 11-13 10:41 ?976次閱讀

    北太振寰發(fā)布新版科學計算軟件,助力科研與工程融合

    近日,在重慶舉辦的第三屆數(shù)學促進經濟社會發(fā)展論壇(2024)上,一款備受矚目的科學計算與系統(tǒng)仿真軟件——北太天元v4.0正式發(fā)布。該軟件由北京大學重慶大數(shù)據(jù)研究院孵化的北太振寰(重慶)科技有限公司
    的頭像 發(fā)表于 11-11 13:44 ?738次閱讀

    計算在大數(shù)據(jù)分析中的應用

    計算在大數(shù)據(jù)分析中的應用廣泛且深入,它為用戶提供了存儲、計算、分析和預測的強大能力。以下是對云計算在大
    的頭像 發(fā)表于 10-24 09:18 ?1390次閱讀

    使用AI大模型進行數(shù)據(jù)分析的技巧

    使用AI大模型進行數(shù)據(jù)分析的技巧涉及多個方面,以下是一些關鍵的步驟和注意事項: 一、明確任務目標和需求 在使用AI大模型之前,首先要明確數(shù)據(jù)分析的任務目標,這將直接影響
    的頭像 發(fā)表于 10-23 15:14 ?3495次閱讀