chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

解決醫(yī)療大模型訓練數(shù)據(jù)難題,商湯最新研究成果登「Nature」子刊

商湯科技SenseTime ? 來源:未知 ? 2023-09-12 18:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

生成式AI正為醫(yī)療大模型迭代按下加速鍵。 近日,商湯科技聯(lián)合行業(yè)合作伙伴,結合生成式人工智能和醫(yī)療圖像數(shù)據(jù)的多中心聯(lián)邦學習發(fā)表的最新研究成果《通過分布式合成學習挖掘多中心異構醫(yī)療數(shù)據(jù)》(MiningMulti-Center Heterogeneous Medical Data with Distributed Synthetic Learning),登上國際頂級學術期刊Nature子刊《自然-通訊》(NatureCommunications)。

《自然-通訊》主要發(fā)表自然科學各個領域的高質(zhì)量研究成果,影響因子16.6。

wKgZomUAQ4aAXHpLAAG9kpKwPaA348.png研究成果提出一個基于分布式合成對抗網(wǎng)絡的聯(lián)邦學習框架DSL(DistributedSynthetic Learning),可利用多中心的多樣性醫(yī)療圖像數(shù)據(jù)來聯(lián)合學習圖像數(shù)據(jù)的生成。

該分布式框架通過學習得到一個圖像數(shù)據(jù)生成器,可以更靈活地生成數(shù)據(jù),進而可替代多中心的真實數(shù)據(jù),用于下游具體機器學習任務的訓練,并具備較強可擴展性。

伴隨大模型快速發(fā)展,Model as a Service(MaaS,模型即服務)正成為一大趨勢。MaaS的大模型需要從海量的、多類型的數(shù)據(jù)中學習通用特征和規(guī)則,從而具備較強的泛化能力。

DSL框架能在保護數(shù)據(jù)隱私的同時,巧妙解決醫(yī)療大模型訓練中常見的數(shù)據(jù)量不足的瓶頸,有效賦能MaaS的大模型訓練。

在這一技術支撐下,商湯“醫(yī)療大模型工廠”能夠幫助醫(yī)療機構更高效、高質(zhì)量地訓練針對不同臨床問題的醫(yī)療大模型,使大模型在醫(yī)療領域的應用半徑得以延伸。

兼顧隱私保護和數(shù)據(jù)共享

創(chuàng)新聯(lián)邦學習模式打造

“數(shù)據(jù)生產(chǎn)工廠”

深度學習模型需要大量且多樣性的數(shù)據(jù)“喂養(yǎng)”。

醫(yī)療領域?qū)τ脩綦[私保護有著極高要求,使得模型訓練的醫(yī)療數(shù)據(jù)在多樣性和標注質(zhì)量上都受到限制,也使多中心的醫(yī)療數(shù)據(jù)收集和醫(yī)療AI模型的開發(fā)迭代面臨較大挑戰(zhàn)。

如何調(diào)和隱私保護和數(shù)據(jù)共享協(xié)作的矛盾?

聯(lián)邦學習提供了全新的解題思路。聯(lián)邦學習是一種分布式機器學習方法, 可以在不共享數(shù)據(jù)的情況下對多中心的數(shù)據(jù)進行聯(lián)合建模,聯(lián)合學習某一特定應用模型。

與主流的聯(lián)邦學習模式不同,DSL框架的學習目標是數(shù)據(jù)生成器,而非具體應用的任務模型。

該分布式架構由一個位于中央服務器的數(shù)據(jù)生成器和多個位于不同數(shù)據(jù)中心的數(shù)據(jù)鑒別器組成。

在學習過程中,中央生成器負責生成“假”的圖像數(shù)據(jù),并發(fā)送給各個數(shù)據(jù)中心,各個數(shù)據(jù)中心用本地的真實數(shù)據(jù)和“假”數(shù)據(jù)進行對比后將結果回傳給中央服務器,并基于反饋結果訓練中央生成器生成更仿真的圖像數(shù)據(jù)。

分布式的合成學習結束后,中央生成器可作為“數(shù)據(jù)生產(chǎn)工廠”,根據(jù)給定的約束條件(標注)生成高質(zhì)量仿真圖像數(shù)據(jù),從而得到一個由生成數(shù)據(jù)組成的數(shù)據(jù)庫。

該數(shù)據(jù)庫可替代真實數(shù)據(jù),用于下游具體任務的學習,使下游模型的更新迭代不再受到真實數(shù)據(jù)可訪問性制約。同時,該方法通過分布式架構和聯(lián)邦學習方式保證中央服務器無需接觸數(shù)據(jù)中心真實數(shù)據(jù),也不需要同步各中心的鑒別器模型,有效保障了數(shù)據(jù)安全和隱私保護。

wKgZomUAQ4eAZkDSAAE1q9E-7O0726.jpg ?DSL框架包含一個中央生成器和多個分布式鑒別器,每個鑒別器位于一個醫(yī)療實體中。經(jīng)過訓練的生成器可以作為“數(shù)據(jù)生產(chǎn)工廠”,為下游具體任務的學習構建數(shù)據(jù)庫

賦能MaaS新生態(tài)

為醫(yī)療大模型開發(fā)迭代

按下加速鍵

DSL框架已通過多個具體應用的驗證。

包括:大腦多序列MRI圖像生成及下游的大腦腫瘤分割任務,心臟CTA圖像生成及下游的全心臟結構分割任務,多種器官的病理圖像生成及細胞核實例分割任務等。

在可擴展性方面,該方法還可支持多模態(tài)數(shù)據(jù)中缺失模態(tài)數(shù)據(jù)的生成、持續(xù)學習等不同場景。

wKgZomUAQ4iAFnoPAAmOOAsN7sg770.png ?不同應用中生成數(shù)據(jù)示例:(a) 心臟CTA,(b) 大腦多模態(tài)MRI,(c) 病理圖像;生成的數(shù)據(jù)構成大數(shù)據(jù)庫可用于下游具體任務模型的學習,例如:(d) 全心分割,(e) 腦腫瘤分割,(f) 細胞核分割

DSL框架的構建,也有利于推動MaaS服務模式發(fā)展。

MaaS的醫(yī)療大模型在數(shù)據(jù)學習過程中,同樣會遇到醫(yī)療數(shù)據(jù)隱私安全保護問題。基于DSL框架,可以有效地從多中心多樣性數(shù)據(jù)中建立數(shù)據(jù)集倉庫,通過生成數(shù)據(jù),為大模型的開發(fā)迭代提供創(chuàng)新思路。

細化到具體應用場景,DSL框架可助力醫(yī)療機構高效開展跨中心、跨地域模型訓練工作。

不同區(qū)域醫(yī)療機構在疾病數(shù)據(jù)多樣性方面存在明顯地域性差異,過去受限于數(shù)據(jù)安全和隱私保護要求,使用跨中心醫(yī)療數(shù)據(jù)聯(lián)合訓練醫(yī)療模型難度大。而借助DSL框架,有望幫助醫(yī)療機構更加高效便捷地開展跨中心醫(yī)療模型訓練。

在2023 WAIC世界人工智能大會上,商湯科技與行業(yè)伙伴合作推出醫(yī)療大語言模型、醫(yī)療影像大模型、生信大模型等多種垂類基礎模型群,覆蓋CT、MRI、超聲、內(nèi)鏡、病理、醫(yī)學文本、生信數(shù)據(jù)等不同醫(yī)療數(shù)據(jù)模態(tài)。并展示了融入醫(yī)療大模型的升級版“SenseCare智慧醫(yī)院”綜合解決方案,以及多個醫(yī)療大模型落地案例。

借助商湯大裝置的超大算力和醫(yī)療基礎模型群的堅實基礎,商湯得以成為“醫(yī)療大模型工廠”,幫助醫(yī)療機構針對不同臨床問題高效訓練模型,甚至輔助機構實現(xiàn)模型自主訓練。

wKgZomUAQ4mAH_JMAAKrxGSsCzI520.jpg ?WAIC期間商湯科技展示大模型在醫(yī)療領域的多個落地應用案例

隨著DSL框架的推出,醫(yī)療大模型訓練將有望突破“數(shù)據(jù)孤島”的桎梏,一定程度上降低醫(yī)療大模型的訓練門檻,有助于加速模型開發(fā)迭代,使醫(yī)療大模型的應用范圍得以覆蓋更多臨床醫(yī)療問題。

商湯科技將持續(xù)聚焦醫(yī)療機構的多樣化需求,推動醫(yī)療大模型在更多醫(yī)療場景落地。 點擊“閱讀原文“查看論文詳情

wKgZomUAQ4qAYHQEAAATzh3tzFA369.gif

相關閱讀,戳這里

多場景落地!商湯打造“醫(yī)療模型工廠”引領智慧醫(yī)療持續(xù)創(chuàng)新》

《嘉會醫(yī)療與商湯科技達成戰(zhàn)略合作》

wKgZomUAQ4qAT2AyAAC4LKEIjVg879.jpg


原文標題:解決醫(yī)療大模型訓練數(shù)據(jù)難題,商湯最新研究成果登「Nature」子刊

文章出處:【微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 商湯科技
    +關注

    關注

    8

    文章

    586

    瀏覽量

    37197

原文標題:解決醫(yī)療大模型訓練數(shù)據(jù)難題,商湯最新研究成果登「Nature」子刊

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    商湯大裝置重磅發(fā)布多項標志性成果

    在2025世界人工智能大會(WAIC 2025)期間,作為“最懂大模型的AI基礎設施”,商湯大裝置重磅發(fā)布多項標志性成果,持續(xù)打造AI基礎設施發(fā)展新范式,力推動產(chǎn)業(yè)生態(tài)與應用場景的系統(tǒng)化落地。
    的頭像 發(fā)表于 08-05 10:07 ?732次閱讀

    NVIDIA展示機器人領域的研究成果

    在今年的機器人科學與系統(tǒng)會議 (RSS) 上,NVIDIA 研究中心展示了一系列推動機器人學習的研究成果,展示了在仿真、現(xiàn)實世界遷移和決策制定領域的突破。
    的頭像 發(fā)表于 07-23 10:43 ?897次閱讀

    Nullmax端到端自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結果,Nullmax 感知團隊在端到端自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1373次閱讀
    Nullmax端到端自動駕駛最新<b class='flag-5'>研究成果</b>入選ICCV 2025

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文獎

    近日,北京后摩智能科技有限公司與北京大學集成電路學院孫廣宇長聘副教授團隊、上海交通大學張宸助理教授團隊、香港科技大學謝源講席教授團隊、東南大學司鑫副教授團隊及阿里巴巴達摩院合作的研究成果
    的頭像 發(fā)表于 07-05 11:21 ?1562次閱讀

    NVIDIA在ICRA 2025展示多項最新研究成果

    在亞特蘭大舉行的國際機器人與自動化大會 (ICRA) 上,NVIDIA 展示了其在生成式 AI、仿真和自主操控領域的多項研究成果。
    的頭像 發(fā)表于 06-06 14:56 ?927次閱讀

    數(shù)據(jù)標注服務—奠定大模型訓練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓練過程中不可或缺的基礎環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓練中,
    的頭像 發(fā)表于 03-21 10:30 ?1860次閱讀

    標貝數(shù)據(jù)標注服務:奠定大模型訓練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓練過程中不可或缺的基礎環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓練中,
    的頭像 發(fā)表于 03-21 10:27 ?710次閱讀
    標貝<b class='flag-5'>數(shù)據(jù)</b>標注服務:奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石

    是否可以輸入隨機數(shù)據(jù)集來生成INT8訓練后量化模型?

    無法確定是否可以輸入隨機數(shù)據(jù)集來生成 INT8 訓練后量化模型
    發(fā)表于 03-06 06:45

    商湯醫(yī)療聯(lián)合成立上海公共服務MaaS訓練成果轉(zhuǎn)化聯(lián)盟

    助力構建全鏈條大模型訓練成果轉(zhuǎn)化體系,打通產(chǎn)學研醫(yī)合作生態(tài),商湯醫(yī)療再拓“醫(yī)療
    的頭像 發(fā)表于 11-28 10:57 ?903次閱讀

    如何訓練自己的LLM模型

    訓練自己的大型語言模型(LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關
    的頭像 發(fā)表于 11-08 09:30 ?1864次閱讀

    商湯醫(yī)療與上海臨床創(chuàng)新轉(zhuǎn)化研究院簽署戰(zhàn)略合作協(xié)議

    近日, 商湯醫(yī)療與上海臨床創(chuàng)新轉(zhuǎn)化研究院(以下簡稱“臨轉(zhuǎn)院”)簽署戰(zhàn)略合作協(xié)議 。
    的頭像 發(fā)表于 11-07 14:45 ?1064次閱讀

    AI大模型訓練數(shù)據(jù)來源分析

    AI大模型訓練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構建和優(yōu)化AI模型至關重要。以下是對AI大模型
    的頭像 發(fā)表于 10-23 15:32 ?5320次閱讀

    如何訓練自己的AI大模型

    訓練AI大模型之前,需要明確自己的具體需求,比如是進行自然語言處理、圖像識別、推薦系統(tǒng)還是其他任務。 二、數(shù)據(jù)收集與預處理 數(shù)據(jù)收集 根據(jù)任務需求,收集并準備好足夠的
    的頭像 發(fā)表于 10-23 15:07 ?6020次閱讀

    SynSense時識科技與海南大學聯(lián)合研究成果發(fā)布

    近日,SynSense時識科技與海南大學聯(lián)合在影響因子高達7.7的國際知名期刊《Computers in Biology and Medicine》上發(fā)表了最新研究成果,展示了如何用低維信號通用類腦
    的頭像 發(fā)表于 10-23 14:40 ?1101次閱讀
    SynSense時識科技與海南大學聯(lián)合<b class='flag-5'>研究成果</b>發(fā)布

    直播預約 |數(shù)據(jù)智能系列講座第4期:預訓練的基礎模型下的持續(xù)學習

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預訓練的基礎模型下的持續(xù)學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目預訓練的基礎
    的頭像 發(fā)表于 10-18 08:09 ?813次閱讀
    直播預約 |<b class='flag-5'>數(shù)據(jù)</b>智能系列講座第4期:預<b class='flag-5'>訓練</b>的基礎<b class='flag-5'>模型</b>下的持續(xù)學習