chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

NVIDIA英偉達 ? 來源:未知 ? 2023-06-14 18:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到紐約大學朗格尼健康中心。

從醫(yī)院出院對病人來說是一座重要的里程碑,但有時這并不代表著他們已完全康復。在美國,有近 15% 的住院病人在首次出院后 30 天內(nèi)再次入院,并且往往伴隨著病情惡化與對患者及院方來說都更高的住院費用。

紐約大學學術(shù)醫(yī)療中心——紐約大學朗格尼健康中心(NYU Langone Health)的研究人員與 NVIDIA 專家攜手開發(fā)了一個可預測病人 30 天內(nèi)再入院風險以及其他臨床結(jié)果的大型語言模型(LLM)。

這個刊登在科學期刊《自然》(Nature)上的 NYUTron 模型被部署在該醫(yī)療系統(tǒng)的六座住院樓中。它能夠為醫(yī)生提供 AI 所驅(qū)動的洞察,幫助他們識別需要通過臨床干預的病人,以減少患者再入院概率。

紐約大學格羅斯曼醫(yī)學院放射學和神經(jīng)外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“當你讓病人出院時,肯定不希望他們需要再回來,或者其實在當時就應該延長病人的住院時間。借助 AI 模型的分析,我們很快就能幫助臨床醫(yī)生預防或解決那些使病人面臨更高再入院風險的情況。”

到目前為止,該模型已被應用于紐約大學醫(yī)療系統(tǒng)中的 5 萬多名出院患者。它會通過電子郵件告知醫(yī)生再入院風險的預測。Oermann 的團隊接下來正計劃通過一項臨床試驗,測試依據(jù) NYUTron 的分析所采取的干預措施是否能夠降低再入院率。

應對短期再入院等風險

美國政府追蹤 30 日再入院率并以此作為醫(yī)院的護理質(zhì)量指標。再入院率高的醫(yī)療機構(gòu)會被處以罰款,這項制度能夠激勵醫(yī)院改進其出院流程。

新出院的病人可能會因為感染、過度使用抗生素、過早移除手術(shù)引流管等原因而需要再入院。如果這些風險因素能夠被更早地發(fā)現(xiàn),醫(yī)生就可以通過調(diào)整治療計劃或延長病人留院觀察時間來進行干預。

Oermann 表示:“雖然自 20 世紀 80 年代以來就有了預測病人再入院的計算模型,但我們把它看作一項需要衛(wèi)生系統(tǒng)規(guī)模臨床文本語料庫的自然語言處理任務。我們使用電子健康記錄的非結(jié)構(gòu)化數(shù)據(jù)訓練我們的 LLM,檢查它是否能夠捕捉到人們之前沒有考慮過的洞察。”

NYUTron 使用紐約大學朗格尼健康中心的 10 年健康記錄進行了預訓練。這些記錄由近 40 萬名病人超過 40 億字的臨床筆記組成。相比最先進的機器學習模型,該模型預測再入院的準確率提高了 10% 以上。

一旦該 LLM 為 30 天再入院的初始用例進行了訓練,該團隊就能在一周左右的時間里推出了其他四種預測算法,包括預測病人的住院時間、院內(nèi)死亡的可能性以及病人保險理賠被拒的幾率。

Oermann 表示:“經(jīng)營一家醫(yī)院在某些方面就像管理一家酒店。能夠幫助醫(yī)院更高效運營的洞察意味著醫(yī)院能夠騰出更多床位并為更多病人提供更高質(zhì)量的照護。”

從訓練到部署一個 LLM

NYUTron 是一個擁有數(shù)億參數(shù)的 LLM。它在一個由NVIDIA A100 Tensor Core GPU 組成的大型集群上使用 NVIDIA NeMo Megatron 框架訓練而成。

Oermann 表示:“如今,大部分關(guān)于語言模型的討論都圍繞著具有數(shù)十億參數(shù)的超大型通用模型,這些模型使用數(shù)百乃至數(shù)千個 GPU 在混亂的數(shù)據(jù)集上訓練而成。我們反其道而行之,使用在高度精煉的數(shù)據(jù)上訓練的中等規(guī)模的模型來完成特定醫(yī)療任務?!?/p>

為了優(yōu)化模型以便在現(xiàn)實醫(yī)院進行推理,該團隊開發(fā)了一個修改版的NVIDIA Triton 開源軟件,以便利用NVIDIA TensorRT 軟件開發(fā)工具套件簡化 AI 模型部署。

Oermann 表示:“像這樣的模型必須要高效運行才能被部署到實時醫(yī)療環(huán)境中。Triton 提供了你在一個推理框架中想要的一切,讓我們的模型能夠飛速運行?!?/p>

Oermann 的團隊發(fā)現(xiàn),在對他們的 LLM 進行預訓練后,只需使用特定醫(yī)院的數(shù)據(jù)在現(xiàn)場進行微調(diào)就能大幅提高準確率,這個特點可以幫助其他醫(yī)療機構(gòu)部署類似的模型。

他表示:“并不是所有醫(yī)院都擁有完全自主訓練一個大型語言模型所需要的資源,但他們可以采用像 NYUTron 這樣的預訓練模型,然后通過云端的 GPU 使用少量本地數(shù)據(jù)樣本對模型進行微調(diào)。這對于許多醫(yī)療機構(gòu)來說都是可以做到的?!?/p>

如要進一步了解 NYUTron,請閱讀《自然》期刊中的論文。點擊“閱讀原文”,點播觀看 NVIDIA 與紐約大學的相關(guān)講座。

掃描下方海報二維碼,觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進展!


原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93767

原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語言模型

    NVIDIA攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級 AI。
    的頭像 發(fā)表于 06-12 15:42 ?428次閱讀

    小白學大模型:從零實現(xiàn) LLM語言模型

    在當今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學習大量的文本數(shù)據(jù),
    的頭像 發(fā)表于 04-30 18:34 ?509次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    AI大語言模型開發(fā)步驟

    開發(fā)一個高效、準確的大語言模型是一個復雜且多階段的過程,涉及數(shù)據(jù)收集與預處理、模型架構(gòu)設計、訓練與優(yōu)化、評估與調(diào)試等多個環(huán)節(jié)。接下來,AI部落小編為大家詳細闡述AI大
    的頭像 發(fā)表于 12-19 11:29 ?896次閱讀

    NVIDIA預測2025年AI行業(yè)發(fā)展

    NVIDIA 加速計算、數(shù)據(jù)科學和研究領(lǐng)域?qū)<?b class='flag-5'>預測,多模態(tài)模型將推動行業(yè)創(chuàng)新和效率提升。
    的頭像 發(fā)表于 12-18 13:49 ?1253次閱讀

    NaVILA:加州大學與英偉達聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學的研究人員攜手英偉達,共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機器人導航領(lǐng)域展現(xiàn)出了獨特的應用潛力,為智能機
    的頭像 發(fā)表于 12-13 10:51 ?686次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹
    的頭像 發(fā)表于 12-06 10:28 ?525次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大
    的頭像 發(fā)表于 12-04 11:44 ?693次閱讀

    Orange與OpenAI、Meta合作開發(fā)非洲語言AI大模型

    OpenAI和Meta將攜手法國電信運營商Orange SA,共同開發(fā)針對非洲語言的人工智能大模型。該項目旨在解決非洲大陸數(shù)千種方言模型短缺
    的頭像 發(fā)表于 12-02 11:00 ?633次閱讀

    云端語言模型開發(fā)方法

    云端語言模型開發(fā)是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)準備、模型選擇、訓練優(yōu)化、部署應用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言
    的頭像 發(fā)表于 12-02 10:48 ?690次閱讀

    語言模型如何開發(fā)

    語言模型開發(fā)是一個復雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構(gòu)設計、訓練、微調(diào)和部署等多個階段。以下是對大語言
    的頭像 發(fā)表于 11-04 10:14 ?605次閱讀

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?407次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價值

    NVIDIA CorrDiff生成式AI模型能夠精準預測臺風

    NVIDIA GPU 上運行的一個擴散模型向天氣預報工作者展示了加速計算如何實現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?1288次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    的表達方式和生成能力。通過預測文本中缺失的部分或下一個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言
    發(fā)表于 08-02 11:03

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領(lǐng)先語言模型Mistral NeMo 12B。開發(fā)者可以輕松定制和部署該模型
    的頭像 發(fā)表于 07-27 11:04 ?1159次閱讀