chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英特爾助惠每醫(yī)療大模型方案在至強(qiáng)? 平臺上實(shí)現(xiàn)雙維優(yōu)化

英特爾中國 ? 來源:未知 ? 2023-11-24 20:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

"

大模型等 AI 技術(shù),正在像水、電等基礎(chǔ)設(shè)施能力一樣,在醫(yī)療機(jī)構(gòu)的未來醫(yī)療服務(wù)體系中具有無可替代的價(jià)值。為幫助醫(yī)療機(jī)構(gòu)應(yīng)對在大模型私有化部署中面臨的成本高、落地難等難題,我們與英特爾展開合作,在第四代英特爾 至強(qiáng) 可擴(kuò)展處理器的基礎(chǔ)上,以 BigDL-LLM 庫和 OpenVINO 工具套件作為推理優(yōu)化方案的左右手,雙管齊下,打造高質(zhì)量、低成本的醫(yī)療 AI 應(yīng)用并獲得了預(yù)期推廣成果。

王實(shí)

CTO

北京惠每云科技有限公司

"

人工智能 (Artificial Intelligence,AI) 在醫(yī)療領(lǐng)域的落地,正為醫(yī)療行業(yè)的信息化、數(shù)字化進(jìn)程帶來新一輪質(zhì)變,它可以通過優(yōu)化診療效率,改善患者體驗(yàn),提升全民健康服務(wù)水平。近年來引人矚目的大語言模型 (Large Language Model,LLM,以下簡稱“大模型”) 技術(shù),以其更強(qiáng)的學(xué)習(xí)性能和更優(yōu)的模型擬合效果,更是為 AI 在醫(yī)療領(lǐng)域中的應(yīng)用注入了新動力。

領(lǐng)先的醫(yī)療人工智能解決方案提供商北京惠每云科技有限公司 (以下簡稱“惠每科技”) 以其臨床決策支持系統(tǒng) (Clinical Decision Support System,CDSS) 產(chǎn)品和海量醫(yī)療數(shù)據(jù)為基礎(chǔ),積極引入大模型技術(shù)來為醫(yī)療機(jī)構(gòu)打造更高品質(zhì)的醫(yī)療 AI 應(yīng)用。但這并非易事,醫(yī)療機(jī)構(gòu)對數(shù)據(jù)安全的顧慮,以及昂貴的 AI 專用芯片部署和應(yīng)用成本是阻礙這一進(jìn)程的兩大“攔路虎”。

為幫助醫(yī)療機(jī)構(gòu)在其廣泛應(yīng)用的 IT 平臺上實(shí)現(xiàn)高質(zhì)量、低成本的大模型私有化部署,惠每科技與英特爾展開技術(shù)合作,對醫(yī)療大模型在英特爾 至強(qiáng) 平臺上的推理性能實(shí)施優(yōu)化。雙方在以第四代英特爾 至強(qiáng) 可擴(kuò)展處理器為核心的硬件基礎(chǔ)設(shè)施上,采用 BigDL-LLM 大模型開源庫與 OpenVINO 工具套件打造了兩種大模型優(yōu)化方案。實(shí)際部署后的測試結(jié)果表明:在保證精準(zhǔn)度以及不增加成本的前提下,優(yōu)化后的方案可有效提升鑒別診斷、出院記錄等醫(yī)療 AI 應(yīng)用的處理效率,并獲得了醫(yī)生的認(rèn)可。

大模型技術(shù)正成為醫(yī)療 AI 發(fā)展新動力

得益于強(qiáng)勁算力與海量數(shù)據(jù)的加持,高速發(fā)展的大模型技術(shù)正以一系列極具震撼力的應(yīng)用場景,成為 AI 領(lǐng)域令人矚目的焦點(diǎn)。與傳統(tǒng) AI 技術(shù)相比,參數(shù)規(guī)模龐大 (動輒數(shù)百乃至上千億參數(shù)量級) 的大模型不僅具備更強(qiáng)的學(xué)習(xí)性能和更優(yōu)的模型擬合效果,還擁有高效的遷移學(xué)習(xí)能力,這能讓用戶在一個通用模型上完成不同類型的任務(wù)。此外,對思維鏈 (Chain of Thought,CoT) 的良好支持,也使大模型應(yīng)用補(bǔ)齊了傳統(tǒng) AI 在邏輯推理能力上的短板。

上述優(yōu)勢不僅讓大模型技術(shù)與應(yīng)用成為了各大科技巨頭爭先探索的藍(lán)海,也推動了其在社交、金融、電商以及醫(yī)療等垂直領(lǐng)域的迅速落地,并顯現(xiàn)出巨大的市場潛力。有相關(guān)預(yù)測數(shù)據(jù)表明,大模型市場在未來數(shù)年都將保持 21.4% 的年復(fù)合增長率 (Compound Annual Growth Rate, CAGR),到 2029 年或達(dá) 408 億美元的市場規(guī)模1


在醫(yī)療行業(yè),無論是面向大眾提供普惠醫(yī)療服務(wù)的智能問答與家庭醫(yī)療助手,還是有助于醫(yī)護(hù)人員提升效率的 AI 導(dǎo)診和臨床輔助診療應(yīng)用,或是加速醫(yī)療影像處理效能,提高大病、惡疾早期發(fā)現(xiàn)率的 AI 閱片等,眾多醫(yī)療 AI 企業(yè)正在借助大模型來提升這些應(yīng)用的性能,幫助醫(yī)療機(jī)構(gòu)在診療服務(wù)全流程中實(shí)現(xiàn)更全面且優(yōu)質(zhì)的服務(wù)能力、更精準(zhǔn)的結(jié)果輸出以及更廣泛的運(yùn)用范圍。而其中,深耕醫(yī)療信息化多年,具有出色醫(yī)療 AI 應(yīng)用研發(fā)能力和頭部優(yōu)勢的惠每科技,也在這一趨勢中將大模型作為其技術(shù)再突破、服務(wù)再提升的重要抓手。

一直以來,惠每科技的 CDSS 產(chǎn)品 (如醫(yī)院端核心應(yīng)用 Dr.Mayson、臨床科研平臺 Darwin 等),都是通過實(shí)時數(shù)據(jù)分析與事中智能提示等核心能力的打造,助力醫(yī)療機(jī)構(gòu)在臨床診療決策、病案與病歷管理、診療風(fēng)險(xiǎn)預(yù)警以及醫(yī)保費(fèi)用管理等環(huán)節(jié)中提升服務(wù)質(zhì)量、診療效率和管理效能。

而這些場景對自然語言處理 (Natural Language Processing, NLP)、計(jì)算機(jī)視覺 (Computer Vision, CV) 等 AI 能力的需求,正好讓大模型有了用武之地。如圖 1 所示,在惠每科技最新發(fā)布的 CDSS 3.0 架構(gòu)中,新一代 AI 大數(shù)據(jù)處理平臺已集成了醫(yī)療大模型。這些醫(yī)療大模型是通過海量數(shù)據(jù)在一系列大模型上重新訓(xùn)練而成的,不僅融合了惠每科技在醫(yī)學(xué)知識庫、專家系統(tǒng)上的雄厚知識積累,也凝集了其落地于 600 余家醫(yī)療機(jī)構(gòu)所獲得的豐富實(shí)戰(zhàn)經(jīng)驗(yàn),已在病歷生成等場景中獲得了成功運(yùn)用。

wKgaomVgkXeARpKDAAD69Qhry7s881.jpg

圖 1 集成大模型的惠每新一代 AI 大數(shù)據(jù)處理平臺架構(gòu)

推動高質(zhì)量、低成本的私有化部署,是醫(yī)療大模型落地的主要挑戰(zhàn)

然而在推進(jìn)醫(yī)療大模型落地的過程中,惠每科技面臨著嚴(yán)峻挑戰(zhàn),其中主要的是如何幫助醫(yī)療機(jī)構(gòu)實(shí)現(xiàn)高質(zhì)量、低成本的私有化部署:

降低建設(shè)成本:傳統(tǒng)上的大模型訓(xùn)練和推理工作通常需要借助專用加速芯片來完成,但這類芯片昂貴的價(jià)格往往讓醫(yī)療機(jī)構(gòu)望而卻步,同時其普遍缺貨或供貨周期較長的問題也會大幅拉長方案的建設(shè)周期。 保障數(shù)據(jù)安全:行業(yè)的特殊性使醫(yī)療機(jī)構(gòu)對數(shù)據(jù)安全、隱私保護(hù)極為重視,任何醫(yī)療數(shù)據(jù)都不能離開安全可控的內(nèi)網(wǎng)環(huán)境,所以醫(yī)療大模型需要進(jìn)行私有化部署。

這些因素都阻礙著醫(yī)療大模型在醫(yī)療機(jī)構(gòu)的落地與普及。

為應(yīng)對這一挑戰(zhàn),惠每科技攜手英特爾,采用 BigDL-LLM 大模型開源庫和 OpenVINO 工具套件,在基于第四代英特爾 至強(qiáng) 可擴(kuò)展處理器的基礎(chǔ)設(shè)施上打造了大模型推理加速方案。

基于 BigDL-LLM,打造醫(yī)療大模型量化優(yōu)化方案

數(shù)百上千億計(jì)的參數(shù)規(guī)模在給醫(yī)療大模型帶來更優(yōu)學(xué)習(xí)效果、更精準(zhǔn)輔助診療結(jié)果的同時,也對承載平臺的資源,包括算力、內(nèi)存等提出了更嚴(yán)苛的要求。這不僅會影響 AI 應(yīng)用的最終運(yùn)行效率,影響醫(yī)護(hù)、患者、管理者以及科研人員的使用體驗(yàn),更會限制更大參數(shù)規(guī)模、更優(yōu)性能的大模型在醫(yī)療機(jī)構(gòu)的普及。模型量化則是應(yīng)對這一問題的重要優(yōu)化手段之一。

對 AI 模型的量化,是指將訓(xùn)練好的模型的權(quán)值、激活值等從高精度數(shù)據(jù)格式 (如 FP32 等) 轉(zhuǎn)化為低精度數(shù)據(jù)格式 (如 INT4 /INT8 等),這不僅可以降低推理過程中對內(nèi)存等資源的需求,從而讓平臺可以容納更大參數(shù)規(guī)模的大模型,也能大幅 提升推理速度,使醫(yī)療 AI 應(yīng)用的運(yùn)行更為迅捷。在惠每科技與英特爾的合作中,雙方基于第四代英特爾 至強(qiáng) 可擴(kuò)展處理器內(nèi)置的指令集,借助由英特爾開發(fā)和開源的 BigDL-LLM 大模型庫來實(shí)現(xiàn)推理加速量化方案。

BigDL-LLM 是一個為英特爾架構(gòu) XPU 打造的輕量級大語言模型加速庫,在英特爾架構(gòu)平臺上具有廣泛的模型支持,能實(shí)現(xiàn)更低的時延和更小的內(nèi)存占用。作為英特爾開源 AI 框架 BigDL 的一部分,BigDL-LLM 不僅提供了對各種低精度數(shù)據(jù)格式的支持和優(yōu)化,還可基于不同處理器內(nèi)置指令集 (如英特爾AVX - 512_VNNI、英特爾AMX 等) 及相配套的軟件實(shí)施推理加速,使大模型在英特爾架構(gòu)平臺上實(shí)現(xiàn)更高的推理效率。在本次合作中,惠每科技就使用英特爾AVX - 512_VNNI 指令集顯著加速了其醫(yī)療大模型在 INT4 低精度數(shù)據(jù)格式上的推理。


如圖 2 所示,方案中 BigDL-LLM 為醫(yī)療大模型提供了兩種使用方法:便捷命令 (Command Line Interface, CLI) 方法和編程接口 (Application Programming Interface, API) 方法。通過 CLI 方法,惠每科技可方便地完成模型量化并評估量化后的推理效果,由此判斷該量化方案是否適用于當(dāng)前這個模型。這些 CLI 命令包括使用 llm-convert 來對模型的量化精度快速轉(zhuǎn)換用于預(yù)覽,或者使用 llm-cli/llm-chat 來運(yùn)行并快速測試量化后的模型。

wKgaomVgkXeANVZaAAEy_YpV9jM924.jpg

圖 2 BigDL-LLM 為醫(yī)療大模型提供推理加速

另一方面,借助 BigDL-LLM 所提供的面向 HuggingFace 和 LangChain 的 API 編程接口,惠每科技能夠快速地將 LLM 量化方案整合進(jìn) HuggingFace 或 LangChain 的項(xiàng)目代碼,進(jìn)而便捷地完成模型部署。作為熱門的 Transformers 開源庫之一,HuggingFace 上的 Transformers 模型一直是各類大模型的重要組成部分,而導(dǎo)入 BigDL-LLM 的優(yōu)勢在于能讓惠每科技等用戶只需修改少許代碼 (更改 import,并在 from_ pretrained 參數(shù)中設(shè)置 load_in_4bit=True) 即可快速加載模型。在使用 bigdl.llm.transformers 后,BigDL-LLM 會在模型加載過程中對模型進(jìn)行 INT4 的低精度量化,由此實(shí)現(xiàn)對基于 HuggingFace Transformers 的模型進(jìn)行加速。

與此同時,LangChain 也是近年來大模型領(lǐng)域流行的開源框架之一,包括惠每科技在內(nèi)的許多用戶都在使用 LangChain 來開發(fā)不同的大模型應(yīng)用。BigDL-LLM 同樣也通過 API 編程接口 bigdl.llm.langchain 提供了便于使用的 LangChain 集成能力,讓開發(fā)者能輕松借助 BigDL-LLM 來開發(fā)新模型或遷移基于 HuggingFace Transformers 優(yōu)化的 INT4 模型,或是其它原生 INT4 模型。

基于 OpenVINO 工具套件,構(gòu)建醫(yī)療大模型非量化優(yōu)化方案

在量化優(yōu)化方案之外,英特爾還借助 OpenVINO 工具套件為惠每科技打造了非量化優(yōu)化方案。作為一款面向 AI 推理及部署優(yōu)化的軟件工具套件,OpenVINO 自推出以來,在幫助 AI 開發(fā)者和最終用戶縮短開發(fā)、部署時間,以及充分釋放豐富的英特爾 硬件性能優(yōu)勢方面,始終發(fā)揮著重要作用。在最新的 OpenVINO 2023.11 版本中,其通過一系列新功能的加入,實(shí)現(xiàn)了面向大模型的功能增強(qiáng)。

在幫助惠每科技使用 OpenVINO 工具套件的 Pipeline 構(gòu)建醫(yī)療大模型的高效推理服務(wù)部署之余,英特爾還借助該工具套件來助力優(yōu)化模型推理流水線,通過消減模型輸入和輸出之間的內(nèi)存副本來降低資源消耗,提升推理效率,并通過執(zhí)行圖的重新設(shè)計(jì)來優(yōu)化模型中的組件。


以惠每科技使用的大模型 ChatGLM6b 為例,該模型的結(jié)構(gòu)如圖 3 所示,其流水線回路主要包含 3 個主要模塊,即 Embedding、GLMBlock 層和 lm_logits。模型的流水線中有兩類不同的執(zhí)行圖,首次推理時不需要 KV 緩存作為 GLMBlock 層的輸入;從第二次迭代開始,QKV 注意力機(jī)制的上一次結(jié)果 (pastKV) 將成為當(dāng)前一輪模型推理的輸入。

wKgaomVgkXeAA3jVAAGS8ju4gLM328.jpg

圖 3 ChatGLM 的模型結(jié)構(gòu)

可以看到,隨著所生成 tokens 長度不斷增加,在流水線推理過程中,模型輸入和輸出之間將存留海量的大型內(nèi)存副本 (內(nèi)存拷貝開銷由模型的參數(shù) hidden_size 以及迭代的次數(shù)決定),不僅將占據(jù)大量的內(nèi)存空間,龐大的內(nèi)存拷貝開銷也會使推理的執(zhí)行效率遭遇挑戰(zhàn)。

為應(yīng)對上述挑戰(zhàn),基于 OpenVINO 工具套件的非量化優(yōu)化方案執(zhí)行了三個方面的優(yōu)化。

優(yōu)化一

利用零拷貝 (Zero-Copy) 視圖來傳遞預(yù)分配的 KV 所需的內(nèi)存副本空間。由于傳統(tǒng)的內(nèi)存拷貝需要耗費(fèi)大量的處理器資源和內(nèi)存帶寬,因此當(dāng)內(nèi)存副本規(guī)模大幅增加時,會成為大模型推理效率的瓶頸。而零拷貝技術(shù)的引入,能避免數(shù)據(jù)的多次拷貝,有效實(shí)現(xiàn) KV 緩存加速。

優(yōu)化二

使用 OpenVINO opset 來重構(gòu) ChatGLM 的模型架構(gòu),從而幫助模型中的節(jié)點(diǎn)利用英特爾 AMX 指令集內(nèi)聯(lián)和多頭注意力 (Multi-Head Attention, MHA) 融合來實(shí)現(xiàn)推理優(yōu)化。如圖 4 所示,優(yōu)化方案構(gòu)建的 OpenVINO stateful 模型在 GLMBlock 層重新封裝了一個類,并按圖中工作流來調(diào)用 OpenVINO opset,然后再將圖形數(shù)據(jù)序列化為中間表示 (Intermediate Representation, IR) 模型 (如 .xml、.bin)。

wKgaomVgkXeAVjT7AAD1RUO-nNM883.jpg

圖 4 構(gòu)建 OpenVINO stateful 模型

該優(yōu)化方案一方面構(gòu)建了全局的上下文結(jié)構(gòu)體,用于在模型內(nèi)部追加并保存每一輪迭代后的 pastKV 結(jié)果,減少相應(yīng)的內(nèi)存拷貝開銷。另一方面,則通過采用內(nèi)聯(lián)優(yōu)化 (Intrinsic Optimization) 的方式,實(shí)現(xiàn)了 Rotary Embedding 和 MHA 融合。

第四代英特爾 至強(qiáng) 可擴(kuò)展處理器內(nèi)置英特爾 AMX 指令集的引入,也能幫助 ChatGLM 等醫(yī)療大模型提升 BF16 或 INT8 精度數(shù)據(jù)格式下的模型推理速度。英特爾 AMX 指令集提供的內(nèi)聯(lián)指令能更快速地處理 BF16 或 INT8 精度數(shù)據(jù)格式的矩陣乘加運(yùn)算,實(shí)現(xiàn)對 ChatGLM 模型中 Attention 和 Rotary Embedding 等算子的融合,從而在保證精度的同時提高運(yùn)算效率、加速推理。

優(yōu)化三

引入 OpenVINO 工具套件在 HuggingFace 上的 Optimum 接口。Optimum 是 Huggingface Transformers 庫提供的一個擴(kuò)展包,可用來提升模型在特定硬件基礎(chǔ)設(shè)施上的訓(xùn)練和推理性能。基于 OpenVINO 工具套件提供的 Optimum 接口,惠每科技能在提高性能之余,將模型更便捷地?cái)U(kuò)展到更多醫(yī)療大模型推理應(yīng)用中去。

這種優(yōu)化方法在其它任務(wù),包括 token-classification、question-answering、audio-classification 以及 image-classification 等中也同樣適用。

效果評估

通過惠每科技與英特爾的協(xié)同優(yōu)化,基于惠每科技醫(yī)療大模型構(gòu)建的醫(yī)療 AI 應(yīng)用無論是在應(yīng)用效率還是在準(zhǔn)確性等方面都獲得了提升,并很快表現(xiàn)出了顯著的臨床應(yīng)用優(yōu)勢與價(jià)值,包括:

提升醫(yī)療輔助診療準(zhǔn)確性:通過對大量醫(yī)療數(shù)據(jù)的有效學(xué)習(xí), 醫(yī)療大模型能持續(xù)學(xué)習(xí)各種疾病特征,并借助優(yōu)化方案更快、 更精準(zhǔn)地做出判斷。結(jié)合惠每科技醫(yī)療知識庫,為醫(yī)護(hù)人員提供更加科學(xué)和準(zhǔn)確的輔助診療方案和建議,優(yōu)化診療決策; 提升醫(yī)護(hù)與管理人員效率:借助基于醫(yī)療大模型構(gòu)建的各類醫(yī)療 AI 應(yīng)用,醫(yī)護(hù)人員可以更高效地獲取患者的輔助診療結(jié)果和病情 / 病歷分析,從而能將更多時間和精力專注于患者的治療和康復(fù)。同時醫(yī)療機(jī)構(gòu)管理人員也能在診療風(fēng)險(xiǎn)預(yù)警、醫(yī)保費(fèi)用管理等環(huán)節(jié)上實(shí)現(xiàn)更為直觀和高效的管控。

為評估優(yōu)化后的醫(yī)療大模型的實(shí)用效果,惠每科技參加了由中國健康信息處理大會 (China Health Information Processing Conference, CHIP) 組織的中文臨床醫(yī)療信息處理權(quán)威評測。這一評測全部使用中文真實(shí)醫(yī)療數(shù)據(jù),覆蓋諸如醫(yī)療術(shù)語識別和醫(yī)療知識問答等多個常見醫(yī)療 AI 應(yīng)用場景,并采用量化的 F1 值進(jìn)行排名。同時在大模型評測中,必須使用一個大模型同時完成 16 個任務(wù)的考驗(yàn),非常具有挑戰(zhàn)性。最終惠每科技從 396 支參賽隊(duì)伍中脫穎而出,榮獲“CHIP2023 -PromptCBLUE 醫(yī)療大模型評測”參數(shù)高效微調(diào)賽道第一名。2

wKgaomVgkXeAD9EnAABqmLeIz0I244.jpg

圖 5 基于惠每科技醫(yī)療大模型構(gòu)建的鑒別診斷應(yīng)用工作流程

目前,基于優(yōu)化后的惠每科技醫(yī)療大模型所構(gòu)建的醫(yī)療 AI 產(chǎn)品與應(yīng)用,已在多個合作醫(yī)療機(jī)構(gòu)中得到了部署與運(yùn)行,并取得了不錯的效果。首先,以基于大模型的鑒別診斷應(yīng)用為例,這一輔助診療應(yīng)用能體現(xiàn)臨床醫(yī)生的診斷思維鏈,而非簡單的記錄。如圖 5 所示,醫(yī)生在應(yīng)用中打開病程記錄首頁并填寫患者主訴及病歷特點(diǎn)后,后臺的 3 個不同醫(yī)療大模型就會迅速執(zhí)行推理,在數(shù)秒后即可生成鑒別診斷。醫(yī)生可以點(diǎn)擊查看不同大模型生成的結(jié)果,再根據(jù)自身的專業(yè)意見選擇最優(yōu)結(jié)果,選擇【一鍵回填】或復(fù)制粘貼到病歷相應(yīng)的位置。

在此過程中,醫(yī)生可對病歷生成的結(jié)果進(jìn)行【點(diǎn)贊】/【點(diǎn)踩】,也可在系統(tǒng)中反饋錯誤或問題,或返回病程記錄頁繼續(xù)修改患者主訴或病歷特點(diǎn),之后再次通過醫(yī)療大模型進(jìn)行計(jì)算和執(zhí)行新的鑒別診斷推理。這些設(shè)計(jì)能有效收集醫(yī)生反饋,實(shí)現(xiàn)大模型的增強(qiáng)學(xué)習(xí)。

其次,出院記錄的自動生成是在合作醫(yī)療機(jī)構(gòu)落地的另一項(xiàng)重要應(yīng)用。傳統(tǒng)上,諸如出院記錄一類的流程,需要醫(yī)院多個部門對多類數(shù)據(jù)進(jìn)行總結(jié)并形成摘要,過程繁瑣且容易出現(xiàn)差錯。借助醫(yī)療大模型的技術(shù)優(yōu)勢,醫(yī)生打開或保存【出院記錄】時,會立即觸發(fā)大模型后臺計(jì)算。在數(shù)秒內(nèi)得到結(jié)果后,醫(yī)生即可查看包含出院診斷、入院情況、診療經(jīng)過、出院情況和出院醫(yī)囑等內(nèi)容的結(jié)果。醫(yī)生可【一鍵回填】或復(fù)制粘貼到病歷相應(yīng)的位置,并對病歷生成的結(jié)果進(jìn)行【點(diǎn)贊】/【點(diǎn)踩】,也可點(diǎn)【識別錯誤】反饋相應(yīng)問題。

上述基于醫(yī)療大模型的應(yīng)用,都能與惠每科技 CDSS 系統(tǒng)實(shí)現(xiàn)無縫銜接,并可部署到既有的英特爾 架構(gòu)處理器平臺。這讓醫(yī)療機(jī)構(gòu)無需購置專用的加速芯片或加速服務(wù)器,從而有效降低大模型部署的成本壓力。來自惠每科技的數(shù)據(jù)統(tǒng)計(jì)表明, 在某合作醫(yī)院的某科室上線 1 個月后,鑒別診斷應(yīng)用的使用率已達(dá) 23% 以上,出院記錄自動生成應(yīng)用的使用率達(dá)到 15% 以上,說明基于醫(yī)療大模型構(gòu)建的 AI 應(yīng)用能力已獲得醫(yī)生的初步認(rèn)可。3

展望

隨著 AI、大數(shù)據(jù)等新技術(shù)、新能力在醫(yī)療領(lǐng)域贏得越來越多的實(shí)用化落地,更多醫(yī)療機(jī)構(gòu)也正通過這些前沿 IT 技術(shù)的引入來加速智慧醫(yī)療的進(jìn)程,而惠每科技開展醫(yī)療大模型技術(shù)探索并基于此推出一系列醫(yī)療 AI 應(yīng)用,正是這一進(jìn)程的最新注腳。這些醫(yī)療 AI 應(yīng)用將與惠每科技優(yōu)勢的 CDSS 產(chǎn)品一起,助力數(shù)以百計(jì)的醫(yī)療機(jī)構(gòu)用戶進(jìn)一步提升醫(yī)療服務(wù)質(zhì)量。

在此過程中,惠每科技與英特爾攜手面向基于英特爾架構(gòu)處理器 (第四代英特爾至強(qiáng)可擴(kuò)展處理器的優(yōu)化) 的平臺展開了一系列大模型優(yōu)化。無論是量化優(yōu)化,還是非量化優(yōu)化方案,都能在保證精度的前提下有效提升醫(yī)療大模型的推理速度,同時基于英特爾架構(gòu)處理器的部署方案也能幫助醫(yī)療機(jī)構(gòu)有效地節(jié)約成本。面向未來,惠每科技還將與英特爾一起,共同對大模型技術(shù)在醫(yī)療領(lǐng)域中更廣泛和更深入的應(yīng)用開展 更多探索,例如利用大模型開展病歷內(nèi)涵質(zhì)控等,進(jìn)而推動醫(yī)療全流程的 AI 技術(shù)加持或智能化,讓智慧醫(yī)療惠及更多醫(yī)與患,從而普惠大眾。

wKgaomVgkXiAbWObAAKtOs0hkyA758.png

參考資料:
1 數(shù)據(jù)援引自 Marketwatch 相關(guān)報(bào)告:https://www.marketwatch.com/press-release/large-language-model-llm-market-size-to-grow-usd-40-8-billion-by-2029-at-a-cagr-of-21-4-valuates-reports-7bbc5419

2 數(shù)據(jù)援引自天池官網(wǎng):https://tianchi.aliyun.com/competition/entrance/532132/rankingList。

3 數(shù)字援引自惠每科技數(shù)字醫(yī)學(xué)云講壇第141期,詳細(xì)信息請?jiān)L問:https://www.e-chinc.com/#/ResourcesDetailVideo?id=1704682818727731202&packId=1614869950189219841

實(shí)際性能受使用情況、配置和其他因素的差異影響。更多信息請見www.Intel.com/PerformanceIndex。

性能測試結(jié)果基于配置信息中顯示的日期進(jìn)行測試,且可能并未反映所有公開可用的安全更新。詳情請參閱配置信息披露。沒有任何產(chǎn)品或組件是絕對安全的。

具體成本和結(jié)果可能不同。

英特爾技術(shù)可能需要啟用硬件、軟件或激活服務(wù)。

英特爾未做出任何明示和默示的保證,包括但不限于,關(guān)于適銷性、適合特定目的及不侵權(quán)的默示保證,以及在履約過程、交易過程或貿(mào)易慣例中引起的任何保證。

英特爾并不控制或?qū)徲?jì)第三方數(shù)據(jù)。請您審查該內(nèi)容,咨詢其他來源,并確認(rèn)提及數(shù)據(jù)是否準(zhǔn)確。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10188

    瀏覽量

    174291
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11063

    瀏覽量

    216478

原文標(biāo)題:英特爾助惠每醫(yī)療大模型方案在至強(qiáng)? 平臺上實(shí)現(xiàn)雙維優(yōu)化

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    主控CPU全能選手,英特爾至強(qiáng)6助力AI系統(tǒng)高效運(yùn)轉(zhuǎn)

    2025年3月,英偉達(dá)發(fā)布了DGX B300 AI加速計(jì)算平臺。2025年5月,英特爾發(fā)布了三款全新英特爾至強(qiáng)6性能核處理器,其中一款6776P被用作是DGX B300的主控CPU,這
    的頭像 發(fā)表于 06-27 11:44 ?101次閱讀
    主控CPU全能選手,<b class='flag-5'>英特爾</b><b class='flag-5'>至強(qiáng)</b>6助力AI系統(tǒng)高效運(yùn)轉(zhuǎn)

    1.9倍性能提升!英特爾至強(qiáng)6MLPerf基準(zhǔn)測試中表現(xiàn)卓越

    關(guān)鍵項(xiàng)目中,性能表現(xiàn)卓越。測試結(jié)果顯示,相較于上一代產(chǎn)品,該處理器的AI性能實(shí)現(xiàn)了高達(dá)1.9倍的顯著提升,這也充分顯示了至強(qiáng)6處理器作為現(xiàn)代AI系統(tǒng)理想解決方案的強(qiáng)大實(shí)力。 英特爾公司
    的頭像 發(fā)表于 04-07 10:58 ?237次閱讀

    英特爾至強(qiáng)6處理器助力數(shù)據(jù)中心整合升級

    繼去年9月重磅推出英特爾 至強(qiáng) 6900性能核處理器后,英特爾進(jìn)一步擴(kuò)充至強(qiáng)6產(chǎn)品家族,于近期發(fā)布了包括至強(qiáng)6700性能核處理器及
    的頭像 發(fā)表于 03-13 17:36 ?848次閱讀

    英特爾至強(qiáng)6:如何煉就數(shù)據(jù)中心“全能型選手”

    計(jì)算密集型工作負(fù)載而設(shè)計(jì),新發(fā)布的至強(qiáng)6700P和至強(qiáng)6500P不僅在AI推理、單核性能等關(guān)鍵領(lǐng)域展現(xiàn)出家族“優(yōu)等生”風(fēng)范,還面向多路服務(wù)器應(yīng)用場景,提供了高度靈活的適配方案。 ? 作為數(shù)據(jù)中心的“全能型選手”,
    的頭像 發(fā)表于 03-13 14:57 ?313次閱讀
    <b class='flag-5'>英特爾</b><b class='flag-5'>至強(qiáng)</b>6:如何煉就數(shù)據(jù)中心“全能型選手”

    英特爾至強(qiáng)6再推新品!打造最強(qiáng)AI“機(jī)頭引擎”

    2月底,英特爾一口氣發(fā)布多款至強(qiáng)6處理器,其中包括備受矚目的6700/6500性能核處理器。在數(shù)據(jù)中心領(lǐng)域需求持續(xù)攀升的當(dāng)下,英特爾的這一系列舉措顯得尤為關(guān)鍵。一方面,公司積極擴(kuò)充至強(qiáng)
    的頭像 發(fā)表于 03-13 14:57 ?304次閱讀

    英特爾展示基于至強(qiáng)6處理器的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    ; 與5G核心網(wǎng)解決方案合作伙伴的深度合作,加快了英特爾至強(qiáng)6能效核處理器整個生態(tài)系統(tǒng)中的應(yīng)用; 基于5G核心網(wǎng)工作負(fù)載的獨(dú)立驗(yàn)證確認(rèn)了英特爾
    的頭像 發(fā)表于 03-08 09:24 ?516次閱讀

    MWC 2025:英特爾展示基于至強(qiáng)6處理器的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    3.2倍3; 與5G核心網(wǎng)解決方案合作伙伴的深度合作,加快了英特爾?至強(qiáng)?6能效核處理器整個生態(tài)系統(tǒng)中的應(yīng)用; 基于5G核心網(wǎng)工作負(fù)載的獨(dú)立驗(yàn)證確認(rèn)了
    發(fā)表于 03-03 15:52 ?226次閱讀
    MWC 2025:<b class='flag-5'>英特爾</b>展示基于<b class='flag-5'>至強(qiáng)</b>6處理器的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    英特爾發(fā)布全新企業(yè)AI一體化方案

    近日,英特爾正式推出了全新的企業(yè)AI一體化方案。該方案英特爾至強(qiáng)處理器和英特爾Gaudi 2D
    的頭像 發(fā)表于 12-03 11:20 ?564次閱讀

    英特爾助力百度智能云千帆大模型平臺加速LLM推理

    “大模型各行業(yè)的廣泛應(yīng)用驅(qū)動了新一輪產(chǎn)業(yè)革命,也凸顯了AI算力方面的瓶頸。通過攜手英特爾釋放英特爾
    的頭像 發(fā)表于 11-25 16:59 ?910次閱讀
    <b class='flag-5'>英特爾</b>助力百度智能云千帆大<b class='flag-5'>模型</b><b class='flag-5'>平臺</b>加速LLM推理

    使用PyTorch英特爾獨(dú)立顯卡上訓(xùn)練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個新特性就是:正式支持英特爾獨(dú)立顯卡上訓(xùn)練模型!
    的頭像 發(fā)表于 11-01 14:21 ?1990次閱讀
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特爾</b>獨(dú)立顯卡上訓(xùn)練<b class='flag-5'>模型</b>

    英特爾至強(qiáng)品牌新戰(zhàn)略發(fā)布

    品牌是企業(yè)使命和發(fā)展的象征,也承載著產(chǎn)品特質(zhì)和市場認(rèn)可。英特爾GTC科技體驗(yàn)中心的英特爾 至強(qiáng) 6 能效核處理器發(fā)布會上,英特爾公司全球副
    的頭像 發(fā)表于 10-12 10:13 ?823次閱讀

    英特爾?至強(qiáng)?可擴(kuò)展處理器助力智慧醫(yī)療的數(shù)字化轉(zhuǎn)型

    現(xiàn)代醫(yī)療行業(yè),人工智能(AI)、物聯(lián)網(wǎng)(IoT)和5G網(wǎng)絡(luò)等前沿技術(shù)正在重新定義醫(yī)療服務(wù)的提供方式。英特爾?至強(qiáng)?可擴(kuò)展處理器通過
    發(fā)表于 09-29 11:13 ?6324次閱讀
    <b class='flag-5'>英特爾</b>?<b class='flag-5'>至強(qiáng)</b>?可擴(kuò)展處理器助力智慧<b class='flag-5'>醫(yī)療</b>的數(shù)字化轉(zhuǎn)型

    英特爾發(fā)布至強(qiáng)6處理器產(chǎn)品

    以“綠色向新,釋放新質(zhì)生產(chǎn)力”為主題的英特爾至強(qiáng)6能效核處理器新品發(fā)布會在北京舉行。會上,英特爾重磅推出首款配備能效核的英特爾至強(qiáng)6處理器產(chǎn)
    的頭像 發(fā)表于 09-23 15:48 ?652次閱讀

    開箱即用,AISBench測試展示英特爾至強(qiáng)處理器的卓越推理性能

    。 中國電子技術(shù)標(biāo)準(zhǔn)化研究院賽西實(shí)驗(yàn)室依據(jù)國家標(biāo)準(zhǔn)《人工智能服務(wù)器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關(guān)要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強(qiáng)可擴(kuò)展處理器的AI大模型推理性能和精度測試。測試中,第五代
    的頭像 發(fā)表于 09-06 15:33 ?736次閱讀
    開箱即用,AISBench測試展示<b class='flag-5'>英特爾</b><b class='flag-5'>至強(qiáng)</b>處理器的卓越推理性能

    英特爾IT的發(fā)展現(xiàn)狀和創(chuàng)新動向

    AI大模型的爆發(fā),客觀上給IT的發(fā)展帶來了巨大的機(jī)會。作為把IT發(fā)展上升為戰(zhàn)略高度的英特爾,自然推動IT發(fā)展中注入了強(qiáng)勁動力。英特爾IT不僅專注于創(chuàng)新、AI和
    的頭像 發(fā)表于 08-16 15:22 ?918次閱讀