chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Deepseek進(jìn)入業(yè)務(wù)深水區(qū),為什么需要昇騰大EP?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-03-17 15:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZPGfW5KyACaETAApVMpyorlk327.jpg

DeepSeek讓各行業(yè)引入AI大模型的意識和積極性明顯提高,已推動(dòng)AI在政務(wù)、能源、制造等領(lǐng)域廣泛鋪展開來。

很多政企用戶接入DeepSeek之后,感受到了AI大模型給業(yè)務(wù)帶來了“旦用難回”的體驗(yàn),很快就從試用的第一階段,進(jìn)入第二階段——大模型推理集群的擴(kuò)容升級。

當(dāng)“有沒有Deepseek用”不再成為問題,那么“Deepseek好不好用”的挑戰(zhàn)就迎面而來。

一來,人多了,大量訪問請求帶來的高并發(fā),就像春運(yùn)高峰期涌入巨大的人流量,會出現(xiàn)請求積壓,模型推理思考時(shí)間變長,token吞吐速度下降,用戶的等待時(shí)延達(dá)到50-100毫秒,服務(wù)器繁忙和排隊(duì)讓人惱火。

二來,機(jī)器多了,增加更多服務(wù)器會遇到物理天花板,機(jī)器擴(kuò)容并不會線性提升在線推理服務(wù)的體驗(yàn),就像即使增加了更多車廂,但鐵軌承載能力有限,也無法運(yùn)送更多旅客(AI任務(wù))了。

當(dāng)行業(yè)智能化進(jìn)入深度應(yīng)用DeepSeek的第二階段,不得不面臨高并發(fā)推理的技術(shù)挑戰(zhàn)。在堆算力的同時(shí),也要同步優(yōu)化性能體驗(yàn),相當(dāng)于想要運(yùn)送更多乘客,不僅要增加車廂數(shù)量,還要同步改造軌道、站臺和管理機(jī)制,將老式火車升級為高鐵,才能綜合提高運(yùn)輸效率。

wKgZO2fW5KyAeZLEAAIkN2vn3rk810.jpg

以DeepSeek為例,前不久公布了其利潤率,高達(dá)545%,其中就涉及大量工程化能力,比如引入大EP推理集群,實(shí)現(xiàn)高并發(fā)推理吞吐量指數(shù)級增長。

對于更多行業(yè)和企業(yè)來說,沒有DeepSeek那樣的極客天才和頂尖技術(shù)團(tuán)隊(duì),怎樣用大EP來解決高并發(fā)推理挑戰(zhàn)呢?當(dāng)AI大模型開始進(jìn)入千行萬業(yè)的深水區(qū),亟需一場大EP的“運(yùn)力革命”。

wKgZPGfW5KyAdr9vAAJ2WfClXG4942.jpg

很多政企客戶在接入了Deepseek之后,使用量進(jìn)一步增加,有了擴(kuò)展推理集群規(guī)模的需求,推理資源需要從2臺擴(kuò)展到10臺,從16卡擴(kuò)展到千卡,但擴(kuò)容升級并不是往機(jī)房一放、網(wǎng)絡(luò)一連,就能高枕無憂了。

就像印度仍在使用的老式火車,僅靠增加車廂,還是無法提高運(yùn)力,每個(gè)乘客能占用的火車空間極小,體驗(yàn)很差,火車不堪重負(fù),延誤晚點(diǎn)成了家常便飯。類似問題,在Deepseek和各種大模型與業(yè)務(wù)的結(jié)合中,高并發(fā)推理卡住了用戶的體驗(yàn)瓶頸。

面對上述問題,大EP大規(guī)模專家并行的技術(shù)架構(gòu),成為趨勢。

簡單來說,大EP就是將MoE(混合專家)模型中數(shù)千個(gè)專家,分配到更多的卡(算力)上去。原本一張卡只能拉10個(gè)人,有了大EP,可以同時(shí)拉100個(gè)(高并發(fā));原本只能跑一趟車,現(xiàn)在可以同時(shí)跑八趟車(提高專家計(jì)算路數(shù)batch size),那么乘客就不用長時(shí)間等待了。

所以,通過大EP可以提高高并發(fā)推理場景下的計(jì)算效率,實(shí)現(xiàn)更大的吞吐和更低的時(shí)延。用戶體感上,比如一家銀行的工作人員同時(shí)訪問Deepseek,不會遇到排隊(duì)、延遲、過長等待等情況。

大EP這么好,怎么才能部署到自己的一體機(jī)或推理資源池呢?不經(jīng)過一番努力,確實(shí)很難吃到大EP的蛋糕。

一方面,推理場景的算力需求指數(shù)級擴(kuò)展,而海外廠商的推理芯片如H20,雖然顯存高,但算力不足,處理大EP場景時(shí)吞吐驟降。Deepseek公開的論文來看,仍然使用H800來進(jìn)行推理。更強(qiáng)算力且供應(yīng)鏈穩(wěn)定的推理硬件,是大EP必不可少的。

另一方面,當(dāng)請求總量猛增之后,會帶來多種多樣的負(fù)載,且極不均衡,相當(dāng)于有的車廂坐的人多,有的車廂坐的人少,負(fù)載不均一樣會導(dǎo)致體驗(yàn)不佳。

此外,大EP場景的All-to-All通信,導(dǎo)致卡間通信占比時(shí)間高,相當(dāng)于每個(gè)車廂的專家都要通知到,這就會耽誤進(jìn)出站的效率。NVLink在大EP場景中,實(shí)際有效帶寬利用率就不足。

由此可見,當(dāng)行業(yè)使用Deepseek進(jìn)入深水區(qū),面對高并發(fā)推理場景,不能抱有“頭疼醫(yī)頭腳疼醫(yī)腳”的僥幸心理,而需要通盤思考和系統(tǒng)攻堅(jiān)。

wKgZO2fW5K2AAnpMAAJGomFO5yA775.jpg

今天來看,各行各業(yè)擁抱Deepseek不是追逐一時(shí)風(fēng)口,而是對智能化發(fā)展趨勢的長期價(jià)值判斷。普惠LLM進(jìn)入千行萬業(yè),已經(jīng)是大勢所趨。

而大EP無法順利被行業(yè)用起來,就意味著接入Deepseek始終存在時(shí)延高、體驗(yàn)差、成本難優(yōu)化的問題,那么行業(yè)智能化也就無法順利達(dá)成。

不過也不必過于擔(dān)心,Deepseek、科大訊飛等模廠,與昇騰等算力廠商,以及政企行業(yè)用戶,一直保持著緊密協(xié)作與溝通,自開年Deepseek熱潮以來,從部署實(shí)踐中沉淀了大量技術(shù)創(chuàng)新。

近期,昇騰推出了大EP解決方案,面向高并發(fā)推理場景,一站式升級為智能化“高鐵”。

具體來說,昇騰大EP解決方案借助五大關(guān)鍵技術(shù),與昇騰算力深度協(xié)同優(yōu)化,成功突破了“專家負(fù)載均衡+通信優(yōu)化”兩大難題。

針對專家負(fù)載不均的難題:

昇騰大EP解決方案提出了MoE負(fù)載均衡技術(shù),可以自動(dòng)尋優(yōu),根據(jù)業(yè)務(wù)情況、集群規(guī)模,找到最優(yōu)的專家,自動(dòng)預(yù)測哪個(gè)專家更忙,自動(dòng)配比,當(dāng)一個(gè)專家負(fù)載過多時(shí)自動(dòng)講解,從而實(shí)現(xiàn)了備份節(jié)點(diǎn)和副本專家靈活可擴(kuò)展、高可用和極致均衡,性能得到極大提升。

采用多種創(chuàng)新技術(shù),做到自適應(yīng)的autoPD分離部署。根據(jù)Prefill和Decode的動(dòng)態(tài)負(fù)載,進(jìn)行P、D實(shí)例的自動(dòng)伸縮,無需人工介入,從而減少計(jì)算訪存資源競爭。結(jié)合多級緩存內(nèi)存資源池化,對冷熱溫?cái)?shù)據(jù)進(jìn)行區(qū)分,可以讓系統(tǒng)的有效吞吐提升50%以上。

針對All-to-All通信優(yōu)化的難題:

昇騰大EP解決方案提出了雙流/多維混合并行,其中Prefill micro-batch雙流并行,可以實(shí)現(xiàn)計(jì)算和通信的相互掩蓋;MoE expert專家雙流并行,實(shí)現(xiàn)兩條數(shù)據(jù)流Stream的并行計(jì)算;Weight權(quán)重預(yù)取雙流并行,可以把訪存和通信并行起來,降低權(quán)重加載時(shí)間,提升效率。

wKgZO2fW5K6AJ6trAAQOV3lI64w930.jpg

MLA預(yù)處理階段,昇騰大EP解決方案把大量的小算子,合成為大的融合算子,將計(jì)算耗時(shí)降低70%,讓算力能力充分發(fā)揮出來。

如果你覺得上述技術(shù)創(chuàng)新多、不好記,那么只需要,借助昇騰大EP解決方案,行業(yè)應(yīng)用Deepseek時(shí),可以做到:

快。訪問Deepseek無需等待。昇騰大EP可以將單卡并發(fā)提升3倍,Decode階段響應(yīng)速度穩(wěn)定在50ms以內(nèi),支撐600+并發(fā)請求。

省。業(yè)務(wù)使用Deepseek上量之后,推理集群擴(kuò)展的同時(shí),性能也保持線性度,擴(kuò)容綜合成本更優(yōu)。

正如高鐵改變了中國人的出行,昇騰大EP為高并發(fā)推理鋪設(shè)了一條“高速鐵路”,改變了Deepseek上量擴(kuò)容階段的體驗(yàn),為行業(yè)智能化提速增效。

wKgZPGfW5K6AWNmFAAKBVPCV2SY144.jpg

僅用兩個(gè)多月的時(shí)間,Deepseek就完成了從試用階段到擴(kuò)容階段的進(jìn)階。高并發(fā)推理場景和大EP技術(shù)架構(gòu),成為應(yīng)用Deepseek的新挑戰(zhàn)。這也提醒我們,行業(yè)智能化是一個(gè)循序漸進(jìn)的過程,不可能一蹴而就。

自主創(chuàng)新算力與國產(chǎn)模型如同高鐵的雙軌,成為支撐起智能中國的“新基建”。昇騰生態(tài)之所以與Deepseek等大模型更加適配,答案逐步清晰明確。

首先,昇騰有硬件,為行業(yè)智能化提供“永不沉降”的算力路基。昇騰硬件的FP16和INT8算力,可達(dá)到H20的2倍以上,且功耗更低,足以支撐各行業(yè)智能化的平穩(wěn)前進(jìn)。

此外,昇騰有軟硬件的協(xié)同優(yōu)化能力。隨著行業(yè)智能化的不斷深入,AI模型對算力需求不斷擴(kuò)張,但硬件的物理天花板和企業(yè)的投入產(chǎn)出比,都要求計(jì)算性能持續(xù)優(yōu)化。昇騰的AI軟硬件,提供從預(yù)訓(xùn)練到微調(diào)到強(qiáng)化學(xué)習(xí),到推理集群、一體機(jī),全流程全覆蓋的方案,可以快速響應(yīng)客戶需求,高效支撐技術(shù)創(chuàng)新。目前,昇騰與DeepSeek最新技術(shù)已經(jīng)實(shí)現(xiàn)了“day0”級別同步,確保企業(yè)智能化在昇騰軟硬件基座上,始終行駛在技術(shù)最前沿。

更重要的是,昇騰有伙伴。行業(yè)智能化是一個(gè)體系化工程,不是單一硬件或軟件廠商就能獨(dú)自完成的。在自主創(chuàng)新算力生態(tài)中,昇騰一方面兼容主流生態(tài)與PyTorch等國內(nèi)外框架,同時(shí)與ISV伙伴、各大模廠都保持著緊密共生與合作。這意味著,當(dāng)行業(yè)用戶基于昇騰底座開發(fā)AI應(yīng)用,能得到生態(tài)的全方位助力,減少智能化升級的阻力,降低綜合成本。

今天,智能化已經(jīng)成為全球經(jīng)濟(jì)發(fā)展的主航道。在自主算力與國產(chǎn)模型所鑄就的雙軌上,行業(yè)智能化也將走深向遠(yuǎn),向著智能時(shí)代飛馳。

wKgZPGfW5K-AEe-IAAHtu4GpRoQ353.jpg

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38001

    瀏覽量

    295913
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3435

    瀏覽量

    4955
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    822

    瀏覽量

    2790
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    華為與全球開發(fā)者共贏生態(tài)

    在華為全聯(lián)接大會2025期間,華為計(jì)算業(yè)務(wù)總裁張迪煊發(fā)表了“以開發(fā)者為中心,加速自主創(chuàng)新,共贏生態(tài)”的主題演講,宣布CANN技術(shù)指導(dǎo)
    的頭像 發(fā)表于 09-20 15:57 ?1528次閱讀

    華為人工智能伙伴峰會成功舉行

    近日,在華為中國合作伙伴大會期間,人工智能伙伴峰會在深圳正式召開。會上,華為計(jì)算業(yè)務(wù)總裁張迪煊發(fā)表了《與時(shí)代 共
    的頭像 發(fā)表于 04-01 15:38 ?1122次閱讀

    DeepSeek上的模型部署的常見問題及解決方案

    2024年12月26日,DeepSeek-V3橫空出世,以其卓越性能備受矚目。該模型發(fā)布即支持,用戶可在硬件和MindIE推理引擎上
    的頭像 發(fā)表于 03-25 16:53 ?1855次閱讀
    <b class='flag-5'>DeepSeek</b>在<b class='flag-5'>昇</b><b class='flag-5'>騰</b>上的模型部署的常見問題及解決方案

    (原創(chuàng))310B(8T/20T)算力主板定制方案

    】、【 支持定制 】、【 原裝正品 】 ,310B,20T算力,芯片,核心板,算力主板,310B邊緣計(jì)算盒子 附件:RC:Ubuntu 22.04、openEuler 22.
    發(fā)表于 03-16 21:43

    潤和軟件將持續(xù)深化“+DeepSeek”技術(shù)路線

    近日,“+DeepSeek 智算引擎創(chuàng)新行”江蘇省首站活動(dòng)在南京成功舉辦,本次活動(dòng)由南京江北新區(qū)產(chǎn)業(yè)技術(shù)研創(chuàng)園指導(dǎo),江蘇省人工智能學(xué)會、江蘇鯤鵬·
    的頭像 發(fā)表于 03-08 09:39 ?1107次閱讀

    漫話之《一體機(jī)請就位》

    為什么DeepSeek部署「最優(yōu)解」?
    的頭像 發(fā)表于 03-07 00:12 ?1913次閱讀
    漫話<b class='flag-5'>昇</b><b class='flag-5'>騰</b>之《一體機(jī)請就位》

    聆思CSK6大模型語音開發(fā)板接入DeepSeek資料匯總(包含深度求索/火山引擎/硅基流動(dòng)華為滿血版)

    本帖最后由 jf_40317719 于 2025-3-6 21:20 編輯 近期也有不少開發(fā)者想把自己的智能硬件接入DeepSeek大模型,本篇就以聆思CSK6大模型開發(fā)板接入DeepSeek
    發(fā)表于 03-06 17:02

    推理服務(wù)器+DeepSeek大模型 技術(shù)培訓(xùn)在圖為科技成功舉辦

    2月17日,華為政企業(yè)務(wù)團(tuán)隊(duì)受邀蒞臨圖為科技深圳總部,并成功舉辦了一場聚焦于《推理服務(wù)器+DeepSeek大模型》的專業(yè)知識培訓(xùn)。 此次培訓(xùn)活動(dòng)不僅深化了雙方的技術(shù)交流,更標(biāo)志著
    的頭像 發(fā)表于 02-26 17:38 ?1024次閱讀
    <b class='flag-5'>昇</b><b class='flag-5'>騰</b>推理服務(wù)器+<b class='flag-5'>DeepSeek</b>大模型 技術(shù)培訓(xùn)在圖為科技成功舉辦

    研華發(fā)布AI Box及Deepseek R1模型部署流程

    近日,隨著深度求索(DeepSeek)大模型的發(fā)布在行業(yè)內(nèi)掀起熱議,研華科技正式推出了基于Atlas平臺的邊緣AI Box MIC-ATL3S,并同步發(fā)布了與Deepseek R1
    的頭像 發(fā)表于 02-19 10:41 ?1067次閱讀

    濟(jì)南市中區(qū)存算一體化智算中心上線DeepSeek

    濟(jì)南市中未來產(chǎn)業(yè)發(fā)展有限公司(簡稱“市中產(chǎn)發(fā)”)聯(lián)合華為、北京和清昴智能基于市中區(qū)存算一體化智算中心(國家大學(xué)科技園節(jié)點(diǎn))算力部署DeepS
    的頭像 發(fā)表于 02-19 10:38 ?1145次閱讀

    DeepSeek V3思MindSpore版本上線開源社區(qū)

    近日,基于AI硬件與思MindSpore AI框架版本的DeepSeek-V3完成開發(fā)支持并上線思開源社區(qū),面向開發(fā)者提供開箱即用的
    的頭像 發(fā)表于 02-18 10:12 ?1742次閱讀
    <b class='flag-5'>DeepSeek</b> V3<b class='flag-5'>昇</b>思MindSpore版本上線開源社區(qū)

    云軸科技ZStack智塔攜手AI實(shí)現(xiàn)DeepSeek模型部署

    DeepSeek為人工智能AI產(chǎn)業(yè)帶來一場革命,為企業(yè)級AI應(yīng)用私有化部署場景(Private AI)注入強(qiáng)勁動(dòng)力。作為企業(yè)級私有化AI Infra平臺,云軸科技ZStack智塔攜手AI實(shí)現(xiàn)了
    的頭像 發(fā)表于 02-18 09:59 ?1230次閱讀
    云軸科技ZStack智塔攜手<b class='flag-5'>昇</b><b class='flag-5'>騰</b>AI實(shí)現(xiàn)<b class='flag-5'>DeepSeek</b>模型部署

    華為推出DeepSeek大模型一體機(jī)

    DeepSeek大模型的橫空出世,讓AI正以前所未有的速度重塑各行各業(yè)的發(fā)展格局。DeepSeek一體機(jī)深度融合騰高性能算力底座與
    的頭像 發(fā)表于 02-18 09:56 ?2593次閱讀

    迅龍軟件出席華為APN伙伴大會,獲APN鉆石伙伴授牌及兩項(xiàng)大獎(jiǎng)

    2025年2月15日,華為APN伙伴大會在深圳順利舉辦。本次大會匯聚來自能源、交通、制造、教育等各行各業(yè)的APN合作伙伴,共同探討APN產(chǎn)業(yè)生態(tài)的新機(jī)遇與發(fā)展路徑,分享
    的頭像 發(fā)表于 02-17 17:04 ?1389次閱讀
    迅龍軟件出席華為<b class='flag-5'>昇</b><b class='flag-5'>騰</b>APN伙伴大會,獲<b class='flag-5'>昇</b><b class='flag-5'>騰</b>APN鉆石伙伴授牌及兩項(xiàng)大獎(jiǎng)

    中軟國際科創(chuàng)中心上線DeepSeek模型

    近日,中軟國際科創(chuàng)中心以“DeepSeek+”為引擎,緊跟行業(yè)趨勢,將DeepSeek全參模型滿血版部署在全國產(chǎn)化智算環(huán)境中,實(shí)現(xiàn)671B參數(shù)的
    的頭像 發(fā)表于 02-08 18:02 ?1728次閱讀