chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何能使大模型更好地服務(wù)企業(yè)和個(gè)人

ThunderSoft中科創(chuàng)達(dá) ? 來(lái)源:ThunderSoft中科創(chuàng)達(dá) ? 2023-11-03 09:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著人工智能技術(shù)的迅速發(fā)展,傳統(tǒng)的個(gè)人電腦已經(jīng)面臨升級(jí)的需求。AI PC時(shí)代,如何能使大模型更好地服務(wù)企業(yè)和個(gè)人?中科創(chuàng)達(dá)交出了第一份答卷。

近日,中科創(chuàng)達(dá)憑借其在終端、邊緣計(jì)算領(lǐng)域的多年技術(shù)沉淀以及在大模型領(lǐng)域的創(chuàng)新探索,利用模型壓縮、分布式以及張量并行技術(shù),成功在搭載了高通8系列芯片平臺(tái)的邊緣設(shè)備上實(shí)現(xiàn)了LLaMA-2 130億參數(shù)模型的穩(wěn)定運(yùn)行,成為業(yè)內(nèi)首家取得此突破的大模型企業(yè)。這一創(chuàng)舉將使得端側(cè)設(shè)備能夠運(yùn)行更大參數(shù)的模型,同時(shí)提高了端側(cè)設(shè)備的推理速度,為大模型在端側(cè)的應(yīng)用奠定了堅(jiān)實(shí)的基礎(chǔ)。

模型壓縮及張量并行技術(shù)提升端側(cè)AI效率

自今年3月份ChatGPT-3對(duì)外開(kāi)放以來(lái),大模型及其應(yīng)用以極其驚人的發(fā)展速度席卷全球,由此帶來(lái)了對(duì)于算力需求的急速攀升。云端算力面臨成本和供給壓力,無(wú)法滿(mǎn)足AI算力需求,端側(cè)AI為這一難題提供了解決方案。隨著高通、Intel等芯片廠商陸續(xù)發(fā)布具有更高算力并支持生成式AI的終端芯片,AI PC時(shí)代拉開(kāi)序幕。

AI PC作為終端、邊緣與云技術(shù)融合的創(chuàng)新產(chǎn)物,具有成本、時(shí)延和隱私方面的天然優(yōu)勢(shì),可以作為云端算力的補(bǔ)充。在即將到來(lái)的AI PC時(shí)代,中科創(chuàng)達(dá)將能夠充分發(fā)揮自身在終端、操作系統(tǒng)、邊緣計(jì)算、軟件以及生態(tài)合作方面的優(yōu)勢(shì),助力品牌商和開(kāi)發(fā)者抓住行業(yè)轉(zhuǎn)型的契機(jī),為終端用戶(hù)帶來(lái)在辦公、娛樂(lè)、學(xué)習(xí)等多場(chǎng)景下的更為高效便捷的體驗(yàn)。

邊緣AI加速大模型在B端落地應(yīng)用

此次中科創(chuàng)達(dá)的成功實(shí)踐不僅驗(yàn)證了13B大模型在端側(cè)的落地,也為大模型在邊緣的應(yīng)用打開(kāi)了新的可能性。以往,大型模型主要在云端進(jìn)行訓(xùn)練和推理,而現(xiàn)在,邊緣設(shè)備也能夠勝任更大參數(shù)的模型。這將為各行各業(yè)帶來(lái)更多的機(jī)會(huì)和挑戰(zhàn),無(wú)論是語(yǔ)音識(shí)別、圖像處理還是自然語(yǔ)言處理,都能夠受益于這一創(chuàng)新。

未來(lái),AI將以端云協(xié)同的模式,即云端進(jìn)行模型訓(xùn)練,而推理則集中在離數(shù)據(jù)產(chǎn)生距離更近的端側(cè)及邊緣側(cè)進(jìn)行,有效緩解AI算力不足的需求和缺口。由此加速大模型應(yīng)用在智能駕駛、具身智能、智能家居、智能物聯(lián)網(wǎng)等場(chǎng)景的落地。

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54047

    瀏覽量

    466559
  • 高通
    +關(guān)注

    關(guān)注

    78

    文章

    7737

    瀏覽量

    199915
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50126

    瀏覽量

    265620
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3667

    瀏覽量

    5197

原文標(biāo)題:AI PC時(shí)代,端側(cè)運(yùn)行130億參數(shù)模型,中科創(chuàng)達(dá)是如何做到的?

文章出處:【微信號(hào):THundersoft,微信公眾號(hào):ThunderSoft中科創(chuàng)達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型服務(wù)為什么總是爆顯存

    模型服務(wù)報(bào) CUDA out of memory,很多現(xiàn)場(chǎng)第一反應(yīng)都是“模型太大,換更大的卡”。這個(gè)結(jié)論通常過(guò)于粗糙。生產(chǎn)里的顯存問(wèn)題至少有五類(lèi)來(lái)源:模型權(quán)重本身、KV Cache、
    的頭像 發(fā)表于 03-11 09:54 ?254次閱讀

    什么是企業(yè)服務(wù)器-云計(jì)算

    企業(yè)服務(wù)器是指為企業(yè)提供的基于云計(jì)算技術(shù)的服務(wù)器解決方案。華納云是一家云計(jì)算服務(wù)提供商,為企業(yè)
    的頭像 發(fā)表于 12-29 17:57 ?825次閱讀

    服務(wù)發(fā)布配置開(kāi)發(fā)者服務(wù)信息

    ://或https://開(kāi)頭的合法URL。此選項(xiàng)僅支持中國(guó)大陸企業(yè)/個(gè)人開(kāi)發(fā)者、海外企業(yè)開(kāi)發(fā)者的應(yīng)用類(lèi)元服務(wù)。 客服電話號(hào)碼:請(qǐng)使用“國(guó)際區(qū)號(hào)/國(guó)內(nèi)區(qū)號(hào)-電話號(hào)碼”的格式,如
    發(fā)表于 10-31 17:58

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語(yǔ)言模型(LLM)的應(yīng)用日益普及,許多開(kāi)發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)
    的頭像 發(fā)表于 10-13 16:52 ?960次閱讀

    聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問(wèn)題

    開(kāi)發(fā)者技術(shù)支持、電子產(chǎn)品售后服務(wù)支持、企業(yè)內(nèi)部文檔智能檢索 詳情請(qǐng)看pdf附件*附件:聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問(wèn)題.pdf
    發(fā)表于 09-30 11:29

    Cognizant加速AI模型企業(yè)級(jí)開(kāi)發(fā)

    全新解決方案旨在幫助企業(yè)快速且大規(guī)模地構(gòu)建、微調(diào)和實(shí)施AI模型。 Cognizant 憑借其作為數(shù)據(jù)與AI模型訓(xùn)練合作伙伴的深厚經(jīng)驗(yàn),繼服務(wù)于部分領(lǐng)先的數(shù)字原生
    的頭像 發(fā)表于 07-31 17:25 ?725次閱讀

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)
    的頭像 發(fā)表于 06-04 09:26 ?908次閱讀

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility說(shuō)明

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility 概述 無(wú)論FA模型還是Stage模型,數(shù)據(jù)讀寫(xiě)功能都包含客戶(hù)端和
    發(fā)表于 06-04 07:53

    有償邀請(qǐng)企業(yè)個(gè)人分析此圖,并提供分析報(bào)告

    有償邀請(qǐng)企業(yè)個(gè)人分析此圖,并提供分析報(bào)告,
    發(fā)表于 06-01 18:40

    如何在RAKsmart服務(wù)器上實(shí)現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強(qiáng)大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專(zhuān)業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計(jì)算服務(wù)提供商,已成為企業(yè)部署AI
    的頭像 發(fā)表于 03-27 09:46 ?948次閱讀

    RAKsmart企業(yè)服務(wù)器上部署DeepSeek編寫(xiě)運(yùn)行代碼

    在RAKsmart企業(yè)服務(wù)器上部署并運(yùn)行DeepSeek模型的代碼示例和詳細(xì)步驟。假設(shè)使用 Python + Transformers庫(kù) + FastAPI實(shí)現(xiàn)一個(gè)基礎(chǔ)的AI服務(wù)。主機(jī)
    的頭像 發(fā)表于 03-25 10:39 ?715次閱讀

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    影響著模型能力的上限。隨著大模型技術(shù)的快速發(fā)展,數(shù)據(jù)標(biāo)注服務(wù)的重要性愈發(fā)凸顯,其面臨的挑戰(zhàn)也日益嚴(yán)峻。當(dāng)前,就標(biāo)貝科技看來(lái),數(shù)據(jù)標(biāo)注服務(wù)已從簡(jiǎn)單的數(shù)據(jù)標(biāo)記,發(fā)展成為一門(mén)融合了人工智能、
    的頭像 發(fā)表于 03-21 10:30 ?3395次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石

    影響著模型能力的上限。隨著大模型技術(shù)的快速發(fā)展,數(shù)據(jù)標(biāo)注服務(wù)的重要性愈發(fā)凸顯,其面臨的挑戰(zhàn)也日益嚴(yán)峻。當(dāng)前,就標(biāo)貝科技看來(lái),數(shù)據(jù)標(biāo)注服務(wù)已從簡(jiǎn)單的數(shù)據(jù)標(biāo)記,發(fā)展成為
    的頭像 發(fā)表于 03-21 10:27 ?1135次閱讀
    標(biāo)貝數(shù)據(jù)標(biāo)注<b class='flag-5'>服務(wù)</b>:奠定大<b class='flag-5'>模型</b>訓(xùn)練的數(shù)據(jù)基石

    浪潮軟件率先推出政務(wù)服務(wù)模型,重塑全場(chǎng)景應(yīng)用

    濟(jì)南2025年3月12日?/美通社/ -- DeepSeek爆火加速了政務(wù)服務(wù)行業(yè)全面擁抱AI的步伐,全國(guó)各地紛紛加速推進(jìn)大模型在政務(wù)服務(wù)領(lǐng)域的探索與創(chuàng)新。作為數(shù)字政府領(lǐng)域的領(lǐng)導(dǎo)者企業(yè)
    的頭像 發(fā)表于 03-14 18:18 ?868次閱讀
    浪潮軟件率先推出政務(wù)<b class='flag-5'>服務(wù)</b>大<b class='flag-5'>模型</b>,重塑全場(chǎng)景應(yīng)用

    芯盾時(shí)代助力政企客戶(hù)打造AI大模型安全防線

    隨著DeepSeek爆火,政府、企業(yè)掀起了本地化部署AI大模型的浪潮。有了自己的AI大模型,不但能提升業(yè)務(wù)效率,為客戶(hù)提供更好服務(wù),還能探
    的頭像 發(fā)表于 03-13 11:21 ?992次閱讀