chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT需要怎樣的芯片?

Dbwd_Imgtec ? 來(lái)源:未知 ? 2023-02-17 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,以ChatGPT為首的生成類模型已經(jīng)成為了人工智能的新熱點(diǎn),硅谷的微軟、谷歌等都紛紛大舉投資此類技術(shù)(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發(fā)布了自研的BARD模型),而在中國(guó)以百度等為代表的互聯(lián)網(wǎng)科技公司也紛紛表示正在研發(fā)此類技術(shù)并且將于近期上線。以ChatGPT為代表的生成類模型有一個(gè)共同的特點(diǎn),就是使用了海量數(shù)據(jù)做預(yù)訓(xùn)練,并且往往會(huì)搭配一個(gè)較為強(qiáng)大的語(yǔ)言模型。語(yǔ)言模型主要的功能是從海量的現(xiàn)有語(yǔ)料庫(kù)中進(jìn)行學(xué)習(xí),在經(jīng)過(guò)學(xué)習(xí)之后可以理解用戶的語(yǔ)言指令,或者更進(jìn)一步根據(jù)用戶的指令去生成相關(guān)的文字輸出。生成類模型大致可以分成兩大類,一類是語(yǔ)言類生成模型,另一類是圖像類生成模型。語(yǔ)言類生成模型以ChatGPT為代表,如前所述其語(yǔ)言模型不僅可以學(xué)習(xí)理解用戶指令的意義(例如,“寫一首詩(shī),李白風(fēng)格的”),而且在經(jīng)過(guò)海量數(shù)據(jù)訓(xùn)練之后,還能夠根據(jù)用戶的指令生成相關(guān)的文字(在上例中就是寫一首李白風(fēng)格的詩(shī))。這意味著ChatGPT需要有一個(gè)足夠大的語(yǔ)言模型(Large Language Model,LLM)來(lái)理解用戶的語(yǔ)言,并且能有高質(zhì)量的語(yǔ)言輸出——例如該模型必須能理解如何生成詩(shī)歌,如何生成李白風(fēng)格的詩(shī)歌等等。這也意味著語(yǔ)言類生成式人工智能中的大語(yǔ)言模型需要非常多的參數(shù),才能完成這類復(fù)雜的學(xué)習(xí)并且記住如此多的信息。以ChatGPT為例,其參數(shù)量高達(dá)1750億(使用標(biāo)準(zhǔn)浮點(diǎn)數(shù)的話會(huì)占用700GB的存儲(chǔ)空間),其語(yǔ)言模型之“大”可見(jiàn)一斑。

4170e8ae-ae64-11ed-bfe3-dac502259ad0.png

ChatGPT生成回答的一個(gè)例子,支持中文另一類生成類模型是以擴(kuò)散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來(lái)自O(shè)penAI的Dalle,谷歌的ImaGen,以及目前最熱門的來(lái)自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會(huì)使用一個(gè)語(yǔ)言模型來(lái)理解用戶的語(yǔ)言指令,之后根據(jù)這個(gè)指令來(lái)生成高質(zhì)量的圖像。與語(yǔ)言類生成模型不同的是,這里使用到的語(yǔ)言模型主要用語(yǔ)理解用戶輸入,而無(wú)需生成語(yǔ)言輸出,因此參數(shù)量可以小不少(在幾億數(shù)量級(jí)),而圖像的擴(kuò)散模型的參數(shù)量相對(duì)而言也不大,總體而言參數(shù)量大約在幾十億數(shù)量級(jí),但是其計(jì)算量并不小,因?yàn)樯傻膱D像或者視頻的分辨率可以很高。 圖像生成模型生成的圖像一例生成類模型通過(guò)海量數(shù)據(jù)訓(xùn)練,可以產(chǎn)生前所未有的高質(zhì)量輸出,目前已經(jīng)有了不少明確的應(yīng)用市場(chǎng),包括搜索、對(duì)話機(jī)器人、圖像生成和編輯等等,未來(lái)可望會(huì)得到更多的應(yīng)用,這也對(duì)于相關(guān)的芯片提出了需求。
生成類模型對(duì)于芯片的需求如前所述,以ChatGPT為代表生成類模型需要在海量的訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí),才能實(shí)現(xiàn)高質(zhì)量的生成輸出。為了支持高效率訓(xùn)練和推理,生成類模型對(duì)于相關(guān)芯片也有自己的需求。首先就是對(duì)于分布式計(jì)算的需求。ChatGPT這類語(yǔ)言類生成模型的參數(shù)量高達(dá)千億,幾乎不可能使用單機(jī)訓(xùn)練和推理,而必須大量使用分布式計(jì)算。在進(jìn)行分布式計(jì)算時(shí),對(duì)于機(jī)器之間的數(shù)據(jù)互聯(lián)帶寬,以及計(jì)算芯片對(duì)于這類分布式計(jì)算(例如RDMA)就有了很大的需求,因?yàn)楹芏鄷r(shí)候任務(wù)的瓶頸可能并不在計(jì)算,而是在數(shù)據(jù)互聯(lián)上面,尤其是在此類大規(guī)模分布式計(jì)算中,芯片對(duì)于分布式計(jì)算的高效率支持更加成為了關(guān)鍵。其次是內(nèi)存容量和帶寬。雖然對(duì)于語(yǔ)言類生成模型分布式訓(xùn)練和推理不可避免,但是每個(gè)芯片的本地內(nèi)存和帶寬也將很大程度上決定單個(gè)芯片的執(zhí)行效率(因?yàn)槊總€(gè)芯片的內(nèi)存都被使用到了極限)。對(duì)于圖像類生成模型來(lái)說(shuō),可以把模型(20GB左右)都放在芯片的內(nèi)存中,但是隨著未來(lái)圖像生成類模型的進(jìn)一步演進(jìn),它對(duì)于內(nèi)存的需求可能也會(huì)進(jìn)一步提升。在這個(gè)角度來(lái)看,以HBM為代表的超高帶寬內(nèi)存技術(shù)將會(huì)成為相關(guān)加速芯片的必然選擇,同時(shí)生成類模型也會(huì)加速HBM內(nèi)存進(jìn)一步增大容量和增大帶寬。除了HBM之外,CXL等新的存儲(chǔ)技術(shù)加上軟件的優(yōu)化也有將在這類應(yīng)用中增加本地存儲(chǔ)的容量和性能,估計(jì)會(huì)從生成類模型的崛起中獲得更多的工業(yè)界采用。最后是計(jì)算,無(wú)論是語(yǔ)言類還是圖像類生成類模型的計(jì)算需求都很大,而圖像類生成模型隨著生成分辨率越來(lái)越高以及走向視頻應(yīng)用,對(duì)于算力的需求可能會(huì)大大提升——目前的主流圖像生成模型的計(jì)算量在20 TFlops左右,而隨著走向高分辨率和圖像,100-1000 TFLOPS的算力需求很有可能會(huì)是標(biāo)準(zhǔn)。

綜上所述,我們認(rèn)為生成類模型對(duì)于芯片的需求包括了分布式計(jì)算,存儲(chǔ)以及計(jì)算,可謂是涉及了芯片設(shè)計(jì)的方方面面,而更重要的是如何把這些需求都以合理的方法結(jié)合到一起來(lái)確保某一個(gè)單獨(dú)的方面不會(huì)成為瓶頸,這也將會(huì)成為一個(gè)芯片設(shè)計(jì)系統(tǒng)工程的問(wèn)題。


GPU和新AI芯片,誰(shuí)更有機(jī)會(huì)生成式模型對(duì)于芯片有了新的需求,對(duì)于GPU(以Nvidia和AMD為代表)和新AI芯片(以Habana,GraphCore為代表),誰(shuí)更有機(jī)會(huì)能抓住這個(gè)新的需求和市場(chǎng)?首先,從語(yǔ)言類生成模型來(lái)看,由于參數(shù)量巨大,需要很好的分布式計(jì)算支持,因此目前在這類生態(tài)上已經(jīng)有完整布局的GPU廠商更有優(yōu)勢(shì)。這是一個(gè)系統(tǒng)工程問(wèn)題,需要完整的軟件和硬件解決方案,而在這個(gè)方面,Nvidia已經(jīng)結(jié)合其GPU推出了Triton解決方案。Triton支持分布式訓(xùn)練和分布式推理,可以把一個(gè)模型分成多個(gè)部分到不同的GPU上去處理,從而解決參數(shù)量過(guò)大一個(gè)GPU的主存無(wú)法容納的問(wèn)題。未來(lái)無(wú)論是直接使用Triton,還是在Triton的基礎(chǔ)上做進(jìn)一步開(kāi)發(fā),都是擁有完整生態(tài)的GPU更加方便一點(diǎn)。從計(jì)算上來(lái)看,由于語(yǔ)言類生成模型的主要計(jì)算就是矩陣計(jì)算,而矩陣計(jì)算本身就是GPU的強(qiáng)項(xiàng),因此從這一點(diǎn)來(lái)看新的AI芯片相比GPU的優(yōu)勢(shì)并不明顯。從圖像類生成模型來(lái)看,這類模型的參數(shù)量雖然也很大但是比語(yǔ)言類生成模型要小一到兩個(gè)數(shù)量級(jí),此外其計(jì)算中還是會(huì)大量用到卷積計(jì)算,因此在推理應(yīng)用中,如果能做非常好的優(yōu)化的話,AI芯片可能有一定機(jī)會(huì)。這里的優(yōu)化包括大量的片上存儲(chǔ)來(lái)容納參數(shù)和中間計(jì)算結(jié)果,對(duì)于卷積以及矩陣運(yùn)算的高效支持等。總體來(lái)說(shuō),目前這一代AI芯片在設(shè)計(jì)的時(shí)候主要針對(duì)的是更小的模型(參數(shù)量在億級(jí)別,計(jì)算量在1TOPS級(jí)別),而生成模型的需求相對(duì)而言還是比原來(lái)的設(shè)計(jì)目標(biāo)要大不少。GPU在設(shè)計(jì)時(shí)以效率為代價(jià)換取了更高的靈活度,而AI芯片設(shè)計(jì)則是反其道而行之,追求目標(biāo)應(yīng)用的效率,因此我們認(rèn)為在未來(lái)一兩年內(nèi),GPU仍將會(huì)在此類生成式模型加速中獨(dú)占鰲頭,但是隨著生成式模型設(shè)計(jì)更加穩(wěn)定,AI芯片設(shè)計(jì)有時(shí)間能追趕上生成式模型的迭代后,AI芯片有機(jī)會(huì)從效率的角度在生成式模型領(lǐng)域超越GPU。

END

歡迎加入Imagination GPU與人工智能交流2群41e757b4-ae64-11ed-bfe3-dac502259ad0.jpg入群請(qǐng)加小編微信:eetrend89

(添加請(qǐng)備注公司名和職稱)

推薦閱讀 對(duì)話Imagination中國(guó)區(qū)董事長(zhǎng):以GPU為支點(diǎn)加強(qiáng)軟硬件協(xié)同,助力數(shù)字化轉(zhuǎn)型【有獎(jiǎng)下載】IMG DXT GPU 讓光線追蹤觸手可及4200b970-ae64-11ed-bfe3-dac502259ad0.png Imagination Technologies是一家總部位于英國(guó)的公司,致力于研發(fā)芯片和軟件知識(shí)產(chǎn)權(quán)(IP),基于Imagination IP的產(chǎn)品已在全球數(shù)十億人的電話、汽車、家庭和工作 場(chǎng)所中使用。獲取更多物聯(lián)網(wǎng)、智能穿戴、通信汽車電子、圖形圖像開(kāi)發(fā)等前沿技術(shù)信息,歡迎關(guān)注 Imagination Tech!

原文標(biāo)題:ChatGPT需要怎樣的芯片?

文章出處:【微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • imagination
    +關(guān)注

    關(guān)注

    1

    文章

    621

    瀏覽量

    63387

原文標(biāo)題:ChatGPT需要怎樣的芯片?

文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    后摩智能M50芯片成功部署OpenClaw

    近日,由OpenClaw(曾用名ClawdBot)引發(fā)的技術(shù)熱潮持續(xù)擴(kuò)散,這一現(xiàn)象被不少人稱為AI Agent的“ChatGPT時(shí)刻”。昨日,后摩智能一名工程師通過(guò)搭載后摩智能M50芯片的邊緣計(jì)算盒子,在不到一天時(shí)間內(nèi)完成了對(duì)OpenClaw的端側(cè)部署與功能驗(yàn)證。
    的頭像 發(fā)表于 02-02 16:31 ?817次閱讀

    從功能到場(chǎng)景:5步搞定觸摸芯片選型!

    需要怎樣的“觸碰”?1.要幾個(gè)按鍵?比如無(wú)線充電器,常用“開(kāi)關(guān)、模式、定時(shí)”3個(gè)功能,那就找3通道的芯片;如果是分區(qū)控制的智能燈,可能要8個(gè)通道甚至更多。2.除了
    的頭像 發(fā)表于 01-22 14:36 ?234次閱讀
    從功能到場(chǎng)景:5步搞定觸摸<b class='flag-5'>芯片</b>選型!

    巨頭競(jìng)逐AI醫(yī)療健康:OpenAI推出ChatGPT Health,螞蟻阿福國(guó)內(nèi)領(lǐng)跑

    健康已成為AI技術(shù)的高頻應(yīng)用場(chǎng)景。OpenAI在其一篇博客文章中透露,通過(guò)分析匿名化的ChatGPT對(duì)話數(shù)據(jù),發(fā)現(xiàn)全球每周有超過(guò)2.3億人在ChatGPT上咨詢健康相關(guān)問(wèn)題,醫(yī)療健康的需求極為旺盛。
    的頭像 發(fā)表于 01-10 11:17 ?2428次閱讀

    為什么單片機(jī)芯片需要多組VDD?

    在單片機(jī)的芯片上,經(jīng)常會(huì)看到多個(gè)組VDD的設(shè)計(jì)。這樣的設(shè)計(jì)是為了保證 電源 穩(wěn)定性,同時(shí)減小信號(hào)的噪聲。本文將從單片機(jī)內(nèi)部的電路結(jié)構(gòu)、功耗、EMI/EMC等方面來(lái)探討為什么單片機(jī)芯片需要多組VDD
    發(fā)表于 12-12 07:59

    語(yǔ)音芯片怎樣挑選?語(yǔ)音芯片關(guān)鍵選型要點(diǎn)?

    選擇語(yǔ)音芯片需根據(jù)具體應(yīng)用場(chǎng)景和性能需求進(jìn)行綜合評(píng)估,以下是關(guān)鍵選型要點(diǎn): 一、核心性能參數(shù) 1、采樣率與信噪比 高采樣率(如16位ADC)可減少聲音失真,信噪比≥75dB能有效降低背景噪聲
    的頭像 發(fā)表于 09-24 18:24 ?722次閱讀

    你知道板卡廠商參與芯片研發(fā)的α階段意味著什么?

    大家都知道芯片很重要,但你是否知道一顆芯片從設(shè)計(jì)構(gòu)思到最終量產(chǎn),需要經(jīng)歷怎樣一個(gè)漫長(zhǎng)的過(guò)程嗎?
    的頭像 發(fā)表于 09-24 17:08 ?7616次閱讀
    你知道板卡廠商參與<b class='flag-5'>芯片</b>研發(fā)的α階段意味著什么?

    報(bào)警芯片怎樣選擇?報(bào)警器用的什么芯片?報(bào)警芯片的主要類型?常見(jiàn)報(bào)警芯片推薦?防盜器芯片有哪些?

    選擇報(bào)警芯片時(shí),需要根據(jù)具體的應(yīng)用場(chǎng)景、功能需求、成本預(yù)算和性能要求進(jìn)行綜合評(píng)估。以下是選擇報(bào)警芯片時(shí)需要考慮的幾個(gè)關(guān)鍵因素,幫助你做出更合適的選擇:
    的頭像 發(fā)表于 09-22 18:55 ?488次閱讀
    報(bào)警<b class='flag-5'>芯片</b><b class='flag-5'>怎樣</b>選擇?報(bào)警器用的什么<b class='flag-5'>芯片</b>?報(bào)警<b class='flag-5'>芯片</b>的主要類型?常見(jiàn)報(bào)警<b class='flag-5'>芯片</b>推薦?防盜器<b class='flag-5'>芯片</b>有哪些?

    【免費(fèi)送書】AI芯片,從過(guò)去走向未來(lái):《AI芯片:前沿技術(shù)與創(chuàng)新未來(lái)》

    最重大的技術(shù)變革無(wú)疑就是大模型的橫空出世,人類的時(shí)間仿佛被裝上了加速器,從ChatGPT到DeepSeek,大模型應(yīng)用密集出現(xiàn)、頻繁升級(jí),這讓作者意識(shí)到有必要撰寫一本新的AI芯片圖書,以緊跟時(shí)代
    的頭像 發(fā)表于 07-29 08:06 ?1169次閱讀
    【免費(fèi)送書】AI<b class='flag-5'>芯片</b>,從過(guò)去走向未來(lái):《AI<b class='flag-5'>芯片</b>:前沿技術(shù)與創(chuàng)新未來(lái)》

    AI芯片,需要ASIC

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎) 2025年,全球AI芯片市場(chǎng)正迎來(lái)一場(chǎng)結(jié)構(gòu)性變革。在英偉達(dá)GPU占據(jù)主導(dǎo)地位的大格局下,ASIC(專用集成電路)憑借針對(duì)AI任務(wù)的定制化設(shè)計(jì),成為推動(dòng)算力革命的新動(dòng)力
    的頭像 發(fā)表于 07-26 07:30 ?6840次閱讀

    AI真會(huì)人格分裂!OpenAI最新發(fā)現(xiàn),ChatGPT善惡開(kāi)關(guān)已開(kāi)啟

    AI現(xiàn)在就像一個(gè)小朋友,很容易就學(xué)壞了!OpenAI剛剛發(fā)現(xiàn),如果用錯(cuò)誤的數(shù)據(jù)微調(diào)自家的模型的一個(gè)領(lǐng)域,ChatGPT就會(huì)把在這個(gè)領(lǐng)域?qū)W到的「惡」和「壞」泛化到其他領(lǐng)域。比如「刻意」用錯(cuò)誤數(shù)據(jù)在汽車
    的頭像 發(fā)表于 06-20 12:41 ?1.5w次閱讀
    AI真會(huì)人格分裂!OpenAI最新發(fā)現(xiàn),<b class='flag-5'>ChatGPT</b>善惡開(kāi)關(guān)已開(kāi)啟

    樹(shù)莓派與EthernetHat:用ChatGPT實(shí)現(xiàn)的MQTT智能家居項(xiàng)目!

    我們使用Pico、WIZnetW5100S和PicoBricks開(kāi)發(fā)板開(kāi)發(fā)了MQTTRGB燈,通過(guò)ChatGPT4.0生成和優(yōu)化代碼。項(xiàng)目所需組件硬件組件PicoBricks擴(kuò)展板x1WIZnetW5100S-EVB-Picox1WIZnetW5500-EVB-PicoWIZnet以太網(wǎng)HATx1樹(shù)莓派Picox1
    的頭像 發(fā)表于 06-03 15:29 ?1.5w次閱讀
    樹(shù)莓派與EthernetHat:用<b class='flag-5'>ChatGPT</b>實(shí)現(xiàn)的MQTT智能家居項(xiàng)目!

    半導(dǎo)體芯片需要做哪些測(cè)試

    首先我們需要了解芯片制造環(huán)節(jié)做?款芯片最基本的環(huán)節(jié)是設(shè)計(jì)->流片->封裝->測(cè)試,芯片成本構(gòu)成?般為人力成本20%,流片40%,封裝35%,測(cè)試5%(對(duì)于先進(jìn)工藝,流片成本可能超過(guò)
    的頭像 發(fā)表于 05-09 10:02 ?2371次閱讀
    半導(dǎo)體<b class='flag-5'>芯片</b><b class='flag-5'>需要</b>做哪些測(cè)試

    芯片為什么需要晶振

    ?芯片必須使用晶振的核心原因是需要精確且穩(wěn)定的時(shí)鐘信號(hào)來(lái)同步內(nèi)部操作,確保數(shù)字電路可靠運(yùn)行。?
    的頭像 發(fā)表于 04-27 13:49 ?1693次閱讀

    樹(shù)莓派遇上ChatGPT,魔法熱線就此誕生!

    盡管這種電話在幾十年前就已過(guò)時(shí),但許多人都對(duì)旋轉(zhuǎn)撥號(hào)電話記憶猶新。這些舊電話,其實(shí)可以被改造成一個(gè)ChatGPT熱線。這個(gè)由PolluxLabs開(kāi)發(fā)的項(xiàng)目,讓你可以將一部復(fù)古的旋轉(zhuǎn)撥號(hào)電話連接到樹(shù)莓
    的頭像 發(fā)表于 04-13 09:04 ?1.6w次閱讀
    樹(shù)莓派遇上<b class='flag-5'>ChatGPT</b>,魔法熱線就此誕生!

    和安信可Ai-M61模組對(duì)話?手搓一個(gè)ChatGPT 語(yǔ)音助手 #人工智能 #

    ChatGPT
    jf_31745078
    發(fā)布于 :2025年03月12日 15:56:59