chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI大模型不再依賴英偉達GPU?蘋果揭秘自研大模型

Hobby觀察 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:梁浩斌 ? 2024-08-05 06:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/梁浩斌)過去幾年中爆發(fā)的AI算力需求,英偉達GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節(jié)跳動等廠商都在爭相搶購英偉達GPU產(chǎn)品,獲得足夠的算力構建自己的計算中心,用于訓練不同應用的AI模型。

AI領域眾星捧月也造就了英偉達市值曾突破三萬億美元,并短暫登頂全球第一的位置。不過蘋果卻反其道而行之,在7月底蘋果公司揭露的官方論文顯示,蘋果自研大模型AFM背后,完全沒有英偉達GPU的影子。

蘋果大模型訓練,選擇了谷歌芯片

在蘋果近期揭露的一篇技術論文中,詳細介紹了蘋果在端側和服務器側的大模型。在大模型預訓練的階段,蘋果基礎模型是在AXLearn框架上進行訓練的,據(jù)蘋果介紹,AXLearn框架是蘋果公司在2023年發(fā)布的開源項目,這個框架建立在JAX和XLA的基礎上,允許模型在各種硬件和云平臺上進行高效和可擴展性訓練,包括TPU以及云端和本地的GPU。

蘋果采用了數(shù)據(jù)并行、張量并行、序列并行和完全分片數(shù)據(jù)并行(FSDP)的組合來沿多個維度擴展訓練,如數(shù)據(jù)規(guī)模、模型規(guī)模和序列長度。

其中,蘋果的AFM服務器端大模型是蘋果規(guī)模最大的語言模型,該模型在8192個TPUv4芯片上進行了預訓練,這些芯片被配置成8*1024個芯片集群,通過數(shù)據(jù)中心網(wǎng)絡(DCN)連接。預訓練有三個階段,首先使用 6.3 萬億個Tokens開始,接著使用 1 萬億個Tokens繼續(xù)訓練,最后使用 1000 億個Tokens進行上下文長度的擴展。

而在AFM的端側模型上,蘋果對其進行了大幅修剪,論文披露AFM端側模型是一個擁有30億參數(shù)的模型,該模型是從64億參數(shù)的服務器模型中蒸餾而來,而這個服務器模型則是在完整的6.3萬億參數(shù)量上進行訓練。

與服務器端模型不同的是,AFM端側模型采用的芯片是谷歌的TPUv5,論文中的信息顯示,AFM端側模型是在一個由2048個TPUv5p芯片組成的集群上進行訓練的。

谷歌在去年12月發(fā)布了TPUv5p,面向云端AI加速,谷歌稱之為“迄今為止最強大、可擴展性最強和最靈活的人工智能加速器”。

TPUv5p在bfloat16精度下可以提供459 teraFLOPS(每秒可執(zhí)行459萬億次浮點運算)算力;在Int8精度下,TPU v5p可以提供918 teraOPS(每秒可執(zhí)行918萬億次整數(shù)運算);支持95GB的HBM內存,帶寬高達2.76 TB/s。

相比上一代的TPU v4,TPUv5p實現(xiàn)了每秒浮點運算次數(shù)提高一倍,內存帶寬是前代的三倍,訓練大模型速度提升2.8倍,并且性價比是前代的2.1倍。

除了蘋果之外,目前采用谷歌TPU系列芯片進行大模型訓練的還有谷歌自家的Gemini、PaLM,以及OpenAI前副總裁創(chuàng)立的Anthropic所推出的Claude大模型,上個月Anthropic發(fā)布的Llama 3.1 405B還被認為是最強開源大模型。

蘋果、谷歌、Anthropic的實例,證明了TPU在大模型訓練上的能力。但相比于英偉達,TPU目前在大模型領域的應用依舊只是冰山一角,背后更多的大模型公司,包括OpenAI、特斯拉、字節(jié)跳動等巨頭,主力AI數(shù)據(jù)中心依然是普遍采用英偉達GPU。

英偉達的挑戰(zhàn)者們

一直以來,圍繞CUDA打造的軟件生態(tài),是英偉達在GPU領域最大的護城河,尤其是隨著目前AI領域的發(fā)展加速,市場火爆,英偉達GPU+CUDA的開發(fā)生態(tài)則更加穩(wěn)固,AMD英特爾等廠商雖然在努力追趕,但目前還未能看到有威脅英偉達地位的可能。

但市場的火爆難免吸引更多的玩家入局,對英偉達發(fā)起挑戰(zhàn),或者說是在AI廣闊的市場空間中,希望分得一杯羹。

首先是英偉達在GPU領域的最大對手AMD ,今年一月有研究人員在Frontier超算集群上,利用其中8%左右的GPU,訓練出一個GPT 3.5級別規(guī)模的大模型。而Frontier超算集群是完全基于AMD硬件的,由37888個MI250X GPU和9472個Epyc 7A53 CPU組成,這次研究也突破了在AMD硬件上突破了先進分布式訓練模型的難點,為AMD平臺訓練大模型驗證了可行性。

同時,CUDA生態(tài)也在逐步擊破,今年7月英國公司Spectral Compute推出了可以為AMD GPU原生編譯CUDA源代碼的方案,大幅提高了AMD GPU對CUDA的兼容效率。

英特爾的Gaudi 3 也在發(fā)布時直接對標英偉達H100,并宣稱在模型訓練速度和推理速度上分別比英偉達H100提高了40%和50%。

除了芯片巨頭外,也不乏來自初創(chuàng)公司的沖擊。比如Groq推出的LPU、Cerebras推出的Wafer Scale Engine 3、Etched推出的Sohu等等。國內方面,有走多卡集群訓練路線的初創(chuàng)公司,比如摩爾線程在今年6月宣布與羽人科技合作成功實現(xiàn)了摩爾線程夸娥(KUAE)千卡智算集群與羽人系列模型解決方案的訓練兼容適配,高效完成了70億參數(shù)羽人大語言模型YuRen-7b的訓練測試。

摩爾線程夸娥方案基于全功能MTT S4000 GPU,該GPU采用了第三代MUSA內核,單卡支持48GB顯存容量和768GB/s的顯存帶寬,F(xiàn)P16算力為100TFLOPS。值得一提的是,MTT S4000計算卡借助摩爾線程自研開發(fā)工具,可以充分兼容現(xiàn)有CUDA軟件生態(tài),實現(xiàn)CUDA代碼零成本遷移到MUSA平臺。

天數(shù)智芯也與智源研究院、愛特云翔合作,提供天垓100加速卡、構建算力集群及全程技術支持,實現(xiàn)基于自主通用GPU的大模型CodeGen(高效編碼)項目,通過中文描述來生成可用的C、JavaPython代碼以實現(xiàn)高效編碼。

另外值得一提的是,國內還有一家走TPU路線的AI芯片公司——中昊芯英。該公司在2023年底推出了國內首款量產(chǎn)TPU AI訓練芯片“剎那”,據(jù)稱在處理大模型訓練和推理任務時相比英偉達A100,性能提高近150%,能耗下降30%,單位算力成本僅為A100的42%。

當然,除了芯片公司,據(jù)現(xiàn)有的信息,目前主流的云服務供應商,比如前面提到的谷歌,還有亞馬遜、微軟、Meta、阿里巴巴、字節(jié)跳動、百度、華為等都有自研芯片的布局,其中還包括用于AI大模型訓練的芯片。

寫在最后

從長遠來看,自研芯片是云服務供應商有效降低算力成本的方式之一,當AI大模型訓練成為了云計算的重要用途時,自研AI訓練芯片自然也是云服務廠商的長遠之計。蘋果作為消費電子巨頭已經(jīng)邁出了重要的一步,即擺脫對英偉達的算力依賴,并且還有大量的挑戰(zhàn)者正在蠢蠢欲動。星星之火,可以燎原,英偉達在AI訓練領域的地位,可能沒有表面看起來那么穩(wěn)固。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5275

    瀏覽量

    136076
  • 蘋果
    +關注

    關注

    61

    文章

    24613

    瀏覽量

    208764
  • AI
    AI
    +關注

    關注

    91

    文章

    41182

    瀏覽量

    302626
  • 英偉達
    +關注

    關注

    23

    文章

    4116

    瀏覽量

    99635
  • 大模型
    +關注

    關注

    2

    文章

    3781

    瀏覽量

    5273
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾線程 x 中國移動|國產(chǎn)GPU率先支撐央企大模型,S5000完成九天35B大模型適配

    ,依托成熟的MUSA軟件棧與高性能算子優(yōu)化,已率先完成九天35B模型的全流程適配與推理驗證。這不僅是國產(chǎn)GPU與央企大模型的深度協(xié)同,更意味著國產(chǎn)AI算力已具備支撐行業(yè)級大
    發(fā)表于 04-28 08:32 ?438次閱讀

    AI模型微調企業(yè)項目實戰(zhàn)課

    的戰(zhàn)略問題浮出水面:過度依賴公有云上的通用大模型,意味著企業(yè)的核心數(shù)據(jù)、商業(yè)機密乃至業(yè)務邏輯,都時刻暴露在潛在的隱私泄露和“數(shù)據(jù)斷供”風險之中。在這樣的時代背景下,“自主可控”不再是一句口號,而是企業(yè)存活
    發(fā)表于 04-16 18:48

    GPU不是AI的唯一解:英偉用Groq LPU證明,推理賽道需要“另一條腿”

    大會上,英偉CEO黃仁勛正式發(fā)布了Vera Rubin AI超級計算機平臺。這一平臺的問世,不僅標志著英偉戰(zhàn)略從單一的
    的頭像 發(fā)表于 03-24 11:27 ?6046次閱讀
    <b class='flag-5'>GPU</b>不是<b class='flag-5'>AI</b>的唯一解:<b class='flag-5'>英偉</b><b class='flag-5'>達</b>用Groq LPU證明,推理賽道需要“另一條腿”

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    英偉Rubin GPU采用鉆石銅散熱,解決芯片散熱難題

    散熱難題帶來了新的曙光。 ? 隨著AI模型、云計算的迭代提速,芯片算力與功耗同步飆升。英偉新一代Vera Rubin GPU堪稱“算力巨
    的頭像 發(fā)表于 02-05 13:46 ?5432次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>Rubin <b class='flag-5'>GPU</b>采用鉆石銅散熱,解決芯片散熱難題

    模型實戰(zhàn)(SC171開發(fā)套件V3)2026版

    測項目案例(引體向上測試) 8分53秒 https://t.elecfans.com/v/28532.html *附件:文檔:智能體測項目案例(引體向上測試)_V1.0.pdf 見文檔說明 4 模型
    發(fā)表于 01-15 12:05

    黃仁勛:未來十年很多汽車是自動駕駛 英偉發(fā)布Alpamayo汽車大模型平臺

    最看好的AI落地場景就是自動駕駛。在演講中黃仁勛提到,未來十年,世界上很大一部分汽車將是自動駕駛或高度自動駕駛的。你期待嗎? 英偉發(fā)布Alpamayo汽車大模型平臺
    的頭像 發(fā)表于 01-06 11:45 ?1425次閱讀

    RAG實踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫)的優(yōu)勢與生成式大語言模型(LLM)的功能結合在一起。不再依賴
    的頭像 發(fā)表于 10-27 18:23 ?1715次閱讀
    RAG實踐:一文掌握大<b class='flag-5'>模型</b>RAG過程

    蘋果AI革命:M5芯片10核GPU、AI處理速度翻倍,Apple Glass在路上

    三款核心設備。這一場蘋果圍繞M5芯片AI硬件的革新,也成為蘋果邁進AI時代以端側大模型和空間計算的又一成績。 ? ? 3nm+10核
    的頭像 發(fā)表于 10-19 01:13 ?1.1w次閱讀
    <b class='flag-5'>蘋果</b><b class='flag-5'>AI</b>革命:M5芯片10核<b class='flag-5'>GPU</b>、<b class='flag-5'>AI</b>處理速度翻倍,Apple Glass在路上

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    今日看點:蘋果認證中國快充品牌遭美調查;英偉擬向OpenAI投資最高1000億美元

    系統(tǒng)建設并部署至少10吉瓦的人工智能(AI)數(shù)據(jù)中心,用于訓練和運行下一代模型。這一耗電量相當于800萬戶美國家庭的用電量。 英偉CEO黃仁勛曾表示,10吉瓦相當于400萬至500萬
    發(fā)表于 09-23 10:09 ?505次閱讀

    英偉HBM基礎裸片

    電子發(fā)燒友網(wǎng)綜合報道,據(jù)臺媒消息,傳聞英偉已開始開發(fā)自己的HBM基礎裸片,預計英偉HB
    的頭像 發(fā)表于 08-21 08:16 ?3034次閱讀

    擺脫依賴英偉!OpenAI首次轉向使用谷歌芯片

    地使用非英偉芯片,更顯示出其正在逐步擺脫對英偉芯片的深度依賴,在算力布局上邁出了重要戰(zhàn)略調整的一步。 ? OpenAI
    的頭像 發(fā)表于 07-02 00:59 ?8587次閱讀

    如何賦能醫(yī)療AI模型應用?

    引言ChatGPT掀起熱潮以來,眾多AI模型如雨后春筍般涌現(xiàn),其中包括百度科技的文心一言、科大訊飛的訊飛星火、華為的盤古AI模型、騰訊
    的頭像 發(fā)表于 05-07 09:36 ?804次閱讀
    如何賦能醫(yī)療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應用?