chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

支持大語言模型的AIoT系統(tǒng)設計難度在哪?該怎么做設計驗證?

芯華章科技 ? 來源:芯華章科技 ? 2023-07-17 16:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT成為今年現(xiàn)象級的熱門應用后,一個說法也在行業(yè)里悄然流傳開——1萬枚英偉達A100芯片,是做好大模型訓練的入門級裝備。一時之間“洛陽紙貴”,AI芯片成為了大家眼中的“屠龍寶刀”。我們看到,大量抓住機遇的人,不僅投身大模型產(chǎn)品,還有一部分負責給“掘金人”賣鏟子。

那么問題來了:

支持大語言模型的AIoT系統(tǒng),

設計難度在哪?

該怎么做設計驗證?

藏在“屠龍刀”里面的秘籍究竟是什么?

過去的AIoT,通常指的都是帶低算力的端側(cè)小芯片,但是隨著類似ChatGPT的大語言模型全面得到應用,在端側(cè)AIoT芯片上部署需要幾十到幾百TOPS算力的LLM大模型也成為新的需求。但是新一代AIoT芯片要提高十倍到百倍算力,這不僅僅是堆砌算力那么簡單,需要從性能、互連、帶寬、接口進行全面的系統(tǒng)級規(guī)劃和設計。

新一代的AIoT芯片已經(jīng)不是一個獨立的芯片個體,目前市場上的AIoT芯片幾乎都結(jié)合了CPU、GPU、FPGADSP等核心零部件。這就必然需要支持系統(tǒng)級芯片開發(fā)的EDA流程。

實際上,芯片設計廠商也意識到了這個問題。當制程工藝逼近極限,但人們對電子產(chǎn)品性能的追求還在不斷攀升時,壓力很快就傳導到了上游的芯片廠商。借助面向系統(tǒng)級的創(chuàng)新,提升芯片的終極性能表現(xiàn),也成為大家的共識。

所以沒有任何分歧,無論從哪個維度看,大規(guī)模的系統(tǒng)級芯片設計由于場景豐富、系統(tǒng)規(guī)模不斷擴張,這一需求正在快速形成市場主流的大浪,涌向EDA工具并推動其不斷革新。

如何做好大系統(tǒng)芯片設計?

2023年7月13日至14日,備受期待的第三屆中國集成電路設計創(chuàng)新大會(ICDIA 2023)在無錫召開。作為國內(nèi)領先的系統(tǒng)級驗證EDA解決方案提供商,芯華章受邀參加此次盛會,在“AIoT與ChatGPT”分論壇上針對大系統(tǒng)芯片設計挑戰(zhàn),分享了自己的解決方案。

大系統(tǒng)芯片設計,首先要理解什么叫“系統(tǒng)”?對高性能AIoT、自動駕駛、高性能CPU和GPU等等復雜應用來說,系統(tǒng)意味著多節(jié)點互聯(lián),每個節(jié)點都有自己的控制單元(如CPU)和計算單元(如AI、NPU),每個節(jié)點都有自己的操作系統(tǒng)和應用軟件。

毫無疑問,大系統(tǒng)是一個軟硬件一體化、多節(jié)點一體化的復雜平臺,但也只有把這整個平臺都在芯片流片前驗證通過,才能真正保證高性能復雜芯片設計的正確性。

因此,大系統(tǒng)芯片驗證,最直接的挑戰(zhàn)來自于規(guī)模龐大的系統(tǒng)級仿真但困難遠不止于此,由“大”帶來的結(jié)構(gòu)性挑戰(zhàn),涵蓋了從驗證到調(diào)試的方方面面。而更大的設計本身往往意味著更長的時間、更高昂的成本、更慢的仿真性能,本質(zhì)上也就意味著更困難的驗證。

在當下的技術和市場環(huán)境下,大系統(tǒng)芯片設計的驗證面臨三大共性難題,這些難題正是傳統(tǒng)的EDA工具所難以解決的痛點:

設計大,很大,大到放不下

從多核、Chiplet封裝、多節(jié)點到完整系統(tǒng),復雜的驗證規(guī)??梢暂p易達到百億甚至千億門,對驗證工具的容量提出了更高的要求,試想如果驗證平臺根本無法仿真完整的應用系統(tǒng),又怎么能證明設計是完整正確的?但供數(shù)十億至數(shù)百億規(guī)模容量的驗證平臺,其性能、規(guī)模、可調(diào)試性又往往成為難以平衡的選擇。

驗證慢,很慢,難以收斂的慢

系統(tǒng)級規(guī)模不斷增大,系統(tǒng)級仿真在整個驗證的仿真流程中比例不斷增大,導致驗證團隊特別依賴性能和數(shù)量有限的硬件仿真系統(tǒng),導致驗證慢的不僅僅是仿真速度,更是整個驗證工作的收斂速度和效率。

Debug難,很難,越往后越難

在如此復雜和大規(guī)模的系統(tǒng)級仿真上,調(diào)試就變成一個更加困難的問題。仿真平臺上觀察到的問題,到底來自軟件、芯片邏輯設計還是多節(jié)點互連?問題能否穩(wěn)定復現(xiàn)?如何在多種仿真平臺的數(shù)據(jù)之間進行綜合分析?不解決這些問題,大系統(tǒng)的調(diào)試就會越往后期越難,最終影響整個項目周期。

我們似乎開始找到“屠龍刀里秘籍”的線索。作為最上游的輔助設計工具,EDA創(chuàng)新確實是提升系統(tǒng)級設計效率,降低創(chuàng)新成本的關鍵“鑰匙”。

芯華章資深產(chǎn)品與業(yè)務規(guī)劃總監(jiān)楊曄表示,“單個IP的驗證需求在降低,SoC或單個chiplet級的驗證需求在不斷上升,因為這部分是客戶系統(tǒng)級創(chuàng)新的核心。然而在新場景的應用中,傳統(tǒng)的EDA工具在應對大容量、深度調(diào)試、多種驗證場景混合使用的時候,遇到各種效率挑戰(zhàn)。芯華章致力提供從軟件、硬件到調(diào)試的整體解決方案,特別是在大規(guī)模設計的系統(tǒng)級驗證、硬件驗證、架構(gòu)驗證等方面,將為用戶提供全流程大系統(tǒng)芯片驗證解決方案?!?/p>

b2ea95de-247f-11ee-962d-dac502259ad0.png

芯華章大系統(tǒng)芯片設計驗證解決方案的核心,是基于敏捷驗證理念,建立統(tǒng)一的EDA數(shù)據(jù)庫,打造從IP到子系統(tǒng)再到系統(tǒng)級的統(tǒng)一測試場景,提早開始系統(tǒng)級驗證,實現(xiàn)驗證與測試目標的高速收斂,進行高效率、高效益的快速迭代,從而助力芯片及系統(tǒng)公司提高驗證效率,降低研發(fā)成本。

b2ffae56-247f-11ee-962d-dac502259ad0.png

芯華章針對大規(guī)模系統(tǒng)級芯片“量身打造”的敏捷驗證方案,已經(jīng)在多個領域獲得具體項目部署。

針對自動駕駛應用芯片,芯華章高性能硬件仿真系統(tǒng)HuaEmu E1不僅有高性能仿真和深度調(diào)試,還提供了LPDDR5模型用于客戶內(nèi)存仿真,提供CSIDSI模型用于仿真自動駕駛系統(tǒng)的輸入和輸出,這些都超出了單顆芯片的范疇,是針對軟硬件一體化的系統(tǒng)方案進行仿真驗證。

為了解決原型系統(tǒng)和硬件仿真之間切換版本成本高,延長驗證周期的問題,芯華章發(fā)布的雙模硬件驗證系統(tǒng)HuaPro P2E則基于統(tǒng)一的軟件平臺和硬件平臺,可以在綜合、編譯、驗證方案構(gòu)建、用戶腳本、調(diào)試等階段,能最大程度的復用技術模塊和中間結(jié)果,并使用統(tǒng)一用戶界面,從而實現(xiàn)原型驗證和硬件仿真絲滑的無縫集成,在節(jié)約用戶成本的同時,還能大大提高驗證效率。

傳統(tǒng)的軟件仿真工具以調(diào)試功能強大著名,但卻受限于仿真速度,不擅長處理系統(tǒng)級的大規(guī)模仿真驗證?;谛救A章自主研發(fā)的邏輯仿真器GalaxSim,芯華章GalalxSim Turbo實現(xiàn)多核、多服務器并行運算,可以實現(xiàn)1K-10KHz的復雜系統(tǒng)軟件仿真,從而可以在RTL階段提前進行系統(tǒng)級仿真。

拿到屠龍刀并不一定能號令天下,只有學會了刀里面的絕學才能真正成為“武林至尊”。

當“大模型”的路上人越來越多時,產(chǎn)業(yè)同樣也需要向上游追溯,進一步提升創(chuàng)新效率,在激烈的競爭中快人一步。作為芯片產(chǎn)品定義和創(chuàng)新的核心環(huán)節(jié),隨著以系統(tǒng)級場景為代表的產(chǎn)業(yè)數(shù)字化需求迸發(fā),EDA正從方法學、從底層架構(gòu)開始這場自我革新。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • dsp
    dsp
    +關注

    關注

    559

    文章

    8219

    瀏覽量

    364064
  • FPGA
    +關注

    關注

    1656

    文章

    22298

    瀏覽量

    630473
  • EDA工具
    +關注

    關注

    5

    文章

    276

    瀏覽量

    33811
  • AIoT芯片
    +關注

    關注

    0

    文章

    34

    瀏覽量

    4253
  • ChatGPT
    +關注

    關注

    31

    文章

    1596

    瀏覽量

    10077

原文標題:支持大語言模型的下一代AIoT系統(tǒng)該怎么做設計驗證?

文章出處:【微信號:X-EPIC,微信公眾號:芯華章科技】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B 小語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1031次閱讀

    AI模型的配置AI模型怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    NVMe高速傳輸之擺脫XDMA設計25: NVMe 子系統(tǒng)模型設計

    本課題提出 NVMe子系統(tǒng)模型的設計理念, 并將其整合到驗證平臺中, 使 NoP 邏輯加速引擎能夠在較復雜存儲子系統(tǒng)
    的頭像 發(fā)表于 09-14 11:31 ?4327次閱讀
    NVMe高速傳輸之擺脫XDMA設計25: NVMe 子<b class='flag-5'>系統(tǒng)</b><b class='flag-5'>模型</b>設計

    綠氫系統(tǒng) PEM 電解槽直流接入仿真驗證深度解析

    實現(xiàn)設定值與實際運行參數(shù)的穩(wěn)定跟隨,驗證結(jié)果表明 PEM 電解槽模塊在直流接入模式下具有可行性。 EasyGo PEM 電解槽模型可為 PEM 電解槽在制氫領域的實際應用提供堅實的模型
    發(fā)表于 07-03 18:25

    運行kmodel模型驗證一直報錯怎么解決?

    我這運行kmodel模型驗證一直報錯,所以沒法kmodel模型好壞驗證,不知道怎么解決這個問題,重新訓練一個kmodel
    發(fā)表于 06-10 08:02

    綠氫系統(tǒng)篇丨PEM電解槽模型交流接入模式仿真驗證

    電解槽模型通過離線驗證和實時仿真驗證兩種方式,對模型在交流接入模式的可行性進行全面驗證,可為
    發(fā)表于 06-05 18:55

    綠氫系統(tǒng)篇丨PEM電解槽模型交流接入模式仿真驗證

    離線驗證和實時仿真驗證兩種方式,對模型在交流接入模式的可行性進行全面驗證,可為PEM電解槽的實際應用提供理論和實踐依據(jù)。一、PEM質(zhì)子交換
    的頭像 發(fā)表于 06-05 18:07 ?1449次閱讀
    綠氫<b class='flag-5'>系統(tǒng)</b>篇丨PEM電解槽<b class='flag-5'>模型</b>交流接入模式仿真<b class='flag-5'>驗證</b>

    從FA模型切換到Stage模型時:module的切換說明

    form_config.json。 srcLanguageAbility開發(fā)語言的類型。/Stage模型支持。 srcPath標簽標識Ability對應的JS組件代碼路徑。srcE
    發(fā)表于 06-05 08:16

    企業(yè)部署AI大模型怎么做

    當下,AI大模型已成為驅(qū)動決策自動化、服務智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型部署時,常陷入算力不足、響應延遲高、成本失控等困境。如何突破瓶頸,實現(xiàn)高效、穩(wěn)定的AI部署呢?下面,AI部落小編為您分享。
    的頭像 發(fā)表于 06-04 09:26 ?686次閱讀

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?1385次閱讀
    瑞薩RZ/V2H平臺<b class='flag-5'>支持</b>部署離線版DeepSeek -R1大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    LTC5588-1的基帶輸入可以用單端的方式輸入嗎?具體怎么做

    LTC5588-1的基帶輸入可以用單端的方式輸入嗎?具體怎么做
    發(fā)表于 04-15 06:10

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關的自然
    的頭像 發(fā)表于 03-17 15:32 ?7637次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細解析

    語言模型的解碼策略與關鍵優(yōu)化總結(jié)

    本文系統(tǒng)性地闡述了大型語言模型(LargeLanguageModels,LLMs)中的解碼策略技術原理及其實踐應用。通過深入分析各類解碼算法的工作機制、性能特征和優(yōu)化方法,為研究者和工程師提供了全面
    的頭像 發(fā)表于 02-18 12:00 ?1078次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的解碼策略與關鍵優(yōu)化總結(jié)

    企業(yè)AI模型托管怎么做

    當下,越來越多的企業(yè)選擇將AI模型托管給專業(yè)的第三方平臺,以實現(xiàn)高效、靈活和安全的模型運行。下面,AI部落小編為您介紹企業(yè)AI模型托管是怎么做的。
    的頭像 發(fā)表于 01-15 10:10 ?737次閱讀

    語言模型管理的作用

    要充分發(fā)揮語言模型的潛力,有效的語言模型管理非常重要。以下,是對語言模型管理作用的分析,由AI部
    的頭像 發(fā)表于 01-02 11:06 ?576次閱讀