chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用深度學習加速芯片設(shè)計

MATLAB ? 來源:MATLAB ? 作者:MATLAB ? 2022-11-10 10:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

實現(xiàn)自主可控的芯片設(shè)計已經(jīng)成為我國社會和行業(yè)發(fā)展的熱點,而伴隨著對芯片功能性和穩(wěn)定性與日俱增的要求,芯片設(shè)計也變得越來越復(fù)雜,如何快速和便捷地進行設(shè)計空間的探索也變得越來越具有挑戰(zhàn)性!

今天我們有幸邀請到來自上海交通大學信息工程專業(yè)的盧凌峰和李江川兩位同學,來分享他們在參與 MATLAB 學生創(chuàng)新項目(MathWorks Excellence in Innovation Projects)時是如何利用深度學習來加速鎖相環(huán)設(shè)計的。GitHub 上也有他們分享的代碼和數(shù)據(jù),可以下載哦:https://github.com/lulf0020/Behavior-modeling-of-PLL

同時,如果是對芯片設(shè)計這個話題感興趣,也可以參加我們 11 月 22/24 日晚上 7-8 點的小邁步之 MATLAB助力芯片設(shè)計系列講座!作為入門級講座,我們會使用豐富的實際操作案例來介紹如何在各領(lǐng)域使用 MATLAB 與 Simulink 實現(xiàn)芯片設(shè)計應(yīng)用,歡迎來聽!

以下是他們的分享——

鎖相環(huán)(Phase Lock Loop, PLL)被稱為芯片的“心臟”!它利用外部晶

振作為參考時鐘,通過閉環(huán)控制輸出一個穩(wěn)定的更高頻率的時鐘,以供芯片的時序電路使用。心臟的正常跳動很大程度上決定著一個人能否健康地生活,而設(shè)計一個穩(wěn)定的 PLL 則成為保障一個芯片能正常運行的重要前提!

2021 年,我們選修了楊宇紅老師主講的校企合作課程《工程實踐與科技創(chuàng)新》,作為課程的一部分,我們需要在課程期間完成一個實踐項目。MathWorks 的學生創(chuàng)新項目是由其在全球一線工程師們結(jié)合當前行業(yè)需求和最新技術(shù)發(fā)展趨勢所確立的一些研究和實踐課題,涉及 5G、大數(shù)據(jù)、工業(yè) 4.0、人工智能、自動駕駛機器人、無人機計算機視覺、可持續(xù)發(fā)展及可再生能源等各個領(lǐng)域。我們決定在其中選擇一個項目并在 3 個月之內(nèi)完成。

為什么選擇“基于深度學習技術(shù)進行鎖相環(huán)行為級建?!?項目?

這個項目的實用性以及新穎性吸引了我們!對鎖相環(huán)進行行為級建模,可以節(jié)省設(shè)計過程中的時間成本。具體來說,通過深度學習建立鎖相環(huán)的行為級模型之后,我們可以輸入器件參數(shù)直接得到鎖相環(huán)的性能表現(xiàn),而不需要經(jīng)過冗長的仿真測試環(huán)節(jié)。

另外,在選擇這個項目之前,我們曾經(jīng)在學校的機器學習課程中接觸過神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識,也曾在暑期實習過程中,對很多的神經(jīng)網(wǎng)絡(luò)進行了調(diào)研,并實戰(zhàn)過利用 YOLO 算法來做目標識別。一定的知識儲備使得我們更加有底氣選擇這個項目。

在項目中遇到什么問題?是如何解決的?

數(shù)據(jù)集和模型是開展深度學習的兩個關(guān)鍵因素。在這個項目中,我們遇到的兩個主要問題包括數(shù)據(jù)集的收集和模型建立:

問題一:如何高效的收集數(shù)據(jù)集?

問題二:怎樣建立有效的深度學習模型?

下面就給大家詳細介紹一下我們是如何解決這兩個問題的。

問題一:如何高效的收集數(shù)據(jù)集?

在這個項目中,沒有現(xiàn)成的數(shù)據(jù)集可供我們使用。項目開始前,MathWorks出題工程師 Pragati Tiwary 對于題目細節(jié)給我們做了深入地解釋。他告訴我們 MATLAB 的混合信號工具箱(Mixed-Signal Blockset)里所提供的N分頻鎖相環(huán)參考模型給我們提供了一種可以通過仿真來建立數(shù)據(jù)集的手段。

該模型(如下圖示)包含了五個模塊:鑒相器,電荷泵,環(huán)路濾波器,壓控振蕩器和分頻器。我們需要做的是不斷改變這五個模塊的參數(shù),看看會對鎖相環(huán)輸出信號的頻率、鎖定時間以及相位噪聲產(chǎn)生什么樣的影響。

a029acec-601b-11ed-8abf-dac502259ad0.png

圖一 N 分頻鎖相環(huán)參考模型

混合信號工具箱除了提供參考模型,還提供了測試平臺。利用這個平臺,我們可以便捷地對各種不同參數(shù)下的鎖相環(huán)模型的輸出信號進行監(jiān)測,記錄下所需要的輸出結(jié)果。

項目初期,我們遇到的主要問題是數(shù)據(jù)集的收集效率低下。為了獲得一組數(shù)據(jù),我們每次都需要手動更改模型各個模塊的參數(shù)設(shè)置,再對進行一次仿真測試,最后需要手動記錄測試平臺的輸出結(jié)果,十分費時。

這時,Pragati 給我們提供了耐心的指導(dǎo),他告訴我們?nèi)绾螌︽i相環(huán)模型進行批量的數(shù)據(jù)導(dǎo)入、仿真以及數(shù)據(jù)導(dǎo)出。在他的幫助下,我們將 Simulink 與 MATLAB 配合使用,由 MATLAB 程序調(diào)整模型參數(shù)并控制 Simulink 模型進行批量的仿真和測試。我們將模型中需要測試的參數(shù)設(shè)置為變量,這樣就可以通過更改變量值的方式來更改仿真模型的參數(shù)值。

但是,我們隨后發(fā)現(xiàn)一些涉及到模型結(jié)構(gòu)的參數(shù),比如環(huán)路濾波器的階數(shù),是無法簡單地通過改變變量值的方式來進行修改的。正當我們一籌莫展時,卻驚喜地發(fā)現(xiàn)鎖相環(huán)中通常所采用的二階,三階和四階環(huán)路濾波器的電路形式具有相似性。于是,我們統(tǒng)一采用了四階環(huán)路濾波電路的模型,只是在設(shè)置參數(shù)時,通過將對應(yīng)的電容、電阻設(shè)為0,來模擬斷路和短路,以實現(xiàn)更低階數(shù)的環(huán)路濾波器。至此,我們實現(xiàn)了仿真模型參數(shù)的快速更改。

a0416058-601b-11ed-8abf-dac502259ad0.png

圖二 二階、三階和四階環(huán)路濾波器(從左到右)

對輸出結(jié)果,我們也希望能夠像仿真模型的參數(shù)一樣,實現(xiàn)通過程序自動記錄。但我們經(jīng)過測試后發(fā)現(xiàn),測試平臺的最終輸出結(jié)果無法導(dǎo)出,而只能導(dǎo)出中間結(jié)果。于是我們只好自動導(dǎo)出中間結(jié)果,再根據(jù)相應(yīng)輸出結(jié)果的計算方法,通過中間結(jié)果求解出我們所需要的最終結(jié)果。

最終,我們建立起了 MATLAB 和 Simulink 配合仿真和測試的全流程:通過生成在一定范圍內(nèi)的隨機數(shù),對仿真模型的參數(shù)值進行更改;使用MATLAB的控制指令進行模型的仿真和測試,Simulink會在仿真結(jié)束后將記錄的中間結(jié)果回傳到 MATLAB,最后根據(jù)回傳的中間結(jié)果計算我們關(guān)注的輸出結(jié)果并記錄。在設(shè)定了程序執(zhí)行的循環(huán)次數(shù)后,就能夠?qū)崿F(xiàn)無監(jiān)管下的數(shù)據(jù)收集工作,在一定程度上提高了數(shù)據(jù)集的建立效率。

問題二:怎樣建立有效的深度學習模型?

深度學習一般被用于復(fù)雜信息的特征提取以及預(yù)測量的回歸或擬合標定。譬如在卷積神經(jīng)網(wǎng)絡(luò)模型設(shè)計中就包含較多的卷積層和池化層等用于圖片特征信息的提取。而在我們的項目中,實際需要的特征值大多已經(jīng)在項目信息中給出。

通過實驗,我們發(fā)現(xiàn)僅兩層的前饋式神經(jīng)網(wǎng)絡(luò)就可以較好地實現(xiàn)對輸入?yún)?shù)到輸出參數(shù)映射關(guān)系的建模,于是我們采用了神經(jīng)網(wǎng)絡(luò)中結(jié)構(gòu)較簡單的前饋式神經(jīng)網(wǎng)絡(luò)。

MATLAB 提供了一個深度學習工具箱,你可以從零開始構(gòu)建想要的神經(jīng)網(wǎng)絡(luò)模型,也可以在工具箱所提供的參考神經(jīng)網(wǎng)絡(luò)模型上進行修改。該工具箱可以從 TensorFlow 和 Caffe 導(dǎo)入模型,并支持對 DarkNet-53、ResNet-50、NASNet、SqueezeNet 等較為熱門的預(yù)訓(xùn)練模型進行遷移學習。

我們要給大家安利的是深度學習工具箱里所提供的 Neural Network Fitting APP。這個APP提供了如下圖所示的神經(jīng)元節(jié)點數(shù)可選的兩層前饋式神經(jīng)網(wǎng)絡(luò)。這個神經(jīng)網(wǎng)絡(luò)以經(jīng)典的非線性激活函數(shù)sigmoid作為隱藏層神經(jīng)元的激活函數(shù),而在輸出層則采用了線性的輸出函數(shù);以均方差值(MSE)作為訓(xùn)練指標,并且可以對訓(xùn)練的結(jié)果進行回歸度分析。在這個 APP 的基礎(chǔ)上,通過人為地對訓(xùn)練數(shù)據(jù)、測試數(shù)據(jù)以及訓(xùn)練完成的模型進行一些數(shù)據(jù)處理,就大致滿足了我們的需求。

a076fa10-601b-11ed-8abf-dac502259ad0.png

圖三 Neural Network Fitting APP

不得不提的是,我們建立的模型一開始的擬合效果并不好,于是我們嘗試了數(shù)據(jù)預(yù)處理、增加神經(jīng)節(jié)點、調(diào)整各個數(shù)據(jù)集的比例等方式,最后得到了一個還不錯的擬合效果。

在前饋式神經(jīng)網(wǎng)絡(luò)這一模型主體上,一個良好的數(shù)據(jù)預(yù)處理形式可以使得整體神經(jīng)網(wǎng)絡(luò)具有更好的擬合效果。對于數(shù)量級相差較大的數(shù)據(jù),我們使用對數(shù)函數(shù)輔助進行歸一化,使得其數(shù)據(jù)分布盡可能實現(xiàn)均勻且有區(qū)分度,不會有過多的差異數(shù)據(jù)聚集在數(shù)據(jù)軸上的幾個點附近而導(dǎo)致欠擬合或過擬合。

在模型訓(xùn)練過程中,數(shù)據(jù)集會被劃分為訓(xùn)練集、測試集和驗證集三個部分。其中,訓(xùn)練集和測試集會用于模型的訓(xùn)練過程,而驗證集主要用于模型最終性能的評估。在訓(xùn)練過程中,我們注意到,僅僅保證訓(xùn)練集和測試集占總體數(shù)據(jù)集大小的比例是不夠的,測試集最好具有一定的絕對數(shù)量,否則其反映出來的模型擬合程度可能無法反應(yīng)出模型實際的擬合程度。在這個項目中,大約需要 >200 個樣本的測試集才能保證其用于訓(xùn)練的模型擬合程度數(shù)據(jù)較為可靠,使模型訓(xùn)練進程能有效推進下去。

結(jié)語:努力學習 + 勇敢嘗試 = 成功

時光荏苒,現(xiàn)在我們一個已經(jīng)在上海三菱電梯工作,一個正在備戰(zhàn)考研,但這段跨時差跨語言的項目經(jīng)歷是很難忘的。我們最大的收獲不僅是通過項目實踐鞏固了所學的知識、體會到創(chuàng)新的重要性,還通過和 MathWorks 的工程師在線上用英語溝通和交流開闊了眼界和提高了膽量。在此,非常感謝 MATLAB 學生創(chuàng)新項目給我們提供了實踐的機會,感謝《工程實踐與科技創(chuàng)新》課程的主講老師楊宇紅老師與 MathWorks 的 Pragati Tiwary 及許悅伊博士給我們提供的幫助和指導(dǎo)!

P.S.:盧凌峰和李江川兩位同學參加的 Behavior Modeling of PLL 是 MathWorks 為同學們提供的二百余個 MATLAB 學生創(chuàng)新項目(Excellence in Innovation Projects)項目之一。

最后,如果是對芯片設(shè)計這個話題感興趣,也可以參加我們 11 月 22/24 日晚上 7-8 點的小邁步之 MATLAB助力芯片設(shè)計系列講座!作為入門級講座,我們會使用豐富的實際操作案例來介紹如何在各領(lǐng)域使用 MATLAB 與 Simulink 實現(xiàn)芯片設(shè)計應(yīng)用,歡迎來聽!

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • matlab
    +關(guān)注

    關(guān)注

    189

    文章

    3001

    瀏覽量

    234172
  • 芯片設(shè)計
    +關(guān)注

    關(guān)注

    15

    文章

    1087

    瀏覽量

    55666
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122805

原文標題:“AI+”學生項目分享 | 利用深度學習加速芯片設(shè)計

文章出處:【微信號:MATLAB,微信公眾號:MATLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    廠家芯資訊|WTK6900系列語音識別芯片學習功能深度答疑

    在智能硬件全面擁抱語音交互的時代,廣州唯創(chuàng)電子WTK6900系列芯片憑借其獨特的離線自學習能力,已成為智能家居、工業(yè)控制等領(lǐng)域的核心交互模塊。本文針對實際應(yīng)用中的高頻問題,深度解析故障排除方法與優(yōu)化
    的頭像 發(fā)表于 03-20 09:13 ?356次閱讀
    廠家芯資訊|WTK6900系列語音識別<b class='flag-5'>芯片</b>自<b class='flag-5'>學習</b>功能<b class='flag-5'>深度</b>答疑

    如何排除深度學習工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學習工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學習技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?540次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學習的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學習之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    什么是NPU芯片及其功能

    在人工智能(AI)技術(shù)迅猛發(fā)展的今天,NPU芯片已經(jīng)成為推動這一領(lǐng)域進步的關(guān)鍵技術(shù)之一。NPU芯片,即神經(jīng)網(wǎng)絡(luò)處理單元,是一種專門為深度學習算法設(shè)計的硬件
    的頭像 發(fā)表于 11-14 15:48 ?5284次閱讀

    NPU在深度學習中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學習中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1922次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學習領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和
    的頭像 發(fā)表于 11-05 17:43 ?1414次閱讀

    Pytorch深度學習訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?661次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓(xùn)練的方法

    GPU深度學習應(yīng)用案例

    GPU在深度學習中的應(yīng)用廣泛且重要,以下是一些GPU深度學習應(yīng)用案例: 一、圖像識別 圖像識別是深度學習
    的頭像 發(fā)表于 10-27 11:13 ?1384次閱讀

    激光雷達技術(shù)的基于深度學習的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學習技術(shù)的發(fā)展 深度學習是機器學習的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1073次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?1238次閱讀

    AI大模型與深度學習的關(guān)系

    AI大模型與深度學習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學習是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學習能走多遠?

    ,共同進步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學習能走多遠?現(xiàn)在用FPGA做深度學習加速成為一個熱
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1152次閱讀