chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CMSIS 5.8.0優(yōu)化了機(jī)器學(xué)習(xí)應(yīng)用的神經(jīng)網(wǎng)絡(luò)和信號處理

星星科技指導(dǎo)員 ? 來源:嵌入式計算設(shè)計 ? 作者:Saumitra Jagdale ? 2022-07-10 11:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CMSIS 通過集成各種包和模塊,從軟件角度增強(qiáng)了嵌入式項目。它帶有一系列工具、API 和框架,可幫助嵌入式開發(fā)人員實現(xiàn)流暢的應(yīng)用程序構(gòu)建。此外,從開發(fā)的角度來看,實時操作系統(tǒng)和中間件組件提供了多種選擇。

CMSIS-Pack 的組織結(jié)構(gòu)使其適用于劃分和克服應(yīng)用程序的復(fù)雜要求。隨著 5.8.0 版本的發(fā)布,CMSIS-NN 和 CMSIS-DSP 已從復(fù)合 CMSIS 核心中分離出來,后者是 CMSIS 包的主要組件之一。這種自由裁量權(quán)允許集中開發(fā)機(jī)器學(xué)習(xí)信號處理功能,并且包的相應(yīng)發(fā)布周期獨立于主要的 CMSIS 核心版本。

CMSIS-DSP 包有一些小的變化,一些 GCC 問題已通過將 DSP 包離散更新到 1.9.0 版本而得到修復(fù)。更新后的軟件包增強(qiáng)了對 f16 數(shù)據(jù)類型的支持,以便對接收到的數(shù)據(jù)進(jìn)行有效的信號處理。此外,還從存儲庫中刪除了一些預(yù)構(gòu)建的庫,以獲得更清晰的包源。

TensorFlow Lite 框架將接口機(jī)器學(xué)習(xí)本質(zhì)添加到硬件應(yīng)用程序中。更新后的 CMSIS-NN 包在 TensorFlow Lite 微控制器框架支持的功能接口上發(fā)生了一些重大變化。另外,這個版本通過 M-Profile Vector Extension 的處理相對更好,這是由于最大池算子的實現(xiàn)。運算符在非重疊區(qū)域上工作以減小向量或矩陣的大小。這導(dǎo)致機(jī)器學(xué)習(xí)用例的優(yōu)化處理。

ARM 嵌入式工具高級總監(jiān) Reinhard Keil 表示:“最新的 CMSIS 版本 5.8.0 對在 Cortex-M55 處理器中實現(xiàn)的 Helium 矢量擴(kuò)展支持有額外的性能改進(jìn)。這包括優(yōu)化 CMSIS-DSP 算法集合和用于機(jī)器學(xué)習(xí)應(yīng)用的高效神經(jīng)網(wǎng)絡(luò)內(nèi)核 CMSIS 集合。”

CMSIS 核心的啟動代碼

C 啟動代碼最初是在 CMSIS 5.6.0 中引入的,它增加了代碼的可移植性和復(fù)雜構(gòu)建的開發(fā)簡易性。CMSIS 核心中的設(shè)備啟動代碼現(xiàn)在可以直接用 C 語言編寫,這使其獨立于編譯器工具鏈。此外,CMSIS 5.8.0 的發(fā)布使 C 啟動成為設(shè)備的默認(rèn)啟動。

進(jìn)一步討論,GCC Linker Description 和 GCC Assembler startup 的更新很少。到目前為止,匯編代碼使用字節(jié)計數(shù)來進(jìn)行 BSS(由符號開始的塊)和零部分的初始化的復(fù)制/零表。另一方面,C 啟動代碼使用字?jǐn)?shù)而不是字節(jié)數(shù)。在 CMSIS 5.8.0 中,兩個啟動代碼變體都使用相同的復(fù)制/零表布局。因此,它提供了從匯編代碼到 C 啟動代碼來回切換的靈活性。

Armv8-M Assembler 啟動已更新為使用 CMSIS 5.8.0 版本的 GAS 語法。最新的 ARM 編譯器 6 支持傳統(tǒng)的 Arm Assembler(armasm),使軟件向后兼容所有設(shè)備。Arm Compiler 6 以 LLVM/Clang 為基礎(chǔ),因此較新處理器的匯編代碼需要采用 GAS 語法。

CMSIS 是一個開源項目

CMSIS 是 GitHub 上的一個開源項目。由于先前版本的實現(xiàn)在某些小點上使接口失敗,因此很少出現(xiàn)問題。這些問題中的大多數(shù)將在下一個版本中得到解決,但可以通過在本地技術(shù)堆棧中進(jìn)行一些更改來解決它們。您可以通過訪問CMSIS 5.8.0 版本的 GitHub 查看這些問題和修復(fù)。

該存儲庫是開源的,因此它有助于解決用戶和合作伙伴報告的潛在安全漏洞問題。它允許每個用戶訪問詳細(xì)的修訂歷史記錄、提交細(xì)節(jié)和已知問題,這些問題可能會影響一些依賴先前實現(xiàn)的副作用的用戶。

CMSIS 中屬于軟件打包和構(gòu)建過程的其他組成部分正在轉(zhuǎn)向 Open-CMSIS-Pack 項目,該項目可以增加開發(fā)和應(yīng)用方面的更多可能性。因此,這是一個由 Arm 和 NXP、STMicroelectronics 和 Linaro 等行業(yè)合作伙伴推動的開放式治理項目。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?1044次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方
    的頭像 發(fā)表于 02-12 15:51 ?1290次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點,同時也存在一些不容忽視的缺點。以下是對BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點的分析
    的頭像 發(fā)表于 02-12 15:36 ?1280次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?1189次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個簡單的神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?712次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?1806次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實現(xiàn)工具和框架應(yīng)運而生,為研究人員和開發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?943次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常
    的頭像 發(fā)表于 11-15 14:53 ?2256次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個分支,因其在圖像處理
    的頭像 發(fā)表于 11-15 14:52 ?1077次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)化技巧

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡稱RNN)是一種用于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,它能夠捕捉時間序列中的動態(tài)特征。然而,RNN在訓(xùn)練過程中可能會遇到梯度消失或梯度
    的頭像 發(fā)表于 11-15 09:51 ?1014次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)
    的頭像 發(fā)表于 11-15 09:42 ?1805次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與其他機(jī)器學(xué)習(xí)算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機(jī)器學(xué)習(xí)算法在各個領(lǐng)域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(luò)(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因其在
    的頭像 發(fā)表于 11-13 10:17 ?2474次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)
    的頭像 發(fā)表于 11-13 09:58 ?1524次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠學(xué)習(xí)長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,
    的頭像 發(fā)表于 11-13 09:53 ?2254次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實時機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)
    的頭像 發(fā)表于 11-01 08:06 ?847次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101