chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用TensorBoard進(jìn)行機(jī)器學(xué)習(xí)模型分析

星星科技指導(dǎo)員 ? 來源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Aekam Parmar ? 2022-07-01 09:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著新的神經(jīng)網(wǎng)絡(luò)模型定期出現(xiàn),機(jī)器學(xué)習(xí)正在突飛猛進(jìn)地發(fā)展。

這些模型針對特定數(shù)據(jù)集進(jìn)行了訓(xùn)練,并在準(zhǔn)確性和處理速度方面得到了證明。開發(fā)人員需要在部署之前評估 ML 模型并確保其符合預(yù)期的特定閾值和功能。有很多實(shí)驗(yàn)可以提高模型性能,在設(shè)計(jì)和訓(xùn)練模型時(shí),可視化差異變得至關(guān)重要。TensorBoard 有助于可視化模型,使分析變得不那么復(fù)雜,因?yàn)楫?dāng)人們可以看到問題所在時(shí),調(diào)試變得更容易。

訓(xùn)練 ML 模型的一般做法

一般的做法是使用預(yù)訓(xùn)練的模型并執(zhí)行遷移學(xué)習(xí)以針對相似的數(shù)據(jù)集重新訓(xùn)練模型。在遷移學(xué)習(xí)期間,首先針對與正在解決的問題相似的問題對神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。然后將訓(xùn)練模型中的一個(gè)或多個(gè)層用于針對感興趣問題訓(xùn)練的新模型。

大多數(shù)情況下,預(yù)訓(xùn)練模型采用二進(jìn)制格式,這使得很難獲取內(nèi)部信息并立即開始處理。從組織的業(yè)務(wù)角度來看,擁有一些工具來深入了解模型以縮短項(xiàng)目交付時(shí)間是有意義的。

有幾個(gè)可用的選項(xiàng)可以獲取模型信息,例如層數(shù)和相關(guān)參數(shù)。模型摘要和模型圖是基本選項(xiàng)。這些選項(xiàng)非常簡單,考慮到幾行實(shí)現(xiàn),并提供了非?;镜募?xì)節(jié),如層數(shù)、層類型和每層的輸入/輸出。

但是,模型摘要和模型圖對于理解協(xié)議緩沖區(qū)形式的任何大型復(fù)雜模型的每一個(gè)細(xì)節(jié)并不是那么有效。在這樣的場景下,使用TensorFlow提供的可視化工具TensorBoard就更有意義了。考慮到它提供的各種可視化選項(xiàng),例如模型、標(biāo)量和度量(訓(xùn)練和驗(yàn)證數(shù)據(jù))、圖像(來自數(shù)據(jù)集)、超參數(shù)調(diào)整等,它非常強(qiáng)大。

模型圖以可視化自定義模型

當(dāng)以協(xié)議緩沖區(qū)的形式接收自定義模型時(shí),此選項(xiàng)特別有用,并且需要在對其進(jìn)行任何修改或訓(xùn)練之前對其進(jìn)行理解。如下圖所示,在板上可視化了順序 CNN 的概述。每個(gè)塊代表一個(gè)單獨(dú)的層,選擇其中一個(gè)將在右上角打開一個(gè)窗口,其中包含輸入和輸出信息。

poYBAGK-Ug2AE2OmAAFyEMs94_4562.png

如果需要進(jìn)一步的信息,關(guān)于各個(gè)塊中的內(nèi)容,可以簡單地雙擊塊,這將展開塊并提供更多詳細(xì)信息。請注意,一個(gè)塊可以包含一個(gè)或多個(gè)可以逐層擴(kuò)展的塊。在選擇任何特定操作后,它還將提供有關(guān)相關(guān)處理參數(shù)的更多信息。

pYYBAGK-UhWALQ-jAAL75d-oP3Q196.png

用于分析模型訓(xùn)練和驗(yàn)證的標(biāo)量和指標(biāo)

機(jī)器學(xué)習(xí)的第二個(gè)重要方面是分析給定模型的訓(xùn)練和驗(yàn)證。從準(zhǔn)確性和速度的角度來看,性能對于使其適用于現(xiàn)實(shí)生活中的實(shí)際應(yīng)用非常重要。在下圖中,可以看出模型的準(zhǔn)確性隨著 epochs/迭代次數(shù)的增加而提高。如果訓(xùn)練和測試驗(yàn)證不達(dá)標(biāo),則表明某些事情不正確。這可能是欠擬合或過擬合的情況,可以通過修改層/參數(shù)或改進(jìn)數(shù)據(jù)集或兩者兼而有之來糾正。

poYBAGK-UhyAAV22AAInyzJOjHk378.png

圖像數(shù)據(jù)以可視化數(shù)據(jù)集中的圖像

顧名思義,它有助于可視化圖像。它不僅限于可視化數(shù)據(jù)集中的圖像,它還以圖像的形式顯示混淆矩陣。該矩陣表示檢測各個(gè)類別的對象的準(zhǔn)確性。如下圖所示,模特將大衣與套頭衫混淆了。為了克服這種情況,建議改進(jìn)特定類別的數(shù)據(jù)集,以將可區(qū)分的特征提供給模型,以便更好地學(xué)習(xí)并提高準(zhǔn)確性。

pYYBAGK-UiaAd5_xAAKM21-zJYU167.png

超參數(shù)調(diào)整以實(shí)現(xiàn)所需的模型精度

模型的準(zhǔn)確性取決于輸入數(shù)據(jù)集、層數(shù)和相關(guān)參數(shù)。在大多數(shù)情況下,在初始訓(xùn)練期間,準(zhǔn)確度永遠(yuǎn)不會達(dá)到預(yù)期的準(zhǔn)確度,除了數(shù)據(jù)集之外,還需要考慮層數(shù)、層類型、相關(guān)參數(shù)。此過程稱為超參數(shù)調(diào)整。

在這個(gè)過程中,提供了一系列超參數(shù)供模型選擇,并結(jié)合這些參數(shù)運(yùn)行模型。每個(gè)組合的準(zhǔn)確性都記錄在板上并可視化。它糾正了為超參數(shù)的每個(gè)可能組合手動訓(xùn)練模型所消耗的精力和時(shí)間。

pYYBAGK-Ui6AbK_UAAJ1G3xazbE490.png

分析模型處理速度的分析工具

除了準(zhǔn)確性之外,處理速度對于任何模型來說都是同樣重要的方面。有必要分析各個(gè)塊消耗的處理時(shí)間,以及是否可以通過一些修改來減少它。Profiling Tool 提供了每個(gè)操作在不同時(shí)期的時(shí)間消耗的圖形表示。通過這種可視化,人們可以很容易地查明需要更多時(shí)間的操作。一些已知的開銷可能是調(diào)整輸入的大小、從 Python 轉(zhuǎn)換模型代碼或在 CPU 而非 GPU 中運(yùn)行代碼。照顧好這些事情將有助于實(shí)現(xiàn)最佳性能。

poYBAGK-UjeAbOQSAANTMmENdj0193.png

poYBAGK-Uj6ADMFvAAMKe0tSwRg001.png

總體而言,TensorBoard 是幫助開發(fā)和培訓(xùn)過程的絕佳工具。Scalar and Metrics、Image Data 和 Hyperparameter 調(diào)優(yōu)的數(shù)據(jù)有助于提高準(zhǔn)確性,而 profiling 工具有助于提高處理速度。TensorBoard 還有助于減少所涉及的調(diào)試時(shí)間,否則這肯定是一個(gè)很大的時(shí)間框架。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11213

    瀏覽量

    222742
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5090

    瀏覽量

    134387
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8540

    瀏覽量

    136200
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    XKCON祥控輸煤皮帶智能機(jī)器人巡檢系統(tǒng)對監(jiān)測數(shù)據(jù)進(jìn)行挖掘分析

    XKCON祥控輸煤皮帶智能機(jī)器人巡檢系統(tǒng)通過智能機(jī)器人在皮帶運(yùn)行過程中對皮帶的運(yùn)行狀態(tài)和環(huán)境狀況進(jìn)行實(shí)時(shí)檢測,在應(yīng)用過程中,不但提升了巡視周期頻次,還通過大數(shù)據(jù)分析和深度
    的頭像 發(fā)表于 09-15 11:22 ?393次閱讀
    XKCON祥控輸煤皮帶智能<b class='flag-5'>機(jī)器</b>人巡檢系統(tǒng)對監(jiān)測數(shù)據(jù)<b class='flag-5'>進(jìn)行</b>挖掘<b class='flag-5'>分析</b>

    知識分享 | 使用MXAM進(jìn)行AUTOSAR模型的靜態(tài)分析:Embedded Coder與TargetLink模型

    知識分享在知識分享欄目中,我們會定期與讀者分享來自MES模賽思的基于模型的軟件開發(fā)相關(guān)Know-How干貨,關(guān)注公眾號,隨時(shí)掌握基于模型的軟件設(shè)計(jì)的技術(shù)知識。使用MXAM進(jìn)行AUTOSAR模型
    的頭像 發(fā)表于 08-27 10:04 ?475次閱讀
    知識分享 | 使用MXAM<b class='flag-5'>進(jìn)行</b>AUTOSAR<b class='flag-5'>模型</b>的靜態(tài)<b class='flag-5'>分析</b>:Embedded Coder與TargetLink<b class='flag-5'>模型</b>

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上
    發(fā)表于 07-31 11:38

    模型在半導(dǎo)體行業(yè)的應(yīng)用可行性分析

    的應(yīng)用,比如使用機(jī)器學(xué)習(xí)分析數(shù)據(jù),提升良率。 這一些大模型是否真的有幫助 能夠在解決工程師的知識斷層問題 本人純小白,不知道如何涉足這方面 應(yīng)該問什么大
    發(fā)表于 06-24 15:10

    邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來預(yù)測一臺復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?745次閱讀
    邊緣計(jì)算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?1155次閱讀
    使用MATLAB<b class='flag-5'>進(jìn)行</b>無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    機(jī)器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?609次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)
    發(fā)表于 01-14 16:51

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?1955次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機(jī)器人控制技術(shù)的另一個(gè)重要突破在于多模態(tài)大模型的應(yīng)用。相比于僅通過文字進(jìn)行人機(jī)交互的傳統(tǒng)方法,現(xiàn)代機(jī)器人能夠融合視覺、聲音、定位等多模態(tài)輸入信息,為任務(wù)執(zhí)行
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書概覽與第一章學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書籍測評活動!最近,我一直在學(xué)習(xí)模型和人工智能的相關(guān)知識,深刻體會到機(jī)器人技術(shù)是一個(gè)極具潛力的未來方向,甚至可以說是推動時(shí)代變革的重要力量。能參與這次活動并有機(jī)會深入
    發(fā)表于 12-27 14:50

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    研讀《具身智能機(jī)器人系統(tǒng)》第7-9章,我被書中對大模型機(jī)器人技術(shù)融合的深入分析所吸引。第7章詳細(xì)闡述了ChatGPT for Robotics的核心技術(shù)創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架
    發(fā)表于 12-24 15:03

    【「大模型啟示錄」閱讀體驗(yàn)】營銷領(lǐng)域大模型的應(yīng)用

    今天跟隨「大模型啟示錄」這本書,學(xué)習(xí)在營銷領(lǐng)域應(yīng)用大模型。 大模型通過分析大量的消費(fèi)者數(shù)據(jù),包括購買歷史、瀏覽記錄、社交媒體互動等,能夠識別
    發(fā)表于 12-24 12:48

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    在探討ZETA在機(jī)器學(xué)習(xí)中的應(yīng)用以及ZETA的優(yōu)缺點(diǎn)時(shí),需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進(jìn)行分析: 一、ZETA在
    的頭像 發(fā)表于 12-20 09:11 ?1599次閱讀

    cmp在機(jī)器學(xué)習(xí)中的作用 如何使用cmp進(jìn)行數(shù)據(jù)對比

    機(jī)器學(xué)習(xí)領(lǐng)域,"cmp"這個(gè)術(shù)語可能并不是一個(gè)常見的術(shù)語,它可能是指"比較"(comparison)的縮寫。 比較在機(jī)器學(xué)習(xí)中的作用 模型
    的頭像 發(fā)表于 12-17 09:35 ?1308次閱讀