chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用NVIDIA TAO快速準(zhǔn)確地訓(xùn)練AI模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Konstantin Rygol ? 2022-04-20 17:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

越來越多的要求制造商在其生產(chǎn)過程中達(dá)到高質(zhì)量控制標(biāo)準(zhǔn)。傳統(tǒng)上,制造商依靠人工檢查來保證產(chǎn)品質(zhì)量。然而,手動檢查成本高昂,通常只覆蓋一小部分生產(chǎn)樣本,最終導(dǎo)致生產(chǎn)瓶頸、生產(chǎn)率降低和效率降低。

通過人工智能計算機(jī)視覺實(shí)現(xiàn)缺陷檢測自動化,制造商可以徹底改變其質(zhì)量控制流程。然而,制造商和全自動化之間存在一個主要障礙。構(gòu)建一個 AI 系統(tǒng)和生產(chǎn)就緒的應(yīng)用程序是困難的,通常需要一個熟練的 AI 團(tuán)隊來訓(xùn)練和微調(diào)模型。一般制造商不采用這種專業(yè)技術(shù),而是采用手動檢查。

本項目的目標(biāo)是展示如何使用NVIDIA轉(zhuǎn)移學(xué)習(xí)工具包( TLT )和預(yù)訓(xùn)練模型快速建立制造過程中更精確的質(zhì)量控制。這個項目是在沒有人工智能專家或數(shù)據(jù)科學(xué)家的情況下完成的。為了了解 NVIDIA TLT 在為商業(yè)質(zhì)量控制目的培訓(xùn)人工智能系統(tǒng)方面的有效性,使用公開的 dataset 鋼焊接工藝,從 NGC 目錄(一個 GPU 優(yōu)化的人工智能和 HPC 軟件中心)重新培訓(xùn)預(yù)培訓(xùn)的 ResNet-18 模型,使用 TLT 。我們比較了人工智能研究團(tuán)隊先前發(fā)表的一項工作中,在數(shù)據(jù)集上從頭開始構(gòu)建的模型和由此產(chǎn)生的模型的準(zhǔn)確性。

NVIDIA TLT 操作簡便、速度快,不具備人工智能專業(yè)知識的工程師可以輕松使用。我們觀察到 NVIDIA TLT 的設(shè)置速度更快,結(jié)果更準(zhǔn)確,宏觀平均 F1 成績 為 97% ,而之前發(fā)布的數(shù)據(jù)集“從頭開始構(gòu)建”的結(jié)果為 78% 。

這篇文章探討了 NVIDIA TLT 如何快速準(zhǔn)確地訓(xùn)練 AI 模型,展示了 AI 和轉(zhuǎn)移學(xué)習(xí)如何改變圖像和視頻分析以及工業(yè)流程的部署方式。

具有 NVIDIA TLT 的工作流

NVIDIA TLT 是 NVIDIA 訓(xùn)練、調(diào)整和優(yōu)化( TAO )平臺 的核心組件,遵循零編碼范式快速跟蹤 AI 開發(fā)。 TLT 附帶了一套隨時可用的 Jupyter 筆記本、 Python 腳本和配置規(guī)范以及默認(rèn)參數(shù)值,使您能夠快速輕松地開始培訓(xùn)和微調(diào)數(shù)據(jù)集。

為了開始使用 NVIDIA TLT ,我們遵循了以下 快速入門指南說明 。

我們下載了 Docker 容器和 TLT Jupyter 筆記本。

我們將數(shù)據(jù)集映射到 Docker 容器上。

我們開始了第一次培訓(xùn),調(diào)整了默認(rèn)的培訓(xùn)參數(shù),如網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)大小、優(yōu)化器等,直到我們對結(jié)果感到滿意。

數(shù)據(jù)集

這個項目中使用的數(shù)據(jù)集是由伯明翰大學(xué)的研究人員為他們的論文 基于可見 spectrum 攝像機(jī)和機(jī)器學(xué)習(xí)的 SS304 TIG 焊接過程缺陷自動分類 創(chuàng)建的。

該數(shù)據(jù)集由超過 45K 的灰度焊接圖像組成,可通過 Kaggle 獲得。數(shù)據(jù)集描述了一類正確執(zhí)行: good_weld 。鎢極惰性氣體( TIG )焊接過程中可能出現(xiàn)五類缺陷: 燒穿、污染、未熔合、未保護(hù)氣體、, 和 high_travel_speed 。

poYBAGJf1kWAN832AAHm8x-m3jg486.png

圖 1 來自培訓(xùn)數(shù)據(jù)集的焊接圖像示例

pYYBAGJf1mGAVHqaAAAwkhZuUwg683.png

表 1 列車、驗證和測試數(shù)據(jù)集的圖像分布

與許多工業(yè)數(shù)據(jù)集一樣,該數(shù)據(jù)集是相當(dāng)不平衡的,因為很難收集低可能性出現(xiàn)的缺陷的數(shù)據(jù)。表 1 顯示了列車、驗證和測試數(shù)據(jù)集的類別分布。

圖 2 顯示了測試數(shù)據(jù)集中的不平衡。測試數(shù)據(jù)集包含的 good_weld 圖像比 lack_of_shielding 多 75 倍。

pYYBAGJf1kaAOPETAABYSD8CO0U897.png

圖 2 TIG 鋼焊接試驗數(shù)據(jù)集的類別分布 。

使用 NVIDIA TLT

所采用的方法側(cè)重于最小化開發(fā)時間和調(diào)優(yōu)時間,同時確保精度適用于生產(chǎn)環(huán)境。 TLT 與示例筆記本附帶的標(biāo)準(zhǔn)配置文件結(jié)合使用。設(shè)置、培訓(xùn)和調(diào)整在 8 小時內(nèi)完成。

我們進(jìn)行了有關(guān)網(wǎng)絡(luò)深度和訓(xùn)練次數(shù)的參數(shù)掃描。我們觀察到,改變默認(rèn)的學(xué)習(xí)率并不能改善結(jié)果,因此我們沒有進(jìn)一步研究這一點(diǎn),而是將其保留在默認(rèn)值。經(jīng)過 30 個階段的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,從 NGC 目錄中獲得的預(yù)訓(xùn)練 ResNet-18 模型獲得了最佳結(jié)果。

查看 krygol/304SteelWeldingClassification GitHub repo 中的逐步方法。

poYBAGJf1nCAFS_NAAAm3dHbnR4392.png

表 2 經(jīng)過 30 個時期的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,預(yù)訓(xùn)練的 ResNet-18 獲得的結(jié)果

獲得的結(jié)果在所有班級中都相當(dāng)好。一些 lack_of_fusion 氣體圖像被錯誤分類為 burn_through 和 污染 圖像。在訓(xùn)練更深層次的 ResNet50 時也觀察到了這種效果,這更容易將 lack_of_fusion 誤分類為另一個缺陷類。

與原始方法的比較

伯明翰大學(xué)的研究人員選擇了不同的人工智能工作流。他們手動準(zhǔn)備數(shù)據(jù)集,通過欠采樣來減少不平衡。他們還將圖像重新縮放到不同的大小,并選擇自定義網(wǎng)絡(luò)結(jié)構(gòu)。

他們使用了一個完全連接的神經(jīng)網(wǎng)絡(luò)( Full-con6 ),即具有兩個隱藏層的神經(jīng)網(wǎng)絡(luò)。他們還實(shí)現(xiàn)了一個卷積神經(jīng)網(wǎng)絡(luò)( Conv6 ),其中有三個卷積層,每個卷積層后跟一個最大池層和一個完全連接層作為最終隱藏層。他們沒有像 ResNet 那樣使用跳過連接。

TLT 獲得的結(jié)果與伯明翰大學(xué)研究人員定制實(shí)施的結(jié)果相比更令人印象深刻。

pYYBAGJf1nuAPKE8AAAo2EGtn3k313.png

表 3 定制網(wǎng)絡(luò)與 TLT ResNet-18 的比較

Conv6 的平均表現(xiàn)較好,宏觀平均 F1 為 0 。 78 ,但在識別 lack_of_shielding 氣體缺陷方面完全失敗 。 con6 的平均表現(xiàn)較差,宏觀平均 F1 為 0 。 56 。 FULL-con6 可以對一些 lack_of_shielding 氣體圖像進(jìn)行分類,但是 burn_through 和 高速行駛 圖像存在問題。 FULL-con6 和 Conv6 都有明顯的弱點(diǎn),這將使它們無法獲得生產(chǎn)準(zhǔn)備就緒的資格。

每個班級的最佳 F1 成績在表中以綠色標(biāo)出。如您所見, TLT 訓(xùn)練的 ResNet-18 模型提供了更好的結(jié)果,宏觀平均值為 0 。 97 。

結(jié)論

我們在 TLT 方面有著豐富的經(jīng)驗,總體而言, TLT 是用戶友好且有效的。它設(shè)置速度快,易于使用,并且在較短的計算時間內(nèi)產(chǎn)生可接受的結(jié)果。根據(jù)我們的經(jīng)驗,我們相信 TLT 為不是 AI 專家但希望在生產(chǎn)環(huán)境中使用 AI 的工程師提供了巨大的優(yōu)勢。在制造環(huán)境中使用 TLT 自動化質(zhì)量控制不會帶來性能成本,應(yīng)用程序通??梢耘c默認(rèn)設(shè)置一起使用,并進(jìn)行一些小的調(diào)整,以超越自定義體系結(jié)構(gòu)。

利用 NVIDIA TLT 快速準(zhǔn)確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過程中具有巨大的潛力。

關(guān)于作者

Konstantin Rygol 是 AI 和 HPC 在波士頓存儲和服務(wù)器解決方案有限公司的首席工程師。他擁有挪威卑爾根大學(xué)的物理碩士學(xué)位。在研究原子物理學(xué)期間,他對 HPC 和 AI 產(chǎn)生了濃厚的熱情。他現(xiàn)在是 NVIDIA 深度學(xué)習(xí)培訓(xùn)中心的講師,致力于將人工智能引入德國市場。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5431

    瀏覽量

    108293
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    10003

    瀏覽量

    90157
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37053

    瀏覽量

    290219
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發(fā)布了 Cosmos Reason-1 的 7B 和 56B 兩款多模態(tài)大語言模型 (MLLM),它們經(jīng)過了“物理 AI 監(jiān)督微調(diào)”和“物理 AI 強(qiáng)化學(xué)習(xí)”兩個階段
    的頭像 發(fā)表于 06-04 13:43 ?568次閱讀

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    應(yīng)用開發(fā)不用“等平臺”,徹底釋放開發(fā)效率和模型接入自由度。 自DeepSeek橫空出世以來,這種更適合端側(cè)部署,回答效率更高效的訓(xùn)練模式快速引爆了AI行業(yè),主流大
    發(fā)表于 04-13 19:52

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    模型可實(shí)現(xiàn)物理 AI 的預(yù)測、可控世界生成和推理。 兩款全新Blueprint為機(jī)器人和自動駕駛汽車后訓(xùn)練提供海量物理 AI 合成數(shù)據(jù)生成技術(shù)。 1X、Agility Robotic
    的頭像 發(fā)表于 03-20 19:01 ?1057次閱讀

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢

    AI模型訓(xùn)練需要強(qiáng)大的計算資源、高效的存儲和穩(wěn)定的網(wǎng)絡(luò)支持,這對服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢,成為托管AI模型
    的頭像 發(fā)表于 03-18 10:08 ?424次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?750次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?1026次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了一個全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?1066次閱讀

    NVIDIA Isaac Sim滿足模型的多樣化訓(xùn)練需求

    光輪智能借助?NVIDIA Isaac Sim,通過 3D 生成與建模技術(shù)構(gòu)建高度逼真的虛擬場景,將現(xiàn)實(shí)世界的復(fù)雜場景抽象并轉(zhuǎn)化為高質(zhì)量的訓(xùn)練數(shù)據(jù)源,從而更有效地滿足模型的多樣化訓(xùn)練
    的頭像 發(fā)表于 11-23 14:55 ?1711次閱讀

    NVIDIA AI助力實(shí)現(xiàn)更好的癌癥檢測

    由美國頂級醫(yī)療中心和研究機(jī)構(gòu)的專家組成了一個專家委員會,該委員會正在使用 NVIDIA 支持的聯(lián)邦學(xué)習(xí)來評估聯(lián)邦學(xué)習(xí)和 AI 輔助注釋對訓(xùn)練 AI 腫瘤分割
    的頭像 發(fā)表于 11-19 15:54 ?660次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?1293次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來源分析

    AI模型訓(xùn)練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對AI
    的頭像 發(fā)表于 10-23 15:32 ?5372次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個復(fù)雜且耗時的過程,涉及多個關(guān)鍵步驟。以下是一個詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?6044次閱讀