chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何基于深度學習模型訓練實現(xiàn)工件切割點位置預測

OpenCV學堂 ? 來源:OpenCV學堂 ? 2023-12-22 11:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)工件切割點位置預測,主要是通過對YOLOv8姿態(tài)評估模型在自定義的數(shù)據(jù)集上訓練,生成一個工件切割分離點預測模型

01制作數(shù)據(jù)集

本人從網(wǎng)絡上隨便找到了個工業(yè)工件,然后寫代碼合成了一些數(shù)據(jù),總計數(shù)據(jù)有360張圖像、其中336張作為訓練集、24張作為驗證集。

其中YOLOv的數(shù)據(jù)格式如下:

b0d71af4-a00a-11ee-8b88-92fbcf53809c.png

解釋一下:

Class-index 表示對象類型索引,從0開始
后面的四個分別是對象的中心位置與寬高 xc、yc、width、height
Px1,py1表示第一個關(guān)鍵點坐標、p1v表示師傅可見,默認填2即可。

02模型訓練

跟訓練YOLOv8對象檢測模型類似,直接運行下面的命令行即可:

yolo train model=yolov8n-pose.pt data=mul_lines_dataset.yaml epochs=15 imgsz=640 batch=1

b0e2ed2a-a00a-11ee-8b88-92fbcf53809c.png

b0f2e3c4-a00a-11ee-8b88-92fbcf53809c.png

b103b3b6-a00a-11ee-8b88-92fbcf53809c.png

b1112ece-a00a-11ee-8b88-92fbcf53809c.png

03模型導出預測

訓練完成以后模型預測推理測試 使用下面的命令行:

yolo predict model=lines_pts_best.pt source=D:ird_testack12.png

導出模型為ONNX格式,使用下面命令行即可

yolo export model=lines_pts_best.pt format=onnx

b12d3092-a00a-11ee-8b88-92fbcf53809c.png

04部署推理

基于ONNX格式模型,采用ONNXRUNTIME推理結(jié)果如下

ORT相關(guān)的推理演示代碼如下:

defort_keypoint_demo():

#initializetheonnxruntimesessionbyloadingmodelinCUDAsupport
model_dir="lines_pts_best.onnx"
session=onnxruntime.InferenceSession(model_dir,providers=['CUDAExecutionProvider'])

#就改這里, 把RTSP的地址配到這邊就好啦,然后直接運行,其它任何地方都不準改!
#切記把 onnx文件放到跟這個python文件同一個文件夾中!
frame=cv.imread("D:/bird_test/back1/lines_002.png")
bgr=format_yolov8(frame)
fh,fw,fc=frame.shape

start=time.time()
image=cv.dnn.blobFromImage(bgr,1/255.0,(640,640),swapRB=True,crop=False)

#onnxruntimeinference
ort_inputs={session.get_inputs()[0].name:image}
res=session.run(None,ort_inputs)[0]

#matrixtransposefrom1x8x8400=>8400x8
out_prob=np.squeeze(res,0).T

result_kypts,confidences,boxes=wrap_detection(bgr,out_prob)
for(kpts,confidence,box)inzip(result_kypts,confidences,boxes):
cv.rectangle(frame,box,(0,0,255),2)
cv.rectangle(frame,(box[0],box[1]-20),(box[0]+box[2],box[1]),(0,255,255),-1)
cv.putText(frame,("%.2f"%confidence),(box[0],box[1]-10),cv.FONT_HERSHEY_SIMPLEX,.5,(0,0,0))
cx=kpts[0]
cy=kpts[1]
cv.circle(frame,(int(cx),int(cy)),3,(255,0,255),4,8,0)

cv.imshow("Find Key PointDemo",frame)
cv.waitKey(0)
cv.destroyAllWindows()


if__name__=="__main__":
ort_keypoint_demo()

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3610

    瀏覽量

    51426
  • OpenCV
    +關(guān)注

    關(guān)注

    33

    文章

    650

    瀏覽量

    43971
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25912
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5586

    瀏覽量

    123637

原文標題:【YOLOv8新玩法】姿態(tài)評估尋找鏈接切割點

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何才能高效地進行深度學習模型訓練?

    分布式深度學習框架中,包括數(shù)據(jù)/模型切分、本地單機優(yōu)化算法訓練、通信機制、和數(shù)據(jù)/模型聚合等模塊。現(xiàn)有的算法一般采用隨機置亂切分的數(shù)據(jù)分配方
    的頭像 發(fā)表于 07-09 08:48 ?1.5w次閱讀
    如何才能高效地進行<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b><b class='flag-5'>訓練</b>?

    深度學習預測和健康管理中的應用

    深度學習預測和健康管理中的應用綜述摘要深度學習預測和健康管理(PHM)引起了濃厚的興趣,因為
    發(fā)表于 07-12 06:46

    深度學習模型是如何創(chuàng)建的?

    具有深度學習模型的嵌入式系統(tǒng)應用程序帶來了巨大的好處。深度學習嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    深度學習技術(shù)的開發(fā)與應用

    時間安排大綱具體內(nèi)容實操案例三天關(guān)鍵1.強化學習的發(fā)展歷程2.馬爾可夫決策過程3.動態(tài)規(guī)劃4.無模型預測學習5.無模型控制
    發(fā)表于 04-21 14:57

    基于深度學習模型云目標檢測及ROS實現(xiàn)

    近年來,隨著深度學習在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學習模型云目標檢測方法被提出和應
    的頭像 發(fā)表于 11-05 16:47 ?1.9w次閱讀

    基于預訓練模型和長短期記憶網(wǎng)絡的深度學習模型

    作為模型的初始化詞向量。但是,隨機詞向量存在不具備語乂和語法信息的缺點;預訓練詞向量存在¨一詞-乂”的缺點,無法為模型提供具備上下文依賴的詞向量。針對該問題,提岀了一種基于預訓練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預<b class='flag-5'>訓練</b><b class='flag-5'>模型</b>和長短期記憶網(wǎng)絡的<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>

    模型為什么是深度學習的未來?

    與傳統(tǒng)機器學習相比,深度學習是從數(shù)據(jù)中學習,而大模型則是通過使用大量的模型
    的頭像 發(fā)表于 02-16 11:32 ?2632次閱讀

    深度學習框架區(qū)分訓練還是推理嗎

    模型,以便將來能夠進行準確的預測。推理是指在訓練完成后,使用已經(jīng)訓練好的模型進行新的預測。然而,
    的頭像 發(fā)表于 08-17 16:03 ?1982次閱讀

    視覺深度學習遷移學習訓練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學習遷移學習訓練框架,當前支持的圖像分類、對象檢測、實例分割、語義分割、姿態(tài)評估模型的遷
    的頭像 發(fā)表于 09-22 09:49 ?1657次閱讀
    視覺<b class='flag-5'>深度</b><b class='flag-5'>學習</b>遷移<b class='flag-5'>學習</b><b class='flag-5'>訓練</b>框架Torchvision介紹

    深度學習如何訓練出好的模型

    算法工程、數(shù)據(jù)派THU深度學習在近年來得到了廣泛的應用,從圖像識別、語音識別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓練出一個高效準確的深度
    的頭像 發(fā)表于 12-07 12:38 ?1724次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>如何<b class='flag-5'>訓練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置預測

    Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置
    的頭像 發(fā)表于 12-21 10:50 ?3463次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b><b class='flag-5'>訓練</b><b class='flag-5'>實現(xiàn)</b>圓檢測與圓心<b class='flag-5'>位置</b><b class='flag-5'>預測</b>

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓練一個深度
    的頭像 發(fā)表于 07-01 16:13 ?3443次閱讀

    深度學習的典型模型訓練過程

    深度學習作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進展。其核心在于通過構(gòu)建復雜的神經(jīng)網(wǎng)絡模型,從大規(guī)模數(shù)據(jù)中自動學習并提取特征,進而
    的頭像 發(fā)表于 07-03 16:06 ?3335次閱讀

    AI大模型深度學習的關(guān)系

    人類的學習過程,實現(xiàn)對復雜數(shù)據(jù)的學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行
    的頭像 發(fā)表于 10-23 15:25 ?3377次閱讀

    晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預測控制

    摘要:本文針對超薄晶圓切割過程中 TTV 均勻性控制難題,研究晶圓切割深度動態(tài)補償?shù)闹悄軟Q策模型與 TTV 預測控制方法。分析影響
    的頭像 發(fā)表于 07-23 09:54 ?289次閱讀
    晶圓<b class='flag-5'>切割</b><b class='flag-5'>深度</b>動態(tài)補償?shù)闹悄軟Q策<b class='flag-5'>模型</b>與 TTV <b class='flag-5'>預測</b>控制