訂閱
糾錯(cuò)
加入自媒體

如何在自定義的數(shù)據(jù)集上訓(xùn)練YOLOv5?


選擇“YOLO v5 Pythorch”當(dāng)出現(xiàn)提示時(shí),一定要選擇“Show Code Snippet”,這將輸出一個(gè)下載curl腳本,這樣你就可以輕松地將數(shù)據(jù)以正確的格式移植到Colab中。curl -L "https://public.roboflow.a(chǎn)i/ds/YOUR-LINK-HERE" > roboflow.zip; unzip roboflow.zip; rm roboflow.zip正在Colab中下載…

下載YOLOv5格式的自定義對(duì)象數(shù)據(jù)集導(dǎo)出將會(huì)創(chuàng)建一個(gè)名為data.yaml的YOLOv5.yaml文件,指定YOLOv5 images文件夾、YOLOv5 labels文件夾的位置以及自定義類的信息。定義YOLOv5模型配置和架構(gòu)接下來(lái),我們?yōu)槲覀兊亩ㄖ茖?duì)象檢測(cè)器編寫(xiě)一個(gè)模型配置文件。在本教程中,我們選擇了最小、最快的YOLOv5基本模型,你也可以從其他YOLOv5模型中選擇,包括:YOLOv5sYOLOv5mYOLOv5lYOLOv5x你也可以在此步驟中編輯網(wǎng)絡(luò)結(jié)構(gòu),但一般不需要這樣做。以下是YOLOv5模型配置文件,我們將其命名為custom_yolov5s.yaml:nc: 3depth_multiple: 0.33width_multiple: 0.50

anchors:  - [10,13, 16,30, 33,23]   - [30,61, 62,45, 59,119]  - [116,90, 156,198, 373,326] 

backbone:  [[-1, 1, Focus, [64, 3]],   [-1, 1, Conv, [128, 3, 2]],   [-1, 3, Bottleneck, [128]],   [-1, 1, Conv, [256, 3, 2]],   [-1, 9, BottleneckCSP, [256]],   [-1, 1, Conv, [512, 3, 2]],    [-1, 9, BottleneckCSP, [512]],   [-1, 1, Conv, [1024, 3, 2]],   [-1, 1, SPP, [1024, [5, 9, 13]]],   [-1, 6, BottleneckCSP, [1024]],  ]

head:  [[-1, 3, BottleneckCSP, [1024, False]],   [-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]],   [-2, 1, nn.Upsample, [None, 2, "nearest"]],   [[-1, 6], 1, Concat, [1]],   [-1, 1, Conv, [512, 1, 1]],   [-1, 3, BottleneckCSP, [512, False]],   [-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]],   [-2, 1, nn.Upsample, [None, 2, "nearest"]],   [[-1, 4], 1, Concat, [1]],   [-1, 1, Conv, [256, 1, 1]],   [-1, 3, BottleneckCSP, [256, False]],   [-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]],

  [[], 1, Detect, [nc, anchors]],  ]訓(xùn)練定制YOLOv5探測(cè)器我們的data.yaml和custom_yolov5s.yaml文件已經(jīng)準(zhǔn)備好了,我們庫(kù)開(kāi)始訓(xùn)練了!為了開(kāi)始訓(xùn)練,我們使用以下選項(xiàng)運(yùn)行訓(xùn)練命令:img:定義輸入圖像大小batch:確定batch大小epochs:定義epochs。(注:通常,3000+很常見(jiàn)!)data:設(shè)置yaml文件的路徑cfg:指定我們的模型配置weights:指定權(quán)重的自定義路徑。(注意:你可以從Ultralytics Google Drive文件夾下載權(quán)重)name:結(jié)果名稱nosave:只保存最后的檢查點(diǎn)cache:緩存圖像以加快訓(xùn)練速度運(yùn)行訓(xùn)練命令:

訓(xùn)練定制的YOLOv5探測(cè)器。它訓(xùn)練得很快!在訓(xùn)練期間,你可以看 mAP@0.5 來(lái)了解你的探測(cè)器是如何運(yùn)行的,請(qǐng)參閱這篇文章。https://blog.roboflow.a(chǎn)i/what-is-mean-average-precision-object-detection/評(píng)估定制YOLOv5檢測(cè)器的性能現(xiàn)在我們已經(jīng)完成了訓(xùn)練,我們可以通過(guò)查看驗(yàn)證指標(biāo)來(lái)評(píng)估訓(xùn)練過(guò)程的執(zhí)行情況。訓(xùn)練腳本將刪除tensorboard日志,我們將其可視化:

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)