如何使用OpenCV+Keras+Tensorflow實(shí)現(xiàn)去噪算法與自定義預(yù)處理函數(shù)
理解問題在處理計(jì)算機(jī)視覺問題時(shí),我們經(jīng)常遇到需要對整個(gè)數(shù)據(jù)集應(yīng)用某種形式的轉(zhuǎn)換的情況。Keras中的ImageDataGenerator類提供了各種轉(zhuǎn)換,如翻轉(zhuǎn)、規(guī)格化等。然而,應(yīng)用在Keras中不可用的自定義轉(zhuǎn)換變得非常困難。
在我們的特定示例中,我們將對我們的數(shù)據(jù)集應(yīng)用去噪算法作為預(yù)處理轉(zhuǎn)換。一種簡單的方法是對數(shù)據(jù)集中的所有圖像應(yīng)用去噪函數(shù),并將處理后的圖像保存在另一個(gè)目錄中。然而,這同時(shí)消耗了我們的時(shí)間和空間。另一種方法是使用preprocessing_function屬性動(dòng)態(tài)地執(zhí)行這個(gè)轉(zhuǎn)換。
為了加載用于訓(xùn)練的圖像,我使用了Keras中實(shí)現(xiàn)的.flow_from_directory()方法。使用OpenCV去噪是相當(dāng)簡單的,OpenCV提供了幾個(gè)內(nèi)置算法來實(shí)現(xiàn)這一點(diǎn)。
在本文中,我將展示如何定義我們自己的預(yù)處理函數(shù),將其傳遞給訓(xùn)練生成器,并將圖像直接提供給模型,從而無需保存它們。本教程大致分為兩部分實(shí)現(xiàn)去噪算法擴(kuò)展預(yù)處理函數(shù)讓我們馬上開始吧!第一部分 實(shí)現(xiàn)去噪算法讓我們準(zhǔn)備一個(gè)函數(shù),將圖像作為輸入,應(yīng)用內(nèi)置的去噪算法,并返回處理后的圖像。import cv2
import numpy as np
def preprocessing_fun(filename):
img = cv2.imread(filename)
dst = cv2.fastN1MeansDenoisingColored(img, None, 10, 10, 7, 21)
return dst
我們使用OpenCV的fastN1MeansDenoisingColored算法,因?yàn)樵撍惴ㄟm用于彩色圖像。OpenCV還提供了使用單通道處理圖像的其他算法。fastN1MeansDenoisingColored:https://docs.opencv.org/master/d1/d79/group__photo__denoise.html#ga03aa4189fc3e31dafd638d90de335617現(xiàn)在我們已經(jīng)實(shí)現(xiàn)了我們的算法,讓我們在ImageDataGenerator類中使用它。第2部分 擴(kuò)展預(yù)處理函數(shù)這里,我們使用訓(xùn)練生成器中前一節(jié)定義的函數(shù)。img_datagen = ImageDataGenerator(rescale=1./255,
preprocessing_function = preprocessing_fun)
training_gen = img_datagen.flow_from_directory(PATH, target_size=(224,224),
color_mode='rgb',batch_size=32, shuffle=True)
在定義ImageDataGenerator對象的前兩行中,你可以注意到我們已經(jīng)將去噪函數(shù)傳遞給了preprocessing_function參數(shù)。通過這樣做,我們將指示我們的數(shù)據(jù)生成器在將圖像提供給模型之前,將這個(gè)函數(shù)應(yīng)用到每個(gè)圖像上作為預(yù)處理步驟。這樣,我們就不需要處理所有圖像并將它們寫入一個(gè)單獨(dú)的目錄。專業(yè)提示:如果你需要執(zhí)行一系列在不同函數(shù)中定義的轉(zhuǎn)換,你可以在你的訓(xùn)練生成器中以以下方式使用它。def transform1(img):
#Applies a transformation such as horizontal flip and returns the image
return cv2.flip(img, 1)
def transform2(img):
#Applies a transformation such as vertical flip and returns the image
return cv2.flip(img, 0)
def transform3(img):
#Applies 180-degree rotation and returns the image
return cv2.rotate(img, cv2.ROTATE_180)
def our_preprocessing_function(filename):
#Combines all the transformations
img = cv2.imread(filename)
img1 = transform1(img)
img2 = transform2(img1)
final_img = transform3(img2)
return final_img
img_datagen = ImageDataGenerator(rescale=1./255,
preprocessing_function = our_preprocessing_function)
training_generator = img_datagen.flow_from_directory(PATH,
target_size=(224,224), color_mode='rgb', batch_size=32,
class_mode='categorical', shuffle=True)
通過這種方式,我們可以提供一系列自定義轉(zhuǎn)換,將它們包裝在一個(gè)函數(shù)中,并將它們應(yīng)用到我們的數(shù)據(jù)集。此方法簡單但功能強(qiáng)大,在資源受限的環(huán)境中工作很方便。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個(gè)字
最新活動(dòng)更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會(huì)
-
4月30日立即下載>> 【村田汽車】汽車E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線下巡回】2025年STM32峰會(huì)
-
即日-5.15立即報(bào)名>>> 【在線會(huì)議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評 >> 【評選啟動(dòng)】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評選
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺(tái)
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動(dòng)駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?