如何使用Python將給定的圖像集進(jìn)行聚類?
介紹大家好,最近在參加深度學(xué)習(xí)競賽時(shí),遇到了一個(gè)有趣的問題,即如何將給定的圖像集進(jìn)行聚類,你可能會說,這不是一個(gè)簡單的分類問題嗎?使用卷積神經(jīng)網(wǎng)絡(luò), 就實(shí)現(xiàn),但關(guān)鍵在于沒有合適訓(xùn)練數(shù)據(jù)提供訓(xùn)練。在不想自己收集數(shù)據(jù)集的情況,我們?nèi)绾谓鉀Q這個(gè)問題呢?這就是本文的主要內(nèi)容,即將深度學(xué)習(xí)直接應(yīng)用于測試數(shù)據(jù)(此處為圖像),而無需創(chuàng)建訓(xùn)練數(shù)據(jù)集并在該數(shù)據(jù)集上訓(xùn)練神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)作為特征提取器首先我們需要討論為什么需要特征提取器?以及如何使卷積神經(jīng)網(wǎng)絡(luò)(CNN)發(fā)揮作用。圖像數(shù)據(jù)的特征提取器:假設(shè)算法需要像特征一樣需要兩只眼睛,一只鼻子和一張嘴來將圖像分類為面部,但是在不同的圖像中,這些特征存在于不同的像素位置,因此簡單地將圖像扁平化并將其提供給算法是不起作用的。而解決這個(gè)問題剛好是CNN的卷積層發(fā)揮作用的地方。卷積層作為我們的特征提取器,并將圖像分解為越來越精細(xì)的細(xì)節(jié),我們來看一下下面的例子:
這是一只貓的圖像,這是Vgg16的第一個(gè)卷積層看到它的樣子
請注意不同的圖像,這些是我們的CNN所學(xué)習(xí)的特征圖,一些特征圖著重于輪廓,一些特征著重于紋理,而某些特征則涉及更細(xì)微的細(xì)節(jié)(如耳和嘴),下一階段的卷積層將這些特征分解得更細(xì)的細(xì)節(jié)。
上午我們知道了卷積層可以學(xué)習(xí)圖像的特定功能,那么接下來我們將實(shí)現(xiàn)編碼。實(shí)現(xiàn)CNN的卷積層網(wǎng)絡(luò):以下代碼顯示了如何使用預(yù)訓(xùn)練的CNN Vgg16獲得以上結(jié)果:MyModel = tf2.<a onclick="parent.postMessage({'referent':'.tensorflow.keras'}, '*')">keras.a(chǎn)pplications.VGG16(
include_top=True, weights='imagenet', input_tensor=None, input_shape=None,
pooling=None, classes=1000, classifier_activation='softmax'
)
MyModel.summary()
## lets Define a Function that can show Features learned by CNN's nth convolusion layer
def ShowMeWhatYouLearnt(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..Image'}, '*')">Image, <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..layer'}, '*')">layer, <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel):
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = img_to_array(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..Image'}, '*')">Image)
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = np.<a onclick="parent.postMessage({'referent':'.numpy.expand_dims'}, '*')">expand_dims(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img, 0)
### preprocessing for img for vgg16
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img = tf2.<a onclick="parent.postMessage({'referent':'.tensorflow.keras'}, '*')">keras.a(chǎn)pplications.vgg16.preprocess_input(<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..img'}, '*')">img)
## Now lets define a model which will help us
## see what vgg16 sees
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..inputs'}, '*')">inputs = <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel.inputs
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..outputs'}, '*')">outputs = <a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..MyModel'}, '*')">MyModel.layers[<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..layer'}, '*')">layer].output
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..model'}, '*')">model = Model(inputs=<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..inputs'}, '*')">inputs, outputs=<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..outputs'}, '*')">outputs)
<a onclick="parent.postMessage({'referent':'.kaggle.usercode.12234793.44545592.ShowMeWhatYouLearnt..model'}, '*')">model.summary()
## let make predictions to see what the Cnn sees

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個(gè)字
最新活動更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會
-
4月30日立即下載>> 【村田汽車】汽車E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線下巡回】2025年STM32峰會
-
即日-5.15立即報(bào)名>>> 【在線會議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評 >> 【評選啟動】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評選
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?