基于Python+Keras+OpenCV實(shí)現(xiàn)實(shí)時(shí)人臉活體檢測(cè)
你在互聯(lián)網(wǎng)上找到的大多數(shù)人臉識(shí)別算法和研究論文都會(huì)遭受照片攻擊。這些方法在檢測(cè)和識(shí)別來(lái)自網(wǎng)絡(luò)攝像頭的圖像、視頻和視頻流中的人臉?lè)矫媸欠浅S行,但是他們無(wú)法區(qū)分現(xiàn)實(shí)生活中的面孔和照片上的面孔。這種無(wú)法區(qū)別現(xiàn)實(shí)人臉的現(xiàn)象是由于這些算法是在二維幀上工作的,F(xiàn)在讓我們?nèi)ピ囅胍幌,我們?shí)現(xiàn)一個(gè)人臉識(shí)別系統(tǒng),該系統(tǒng)可以很好地區(qū)分已知面孔和未知面孔,以便只有授權(quán)人員才能訪(fǎng)問(wèn),盡管如此,一個(gè)心懷不軌的人只要出示授權(quán)人的照片也能訪(fǎng)問(wèn)。至此一個(gè)3D人臉的識(shí)別系統(tǒng),類(lèi)似于蘋(píng)果的FaceID,應(yīng)運(yùn)而生了,但如果我們沒(méi)有3D探測(cè)器該怎么辦呢?
本文的目標(biāo)是實(shí)現(xiàn)一種基于眨眼檢測(cè)的人臉活體檢測(cè)算法,以抵抗照片攻擊。該算法通過(guò)網(wǎng)絡(luò)攝像頭實(shí)時(shí)工作,通過(guò)檢測(cè)眨眼來(lái)區(qū)分現(xiàn)實(shí)生活中的面孔和照片上的面孔。通俗地說(shuō),程序運(yùn)行如下:在網(wǎng)絡(luò)攝像頭生成的每個(gè)幀中檢測(cè)人臉。對(duì)于每個(gè)檢測(cè)到的臉,檢測(cè)眼睛。對(duì)于每個(gè)檢測(cè)到的眼睛,檢測(cè)眼睛是否睜開(kāi)或關(guān)閉。如果在某個(gè)時(shí)候檢測(cè)到眼睛是睜開(kāi)的,然后是閉著的,然后是睜開(kāi)的,我們就斷定此人已經(jīng)眨了眼睛,并且程序顯示他的名字(如果是人臉識(shí)別開(kāi)門(mén)器,我們將授權(quán)此人進(jìn)入)。對(duì)于人臉的檢測(cè)和識(shí)別,你需要安裝face_recognition庫(kù),它提供了非常有用的深度學(xué)習(xí)方法來(lái)查找和識(shí)別圖像中的人臉,特別是,face_locations、face_encodings和compare_faces函數(shù)是最有用的3個(gè)函數(shù)。人臉定位方法可以用兩種方法來(lái)檢測(cè)人臉:方向梯度直方圖(HoG)和卷積神經(jīng)網(wǎng)絡(luò)(CNN),由于時(shí)間限制,選擇了HoG方法。face_encodings函數(shù)是一個(gè)預(yù)先訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),能夠?qū)D像編碼成128哥元素的一維特征向量,這個(gè)嵌入向量包含足夠的特征信息來(lái)區(qū)分兩個(gè)不同的人,最后,compare_faces計(jì)算兩個(gè)嵌入向量之間的距離。它將允許算法識(shí)別從攝像頭幀中提取的人臉,并將其嵌入向量與我們數(shù)據(jù)集中所有編碼的人臉進(jìn)行比較,距離最近的向量對(duì)應(yīng)于同一個(gè)人。1. 已知人臉數(shù)據(jù)集編碼在我的例子中,算法能夠識(shí)別我和奧巴馬,我為每個(gè)人挑選了大約10張照片。下面是處理和編碼已知人臉數(shù)據(jù)庫(kù)的代碼。def process_and_encode(images):
known_encodings = [] known_names = [] print("[LOG] Encoding dataset ...")
for image_path in tqdm(images): # 加載圖片 image = cv2.imread(image_path) # 將其從BGR轉(zhuǎn)換為RGB image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
# 檢測(cè)圖像中的臉并獲取其位置(方框坐標(biāo)) boxes = face_recognition.face_locations(image, model='hog')
# 將人臉編碼為128維嵌入向量 encoding = face_recognition.face_encodings(image, boxes)
# 人物名稱(chēng)是圖像來(lái)源文件夾的名稱(chēng) name = image_path.split(os.path.sep)[-2]
if len(encoding) > 0 : known_encodings.a(chǎn)ppend(encoding[0]) known_names.a(chǎn)ppend(name)
return {"encodings": known_encodings, "names": known_names}現(xiàn)在我們知道了每個(gè)想識(shí)別的人的編碼,我們可以嘗試通過(guò)網(wǎng)絡(luò)攝像頭識(shí)別人臉,然而,在轉(zhuǎn)到這一部分之前,我們需要區(qū)分一張人臉照片和一張活人的臉。2.人臉活體檢測(cè)我們的目標(biāo)是在某個(gè)點(diǎn)上檢測(cè)出一個(gè)睜閉的睜眼模式。我訓(xùn)練了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)分類(lèi)眼睛是閉著的還是睜著的,所選擇的模型是LeNet-5,它已經(jīng)在Closed Eyes In The Wild (CEW)數(shù)據(jù)集上進(jìn)行了訓(xùn)練,它由大約4800張24x24大小的眼睛圖像組成。Closed Eyes In The Wild (CEW)數(shù)據(jù)集地址:http://parnec.nuaa.edu.cn/xtan/data/ClosedEyeDatabases.htmlfrom keras.models
import Sequentialfrom keras.layers import Conv2Dfrom keras.layers import AveragePooling2Dfrom keras.layers import Flattenfrom keras.layers import Densefrom keras.preprocessing.image
import ImageDataGenerator
IMG_SIZE = 24def train(train_generator, val_generator): STEP_SIZE_TRAIN=train_generator.n//train_generator.batch_size STEP_SIZE_VALID=val_generator.n//val_generator.batch_size
model = Sequential()
model.a(chǎn)dd(Conv2D(filters=6, kernel_size=(3, 3), activation='relu', input_shape=(IMG_SIZE,IMG_SIZE,1))) model.a(chǎn)dd(AveragePooling2D())
model.a(chǎn)dd(Conv2D(filters=16, kernel_size=(3, 3), activation='relu')) model.a(chǎn)dd(AveragePooling2D())
model.a(chǎn)dd(Flatten())
model.a(chǎn)dd(Dense(units=120, activation='relu'))
model.a(chǎn)dd(Dense(units=84, activation='relu'))
model.a(chǎn)dd(Dense(units=1, activation = 'sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
print('[LOG] Training CNN')
model.fit_generator(generator=train_generator,steps_per_epoch=STEP_SIZE_TRAIN,validation_data=val_generator,validation_steps=STEP_SIZE_VALID, epochs=20 ) return model在評(píng)估模型時(shí),我達(dá)到了94%的準(zhǔn)確率。每次我們檢測(cè)到一只眼睛,我們就用我們的模型來(lái)預(yù)測(cè)它的狀態(tài),并跟蹤每個(gè)人的眼睛狀態(tài),因此,檢測(cè)眨眼變得非常容易,它試圖在眼睛狀態(tài)歷史中找到一個(gè)閉眼-睜眼-閉眼的過(guò)程。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車(chē)電子技術(shù)在線(xiàn)大會(huì)
-
4月30日立即下載>> 【村田汽車(chē)】汽車(chē)E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線(xiàn)下巡回】2025年STM32峰會(huì)
-
即日-5.15立即報(bào)名>>> 【在線(xiàn)會(huì)議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書(shū)】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評(píng) >> 【評(píng)選啟動(dòng)】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評(píng)選
推薦專(zhuān)題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開(kāi)始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類(lèi)新物種登上歷史舞臺(tái)
- 5 國(guó)產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來(lái)商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽(yáng)光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開(kāi)成長(zhǎng)空間
- 8 地平線(xiàn)自動(dòng)駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營(yíng)收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?