摘要:本文基于環境,采用為基礎來構建實時人臉檢測與識別系統,探索人臉識別系統在現實應用中的難點。對于人臉檢測方法,效果好于的方法,但是檢測力度也難以達到現場應用標準。本文中,我們采用了基于深度學習方法的人臉檢測系統。
git地址:https://github.com/chenlinzho...
本文主要介紹了系統涉及的人臉檢測與識別的詳細方法,該系統基于python2.7.10/opencv2/tensorflow1.7.0環境,實現了從攝像頭讀取視頻,檢測人臉,識別人臉的功能
由于模型文件過大,git無法上傳,整個項目放在百度云盤,地址:https://pan.baidu.com/s/1Taal...
人臉識別是計算機視覺研究領域的一個熱點。目前,在實驗室環境下,許多人臉識別已經趕上(超過)人工識別精度(準確率:0.9427~0.9920),比如face++,DeepID3,FaceNet等(詳情可以參考:基于深度學習的人臉識別技術綜述)。但是,由于光線,角度,表情,年齡等多種因素,導致人臉識別技術無法在現實生活中廣泛應用。本文基于python/opencv/tensorflow環境,采用FaceNet(LFW:0.9963 )為基礎來構建實時人臉檢測與識別系統,探索人臉識別系統在現實應用中的難點。下文主要內容如下 :
利用htm5 video標簽打開攝像頭采集頭像并使用jquery.faceDeaction組件來粗略檢測人臉
將人臉圖像上傳到服務器,采用mtcnn檢測人臉
利用opencv的仿射變換對人臉進行對齊,保存對齊后的人臉
采用預訓練的facenet對檢測的人臉進行embedding,embedding成512維度的特征;
對人臉embedding特征創建高效的annoy索引進行人臉檢測
人臉采集采用html5 video標簽可以很方便的實現從攝像頭讀取視頻幀,下文代碼實現了從攝像頭讀取視頻幀,faceDection識別人臉后截取圖像上傳到服務器功能
在html文件中添加video,canvas標簽
打開網絡攝像頭
var video = document.getElementById("video"), var vendorUrl = window.URL || window.webkitURL; //媒體對象 navigator.getMedia = navigator.getUserMedia || navagator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia; navigator.getMedia({video: true, //使用攝像頭對象audio: false //不適用音頻}, function(strem){ video.src = vendorUrl.createObjectURL(strem); video.play(); });
利用jquery的facetDection組件檢測人臉
$("#canvas").faceDetection()
檢測出人連臉的話截圖,并把圖片轉換為base64的格式,方便上傳
context.drawImage(video, 0, 0, video.width, video.height); var base64 = canvas.toDataURL("images/png");
將base64格式的圖片上傳到服務器
//上傳人臉圖片 function upload(base64) { $.ajax({ "type":"POST", "url":"/upload.php", "data":{"img":base64}, "dataType":"json", beforeSend:function(){}, success:function(result){ console.log(result) img_path = result.data.file_path } }); }
圖片服務器接受代碼,php語言實現
function base64_image_content($base64_image_content,$path){ //匹配出圖片的格式 if (preg_match("/^(data:s*image/(w+);base64,)/", $base64_image_content, $result)){ $type = $result[2]; $new_file = $path."/"; if(!file_exists($new_file)){ //檢查是否有該文件夾,如果沒有就創建,并給予最高權限 mkdir($new_file, 0700,true); } $new_file = $new_file.time().".{$type}"; if (file_put_contents($new_file, base64_decode(str_replace($result[1], "", $base64_image_content)))){ return $new_file; }else{ return false; } }else{ return false; } }人臉檢測
人臉檢測方法有許多,比如opencv自帶的人臉Haar特征分類器和dlib人臉檢測方法等。
對于opencv的人臉檢測方法,有點是簡單,快速;存在的問題是人臉檢測效果不好。正面/垂直/光線較好的人臉,該方法可以檢測出來,而側面/歪斜/光線不好的人臉,無法檢測。因此,該方法不適合現場應用。對于dlib人臉檢測方法 ,效果好于opencv的方法,但是檢測力度也難以達到現場應用標準。
本文中,我們采用了基于深度學習方法的mtcnn人臉檢測系統(mtcnn:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Neural Networks)。mtcnn人臉檢測方法對自然環境中光線,角度和人臉表情變化更具有魯棒性,人臉檢測效果更好;同時,內存消耗不大,可以實現實時人臉檢測。本文中采用mtcnn是基于python和tensorflow的實現(代碼來自于davidsandberg,caffe實現代碼參見:kpzhang93)
model= os.path.abspath(face_comm.get_conf("mtcnn","model")) class Detect: def __init__(self): self.detector = MtcnnDetector(model_folder=model, ctx=mx.cpu(0), num_worker=4, accurate_landmark=False) def detect_face(self,image): img = cv2.imread(image) results =self.detector.detect_face(img) boxes=[] key_points = [] if results is not None: #box框 boxes=results[0] #人臉5個關鍵點 points = results[1] for i in results[0]: faceKeyPoint = [] for p in points: for i in range(5): faceKeyPoint.append([p[i], p[i + 5]]) key_points.append(faceKeyPoint) return {"boxes":boxes,"face_key_point":key_points}
具體代碼參考fcce_detect.py
人臉對齊有時候我們截取的人臉了頭像可能是歪的,為了提升檢測的質量,需要把人臉校正到同一個標準位置,這個位置是我們定義的,假設我們設定的標準檢測頭像是這樣的
假設眼睛,鼻子三個點的坐標分別是a(10,30) b(20,30) c(15,45),具體設置可參看config.ini文件alignment塊配置項
采用opencv仿射變換進行對齊,獲取仿射變換矩陣
dst_point=【a,b,c】 tranform = cv2.getAffineTransform(source_point, dst_point)
仿射變換:
img_new = cv2.warpAffine(img, tranform, imagesize)
具體代碼參考face_alignment.py文件
產生特征對齊得到后的頭像,放入采用預訓練的facenet對檢測的人臉進行embedding,embedding成512維度的特征,以(id,vector)的形式保存在lmdb文件中
facenet.load_model(facenet_model_checkpoint) images_placeholder = tf.get_default_graph().get_tensor_by_name("input:0") embeddings = tf.get_default_graph().get_tensor_by_name("embeddings:0") phase_train_placeholder = tf.get_default_graph().get_tensor_by_name("phase_train:0") face=self.dectection.find_faces(image) prewhiten_face = facenet.prewhiten(face.image) # Run forward pass to calculate embeddings feed_dict = {images_placeholder: [prewhiten_face], phase_train_placeholder: False} return self.sess.run(embeddings, feed_dict=feed_dict)[0]
具體代碼可參看face_encoder.py
人臉特征索引:
人臉識別的時候不能對每一個人臉都進行比較,太慢了,相同的人得到的特征索引都是比較類似,可以采用KNN分類算法去識別,這里采用是更高效annoy算法對人臉特征創建索引,annoy索引算法的有個假設就是,每個人臉特征可以看做是在高維空間的一個點,如果兩個很接近(相識),任何超平面
都無法把他們分開,也就是說如果空間的點很接近,用超平面去分隔,相似的點一定會分在同一個平面空間(具體參看:https://github.com/spotify/annoy)
#人臉特征先存儲在lmdb文件中格式(id,vector),所以這里從lmdb文件中加載 lmdb_file = self.lmdb_file if os.path.isdir(lmdb_file): evn = lmdb.open(lmdb_file) wfp = evn.begin() annoy = AnnoyIndex(self.f) for key, value in wfp.cursor(): key = int(key) value = face_comm.str_to_embed(value) annoy.add_item(key,value) annoy.build(self.num_trees) annoy.save(self.annoy_index_path)
具體代碼可參看face_annoy.py
人臉識別經過上面三個步驟后,得到人臉特征,在索引中查詢最近幾個點并就按歐式距離,如果距離小于0.6(更據實際情況設置的閾值)則認為是同一個人,然后根據id在數據庫查找到對應人的信息即可
#根據人臉特征找到相似的 def query_vector(self,face_vector): n=int(face_comm.get_conf("annoy","num_nn_nearst")) return self.annoy.get_nns_by_vector(face_vector,n,include_distances=True)
具體代碼可參看face_annoy.py
安裝部署系統采用有兩個模塊組成:
face_web:提供用戶注冊登錄,人臉采集,php語言實現
face_server: 提供人臉檢測,裁剪,對齊,識別功能,python語言實現
模塊間采用socket方式通信通信格式為: length+content
face_server相關的配置在config.ini文件中
1.使用鏡像
face_serverdocker鏡像: shareclz/python2.7.10-face-image
face_web鏡像: skiychan/nginx-php7
假設項目路徑為/data1/face-login
2.安裝face_server容器
docker run -it --name=face_server --net=host -v /data1:/data1 shareclz/python2.7.10-face-image /bin/bash cd /data1/face-login python face_server.py
3.安裝face_web容器
docker run -it --name=face_web --net=host -v /data1:/data1 skiychan/nginx-php7 /bin/bash cd /data1/face-login; php -S 0.0.0.0:9988 -t ./web/
最終效果:
face_server加載mtcnn模型和facenet模型后等待人臉請求
未注冊識別失敗
人臉注冊
注冊后登錄成功
https://zhuanlan.zhihu.com/p/...
https://github.com/spotify/annoy
https://blog.csdn.net/just_so...
https://blog.csdn.net/oTengYu...
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/27626.html
摘要:本文基于環境,采用為基礎來構建實時人臉檢測與識別系統,探索人臉識別系統在現實應用中的難點。對于人臉檢測方法,效果好于的方法,但是檢測力度也難以達到現場應用標準。本文中,我們采用了基于深度學習方法的人臉檢測系統。 git地址:https://github.com/chenlinzho... 本文主要介紹了系統涉及的人臉檢測與識別的詳細方法,該系統基于python2.7.10/opencv...
摘要:一時之間,深度學習備受追捧。百度等等公司紛紛開始大量的投入深度學習的應用研究。極驗驗證就是將深度學習應用于網絡安全防御,通過深度學習建模學習人類與機器的行為特征,來區別人與機器,防止惡意程序對網站進行垃圾注冊,撞庫登錄等。 2006年Geoffery ?Hinton提出了深度學習(多層神經網絡),并在2012年的ImageNet競賽中有非凡的表現,以15.3%的Top-5錯誤率奪魁,比利用傳...
摘要:雙活體,依然是前最可靠的防攻擊段之。詳解云識客活體檢測技術以下,我們分析一種多重人臉區域共享的深度學習算法。光流法輔助單目活體判斷最后,針對單目活體,云識客也采用光流法輔助活體判斷的校驗機制。 以下這張照?,是真?實拍還是對著照?翻拍的? showImg(https://segmentfault.com/img/bVbuoHD); 如果告訴你,這張照?,是對著照?翻拍的照?,你會不會驚...
摘要:基于候選區域的目標檢測器滑動窗口檢測器自從獲得挑戰賽冠軍后,用進行分類成為主流。一種用于目標檢測的暴力方法是從左到右從上到下滑動窗口,利用分類識別目標。這些錨點是精心挑選的,因此它們是多樣的,且覆蓋具有不同比例和寬高比的現實目標。 目標檢測是很多計算機視覺任務的基礎,不論我們需要實現圖像與文字的交互還是需要識別精細類別,它都提供了可靠的信息。本文對目標檢測進行了整體回顧,第一部分從RCNN...
閱讀 1792·2021-09-03 10:50
閱讀 1327·2019-08-30 15:55
閱讀 3369·2019-08-30 15:52
閱讀 1231·2019-08-30 15:44
閱讀 935·2019-08-30 15:44
閱讀 3319·2019-08-30 14:23
閱讀 3551·2019-08-28 17:51
閱讀 2291·2019-08-26 13:52