基于生物特征識別的社區(qū)智能安防系統(tǒng)

文:清華大學深圳研究生院 張俊成 廖慶敏2018年第五期

    隨著社會的進步和經濟的發(fā)展,人們越來越關注所在社區(qū)的安全問題。使用人工的方法進行安全核查不僅增加安保的工作量,也使得進出社區(qū)變得不便捷。我們項目希望使用基于生物特征識別的方法,使用人臉識別及指靜脈識別的方法,搭建一套智能安防系統(tǒng),輔助社區(qū)進行人員錄入和進出人員排查,該系統(tǒng)方便快捷且安全性高。本文將介紹智能安防系統(tǒng)并分別對人臉識別技術和指靜脈識別技術進行技術綜述,然后詳細闡述本課題組在人臉識別和指靜脈識別技術中所做的相關工作,最后展望智能安防及生物特征識別的發(fā)展趨勢和應用前景。

1  項目背景

    社區(qū)是城鎮(zhèn)居民聚集生活的大集體,隨著社會的進步和經濟的發(fā)展,社區(qū)不僅要滿足人們基本的居住需求,更要實現(xiàn)大家對于社區(qū)安全性和便捷性的期望。傳統(tǒng)社區(qū)一般設置保安亭控制人員進出,也需要大量的時間精力統(tǒng)計住戶信息。但由于城鎮(zhèn)化的擴大和流動人口的增加,人工方法在效率方面體現(xiàn)出了明顯的不足。保安無法準確分辨進出人員是否屬于所在社區(qū),而且由于很多住戶只是短期租賃,人員信息統(tǒng)計需要一次次反復進行。結合上述情況,亟需自動化的方法完成住戶信息的錄入和社區(qū)進出人員的排查。

    因此,我們選用自動化的生物特征識別技術,作為人員識別的手段。而在眾多生物特征中,常用于作為識別特征的生物特征有人臉特征,手部特征、眼部特征、步態(tài)等。其中,手部特征又包含手形[20]、指紋[21]、指靜脈[22]、掌靜脈[23]、掌紋[24]、指背紋[25]等。盡管從全球生物特征識別的市場規(guī)模上看,基于生物特征的識別技術處于高速而長足的發(fā)展階段,但是實際上,就每一種生物特征而言,例如指紋、虹膜等等,各自都有不少的有點和缺陷。基于人臉的特征檢測和識別技術采集較快,但采集環(huán)境的干擾和制約,基于虹膜識別的生物特征由于需要對眼部特征成像,使得其被用戶接受的程度較差等等。常見生物特征及優(yōu)缺點如表1所示。

表1常見生物特征及優(yōu)缺點對比

    人臉作為人最具標示性的特征,應用廣泛,方便采集和人工對比,非常適合用于社區(qū)門禁的安防。除了門禁,社區(qū)內大量攝像頭,也可以通過錄像進行人臉識別。

    指紋是目前被研究和應用的最為廣泛的一類特征,有資料顯示,基于指紋的識別技術占了整個生物特征市場84%的份額[26]。指紋識別有著錄入簡單,用戶接受程度高等優(yōu)點,但是指紋識別在不少情況下也會有諸多困難。例如,不少人的手指表面出現(xiàn)磨損時指紋這種特征的可靠性便難以得到保障,另外許多女性的手指相對纖細,表面的紋理特征也相對不明顯,這些因素都給采集工作以及接下來的特征提取和匹配識別工作都帶來了不小的難度。不僅如此,隨著社會的不斷發(fā)展進步,近年來市場上甚至出現(xiàn)了指紋膜等能夠以假亂真的產品,這對基于指紋的生物特征識別技術的防偽性能來說是一個非常大的挑戰(zhàn)。而基于掌紋的生物特征識別技術,除了存在類似于指紋的表面紋理帶來的缺陷外,由于其中主要紋理線路存在較高的相似性,這樣也就帶來了防偽性能較低的問題。因此,在不少對安全性能要求相對較高的場合,基本很少采用基于指紋或掌紋的生物特征識別技術。

    而指靜脈能夠有效克服表面紋理魯棒性差、易偽造等缺點。并且由于其特殊的成像原理,可以做到自動的活體檢測,避免諸如指紋膜,人臉照片甚至3D打印人臉模型這種偽造手段,這樣就進一步加強了其防偽性能。因此對于門鎖系統(tǒng),指靜脈比人臉或指紋都更適合。若想偽造一個假的指靜脈模型,需要仿造人手指的各個經絡、血管等,太過復雜,比偽造一個3D人臉模型都復雜得多。

    基于人臉和指靜脈的優(yōu)點,我們設計實現(xiàn)了一套基于生物特征識別的社區(qū)智能安防系統(tǒng)。包括基于人臉識別的社區(qū)門禁系統(tǒng)和基于指靜脈識別的門鎖系統(tǒng)兩部分。

    首先,在社區(qū)門禁處,搭建于人臉識別的社區(qū)門禁系統(tǒng),完成人臉錄入、人臉檢測和人臉識別等功能,極大程度地減少人工,并提升社區(qū)的安全指數(shù)和便捷性。我們通過在社區(qū)門口安置多個攝像頭進行人員監(jiān)控,大屏實時呈現(xiàn)進出人員人臉及其身份屬性,如果出現(xiàn)非住戶人員即發(fā)出警報,通知保安對可疑人員進行身份排查。社區(qū)門禁系統(tǒng)采用前端設備采集圖像數(shù)據,交由本地前端服務器進行檢測,通過檢測到的特征碼對應編號,發(fā)送到遠程云端服務器識別,通過識別匹配到的特征查詢數(shù)據庫獲取人員檔案信息,把反饋信息發(fā)給前端服務器顯示到屏幕上。對不能識別的頭像顯示在屏幕特定區(qū)域并提示盤查,同時發(fā)送到距離最近的安保人員手持終端上,提醒盤查。對外訪人員系統(tǒng)聯(lián)系業(yè)主,通過APP確認并實名采集進入,如圖1所示。

圖1基于人臉識別的社區(qū)門禁系統(tǒng)

    社區(qū)門禁系統(tǒng)的目的在于主要在于解決尾隨進入的非社區(qū)人員,對檢測出來的訪客人員進行實名登記,例行檢查。系統(tǒng)通過采集端,首先采集業(yè)主人員身份信息和人臉特征形成識別數(shù)據庫,再通過部署在社區(qū)大門口、關鍵道路路口、樓層、門廳等關鍵點的攝像頭識別進行排他性檢查,對識別不出來的人員發(fā)送到距離最近的安保人員手機終端上,告訴人員所在位置及面部特征,提示安保人員進行排查。本系統(tǒng)能夠降低安保人員勞動強度、提高社區(qū)安保識別級別,避免由于人工依賴映像排查而造成的漏洞。系統(tǒng)可用于學校、社區(qū)、工廠、政府機關、辦公大樓、醫(yī)院、景區(qū)等各類排他性檢查的場合,同時還可以完成考勤登記。

    然后,在社區(qū)住戶防盜門上,安裝基于指靜脈識別的門鎖系統(tǒng)。指靜脈識別相比數(shù)字密碼或指紋密碼更加且安全,可以有效防止鑰匙丟失、密碼泄露及不法分子仿造指紋膜等問題。

    通過基于人臉識別的社區(qū)門禁系統(tǒng)和基于指靜脈識別的門鎖系統(tǒng)可以有效防止不法分子進入社區(qū)及家中,并且比人工排查更加高效便捷。本文下面將分別對人臉識別技術和指靜脈識別技術進行技術綜述,然后詳細闡述本課題組在人臉識別和指靜脈識別技術中所做的相關工作。

2  人臉識別

2.1人臉識別綜述

    人臉識別一直是生物特征識別領域中不可或缺的一環(huán),被廣泛的研究及應用。早在20世紀90年代,針對人臉識別的研究就已經開始流行起來[1],直到今日,人臉識別的研究成果仍大量發(fā)表在著名的雜志和會議中,并逐漸應用到人們的日常生活中,就連深受大家喜愛的iPhone手機也搭載了人臉識別的功能。而在人臉識別技術發(fā)展的數(shù)十年過程中,涌現(xiàn)了大量的算法,我們可以按算法性質將它們簡單劃分為四類[2]。第一類,是最開始流行起來的整體學習算法,即通過某些分布假設推導出低維表示,諸如計算圖像的線性子空間[3]及稀疏表示的一些方法[4]等,此類方法因為有較強的先驗假設,而這些假設在不同情形下不一定都適用,所以導致了這類方法的識別準確率是最低的。第二類方法是基于引入局部特征的算法,其中包括經典的LBP(局部二進制模式)[5]算法,將局部信息進行二進制編碼,再通過統(tǒng)計直方圖作為特征規(guī)律,進行人臉的識別分類。但這些算法的缺點是這些特征缺少獨特性和緊湊性,以至于此類方法的識別率也只有70%左右。第三種算法是基于局部描述子的機器學習方法,通過學習的方法,訓練局部濾波器,再通過大量局部濾波器綜合輸出識別結果。這種方法在深度學習流行之前曾是研究的熱點,直到第四種算法,即基于深度學習的算法流行起來。深度學習一般指深層的神經網絡,實際上神經網絡早在20世紀就已經被提出,然而受限于當時的計算力,一直沒有很好的發(fā)展,不被研究者們看好。直到2012年ImageNet競賽,Hinton團隊使用深度神經網絡的團隊取得顯著成績[6],深度神經網絡才被人們逐漸重視,并用于計算機視覺的各種領域。2014年,DeepFace[7]和DeepID[8]在LFW數(shù)據集[9]中達到了當時最佳的識別率,并首次超越了在無約束情景中的人類的表現(xiàn)。這標志著在人臉識別中(無約束情況下),機器已經超越了人類。這種令人振奮的研究成果,使得研究人員將人臉識別研究重點轉向基于深度學習的方法。

    基于深度學習的人臉識別算法應用到本項目中,主要包括以下兩個關鍵技術,即人臉檢測與人臉識別。人臉檢測在于框選出圖像或視頻中的人臉,要求框選位置與真實位置盡可能相同,并減少非人臉區(qū)域被框選出的幾率。人臉識別指比對待測試人臉和提前入庫人臉的特征,從而得到測試人臉身份。人臉識別通常用識別率判斷方法的優(yōu)劣,給定若干對人臉圖片(一半來自同一人,一半來自不同人),算法預測這些圖片對是否來自同一人,判斷正確的圖片對數(shù)目占總圖片對數(shù)目的比例即為識別率。目前主流的人臉識別算法基本都采用深度卷積網絡提取人臉特征,通過特征之間的距離判斷圖片對是否來自同一人。

2.2基于MarginLoss的人臉識別算法

    在人臉識別中技術中,特征提取的質量直接決定了識別及分類的準確性。而特征提取的關鍵在于約束特征空間中同一個人的人臉聚集在一起,而不同人的人臉距離較遠,從而防止在利用距離判斷人臉對是否來自同一人時出現(xiàn)誤判。我們課題組提出一種新型的應用于人臉識別的損失函數(shù),即MarginLoss[13],基于現(xiàn)有的網絡結構,訓練后的網絡可以使人臉類內間距離擴大,從而提高識別的準確度。

2.2.1算法原理

    首先詳細介紹一下SoftmaxLoss和CenterLoss這兩個損失函數(shù)。

SoftmaxLoss在卷積神經網絡中有著極其廣泛的應用。假設在k類的分類問題中,訓練集為,其中,,則SoftmaxLoss可以定義如下:

    (1)

其中,其中是模型的參數(shù)。S(.)表示指標函數(shù)。如果X為真,則s(x)=1,否則s(x)=0。

CenterLoss是Wen等人在[19]中提出的,一種判別式特征學習方法,可以最小花類內間距,定義如下:

(2)

其中,Ci是第yi類的樣本中心特征。

    基于SoftmaxLoss和CenterLoss我們提出一個新的損失函數(shù),即MarginLoss。我們希望設計一個可以擴大類間樣本距離,并減小類內樣本距離的損失函數(shù),如圖2所示,

圖2Loss改進動機

    我們損失函數(shù)的設計主要考慮以下因素:

(1)在人臉識別問題中,每個樣本應盡可能靠近其中心(類內差異更?。┎⑦h離其他類的中心(類間距離更大)。

(2)在訓練階段,應排除具有足夠大的類間距離或足夠小的類內距離的樣本。否則,訓練過程將不穩(wěn)定并且收斂緩慢。所以,對訓練樣本進行選擇是至關重要的。因此,綜合以上兩點MarginLoss定義如下:

    當xi的標簽為j時,Iij=1,否則,Iij=-1。為定義的余量,即Margin。如果Iij=-1,則MarginLoss僅包括滿足的xi樣本。如果Iij=1,則MarginLoss僅包括滿足的xi樣本。通過這種方式,使MarginLoss作用于較難訓練的樣本上。

    理論上,在訓練過程中類中心應該隨著深度特征變化而更新,而事實上,在整個訓練集進行訓練時更新類中心是不切實際且無效的[19]。因此,在使用MarginLoss時,我們選擇使用mini-batch進行類中心的更新。在每次迭代中,類中心將根據mini-batch中的樣本情況進行更新。而更新的參數(shù)變化情況如下:

  (5)

最終,我們采用三種損失函數(shù)進行聯(lián)合監(jiān)督:SoftmaxLoss,CenterLoss和MarginLoss。我們損失函數(shù)表示如下:

   (6)

其中,入i是每項損失函數(shù)的權重。為了評估我們方法的有效性,我們將對三種損失函數(shù)進行組合,得出6種組合,并比較6種不同損失函數(shù)組合(見表2),來驗證我們MarginLoss的效果。

表2損失函數(shù)組合具體參數(shù)設置

2.2.2算法實驗對比與結果分析

    我們使用LFW[9]及YTF[10]數(shù)據庫,將我們的算法與其他主流算法進行人臉識別率的比較。使用Webface[11]及VGGFace[12]數(shù)據庫,并使用相同網絡和相同數(shù)據,修改所使用的損失函數(shù),比較人臉識別率。結果如表3。

表3算法與主流算法對比實驗

其中,(c)表示算法使用余弦距離進行計算,(e)表示使用歐式距離進行計算。

表4同網絡不同損失函數(shù)算法對比實驗

其中,(a)表示圖像是經過對齊處理的。

    實驗結果表明,我們的算法在使用較少訓練數(shù)據(0.46百萬)并使用單個網絡的情況下,與目前主流算法相比具有競爭力。而當我們使用相同的網絡和數(shù)據來比較不同的損失時??梢园l(fā)現(xiàn),在表3我們的算法優(yōu)于單純使用SoftmaxLoss(例如,在LFW中99.09%優(yōu)于96.62%),并且在一定程度上改善了CenterLoss(例如,在LFW中從98.23%到99.09%)。在表4中,可以看到S+C+M,相較于S+C在識別率上有一些提高(例如,在VGGFace(a)中從68.8%到72.3%)。

3  指靜脈識別

3.1指靜脈識別綜述

    與其他生物特征相比,基于手部特征的識別具有如下的優(yōu)勢:首先,由于手部特殊的構造,這個部位有相對豐富的表面的紋理、褶皺,以及內部錯綜復雜的血管組成,相對豐富的特征可以有效地降低特征提取和識別的難度。另外,手部的生物特征還具有例如采集難度小、被用戶接受的程度相對較高、采集設備相對低廉、采集的圖像尺寸較小故便于計算機的存儲和計算等等的優(yōu)勢,所以在眾多的生物特征當中,手部特征便得到了相對廣泛的研究和應用。而基于指靜脈生物特征由于其在采集的便捷性、防偽性以及相對優(yōu)良的性能等方面的優(yōu)勢,很早就受到了專家和學者的廣泛關注。早在2004年,日本日立公司的MiuraN、NagasakaA以及MiyatakeT等人,就根據近紅外光下的靜脈部位與手指其它部分灰度上的差異針對靜脈圖像率先提出了重復線性跟蹤的算法[27]。如圖3中(a)所示,這個方法主要依據靜脈位置與其兩側的灰度差異,從初始的隨機點位置出發(fā),重復跟蹤靜脈的位置,該算法具有不錯的識別率和等誤率,且證實了方法的魯棒性。2007年,MiuraN等人經過進一步的研究,將數(shù)學上的曲率思想引入到了靜脈識別的算法中來[28]。如圖3中(b)所示,他們利用靜脈橫斷面位置呈現(xiàn)出的曲率局部最大的特點,提出了利用局部最大曲率的思想提取靜脈中心線的位置特征,從結果上看取得了比重復線性跟蹤更好的識別率和等誤率。2009年,天津市信號處理國家重點實驗室的楊金鋒等人,進一步拓寬了基于指靜脈識別的思路,他們將Gabor濾波器引入到了指靜脈識別的領域中來,根據不同的指靜脈位置、走向及寬窄,調整濾波器參數(shù),實現(xiàn)對濾波結果的優(yōu)化[29]。2012年,哈爾濱工業(yè)大學的彭建江等人率先將SIFT特征引入到靜脈識別的研究當中來[30],利用SIFT描述子良好的平移和旋轉的不變性,更好的提取指靜脈特征。而我們課題組,基于自行采集的指靜脈及指背紋數(shù)據庫THU-FV[34],提出一種基于交叉點加強的競爭編碼方法。

圖3幾種典型的手部特征采集裝置及采集圖像

3.2指靜脈識別算法設計

3.2.1預處理

    基于指靜脈和指背紋的預處理模塊主要包括感興趣區(qū)域(RegionofInterest)的提取,也就是手指位置的提取、光照和圖像尺寸的歸一化。而對于不同的采集者而言,其手指的形狀以及由手指的粗細導致的區(qū)域的亮度的變化千差萬別。有效的克服上述難點,是特征提取和匹配識別工作的基礎和前提。

(1)感興趣的手指區(qū)域的提取

    由于近紅外LED光源的照射,手指位置的亮度要高于背景區(qū)域,所以對于要提取的手指邊緣的位置,可以基于擴展的Sobel邊緣檢測子,如圖4所示。

圖4基于擴展Sobel檢測子的ROI提取

    在實際的ROI提取過程中,我們將如圖4所示的擴展Sobel邊緣檢測子從圖像的中心線開始向兩側移動,當像素塊區(qū)域與擴展Sobel模板的卷積值大于預先設定的閾值時,就認為找到了手指的邊緣區(qū)域。

(2)尺寸和光照的歸一化

    為了便于后續(xù)的處理,我們首先將提取到的感興趣的手指區(qū)域進行雙三次插值,將所有圖像的尺寸歸一化處理為100*200大小。接下來,由于不同圖像之間還存在不小的亮度差異,所以需要對圖片進行光照強度歸一化的操作。具體如式(7)所示。

(7)

    其中,I(i,j)和分別代表歸一化前后相應位置的灰度值,m和σ 分別代表光照歸一化操作前原始圖像灰度的平均值和方差,m和σ 代表光照歸一化操作后圖像灰度的平均值和方差。

3.2.2特征提取

    在圖像處理和模式識別領域中,對處理的圖像提取合適的描述屬性,即圖像特征,是非常核心和關鍵的一步。而在特征提取的過程中,最重要的莫過于要保證提取出的特征區(qū)有可分性的信息,去除包含冗余和噪聲的信息。特征提取效果的好壞,往往決定著后續(xù)利用分類器分類的性能,所以需要特別的關注。在特征提取過程中,我們希望對于同一根手指,在不同次的采集后(盡管其中存在著噪聲、冗余等干擾),特征提取可以盡可能的減小干擾帶來的影響,保持較高的相似性。而對于不同的樣本,即不同的手指,經過特征提取的步驟可以最大化的顯示他們之間的差異。即對于類內差異,希望能夠最小化;而對于類間差異,則希望可以最大化。為了達到這樣的目的,我們在進行特征提取的操作時,應盡可能的提取樣本不同于其余樣本的個性特征,而最大化的去除他們之間的共性特征,從而可以最大化后續(xù)分類過程的準確率和效率,最大限度的提高系統(tǒng)的性能。

    具體的,在基于指靜脈和指背紋的生物特征識別領域中,進行特征提取算法的設計時,大致可以分為兩類方法,分別是基于空間域,也就是基于圖像域,和基于變換域的。兩類方法應該說各有優(yōu)劣,基于空間域的方法直觀明了,由于在圖像中對操作都是基于像素塊的,所以簡單直觀便于理解,但是缺陷在于容易受到局部極值的影響,而且對噪聲也相對敏感。而基于變換域的方法則相對對于局部極值和噪聲不敏感,但由于其要對原始圖像進行變換操作,所以理解起來不是特別直觀。

    針對指靜脈和指背紋的生物特征提取算法,有不少專家和學者都進行了非常深入和細致的研究。局部二值模式(LocalBinaryPattern)[31]、局部最大曲率(LocalMaximumCurvature)[32]以及Gabor競爭編碼(GaborCompetitiveCoding)[33]都是在指靜脈特征提取時非常經典和常用的算法,在這幾種算法中,局部二值模式和局部最大曲率都是直接在圖像域中的操作,而Gabor競爭編碼的方法是使用Gabor濾波器對原始圖像進行Gabor變換后在變換域上的操作。

3.2.3基于交叉點加強的競爭編碼方法

    Gabor濾波器的競爭編碼的方法由于只關注幅值最大的方向,所以這樣的方法對于只包含指靜脈的圖像來說是非常有效的。Gabor濾波器對于類似指靜脈的灰度值較低的紋理的響應是比較大的,然而對于相對較亮的指背紋信息的響應會比較小,那么對于基于新型指靜脈和指背紋特征的數(shù)據庫[34],這種簡單的基于最大幅值方向的方法會忽略指背紋的方向信息。所以,我們基于這樣的考慮,為了更加有效地利用新型多模態(tài)圖像中的指背紋的方向信息,提出了基于交叉點加強的競爭編碼方法?;贕abor競爭編碼的方法中,通常會選取6個方向的Gabor濾波器與原始圖像做卷積,選取對應幅值最大的方向作為最終的編碼方向。為了更加有效地利用幅值響應較低的指背紋的紋理方向信息,我們設計了如下的方法對指靜脈和指背紋兩種形態(tài)的紋理交叉點做識別,并將其“方向”編碼為7。識別的具體計算公式如下:

   (8)

    其中,表示使用6個方向的Gabor濾波器對原始圖像處理后的響應的最大值,而表示響應的最小值。α 是人為設定的參數(shù),T表示最終確定的閾值。當在某個像素點,其濾波結果的最大值與最小值只差大于此閾值時,便認為該點是指靜脈和指背紋兩種紋理的交叉點。這樣可以更加有效地利用指背紋的紋理信息。

圖5基于IGDC的特征提取

    如圖5所示,圖中灰度值最大也就是最亮的點代表了根據式(8)識別出的指靜脈和指背紋的交叉點,而這樣的點同時包含了指靜脈和指背紋的信息,是更具有表征特性的。顯然,對這樣的點在識別時予以更多的關注會更有利于減小類內樣本之間的差異,而增大類間樣本之間的差異。所以針對這樣的點,提出對應的匹配識別的方法,以進一步的提高系統(tǒng)的性能。

3.2.4匹配識別

    經過了上文所述的圖像的采集、預處理和特征提取的步驟,接下來輸入的待識別圖像將要和數(shù)據庫中的圖像進行比對,進行最終的匹配和識別的步驟。設兩幅待匹配的特征圖像分別為R和T,它們的大小均為m*n,那么它們之間的匹配得分S(R,T)如式(9)和(10)所示。

    在(9)式中,R(x,y)和T(x,y)分別代表特征圖R和T位于(x,y)處的值。w和h代表實際匹配時兩幅特征圖在x方向和y方向平移的大小,而(x,y)代表匹配結果的標志。對于上一小節(jié)介紹的局部二值模式(LBP)、局部最大曲率(LMC)和Gabor競爭編碼的方法,△(x,y)的計算方法如式(10)所示。而對于我們提出的基于交叉點加強的競爭編碼方法,為了給予識別出的指靜脈和指背紋的交叉點位置更多的關注,我們將匹配分數(shù)的計算方法分別修改為如式(11)和(12)所示。

    在如式(12)所示的計算方法中,我們對匹配成功的交叉點賦予了一個更大的權重,同時為了歸一化最終計算分數(shù),式(11)的分母變?yōu)榱耍?)中的2倍。在計算得到最后的計算分數(shù)后,我們采用最近鄰分類器對輸入的測試圖像進行分類,即選取圖像數(shù)據庫中與之計算出的分數(shù)最大的樣本所屬的類作為最終判別輸出的類。

3.2.5實驗對比與結果分析

    為了驗證與分析上文中介紹與提出的算法的合理性和有效性,我們在THU-FV[34]數(shù)據庫上進行了實驗。分別對比了基于局部二值模式的LBP[31]、局部最大曲率的LMC[32]、Gabor競爭編碼的GCC[33],和重復線跟蹤的RLT[27]和我們專門基于新型指靜脈和指背紋多模態(tài)特征提出的基于交叉點加強的競爭編碼(IGDC)的實驗結果,如表5所示

表5實驗結果對比

可以看出,我們的結果在數(shù)據集上與主流算法相比,效果最好。

4  總結與展望

    本文介紹了一套基于生物特征識別的智能安防系統(tǒng),系統(tǒng)主要包括基于人臉識別的門禁系統(tǒng),及基于指靜脈識別的門鎖系統(tǒng),在使用便捷的同時,提高了社區(qū)的安全性。然后重點介紹了人臉識別和指靜脈識別兩種技術,綜述了基本概念及發(fā)展情況,并提出了課題組對技術的改進算法。

    未來,基于生物特征識別的技術將廣泛用到諸如金融、公安、邊檢、政府、航天、電力、工廠、教育、醫(yī)療及眾多企事業(yè)單位等諸多領域當中。如何使技術落地,將是產業(yè)界以后的方向,而如何提高識別率和識別速度也是我們應該關注的重點。

參考文獻:

[1]M.TurkandA.Pentland.Eigenfacesforrecognition.Journalofcognitiveneuroscience,3(1):71–86,1991.

[2]WangM,DengW.DeepFaceRecognition:ASurvey.arXivpreprintarXiv:1804.06655,2018.

[3]B.Moghaddam,W.Wahid,andA.Pentland.Beyondeigenfaces:probabilisticmatchingforfacerecognition.

AutomaticFaceandGestureRecognition,1998.Proc.ThirdIEEEInt.Conf.,pages30–35,Apr1998.

[4]J.Wright,A.Yang,A.Ganesh,S.Sastry,andY.Ma.RobustFaceRecognitionviaSparseRepresentation.

IEEETrans.PatternAnal.MachineIntell.,31(2):210–227,2009.

[5]T.Ahonen,A.Hadid,andM.Pietikainen.Facedescriptionwithlocalbinarypatterns:

Applicationtofacerecognition.IEEETrans.PatternAnal.MachineIntell.,28(12):2037–2041,2006.

[6]Krizhevsky,A.,Sutskever,I.&Hinton,G.ImageNetclassificationwithdeepconvolutionalneuralnetworks.

InProc.AdvancesinNeuralInformationProcessingSystems25:1090–1098,2012.

[7]Y.Taigman,M.Yang,M.Ranzato,andL.Wolf.Deepface:Closingthegaptohuman-levelperformanceinfaceverification.InCVPR,pages1701–1708,2014.

[8]Y.Sun,Y.Chen,X.Wang,andX.Tang.Deeplearningfacerepresentationbyjointidentification-verification.InNIPS,pages1988–1996,2014.

[9]G.B.Huang,M.Ramesh,T.Berg,andE.Learned-Miller.Labeledfacesinthewild:Adatabaseforstudyingfacerecognitioninunconstrainedenvironments.

Technicalreport,TechnicalReport07-49,UniversityofMassachusetts,Amherst,2007.

[10]L.Wolf,T.Hassner,andI.Maoz.Facerecognitioninunconstrainedvideoswithmatchedbackgroundsimilarity.

InCVPR,pages529–534.IEEE,2011.

[11]D.Yi,Z.Lei,S.Liao,andS.Z.Li.Learningfacerepresentationfromscratch.arXivpreprintarXiv:1411.7923,2014.

[12]O.M.Parkhi,A.Vedaldi,A.Zisserman,etal.Deepfacerecognition.InBMVC,volume1,page6,2015.

[13]GaoR,YangF,YangW,etal.MarginLoss:MakingFacesmoreSeparable.IEEESignalProcessingLetters,PP(99):1-1,2018.

[14]F.Schroff,D.Kalenichenko,andJ.Philbin.Facenet:Aunifiedembeddingforfacerecognitionandclustering.InCVPR,pages815–823,2015.

[15]F.Wang,X.Xiang,J.Cheng,andA.L.Yuille.Normface:l2hypersphereembeddingforfaceverification.arXivpreprintarXiv:1704.06369,2017.

[16]Y.Sun,Y.Chen,X.Wang,andX.Tang.Deeplearningfacerepresentationbyjointidentification-verification.InNIPS,1988–1996,2014.

[17]X.Wu,R.He,Z.Sun,andT.Tan,AlightCNNfordeepfacerepresentationwithnoisylabels,arXiv:1511.02683,2017.

[18]W.Liu,Y.Wen,Z.Yu,andM.Yang,Large-marginSoftmaxlossforconvolutionalneuralnetworks,inProc.33rdInt.Conf.Mach.Learning,.507–516,2016.

[19]Y.Wen,K.Zhang,Z.Li,andY.Qiao,Adiscriminativefeaturelearningapproachfordeepfacerecognition,inProc.Eur.Conf.Comput.Vis,499–515,2016.

[20]KumarA,ZhangD.Personalrecognitionusinghandshapeandtexture.ImageProcessing,IEEETransactionson,15(8):2454-2461,2006.

[21]JainAK,ChenY,DemirkusM.Proresandridges:High-resolutionfingerprintmatchingusinglevel3features.PatternAnalysisandMachineIntelligence,IEEETransactions,29(1):15-27,2007.

[22]MiuraN,NagasakaA,MiyatakeT.Extractionoffinger-veinpatternsusingmaximumcurvaturepointsinimageprofiles.IEICETransactionsoninformationandsystems,90(8):1185-1194,2007,

[23]WatanabeM,EndohT,ShioharaM,etal.Palmveinauthenticationtechnologyanditsapplications.Proceedingsofthebiometricconsortiumconference,19-21,2005.

[24]KumarA,ZhangD.Personalauthenticationusingmultiplepalmprintrepresentation.PatternRecognition,38(10):1695-1704,2005.

[25]ZhangL,ZhangD.Finger-knuckle-print:anewbiometricidentifier.ProceedingsofImageProcessing,200916thIEEEInternationalConferenceon.IEEE.1981-1984,2009.

[26]InternationalBiometricGroup(IBG).BiometricsMarketandIndustryReport2009-2014[OL],https://ibgweb.com/products/reports/bmir-2009-2014.

[27]MiuraN,NagasakaA,MiyatakeT.Featureextractionoffinger-veinpatternsbasedonrepeatedlinetrackinganditsapplicationtopersonalidentification.MachineVisionandApplications,15(4):194-203,2004.

[28]MiuraN,NagasakaA,MiyatakeT.Extractionoffinger-veinpatternsusingmaximumcurvaturepointsinimageprofiles.IEICETransactionsoninformationandsystems,90(8):1185-1194,2007.

[29]YangJ,YangJ.Multi-channelgaborfilterdesignforfinger-veinimageenhancement.ProceedingsofImageandGraphics,2009.ICIG’09.FifthInternationalConferenceon.IEEE.87-91,2009.

[30]PengJ,WangN,E1-LatifAAA,etal.Finger-veinverificationusingGaborfilterandsiftfeaturematching.ProceedingsofIntelligenceInformationHidingandMultimediaSignalProcessing(IIH-MSP),2012EighthInternationalConferenceon.IEEE.45-48,2012.

[31]OjalaT,PietikäinenM,MäenpääT.Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns.EuropeanConferenceonComputerVision.Springer-Verlag:404-420,2000.

[32]MiuraN,NagasakaA,MiyatakeT.ExtractionofFinger-VeinPatternsUsingMaximumCurvaturePointsinImageProfiles.IaprConferenceonMachineVisionApplications.DBLP347-350,2007.

[33]KongWK,ZhangD.Competitivecodingschemeforpalmprintverification.InternationalConferenceonPatternRecognition.IEEE,520-523Vol.1,2004.

[34]Yang,W.M.,Huang,X.L.,Zhou,F.,Liao,Q.M.:Comparativecompetitivecodingforpersonalidentificationbyusingfingerveinandfingerdorsaltexturefusion.InformationSciences,268(6):20-32,2013

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.treenowplaneincome.com)獨家所有。如需轉載請與0755-82949061聯(lián)系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯(lián)網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯(lián)系,否則視為放棄相關權利。

伺服與運動控制

關注伺服與運動控制公眾號獲取更多資訊

直驅與傳動

關注直驅與傳動公眾號獲取更多資訊

中國傳動網

關注中國傳動網公眾號獲取更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0
往期雜志
  • 2024年第1期

    2024年第1期

    伺服與運動控制

    2024年第1期

  • 2023年第4期

    2023年第4期

    伺服與運動控制

    2023年第4期

  • 2023年第3期

    2023年第3期

    伺服與運動控制

    2023年第3期

  • 2023年第2期

    2023年第2期

    伺服與運動控制

    2023年第2期

  • 2023年第1期

    2023年第1期

    伺服與運動控制

    2023年第1期