当前位置:360文档网>专题范文 > 公文范文 > 局部方向二值模式结合协同表示3D掌纹识别(范文推荐)

局部方向二值模式结合协同表示3D掌纹识别(范文推荐)

发布时间: 2022-10-14 18:25:08  来源:网友投稿

下面是小编为大家整理的局部方向二值模式结合协同表示3D掌纹识别(范文推荐),供大家参考。

局部方向二值模式结合协同表示3D掌纹识别(范文推荐)

 

 局部方向二值模式结合协同表示的 D 3D 掌纹识别

  随着社会科技水平的发展,信息安全已是当今社会面临的一个重大难题。在银行、刑侦、门禁、商场、车站和机场安检等应用场景中,基于生物特征的模式识别由于其可靠性和准确性受到越来越多的关注[1]。其中掌纹识别[2]不仅包含丰富的识别特征(主线、纹线端点、纹线分叉、褶皱等),而且受外界干扰小,非常稳定。与虹膜识别[3]相比,掌纹图像的采集设备要求较低,且对用户友好;伴随着硅胶指纹套的出现,指纹识别[4]身份认证变得不再可靠;而步态识别[5]容易受到情绪和年龄的影响,造成识别效果不佳。所以,掌纹识别目前已经成为生物特征识别方面极其重要的研究内容,具有广阔的发展空间和极大的社会应用价值。

 目前掌纹识别方法主要包括2D和3D掌纹识别。在2D掌纹识别方面,Zhang 等人[6]首先采用 Gabor 滤波器提取掌纹的方向特征,并通过汉明距离进行识别。在此基础上,又有许多通过方向特征进行识别的方法被提出,如竞争编码[7]、BOCV[8]等。此外,基于机器学习的方法也已经应用于掌纹识别,如子空间方法[9]、深度学习方法[10]等。2D 掌纹识别虽然准确率较高,但也存在一些缺点。首先,2D 图像无法完全体现掌纹图像的三维信息;其次,光照的变化会明显影响掌纹的图像质量,造成识别精度的下降;最后,2D 掌纹图像安全性能差,容易被窃取,不利于个人隐私的保护。

 与 2D 掌纹识别相比,3D 掌纹识别解决了上述问题,还包括更丰富的特征信息。在目前流行的 3D 掌纹识别方法中,文献[11]依据高斯曲率、均值曲率与零值之间的关系进行识别分类;文献[12]通过对表面类型直方图进行均匀分块,再连接成 3D 掌纹描述符,并通过协同表示的方法进行特征识别;文献[7]提出融合曲面的几何特征和方向特征进行掌纹识别;文献[13]基于两个主方向提取精确方向编码特征,结合紧凑表面类型完成识别过程。然而,3D 掌纹的特征是多方向的,在考虑表征几何信息的同时,也要求方向信息的完整性和准确性。

 为了解决上述问题,充分利用掌纹的特征信息,本文采用形状指数来描述 3D 掌纹的几何结构,采用表面类型编码来表征 3D 掌纹的几何特征。另外,提出一种局部方向二值模式(Local Orientation Binary Pattern,LOBP)以提取掌纹的主方向和方向置信度[14],进而表征3D 掌纹的方向特征,在决策层将上述特征进行结合。为了提高掌纹识别中的时效性,在识别分类的算法中采用协同表示(Collaborative Representation,CR)的方法[15],可以在保证较快识别速度的同时实现较高的准确性。

 2 相关原理

 3D 掌纹感兴趣区域(Region of Interest,ROI)可以清楚表达掌纹图像的特征信息,如图1所示。其中上面2张分别属于两个不同个体,其 ROI 具有明显区别,下面 2 张则是其对应手掌第二次采集时的 ROI

 图像。

 图 13D 掌纹图像 ROI 图像 Fig.1ROI 3D palmprints

  在信息采集过程中,掌纹图像往往会受到噪声的干扰而发生形变。均值曲率(Mean Curvature,MC)和高斯曲率(Gaussian Curvature,GC)作为描述曲面特征的内在几何不变量,其值与手掌在 3D 空间的位置、姿态等因素无关,只与手掌局部的固有形状相关。因此,通常用曲率来刻画 3D 掌纹图像的曲面特征。对于任意曲面,其高斯曲率GC 和均值曲率 MC 都可定义如下:

 GC=H**Hyy− H2xy(1+H2x+H2y)2

 (1)

 MC=(1+H2x)Hyy+(1+H2y)H**− 2HxHyHxy2(1+H2x+H2y)3/2

 (2)

 式中:Hx、Hy 是 H(x,y)的一阶偏导,H**、Hyy 是 H(x,y)的二阶偏导,Hxy 则是 H(x,y)的混合偏导。

 2.1 表面类型及其编码

 为了将 3D 掌纹的曲面特性描述得更加具体,根据掌纹表面的凹凸性将手掌中的点分成不同的类型,即将一个曲面划分为 8 种基本类型[11],这些类型被称为表面类型(Surface Type,ST)。并且为了表述的完整性,提出一种特殊的表面类型,即 MC=0 且 GC0 的情况,此类型称为最小表面,在实际应用中并不存在。因此,通过表面类型编码(Surface Type Code,STC)的方式可以将 3D 掌纹的表面类型定义为 9 种基本表面类型中的一种,表 1 列出了 9 种基本 ST 类型及其具体划分方法。

 表 1 表面类型 Tab.1Surface type

 GC0GC=0GC0MC0Peak (STC=1)Ridge (STC=2)Saddle Ridge (STC=3)MC=0None (STC=4)Flat (STC=5)Minimal Surface (STC=6)MC0Pit (STC=7)Valley (STC=8)Saddle Valley (STC=9)

  最小表面的判定定义了趋于零值的区间域 ε。对处于[− ε,+ε]范围内的值,认为其 GC 或 MC 等于零值。

 因此,通过上述步骤,每个 3D 掌纹 ROI 都可以获得其对应的 ST 图。作为一种 3D 特征,表面类型映射具有很强的分辨力,但对测试图像

 和训练图像之间的少量配准误差敏感,而基于分块的 ST 特征提取方法则解决了这一问题。如图 2 所示,上面两张是不同手掌采集的 ROI区域,下面两张是其相对应的 ST 图像。对于一个 3D 掌纹的 ROI,经过计算可以得到其对应的 ST 特征图,然后将其均匀的划分成块,每个块都可以计算出基于 ST 特征的直方图,将每个直方图表示为 hi。然后将所有分块直方图的 hi 进行级联,形成总 ST 特征直方图 h 用来描述掌纹的几何特征。

 图 2 不同掌纹 ROI 及其对应的 ST 图像 Fig.2Different palmprint ROI and its corresponding ST images

  2.2 形状指数

 为了更加完整地描述 3D 的细节信息,提出了形状指数[16](Shape Index,SI)这一概念,其不仅比曲率更直观地表现了掌纹的局部特性,而且具有尺度、平移以及旋转不变性。假设 F 为曲面 S 上的一个点,Ci 为曲面 S 经过点 F 的所有曲线,设所有曲线 Ci 在点 F 处的曲率为 Ki。令 k1 为曲率值 Ki 中的最大值,k2 为 Ki 中的最小值,k1和 k2 可以视作点 F 处的决定性曲率,计算公式如式(3)、(4)所示:

 k1=MC+MC2− GC− − − − − − − − − √

  (3)

 k2=MC− MC2− GC− − − − − − − − − √

 (4)

 形状指数根据 k1 和 k2 可以表示为:

 SSI=12− 1πarctank1+k2k1− k2

 (5)

 同时根据形状指数 SSI 的取值范围,掌纹曲面可转化为 8 bit 的灰度图像,即为形状指数图像,具体公式见式(6):

 U(i,j)=round(255×SSI(i,j))

 (6)

 由图 3 形状指数图及特征直方图可以发现,不同个体间的掌纹特征存在明显差异,可以准确识别不同的身份;而同一个体虽然是在一定时间间隔下采集的,其特征信息却高度稳定。

 图 33D 掌纹的形状指数图及其特征直方图

 Fig.3Shape index diagram and characteristic histogram of three-dimensional palmprint

 3 本文方法

 3.1 局部方向二值模式

 3.1.1 掌纹的主方向和方向置信度 在提取掌纹方向特征方面,通常是利用几组不同方向的直线检测器。本文利用 Gabor 滤波器来检测掌纹的主方向,该方法的公式如式(7)所示:

 G(x,y,θ,μ,σ,β)=12πσβexp[− π(x2σ2+y2β2)]exp(i2πμ(xcosθ+ysinθ))

 (7)

 式中:i=− 1− − − √,μ 是单位长度的径向频率(单位:弧度),σ 和 β 分别是椭圆高斯沿 x 轴和 y 轴的标准偏差。将式(7)中的最优参数设为 μ=0.091 6,σ=β=5.617 9,并将 Gabor 滤波器的大小(x 和 y 的范围)定义为 35×35[17]。θ 定义了 Gabor 函数的方

 向 。

 本 文 从 6 种 不 同 的 方 向 来 提 取 掌 纹 的 主 方 向 , 即(j− 1)π/6(j=1,2,...,6),因此定义了 6 个模板。在方向特征的提取中,Gabor 滤波器的实部与掌纹卷积的结果定义为:

 cj(x,y)=Grj⊗ (255− I(x,y))

 (8)

 式中:Grj 表示方向为(j− 1)π/6 的 Gabor 滤波器的实部,“⊗ ”是卷积算子,I 表示输入的掌纹图像,c 是 Gabor 模板和输入掌纹图像之间的对应卷积。所以定义掌纹的主方向为:

 o(x,y)=argmaxjcj(x,y)

 (9)

 掌纹的主方向可以最大程度表现掌纹的方向特征,其方向上的卷积也反映了掌纹方向的重要性和鲁棒性,所以将其方向上卷积响应的最大值,即 co(x,y)(x,y)作为 3D 掌纹主方向的置信度,公式如式(10)所示:

 co(x,y)=co(x,y)(x,y)=argmaxccj(x,y)

 (10)

 3.1.2 局部方向二值模式编码 由掌纹的主方向和方向置信度的内容可知,o(x,y)和 co(x,y)反映了掌纹的方向特征。也就是说 o(x,y)代表主方向,对应的 co(x,y)则反映主方向的置信度。假设掌纹上的一条纹线,在划分局部区域后,有点的方向与该纹线的方向保持一致,也有点或因不在线上而导致主方向的差异。所以掌纹局部区域内的主方向关系可以反映掌纹方向的变化。即掌纹的主方向关系(Orientation Binary Pattern,OBP)可以定义为:

 OBP=∑i=18e(oi,oc)2i

 (11)

 式中:oc 代表中心像素的主方向,oi 表示其相邻像素的主方向。e()代表对中心像素的主方向与邻域进行比较。将周围域定义为(8,1)个域集,即将中心点与周围 8 个点进行比较。当 u 等于 v 时,e(u,v)为 1,否则为 0。基于掌纹主方向上卷积的最大卷响应,即 co(x,y)。因此方向置信度的差(Confidence Binary Pattern,CBP)可以定义为:

 CBP=∑i=18s(co,i− co,c)2i

 (12)

 式中:co,c 和 co,i 分别表示中心像素和相应相邻点的方向置信度。当 u0 时,s(u)为 1,否则为 0。与传统的局部二值模式(Local Binary Pattern,LBP)相比,CBP 是卷积响应的结果,其结果更稳定,抗噪能力强。

 由于掌纹的主方向和方向置信度具有高度相关的信息,因此将两者结合。具体来说给定一张掌纹图像,将其均匀地划分为一组不重叠的块,块的大小设置为 16 像素×16 像素。对于每个块分别提取主方向和相应的置信度,进而分别计算特征直方图。然后,将基于块统计的 OBP和 CBP 直方图结合,得到掌纹的全局直方图,定义为基于 3D 掌纹图像的 LOBP 特征。图 4 显示了提取 LOBP 特征的基本思想。

 图 4LOBP 方法基本思想 Fig. 4Basic idea of LOBP method

 3.2 基于协同表示的掌纹分类

 3.2.1 基于稀疏表示的分类方法 稀疏表示的思想[15](Spare Representation For Classification,SRC)是将测试集样本的特征表示为训练集字典中元素的线性组合,并且通过字典的最小残差来判断测试图像的类别。假设训练集的样本

 数量足够多,当判断与测试样本不属于同一类别时,其线性系数即视作非零值;当判断与测试样本属于同一类别时,其线性系数视作零值。

 SRC 算法的具体步骤如下:

 Step1:对训练集样本和测试集样本提取特征向量并对提取到的特征向量进行归一化操作,用 1 代替 l2 范数,同时获取训练集的字典矩阵 A 和测试集的特征向量 y。

 Step2:求解最小 l1 范数问题。

 (γˆ )=argminγ∥γ∥1

 ,使得∥y− Aγ∥2ε

 (13)

 式中:ε 表示 y 与 γ 之间的编码误差。

 Step3:计算类别残差。

 ei(y)=∥y− Aiγˆ i∥2

 (14)

 式中:γˆ i 为第 i 类的编码系数矢量。

 Step4:计算测试样本类别。

 identity(y)=argmini{ei(y)}

 (15)

 将使 ei(y)最小的 i 所对应的类别作为测试集样本的类别,用identity(y)表示。

 3.2.2 基于协同表示的分类方法 协同表示[18](Collaborative Representation,CR)这一分类思想,是用 l2 范数来替代 SRC 分类方法中的 l1 范数。基于稀疏表示的分类方法中,一要求测试集特征向量 y 的编码系数矢量呈稀疏分布,二要求测试集特征向量 y 的稀疏编码是基于所有训练集样本协同表示的结果。基于 l1 范数的稀疏表示计算复杂度高,且无法体现协同表示的重要作用,而基于 l2 范数的协同表示则解决了这一问题,这种 方 法 称 为 基 于 协 同 表 示 和 规 则 最 小 二 乘 法 的 分 类 方 法(Classification Based On Collaborative Representation And Rule Least Square Method,CRC_RLS)。

 CRC_RLS 算法的具体步骤如下:

 Step1:用 A=[A1,A2,...,AK]表示第 K 类掌纹的训练样本集 A,则第i 类训练样本可以定义为:

 Ai=[vi,1,vi,2,...,vi,n,]∈Rm×ni

 (j=1,2,...,ni

  (16)

 式中:vi,j 为第 i 类掌纹的第 j 个样本的特征向量,n 为特征向量的维度。

 Step2:若 y∈Rm 表示一个测试样本的特征向量,则可以用训练样本集中的特征向量线性表示出 y,即 y≈Aχ,χ=[χ1;χ2;...;χk],其中 χi 为第 i 类的编码系数矢量。

 Step3:若y≈Aiχi成立,则测试样本的特征向量 y属于第i类掌纹。当基于所有的训练样本协同表示测试集样本时,为了降低计算的复杂度,可以通过 y 将稀疏表示思想中的求解 l1 范数问题替换成求解规则化最小二乘的问题,公式如下:

 (χˆ )=argminχ{∥∥y− Aχ∥22+λ∥∥χ∥22}

 (17)

 Step4:与稀疏表示的方法相比,解式(17)所示的基于规则化最小二乘的问题比直接求解基于 l1 范数的最优解问题降低很多难度,公式如下:

 χˆ =(ATA+λI)− 1ATy

 (18)

 式中:I∈Rn×n 代表单位矩阵,令 P=(ATA+λI)− 1AT,则可以看出,P 与 y 是相互独立的,P 相当于一个投影矩阵。

 在对测试样本 y 进行识别过程中,只需要将 y 投影到 P 上,就可以直接计算系数向量,进而得到 py,这种方法可以明显降低计算复杂度,从而缩短计算时间。

 3.2.3 本文方法 局部方向二值模式结合协同表示的 3D 掌纹识别算法流程图如图 5 所示,详细步骤如下:

 图 5 本文算法流程图 Fig.5Algorithm flow chart of this paper

  Step1:将训练集和测试集 3D 掌纹感兴趣区域映射成 SI 图像,并且根据曲率特征得到 ST 图像。

 Step2:将各个样本的 ST 和 SI 图像进行均匀分块,分别提取 ST 特征和 LOBP 特征直方图。

 Step3:将提取的特征直方图进行级联,形成特征向量矩阵。

 Step4:将各个样本的特征做归一化处理,计算得到训练字典 A 与 y。

 Step5:通过式(18)使用规则最小二乘法替换成 l2 范数。

 Step6:计算规则化残差 e,在决策层进行结合。

 ei(y)=||y− Aiχˆ i||2/||χˆ i|||2

 (19)

 Step7:计算测试样本的类别。

 4 实验与...

推荐访问:掌纹 协同 局部

版权所有:360文档网 2013-2025 未经授权禁止复制或建立镜像[360文档网]所有资源完全免费共享

Powered by 360文档网 © All Rights Reserved.。备案号:京ICP备13037083号-1