一种人脸活体检测方法、装置、电子设备和存储介质与流程



1.本技术涉及人脸检测技术领域,特别是涉及一种人脸活体检测方法、装置、电子设备和存储介质。


背景技术:



2.随着以人脸识别为手段的身份认证系统在日常社会生活中越来越广泛的应用,其安全性时刻面临着挑战,也越来越受到人们的重视。传统的人脸识别方法并不包含验证人脸真实性的模块,仅仅需要输入所采集到的人脸图像就可以输出对应的识别结果;而随着数字影像设备的快速兴起以及互联网的蓬勃发展,假体人脸的获取难度也越来越低。这些因素使得攻击者可以轻易地通过某些工具或手段(如打印照片、电子显示屏、三维面具等)得到特定人脸的复制,以此假冒合法用户身份,从而达到非法入侵系统的目的。在无人值守的封闭应用环境下,这一安全问题尤为突出。
3.因此,人脸活体检测技术应运而生,该技术旨在于辨别当前所采集的视频或图像中的人脸是活体人脸(有生命的真实人脸)还是假体人脸(冒充真人身份的仿造人脸),以达到防止不法分子冒用合法用户人脸信息的目的。现今,对于一个完备的人脸识别系统,活体检测是其前端必不可少的一个预处理模块。当系统通过输入设备采集到人脸视频或图像之后,首先进行人脸活体检测,只有在确认当前人脸为真实人脸的条件下才能进行后续的身份验证,因而其安全性得到了极大程度的保障。
4.现有的人脸活体检测方法,按照所用到的传感器种类,可以分为单源人脸活体检测(仅仅基于来自可见光图像的单源信息)与多源人脸活体检测(在可见光图像的基础上结合红外图像、深度图像、温度图像等多源信息),基于多源信息的融合降低了所需算法的难度,但也大幅提高了硬件设备成本;按照是否需要待测对象刻意配合,又可以分为交互式人脸活体检测(需要动作配合)与非交互式人脸活体检测(不需要动作配合),非交互式检测的用户体验更好,但对于所需算法的要求也更高。
5.在基于单源信息的交互式人脸活体检测方法中,最常见的是固定动作验证,即通过引导待测用户完成某个固定的动作(如眨眼、张嘴、转头等等)来识别当前用户是否为真实用户。然而,由于其动作验证方式的唯一性,使得恶意用户有迹可循,人脸识别系统始终面临着被攻击的风险。


技术实现要素:



6.为了解决上述背景技术中提到的至少一个问题,本技术提供了一种人脸活体检测方法、装置、电子设备和存储介质,能够通过随机动作指令的交互式验证方式进行人脸活体检测,提高人脸活体检测的准确性,在很大程度上限制非法用户的作弊行为。
7.本技术实施例提供的具体技术方案如下:
8.第一方面,提供一种人脸活体检测方法,包括:
9.持续采集当前场景待检测对象的第一连续图像帧,并对所述第一连续图像帧进行
人脸检测;
10.响应于在所述第一连续图像帧检测到所述待检测对象的人脸,采集一张所述待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;
11.随机选取一种动作指令,并引导所述待检测对象完成选取的所述动作指令;
12.采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;
13.根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果。
14.进一步的,所述动作指令包括抬头、低头、左转头、右转头、眨眼以及张嘴中的至少一种,所述根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果,包括:
15.若所述动作指令为抬头、低头、左转头以及右转头中的一种,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象的人脸姿态角,对完成的所述动作指令进行对应姿态角的判定,得到人脸活体检测结果;
16.若所述动作指令为眨眼,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的人眼区域图像序列以及对应的人眼关键点序列,并对所述人眼区域图像序列以及所述人眼关键点序列进行眨眼检测,得到人脸活体检测结果;
17.若所述动作指令为张嘴,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的嘴部区域图像序列以及对应的嘴部关键点序列,并对所述嘴部区域图像序列以及所述嘴部关键点序列进行张嘴检测,得到人脸活体检测结果。
18.进一步的,所述姿态角包括俯仰角、航向角以及横滚角中的至少一种,所述若所述动作指令为抬头、低头、左转头以及右转头中的一种,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象的人脸姿态角,对完成的所述动作指令进行对应姿态角的判定,得到人脸活体检测结果,具体包括:
19.根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象每一帧人脸图像对应的人脸姿态角,得到连续的人脸姿态角序列,所述人脸姿态角包括俯仰角分量、航向角分量以及横滚角分量;
20.提取出所述人脸姿态角序列中对应所述动作指令的欧拉角分量,得到连续欧拉角分量序列;
21.对所述欧拉角分量序列中的相邻元素两两作差得到差序列,提取所述差序列中的最长非负或非正子序列,对应所述欧拉角分量序列中的最长非递减或非递增子序列,提取所述欧拉角分量子序列两端对应欧拉角的最小值和最大值;
22.根据预设的对应所述动作指令的欧拉角取值范围,对所述对应欧拉角的最小值和最大值进行判定,得到人脸活体检测结果。
23.进一步的,若所述对应欧拉角的最小值和/或所述对应欧拉角的最大值不在所述预设的对应所述动作指令的欧拉角取值范围内,所述人脸活体检测结果为所述动作指令的验证未通过;
24.若所述对应欧拉角的最小值和所述对应欧拉角的最大值均在所述预设的对应所述动作指令的欧拉角取值范围内,所述人脸活体检测结果为所述动作指令的验证通过。
25.进一步的,若所述动作指令为抬头或低头,所述对应欧拉角为俯仰角;
26.若所述动作指令为左转头或右转头,所述对应欧拉角为航向角。
27.进一步的,在所述采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息之后,所述方法还包括:
28.提取所有所述人脸关键点位置信息,得到连续人脸关键点序列;
29.计算所述人脸关键点序列每相邻两帧的距离,根据所述每相邻两帧的距离分析所述人脸关键点序列的帧间连续性,并判断所述人脸关键点序列是否存在跳变或缺失的片段;
30.若所述人脸关键点序列存在跳变或缺失的片段,向所述待检测对象发出警告,并重新进行所述人脸检测。
31.进一步的,若所述人脸活体检测结果为通过,所述方法还包括:
32.以所述待检测对象的清晰正面人脸图像为输入人脸图像,进行人脸识别,得到所述待检测对象的身份认证结果。
33.第二方面,提供一种人脸活体检测装置,所述装置包括:
34.人脸检测模块,用于持续采集当前场景待检测对象的第一连续图像帧,并对所述第一连续图像帧进行人脸检测;
35.第一图像采集模块,用于响应于在所述第一连续图像帧检测到所述待检测对象的人脸,采集一张所述待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;
36.动作指令引导模块,用于随机选取一种动作指令,并引导所述待检测对象完成选取的所述动作指令;
37.第二图像采集模块,用于采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;
38.动作验证模块,用于根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果。
39.第三方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述人脸活体检测方法。
40.第四方面,提供一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行所述人脸活体检测方法。
41.本技术实施例具有如下有益效果:
42.本技术实施例提供的一种人脸活体检测方法、装置、电子设备和存储介质,能够通过发出随机的动作指令引导待检测对象完成对应动作指令来验证待检测对象的人脸是否来自真实的合法用户。若为活体人脸,则人脸活体检测结果为通过验证;若为假脸,则人脸活体检测结果为未通过验证。能够通过采用随机动作指令,以克服传统固定式动作验证策略的缺陷,同时基于对人脸关键点位置特征信息的密切跟踪,在很大程度上降低了人脸识别系统受到来自非法用户恶意攻击的风险。另外,在进行随机动作验证之前,还可以通过检
查人脸关键点序列是否存在跳变或缺失,以检测待检测对象在活体验证过程中的欺骗行为;同时,仅需要输入基于可见光相机所采集到的人脸动作视频即可完成识别,可以以较低的硬件设备成本实现了可信度较高的人脸活体识别算法。
附图说明
43.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
44.图1示出本技术实施例提供的人脸活体检测方法的总流程图;
45.图2示出根据本技术一个实施例的人脸活体检测方法的具体流程图;
46.图3示出根据本技术一个实施例的人脸活体检测方法的随机动作验证的具体流程图;
47.图4示出根据本技术一个实施例的人脸活体检测方法的人眼及嘴部区域图像裁剪示意图;
48.图5示出本技术实施例提供的人脸活体检测装置的结构示意图;
49.图6示出可被用于实施本技术中所述的各个实施例的示例性系统。
具体实施方式
50.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
51.应当理解,在本技术的描述中,除非上下文明确要求,否则整个说明书和权利要求书中的“包括”、“包含”等类似词语应当解释为包含的含义而不是排他或穷举的含义;也就是说,是“包括但不限于”的含义。
52.还应当理解,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本技术的描述中,除非另有说明,“多个”的含义是两个或两个以上。
53.需要注意的是,术语“s1”、“s2”等仅用于步骤的描述目的,并非特别指称次序或顺位的意思,亦非用以限定本技术,其仅仅是为了方便描述本技术的方法,而不能理解为指示步骤的先后顺序。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本技术要求的保护范围之内。
54.实施例一
55.本技术提供了一种人脸活体检测方法,参照图1,包括:
56.s1、持续采集当前场景待检测对象的第一连续图像帧,并对第一连续图像帧进行人脸检测;
57.s2、响应于在第一连续图像帧检测到待检测对象的人脸,采集一张待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;
58.s3、随机选取一种动作指令,并引导待检测对象完成选取的动作指令;
59.s4、采集待检测对象的包含对应动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;
60.s5、根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的动作指令进行动作验证,得到人脸活体检测结果。
61.具体的,在基于单源信息的交互式人脸活体检测方法中,最常见的是固定动作验证,即通过引导待测用户完成某个固定的动作(如眨眼、张嘴、转头等等)来识别当前用户是否为真实用户。然而,目前的动作验证方式较为唯一且具有局限性,就需要对基于单源信息的交互式人脸活体检测方法进行优化改良,本实施例通过发出随机的动作指令引导待检测对象完成对应动作指令来验证待检测对象的人脸是否来自真实的合法用户。若为活体人脸,则人脸活体检测结果为通过验证;若为假脸,则人脸活体检测结果为未通过验证。采用随机动作指令,以克服传统固定式动作验证策略的缺陷,同时基于对人脸关键点位置特征信息的密切跟踪,在很大程度上降低了人脸识别系统受到来自非法用户恶意攻击的风险。另外,采集设备可以是uvc(usb video class,usb视频类,一种为usb视频捕获设备定义的协议标准)相机、移动设备前置相机等可获取连续图像帧流的小型数字影像采集设备。仅需要输入基于可见光相机所采集到的人脸动作视频即可完成识别,可以以较低的硬件设备成本实现了可信度较高的人脸活体识别算法。
62.具体的,首先通过相机持续采集当前场景下的待检测对象的第一连续图像帧,并对第一连续图像帧进行人脸检测。若未在第一连续图像帧中当前帧检测到人脸,则继续采集下一帧图像,并重复进行人脸检测,直至检测到人脸为止。若在第一连续图像帧检测到待检测对象的人脸,则继续执行采集一张待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息,人脸图像通过清晰正面人脸照片裁剪对应人脸区域得到,用于后续的人脸识别。可以从预先规定的多种动作指令中随机选取其中一种,引导待检测对象完成选取的动作指令。可以以上述采集到的清晰正面人脸图像以及对应的人脸关键点位置信息为第一帧,并采集待检测对象的包含对应动作指令的第二连续图像帧,对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息,用于后续的动作验证。最后根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对上述选定的动作指令进行动作验证,得到人脸活体检测结果。
63.下面结合图2进行进一步的说明:
64.在一些实施方式中,动作指令包括抬头、低头、左转头、右转头、眨眼以及张嘴中的至少一种,基于此,s5包括:
65.s51、若动作指令为抬头、低头、左转头以及右转头中的一种,根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算待检测对象的人脸姿态角,对完成的动作指令进行对应姿态角的判定,得到人脸活体检测结果;
66.s52、若动作指令为眨眼,根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到待检测对象的人眼区域图像序列以及对应的人眼关键点序列,并对人眼区域图像序列以及人眼关键点序列进行眨眼检测,得到人脸活体检测结果;
67.s53、若动作指令为张嘴,根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到待检测对象的嘴部区域图像序列以及对应的嘴部关键点序列,
并对嘴部区域图像序列以及嘴部关键点序列进行张嘴检测,得到人脸活体检测结果。
68.具体的,参照图3,可以从规定的6种动作指令(即上述的抬头、低头、左转头、右转头、眨眼以及张嘴)中随机选取一种进行动作验证。若动作指令为抬头、低头、左转头以及右转头中的一种,则可以根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息进行待检测对象的人脸姿态角的计算,并对对应选定的动作指令(抬头、低头、左转头或右转头)进行对应姿态角的判定,得到人脸活体检测结果。对于眨眼检测以及张嘴检测,参照图4,若动作指令为眨眼,可以根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到待检测对象的人眼区域图像序列以及对应的人眼关键点序列,并对人眼区域图像序列以及人眼关键点序列进行眨眼检测,得到人脸活体检测结果;若动作指令为张嘴,则根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到待检测对象的嘴部区域图像序列以及对应的嘴部关键点序列,并对嘴部区域图像序列以及嘴部关键点序列进行张嘴检测,得到人脸活体检测结果。
69.具体的,在眨眼动作验证中,可以在左眼和右眼中随机选定一只眼作为待测人眼;然后对采集到的每一帧人脸图像中待测人眼区域进行裁剪,其中所裁剪的待测人眼区域与对应帧人脸图像中人脸关键点的位置是相对固定的,具体位置与尺寸可以根据多个人脸关键点的位置信息进行确定。然后将裁剪出的每一帧待测人眼区域的图像统一调整大小到相同的像素尺寸,得到对应连续帧人脸图像归一化后的待测人眼区域图像序列,并根据得到的待测人眼区域图像序列,可以采用适当的算法进行眨眼检测,得到第一眨眼检测结果,可采用已训练的卷积神经网络(convolutional neural network,cnn)与循环神经网络(recurrent neural network,rnn)相连接的模型架构计算得到第一眨眼检测结果,此处采用适当的眨眼检测算法即可,对于具体的算法不做限定。同时,可以根据连续帧人脸图像中所检测出的待测人眼关键点序列,采用适当的算法进行第二眨眼检测,得到第二眨眼检测结果。示例性的,上述的第二眨眼检测结果可以根据连续帧人脸图像中所检测出的待测人眼关键点序列,由其所对应的统计特征计算得到。可以通过计算每一帧人脸图像中待测人眼区域关键点,参照图4,以68个点人脸关键点为例,所检测出的对应于第k帧人脸图像的人脸关键点位置信息可以表示为:
[0070][0071]
其中,与即分别表示第k帧人脸图像中第i号人脸关键点在二维图像像素矩阵中的横坐标与纵坐标。
[0072]
特别的,虚线框即为待测人眼区域,以随机选定待测对象的右眼为待测人眼,所裁剪区域对应的矩形框可由第1、19、29号关键点来确定,其中矩形框的右下顶点即第29号关键点,左边界经过第1号关键点,且上边界经过第19号关键点;同样的,若随机选定待测对象的左眼为待测人眼,则所裁剪区域对应的矩形框可由第15、24、29号关键点来确定,其中矩形框的左下顶点即第29号关键点,右边界经过第15号关键点,且上边界经过第24号关键点。其中,待测左眼区域对应第42~47号关键点,待测右眼区域对应第36~41号关键点。在像素纵坐标上所跨越的高度,即待测人眼区域关键点在像素纵坐标上最高点与最低点之间的高度差值,从而可以得到一段对应图像帧长度的人眼高度序列。若得到的人眼高度序列中存在一个对应眨眼幅度的波动区间,则第二眨眼检测的结果为通过,否则,第二眨眼检测的结
果为不通过。若第一眨眼检测结果或第二眨眼检测结果显示为不通过,则判定为假脸,未通过眨眼检测验证,得到的人脸活体检测结果为不通过,系统向待检测对象发出提示,重新进行人脸检测。若第一眨眼检测结果与第二眨眼检测结果均显示为通过,则判定为活体人脸,通过眨眼检测,得到的人脸活体检测结果为通过。
[0073]
具体的,同样的,可以采取与眨眼检测相同的方式对采集到的每一帧人脸图像中的嘴部区域进行裁剪,所裁剪的嘴部区域与对应帧人脸图像中人脸关键点的位置是相对固定的,具体位置与尺寸可以根据多个人脸关键点的位置进行确定。可以将所裁剪出每一帧嘴部区域的图像统一调整大小到相同的像素尺寸,得到对应连续帧人脸图像的归一化后的嘴部区域图像序列,并根据所得到的嘴部区域图像序列,采用适当的算法进行张嘴检测,得到第一张嘴检测结果。其中,同样可采用已训练的卷积神经网络cnn与循环神经网络rnn相连接的模型架构计算得到第一张嘴检测结果,此处采用适当的张嘴检测算法即可,对于具体的算法不做限定。同时,可以根据连续帧人脸图像中所检测出的张嘴关键点序列,采用适当的算法进行第二张嘴检测,得到第二张嘴检测结果。示例性的,第二张嘴检测结果可根据连续帧人脸图像中所检测出的嘴部关键点序列,由其所对应的统计特征计算得到。参照图4,计算每一帧人脸图像中嘴部区域关键点,以68个点人脸关键点为例,实线框区域即嘴部裁剪区域,所裁剪区域对应的矩形框可由第5、8、11、33号关键点来确定,其中矩形框的左边界经过第5号关键点,下边界经过第8号关键点,右边界经过第11号关键点,且上边界经过第33号关键点。嘴部区域对应第48~67号关键点。在像素纵坐标上所跨越的高度,即嘴部区域关键点在像素纵坐标上最高点与最低点之间的高度差值,从而得到一段对应图像帧长度的嘴部高度序列。若在嘴部高度序列中存在一个对应张嘴幅度的波动区间,则第二张嘴检测结果为通过,否则,第二张嘴检测结果为不通过。同样的,若第一张嘴检测结果或第二张嘴检测结果显示为不通过,则判定为假脸,未通过张嘴检测验证,得到的人脸活体检测结果为不通过,系统向待检测对象发出提示,重新进行人脸检测。若第一张嘴检测结果与第二张嘴检测结果均显示为通过,则判定为活体人脸,通过张嘴检测,得到的人脸活体检测结果为通过。
[0074]
在一些实施方式中,姿态角包括俯仰角、航向角以及横滚角中的至少一种,基于此,s51具体包括:
[0075]
s511、根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算待检测对象每一帧人脸图像对应的人脸姿态角,得到连续的人脸姿态角序列,人脸姿态角包括俯仰角分量、航向角分量以及横滚角分量;
[0076]
s512、提取出人脸姿态角序列中对应动作指令的欧拉角分量,得到连续欧拉角分量序列;
[0077]
s513、对欧拉角分量序列中的相邻元素两两作差得到差序列,提取差序列中的最长非负或非正子序列,对应欧拉角分量序列中的最长非递减或非递增子序列,提取欧拉角分量子序列两端对应欧拉角的最小值和最大值;
[0078]
s514、根据预设的对应动作指令的欧拉角取值范围,对对应欧拉角的最小值和最大值进行判定,得到人脸活体检测结果。
[0079]
具体的,可以根据采集到的每一帧人脸图像以及对应的人脸关键点位置信息计算待检测对象每一帧人脸图像对应的人脸姿态角,其中,人脸姿态角包括俯仰角分量、航向角
分量以及横滚角分量(即pitch、yaw以及roll三个分量)。
[0080]
在一些实施方式中,若动作指令为抬头或低头,对应的欧拉角为俯仰角,对应的欧拉角分量为pitch分量;若动作指令为左转头或右转头,对应的欧拉角为航向角,对应的欧拉角分量为yaw分量。
[0081]
示例性的,若动作指令为抬头或低头,可以提取出所得人脸姿态角序列中的pitch分量,得到一段对应连续的pitch旋转角序列;然后对pitch旋转角序列中的相邻元素两两作差,统计出所得差序列中的最长子序列,该最长子序列可以是最长非负子序列(即对应pitch旋转角序列中的最长非递减子序列)或最长非正子序列(即对应pitch旋转角序列中的最长非递增子序列)。需要注意的是,在抬头动作指令或低头动作指令中,若其中一个所对应的pitch分量为正方向,则另一个对应的pitch分量为负方向。示例性的,可以根据坐标系默认进行设定,抬头方向上的俯仰角pitch分量为正,低头方向上的俯仰角pitch分量为负。以待检测对象的正脸为初始状态,按照时间顺序从零点开始,向正方向或负方向移动。那么,抬头动作验证即为待检测对象从零点开始,向正方向移动;低头动作验证即为待检测对象从零点开始,向负方向移动。其中,该段最长非正或非负子序列的两端分别对应着pitch旋转角序列中最长非递增或非递减子序列的两端,在连续帧图像中即分别对应着待测对象在低头或抬头方向上的最长运动区间。然后提取出该段最长非递增或非递减子序列两端pitch旋转角的最大值和最小值,在连续帧图像中即分别对应着待测对象在低头或抬头运动区间上的最大pitch旋转角和最小pitch旋转角;并基于该最大pitch旋转角和最小pitch旋转角,根据低头动作或抬头动作所设定的对应取值范围进行判定,对待测对象在该段连续帧人脸图像中所完成的低头动作或抬头动作进行动作验证,得到人脸活体检测的判定结果。
[0082]
示例性的,若动作指令为左转头或右转头,可以提取出所得人脸姿态角序列中的yaw分量,得到一段对应连续的yaw旋转角序列;并对yaw旋转角序列中的相邻元素两两作差,统计出所得差序列中的最长子序列,该最长子序列可以是最长非负子序列(即对应yaw旋转角序列中的最长非递减子序列)或最长非正子序列(即对应yaw旋转角序列中的最长非递增子序列)。需要注意的是,在左转头动作指令或右转头动作指令中,若其中一个所对应的yaw分量为正方向,则另一个对应的yaw分量为负方向。示例性的,可以根据坐标系默认进行设定,左转头方向上的航向角yaw分量为正,右转头方向上的航向角yaw分量为负。以待检测对象的正脸为初始状态,按照时间顺序从零点开始,向正方向或负方向移动。那么,左转头动作验证即为待检测对象从零点开始,向正方向移动;右转头动作验证即为待检测对象从零点开始,向负方向移动。其中,该段最长非正或非负子序列的两端对应着yaw旋转角序列中最长非递增或非递减子序列的两端,在连续帧图像中即分别对应着待测对象在右转头或左转头方向上的最长运动区间。提取出该段最长非递增或非递减子序列两端yaw旋转角的最小值和最大值,在连续帧图像中即分别对应着待测对象在右转头或左转头运动区间上的最小yaw旋转角和最大yaw旋转角;基于该最小yaw旋转角和最大yaw旋转角,可以根据右转头运动或左转头运动所设定的对应取值范围进行判定,对待测对象在该段连续帧人脸图像中所完成的右转头或左转头动作进行动作验证,得到人脸活体检测的判定结果。特别的,roll分量可以用作检测人脸是否垂直端正,可以用于获取或提示获取端正的人脸图像。
[0083]
在一些实施方式中,若对应欧拉角的最小值和/或对应欧拉角的最大值不在预设
的对应动作指令的欧拉角取值范围内,人脸活体检测结果为动作指令的验证未通过;若对应欧拉角的最小值和对应欧拉角的最大值均在预设的对应动作指令的欧拉角取值范围内,人脸活体检测结果为动作指令的验证通过。
[0084]
示例性的,若最小pitch旋转角或最大pitch旋转角不在抬头动作或低头动作预设的对应取值范围以内,则判定为抬头动作或低头动作的动作验证未通过,系统向待检测对象发出提示,然后重新进行人脸检测;若最小pitch旋转角以及最大pitch旋转角均在抬头动作或低头动作预设的对应取值范围以内,则判定为抬头动作或低头动作的动作验证通过。同样的,若最小yaw旋转角或最大yaw旋转角不在左转头或右转头动作预设的对应取值范围以内,则判定为左转头或右转头动作验证未通过;若最小yaw旋转角和最大yaw旋转角均在左转头或右转头动作预设的对应取值范围以内,则判定为左转头或右转头动作验证通过。
[0085]
具体的,设定pitch、yaw、roll三个分量的取值范围均为-180
°
到180
°
,且以正面人脸所处姿态为对应三轴旋转角的公共零点。若所采集到的连续帧人脸图像共有k帧,则所计算出的人脸姿态角序列可以表示为:
[0086]
[(pitch1,yaw1,roll1),(pitch2,yaw2,roll2),

,(pitchk,yawk,rollk)]
[0087]
则所提取出的pitch旋转角序列可以表示为:
[0088]
[pitch1,pitch2,

,pitchk]
[0089]
所提取出的yaw旋转角序列可以表示为:
[0090]
[yaw1,yaw2,

,yawk]
[0091]
则所得pitch旋转角差序列可以表示为:
[0092]
[δpitch1,δpitch2,

,δpitchk]=[0,pitch
2-pitch1,

,pitch
k-pitch
k-1
]
[0093]
同理所得yaw旋转角差序列可以表示为:
[0094]
[δyaw1,δyaw2,

,δyawk]=[0,yaw
2-yaw1,

,yaw
k-yaw
k-1
]
[0095]
示例性的,在验证随机选定动作为抬头时,最小pitch旋转角的合理取值范围可以设定为[-10
°
,10
°
]以内,最大pitch旋转角的合理取值范围可以设定为[20
°
,45
°
]以内;在验证随机选定动作为低头时,最大pitch旋转角的合理取值范围可以设定为[-10
°
,10
°
]以内,最小pitch旋转角的合理取值范围可以设定为[-45
°
,-20
°
]以内。在验证随机选定动作为左转头时,最小yaw旋转角的合理取值范围可以设定为[-10
°
,10
°
]以内,最大yaw旋转角的合理取值范围可以设定为[20
°
,45
°
]以内;在验证随机选定动作为右转头时,最大yaw旋转角的合理取值范围可以设定为[-10
°
,10
°
]以内,最小yaw旋转角的合理取值范围可以设定为[-45
°
,-20
°
]以内。
[0096]
在一些实施方式中,在s4之后,方法还包括:
[0097]
101、提取所有人脸关键点位置信息,得到连续人脸关键点序列;
[0098]
102、计算人脸关键点序列每相邻两帧的距离,根据每相邻两帧的距离分析人脸关键点序列的帧间连续性,并判断人脸关键点序列是否存在跳变或缺失的片段;
[0099]
103、若人脸关键点序列存在跳变或缺失的片段,向待检测对象发出警告,并重新进行人脸检测。
[0100]
具体的,若采集到连续帧人脸图像共有k帧,则人脸关键点序列中第k帧与第k+1帧之间的帧间距离可以表示为:
[0101][0102]
其中,δk即度量着第k帧与第k+1帧之间的连续性,以此类推可计算出对应的帧间距离序列[δ1,δ2,


k-1
]。
[0103]
具体的,在检查人脸关键点序列时,首先检查人脸关键点序列是否存在缺失,若在某一帧中未检测到人脸及其对应的人脸关键点,则该段人脸关键点片段中存在缺失;若不存在缺失,则可按上式计算出对应的帧间距离序列,然后检查人脸关键点序列是否存在跳变。示例性的,若在所计算出的帧间距离序列中,存在第i帧使得δi超过了δ
i-1
与δ
i+1
平均值的3倍,则该段人脸关键点片段中存在跳变。若检测到该段人脸关键点片段中存在跳变或缺失,则表明当前的待检测对象在进行对应动作验证过程中,可能临时偷换了待检测对象或进行了某种欺骗攻击或存在某种作弊行为,则可判定为存在异常,未通过人脸关键点序列检查,向待检测对象发出警告,并重新进行人脸检测。
[0104]
在一些实施方式中,若人脸活体检测结果为通过,方法还包括:
[0105]
s6、以待检测对象的清晰正面人脸图像为输入人脸图像,进行人脸识别,得到待检测对象的身份认证结果。
[0106]
在本实施例中,能够通过发出随机的动作指令引导待检测对象完成对应动作指令来验证待检测对象的人脸是否来自真实的合法用户。若为活体人脸,则人脸活体检测结果为通过验证;若为假脸,则人脸活体检测结果为未通过验证。能够通过采用随机动作指令,以克服传统固定式动作验证策略的缺陷,同时基于对人脸关键点位置特征信息的密切跟踪,在很大程度上降低了人脸识别系统受到来自非法用户恶意攻击的风险。另外,在进行随机动作验证之前,还可以通过检查人脸关键点序列是否存在跳变或缺失,以检测待检测对象在活体验证过程中的欺骗行为;同时,仅需要输入基于可见光相机所采集到的人脸动作视频即可完成识别,可以以较低的硬件设备成本实现了可信度较高的人脸活体识别算法。
[0107]
实施例二
[0108]
对应上述实施例,本技术还提供了一种人脸活体检测装置,参照图5,装置包括人脸检测模块、第一图像采集模块、动作指令引导模块、第二图像采集模块以及动作验证模块。
[0109]
其中,人脸检测模块,用于持续采集当前场景待检测对象的第一连续图像帧,并对所述第一连续图像帧进行人脸检测;第一图像采集模块,用于响应于在所述第一连续图像帧检测到所述待检测对象的人脸,采集一张所述待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;动作指令引导模块,用于随机选取一种动作指令,并引导所述待检测对象完成选取的所述动作指令;第二图像采集模块,用于采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;动作验证模块,用于根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果。
[0110]
进一步的,所述动作指令包括抬头、低头、左转头、右转头、眨眼以及张嘴中的至少一种,基于此,动作验证模块还用于若所述动作指令为抬头、低头、左转头以及右转头中的
一种,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象的人脸姿态角,对完成的所述动作指令进行对应姿态角的判定,得到人脸活体检测结果;动作验证模块还用于若所述动作指令为眨眼,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的人眼区域图像序列以及对应的人眼关键点序列,并对所述人眼区域图像序列以及所述人眼关键点序列进行眨眼检测,得到人脸活体检测结果;以及用于若所述动作指令为张嘴,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的嘴部区域图像序列以及对应的嘴部关键点序列,并对所述嘴部区域图像序列以及所述嘴部关键点序列进行张嘴检测,得到人脸活体检测结果。
[0111]
进一步的,所述姿态角包括俯仰角、航向角以及横滚角中的至少一种,基于此,动作验证模块还用于根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象每一帧人脸图像对应的人脸姿态角,得到连续的人脸姿态角序列,所述人脸姿态角包括俯仰角分量、航向角分量以及横滚角分量;以及用于提取出所述人脸姿态角序列中对应所述动作指令的欧拉角分量,得到连续欧拉角分量序列;还用于对所述欧拉角分量序列中的相邻元素两两作差得到差序列,提取所述差序列中的最长非负或非正子序列,对应所述欧拉角分量序列中的最长非递减或非递增子序列,提取所述欧拉角分量子序列两端对应欧拉角的最小值和最大值;以及用于根据预设的对应所述动作指令的欧拉角取值范围,对所述对应欧拉角的最小值和最大值进行判定,得到人脸活体检测结果。
[0112]
进一步的,若所述对应欧拉角的最小值和/或所述对应欧拉角的最大值不在所述预设的对应所述动作指令的欧拉角取值范围内,动作验证模块判定所述人脸活体检测结果为所述动作指令的验证未通过;若所述对应欧拉角的最小值和所述对应欧拉角的最大值均在所述预设的对应所述动作指令的欧拉角取值范围内,动作验证模块判定所述人脸活体检测结果为所述动作指令的验证通过。
[0113]
进一步的,若所述动作指令为抬头或低头,所述对应欧拉角为俯仰角;若所述动作指令为左转头或右转头,所述对应欧拉角为航向角。
[0114]
进一步的,装置还包括连续性检测模块,用于提取所有所述人脸关键点位置信息,得到连续人脸关键点序列;以及用于计算所述人脸关键点序列每相邻两帧的距离,根据所述每相邻两帧的距离分析所述人脸关键点序列的帧间连续性,并判断所述人脸关键点序列是否存在跳变或缺失的片段;还用于若所述人脸关键点序列存在跳变或缺失的片段,向所述待检测对象发出警告,并重新进行所述人脸检测。
[0115]
进一步的,装置还包括身份认证模块,用于若所述人脸活体检测结果为通过,以所述待检测对象的清晰正面人脸图像为输入人脸图像,进行人脸识别,得到所述待检测对象的身份认证结果。
[0116]
关于人脸活体检测装置的具体限定可以参见上文中对于人脸活体检测方法实施例的相关限定,故此处不作赘述。上述人脸活体检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0117]
实施例三
[0118]
对应上述实施例,本技术还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时可以实现上述人脸活体检测方法。
[0119]
如图6所示,在一些实施例中,系统能够作为各所述实施例中的任意一个用于人脸活体检测方法的上述电子设备。在一些实施例中,系统可包括具有指令的一个或多个计算机可读介质(例如,系统存储器或nvm/存储设备)以及与该一个或多个计算机可读介质耦合并被配置为执行指令以实现模块从而执行本技术中所述的动作的一个或多个处理器(例如,(一个或多个)处理器)。
[0120]
对于一个实施例,系统控制模块可包括任意适当的接口控制器,以向(一个或多个)处理器中的至少一个和/或与系统控制模块通信的任意适当的设备或组件提供任意适当的接口。
[0121]
系统控制模块可包括存储器控制器模块,以向系统存储器提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
[0122]
系统存储器可被用于例如为系统加载和存储数据和/或指令。对于一个实施例,系统存储器可包括任意适当的易失性存储器,例如,适当的dram。在一些实施例中,系统存储器可包括双倍数据速率类型四同步动态随机存取存储器(ddr4sdram)。
[0123]
对于一个实施例,系统控制模块可包括一个或多个输入/输出(i/o)控制器,以向nvm/存储设备及(一个或多个)通信接口提供接口。
[0124]
例如,nvm/存储设备可被用于存储数据和/或指令。nvm/存储设备可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(hdd)、一个或多个光盘(cd)驱动器和/或一个或多个数字通用光盘(dvd)驱动器)。
[0125]
nvm/存储设备可包括在物理上作为系统被安装在其上的设备的一部分的存储资源,或者其可被该设备访问而不必作为该设备的一部分。例如,nvm/存储设备可通过网络经由(一个或多个)通信接口进行访问。
[0126]
(一个或多个)通信接口可为系统提供接口以通过一个或多个网络和/或与任意其他适当的设备通信。系统可根据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信。
[0127]
对于一个实施例,(一个或多个)处理器中的至少一个可与系统控制模块的一个或多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器中的至少一个可与系统控制模块的一个或多个控制器的逻辑封装在一起以形成系统级封装(sip)。对于一个实施例,(一个或多个)处理器中的至少一个可与系统控制模块的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器中的至少一个可与系统控制模块的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(soc)。
[0128]
在各个实施例中,系统可以但不限于是:服务器、工作站、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)。在各个实施例中,系统可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,系统包括一个或多
个摄像机、键盘、液晶显示器(lcd)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(asic)和扬声器。
[0129]
需要注意的是,本技术可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(asic)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本技术的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本技术的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,ram存储器,磁或光驱动器或软磁盘及类似设备。另外,本技术的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
[0130]
另外,本技术的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本技术的方法和/或技术方案。本领域技术人员应能理解,计算机程序指令在计算机可读介质中的存在形式包括但不限于源文件、可执行文件、安装包文件等,相应地,计算机程序指令被计算机执行的方式包括但不限于:该计算机直接执行该指令,或者该计算机编译该指令后再执行对应的编译后程序,或者该计算机读取并执行该指令,或者该计算机读取并安装该指令后再执行对应的安装后程序。在此,计算机可读介质可以是可供计算机访问的任意可用的计算机可读存储介质或通信介质。
[0131]
通信介质包括藉此包含例如计算机可读指令、数据结构、程序模块或其他数据的通信信号被从一个系统传送到另一系统的介质。通信介质可包括有导的传输介质(诸如电缆和线(例如,光纤、同轴等))和能传播能量波的无线(未有导的传输)介质,诸如声音、电磁、rf、微波和红外。计算机可读指令、数据结构、程序模块或其他数据可被体现为例如无线介质(诸如载波或诸如被体现为扩展频谱技术的一部分的类似机制)中的已调制数据信号。术语“已调制数据信号”指的是其一个或多个特征以在信号中编码信息的方式被更改或设定的信号。调制可以是模拟的、数字的或混合调制技术。
[0132]
在此,根据本技术的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本技术的多个实施例的方法和/或技术方案。
[0133]
实施例四
[0134]
对应上述实施例,本技术还提供了一种计算机可读存储介质,存储有计算机可执行指令,计算机可执行指令用于执行人脸活体检测方法。
[0135]
在本实施例中,计算机可读存储介质可包括以用于存储诸如计算机可读指令、数据结构、程序模块或其它数据的信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动的介质。例如,计算机可读存储介质包括,但不限于,易失性存储器,诸如随机存储器(ram,dram,sram);以及非易失性存储器,诸如闪存、各种只读存储器(rom,prom,eprom,eeprom)、磁性和铁磁/铁电存储器(mram,feram);以及磁性和光学存储设备(硬盘、磁带、cd、dvd);或其它现在已知的介质或今后开发的能够存储供计算机系统使用的计算机可读信息/数据。
[0136]
尽管已描述了本技术实施例中的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本技术实施例中范围的所有变更和修改。
[0137]
显然,本领域的技术人员可以对本技术进行各种改动和变型而不脱离本技术的精神和范围。这样,倘若本技术的这些修改和变型属于本技术权利要求及其等同技术的范围之内,则本技术也意图包含这些改动和变型在内。

技术特征:


1.一种人脸活体检测方法,其特征在于,包括:持续采集当前场景待检测对象的第一连续图像帧,并对所述第一连续图像帧进行人脸检测;响应于在所述第一连续图像帧检测到所述待检测对象的人脸,采集一张所述待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;随机选取一种动作指令,并引导所述待检测对象完成选取的所述动作指令;采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果。2.根据权利要求1所述的人脸活体检测方法,其特征在于,所述动作指令包括抬头、低头、左转头、右转头、眨眼以及张嘴中的至少一种,所述根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果,包括:若所述动作指令为抬头、低头、左转头以及右转头中的一种,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象的人脸姿态角,对完成的所述动作指令进行对应姿态角的判定,得到人脸活体检测结果;若所述动作指令为眨眼,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的人眼区域图像序列以及对应的人眼关键点序列,并对所述人眼区域图像序列以及所述人眼关键点序列进行眨眼检测,得到人脸活体检测结果;若所述动作指令为张嘴,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息得到所述待检测对象的嘴部区域图像序列以及对应的嘴部关键点序列,并对所述嘴部区域图像序列以及所述嘴部关键点序列进行张嘴检测,得到人脸活体检测结果。3.根据权利要求2所述的人脸活体检测方法,其特征在于,所述姿态角包括俯仰角、航向角以及横滚角中的至少一种,所述若所述动作指令为抬头、低头、左转头以及右转头中的一种,根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象的人脸姿态角,对完成的所述动作指令进行对应姿态角的判定,得到人脸活体检测结果,具体包括:根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息计算所述待检测对象每一帧人脸图像对应的人脸姿态角,得到连续的人脸姿态角序列,所述人脸姿态角包括俯仰角分量、航向角分量以及横滚角分量;提取出所述人脸姿态角序列中对应所述动作指令的欧拉角分量,得到连续欧拉角分量序列;对所述欧拉角分量序列中的相邻元素两两作差得到差序列,提取所述差序列中的最长非负或非正子序列,对应所述欧拉角分量序列中的最长非递减或非递增子序列,提取所述欧拉角分量子序列两端对应欧拉角的最小值和最大值;根据预设的对应所述动作指令的欧拉角取值范围,对所述对应欧拉角的最小值和最大
值进行判定,得到人脸活体检测结果。4.根据权利要求3所述的人脸活体检测方法,其特征在于,若所述对应欧拉角的最小值和/或所述对应欧拉角的最大值不在所述预设的对应所述动作指令的欧拉角取值范围内,所述人脸活体检测结果为所述动作指令的验证未通过;若所述对应欧拉角的最小值和所述对应欧拉角的最大值均在所述预设的对应所述动作指令的欧拉角取值范围内,所述人脸活体检测结果为所述动作指令的验证通过。5.根据权利要求3或4所述的人脸活体检测方法,其特征在于,若所述动作指令为抬头或低头,所述对应欧拉角为俯仰角;若所述动作指令为左转头或右转头,所述对应欧拉角为航向角。6.根据权利要求1所述的人脸活体检测方法,其特征在于,在所述采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息之后,所述方法还包括:提取所有所述人脸关键点位置信息,得到连续人脸关键点序列;计算所述人脸关键点序列每相邻两帧的距离,根据所述每相邻两帧的距离分析所述人脸关键点序列的帧间连续性,并判断所述人脸关键点序列是否存在跳变或缺失的片段;若所述人脸关键点序列存在跳变或缺失的片段,向所述待检测对象发出警告,并重新进行所述人脸检测。7.根据权利要求1所述的人脸活体检测方法,其特征在于,若所述人脸活体检测结果为通过,所述方法还包括:以所述待检测对象的清晰正面人脸图像为输入人脸图像,进行人脸识别,得到所述待检测对象的身份认证结果。8.一种人脸活体检测装置,其特征在于,所述装置包括:人脸检测模块,用于持续采集当前场景待检测对象的第一连续图像帧,并对所述第一连续图像帧进行人脸检测;第一图像采集模块,用于响应于在所述第一连续图像帧检测到所述待检测对象的人脸,采集一张所述待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;动作指令引导模块,用于随机选取一种动作指令,并引导所述待检测对象完成选取的所述动作指令;第二图像采集模块,用于采集所述待检测对象的包含对应所述动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;动作验证模块,用于根据所述第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的所述动作指令进行动作验证,得到人脸活体检测结果。9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述人脸活体检测方法。10.一种计算机可读存储介质,存储有计算机可执行指令,其特征在于,所述计算机可执行指令用于执行权利要求1至7中任意一项所述人脸活体检测方法。

技术总结


本申请公开了一种人脸活体检测方法、装置、电子设备和存储介质,涉及人脸检测技术领域。方法包括:响应于在第一连续图像帧检测到待检测对象的人脸,采集一张待检测对象的清晰正面人脸图像以及对应的人脸关键点位置信息;随机选取一种动作指令,并引导待检测对象完成选取的动作指令;采集待检测对象的包含对应动作指令的第二连续图像帧,并对每一帧图像进行人脸关键点检测,保存连续的每一帧人脸图像以及对应的人脸关键点位置信息;根据第二连续图像帧中连续的每一帧人脸图像以及对应的人脸关键点位置信息,对完成的动作指令进行动作验证,得到人脸活体检测结果。本申请能够通过随机动作指令的交互式验证方式进行人脸活体检测。测。测。


技术研发人员:

陈颖

受保护的技术使用者:

中科弘拓(苏州)智能科技有限公司

技术研发日:

2022.09.21

技术公布日:

2022/12/22

本文发布于:2024-09-22 03:48:49,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/1/46730.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:所述   的人   图像   序列
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议