CN111062248A - 图像检测的方法、装置、电子设备及介质 - Google Patents
图像检测的方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN111062248A CN111062248A CN201911085420.3A CN201911085420A CN111062248A CN 111062248 A CN111062248 A CN 111062248A CN 201911085420 A CN201911085420 A CN 201911085420A CN 111062248 A CN111062248 A CN 111062248A
- Authority
- CN
- China
- Prior art keywords
- ear
- image
- result
- feature
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像检测的方法、装置、电子设备及介质。其中,本申请中,在当接收到针对目标用户的检测指令时之后,获取目标用户的耳部图像,并基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果,再基于识别结果,确定目标用户的检测结果。通过应用本申请的技术方案,可以在获取到针对目标用户的检测指令时,采集该用户的耳部图像,并基于耳部图像,对该用户进行身份识别。进而可以避免相关技术中存在的识别用户其他脸部器官所导致的识别准确率不高的弊端。
Description
技术领域
本申请中涉及数据处理技术,尤其是一种图像检测的方法、装置、电子设备及介质。
背景技术
由于通信时代和社会的兴起,智能设备已经随着越来越多用户的使用而不断发展。
进一步的,随着互联网的飞速发展,为了使用户具备更好的使用体验,智能设备中往往部署着多种功能。例如支付功能,校验功能等等。其中,为了保证各类功能的安全性,身份识别是现代社会中经常要遇到的问题,例如在银行、公安、网上购物、商场、生活小区等需要安全检验的场合都需要进行身份识别。其中身份识别可以利用生物特征识别技术获取人类特有的生理(Physiological)或行为(Behavior)特征,以进行自动的身份识别和验证。通常来说,身份识别是利用获取用户的人脸图像进行识别,已确定用户是否为合法用户。
然而,相关技术中存在的身份识别方式存在识别准确率不高的问题,从而降低了数据安全保证。
发明内容
本申请实施例提供一种图像检测的方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种图像检测的方法,其特征在于,包括:
当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;
基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;
基于所述识别结果,确定所述目标用户的检测结果。
可选地,在基于本申请上述方法的另一个实施例中,在所述当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像之后,还包括:
对所述耳部图像进行灰度矫正,得到待过滤耳部图像;
对所述待过滤耳部图像进行噪声过滤,得到目标耳部图像;
基于预设的神经网络检测模型,对所述目标耳部图像进行特征识别,得到识别结果。
可选地,在基于本申请上述方法的另一个实施例中,所述基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果,包括:
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部面积大小的第一特征识别结果;
和/或,
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部形状的第二特征识别结果;
和/或,
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部褶皱程度的第三特征识别结果。
可选地,在基于本申请上述方法的另一个实施例中,所述基于所述识别结果,确定所述目标用户的检测结果,包括:
将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果;
基于所述匹配结果,确定所述目标用户的检测结果。
可选地,在基于本申请上述方法的另一个实施例中,所述将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果,包括:
确定所述识别结果对应的识别类型,所述识别类型用于表征所述识别结果对应为耳部面积大小,和/或,耳部形状,和/或,耳部褶皱程度;
基于所述识别类型,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
可选地,在基于本申请上述方法的另一个实施例中,所述将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果,包括:
确定所述识别结果对应的耳部信息,所述耳部信息用于表征所述耳部图像为左耳图像,和/或,右耳图像;
基于所述耳部信息,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
可选地,在基于本申请上述方法的另一个实施例中,在所述基于预设的神经网络检测模型,对所述耳部图像进行特征识别之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个耳部特征信息;
利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述神经网络检测模型。
根据本申请实施例的另一个方面,提供的一种图像检测的装置,包括:
获取模块,被设置为当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;
生成模块,被设置为基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;
确定模块,被设置为基于所述识别结果,确定所述目标用户的检测结果。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述图像检测的方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述图像检测的方法的操作。
本申请中,在当接收到针对目标用户的检测指令时之后,获取目标用户的耳部图像,并基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果,再基于识别结果,确定目标用户的检测结果。通过应用本申请的技术方案,可以在获取到针对目标用户的检测指令时,采集该用户的耳部图像,并基于耳部图像,对该用户进行身份识别。进而可以避免相关技术中存在的识别用户其他脸部器官所导致的识别准确率不高的弊端。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请视图像检测的系统架构示意图;
图2为本申请提出的一种图像检测的方法的示意图;
图3a-图3b为本申请提出的耳部图像的示意图;
图4为本申请图像检测的装置的结构示意图;
图5为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图3来描述根据本申请示例性实施方式的用于进行图像检测的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的视频处理方法或视频处理装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)实现:当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;基于所述识别结果,确定所述目标用户的检测结果。
在此需要说明的是,本申请实施例所提供的视频处理方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的视频处理装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种图像检测的方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种图像检测的方法的流程示意图。如图2所示,该方法包括:
S101,当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像。
需要说明的是,本申请中不对接收检测指令的设备做具体限定,例如可以为智能设备,也可以为服务器。其中,智能设备可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group AudioLayerIII,动态影像专家压缩标准音频层面3)图像检测的器、MP4(Moving PictureExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)图像检测的器、便携计算机等具有显示功能的可移动式终端设备等等。
需要说明的是,本申请的技术方案可以应用到利用用户的生物特征识别技术来对用户进行身份识别的技术方案中。进一步的,生物特征识别技术与传统的身份鉴别技术如身份证、IC卡、账号密码等方式相比具有很大的优势,这是因为人体生物特征是时刻跟随自己的,不会丢失;另外由于人体的生物特征复杂、仿造困难,这增加了可靠性和安全性。这些明显的优越性将使生物特征身份鉴别方式成为未来身份鉴别的主流方式。目前人们研究和使用的生物特征包括指纹、人脸、人耳、虹膜、视网膜、掌形、手势、掌纹、声纹、气味、签名、击键习惯、步态等。
一般来说,在相关技术中利用用户的生物特征信息进行身份识别的过程中,通常选择采集用户的虹膜图像,人脸图像,指纹等方式进行检测。其中,人脸识别的困难主要是人脸作为生物特征的特点所带来的,主要是相似性和易变性。现在的人们整容现象普遍,整容后会改变脸型等导致人脸识别失败,甚至因为长相相似可以被别人轻易解锁成功;剃了胡子、换了发型、多了眼镜、变了表情都有可能引起比对失败。而且如果戴了口罩或者其他遮挡住脸部的饰品都需要摘掉才能识别,造成了用户的不便。进一步的,对于指纹解锁来说,需要指纹识别按钮,这也导致当用户的手上有水或者手上拿了东西的时候不方便进行解锁。另外,虹膜识别则需要用户摘掉隐形眼镜、墨镜,甚至可能需要摘下普通近视眼镜,进而影响用户体验。
本申请中,在当接收到针对目标用户的检测指令时,可以获取目标用户的耳部图像。需要说明的是,本申请不对耳部图像进行具体限定,例如可以为全体耳部图像,也可以为部分的耳部图像。
另外,本申请同样不对耳部图像的种类做具体限定,例如可以为目标用户的左耳耳部图像,也可以为右耳的耳部图像。还可以为用户双耳的耳部图像等等。
S102,基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果。
进一步的,本申请在获取到目标用户的耳部图像之后,可以基于预设的神经网络检测模型,对该耳部图像进行特征识别,得到识别结果。可以理解的,本申请不对耳部图像的特征识别类型做具体限定,也即可以为对耳部图像的任意特征进行识别。
其中,本申请不对神经网络检测模型做具体限定。例如可以为卷积神经网络(Convolutional Neural Networks,CNN)。其是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类。得益于CNN(卷积神经网络)对图像的强大特征表征能力,其在图像分类、目标检测、语义分割等领域都取得了令人瞩目的效果。
进一步的,本申请可以使用CNN神经网络模型中的检测目标用户的耳部图像的特征信息,并获取对应的识别结果。其中,需要将各耳部图像输入至预设的卷积神经网络模型中,并将卷积神经网络模型最后一层全连接层(FC,fully connected layer)的输出作为对该耳部图像对应的特征数据识别结果。
S103,基于识别结果,确定目标用户的检测结果。
可以理解的,本申请中可以基于神经网络检测模型,对耳部图像进行特征识别对于的识别结果,确定该目标用户的身份识别是否通过的检测结果。其中,本申请不对根据识别结果确定目标用户的检测结果的方式做具体限定,例如可以为将该识别结果输入至预先生成的包含合法用户的特征数据库中,以得到对应的检测结果。
本申请中,在当接收到针对目标用户的检测指令时之后,获取目标用户的耳部图像,并基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果,再基于识别结果,确定目标用户的检测结果。通过应用本申请的技术方案,可以在获取到针对目标用户的检测指令时,采集该用户的耳部图像,并基于耳部图像,对该用户进行身份识别。进而可以避免相关技术中存在的识别用户其他脸部器官所导致的识别准确率不高的弊端。
可选的,在本申请的另外一种实施方式中,在S101(当接收到针对目标用户的检测指令时,获取目标用户的耳部图像)之后,还可以包括以下步骤:
对耳部图像进行灰度矫正,得到待过滤耳部图像;
对待过滤耳部图像进行噪声过滤,得到目标耳部图像;
基于预设的神经网络检测模型,对目标耳部图像进行特征识别,得到识别结果。
进一步的,本申请在获取到目标用户的耳部图像之后,为了保证后续对该图像进行特征识别的准确率。本申请需要首先对其进行灰度矫正,以确保该图像的灰度值在正常范围内。其中,需要说明的是,本申请不对耳部图像进行灰度矫正得到待过滤耳部图像的方式做具体限定。例如可以包括以下三种方式的任意一种或多种:
灰度级校正方式:
针对图像成像不均匀如曝光不均匀,使图像半边暗半边亮,对图像逐点进行不同程度的灰度级校正,目的是使整幅图像灰度均匀。
灰度变换校正方式:
针对图像某一部分或整幅图像曝光不足使用灰度变换,其目的是增强图像灰度对比度。
直方图修正校正方式:
能够使图像具有所需要的灰度分布,从而有选择地突出所需要的图像特征,来满足用户的需要。
更进一步的,同样为了保证后续对该耳部图像进行特征识别的准确率。本申请在对耳部图像进行灰度矫正,得到待过滤耳部图像之后,还可以进一步的对该待过滤耳部图像进行噪声过滤,以去除待过滤耳部图像中的图像噪声。
其中,图像噪声是图像在获取或传输的过程中受到随机信号的干扰,在图像上出现的一些随机的、离散的、孤立的像素点,这些点会干扰人眼对图像信息的分析。图像的噪声通常是比较复杂的,很多时候将其看成是多维随机过程,因而可以借助于随机过程描述噪声,即使用概率分布函数和概率密度函数。
再进一步的,本申请可以选择利用对应的滤波器来去除噪声。其中,可以根据噪声类型的不同,选择不同的滤波器过滤掉噪声。举例来说,对于脉冲噪声,可以选择中值滤波器(Median Filter),已达到在去掉噪声的同时,不会模糊图像的目的。又或,对于高斯噪声,可以选择均值滤波器(Mean Filter),能够去掉噪声,但会对图像造成一定的模糊。
可选的,在本申请的另外一种实施方式中,在S102(基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果)中,还可以包括以下三种方式的任意一种或多种:
第一种方式:
基于神经网络检测模型,对耳部图像进行特征识别,得到对应于耳部面积大小的第一特征识别结果;
第二种方式:
基于神经网络检测模型,对耳部图像进行特征识别,得到对应于耳部形状的第二特征识别结果;
第三种方式:
基于神经网络检测模型,对耳部图像进行特征识别,得到对应于耳部褶皱程度的第三特征识别结果。
本申请中,在获取到耳部图像后,为了进一步的确认该耳部图像是否为合法的耳部图像。还可以通过识别耳部图像的特征信息的方法。来确定该耳部图像的特征识别结果。进一步的,本申请可以基于预设的神经网络检测模型,对耳部图像进行特征识别,得到对应的耳部面积大小、耳部形状、耳部褶皱程度的多种特征识别结果,以使后续根据该多个识别结果,为目标用户的身份识别进行判定。
需要说明的是,本申请中的三种特征识别结果,可以只单独得到其中一种,也可以得到其中的多种。
进一步的,对于设备来说,可以在利用摄像采集装置获取到目标用户的耳部图像后,利用神经网络模型提取耳部图像的特征信息。需要说明的是,本申请不对预设的神经网络模型做具体限定,在一种可能的实施方式中,可以为利用卷积神经网络模型,对耳部图像进行特征识别。
其中,卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类。得益于CNN(卷积神经网络)对图像的强大特征表征能力,其在图像分类、目标检测、语义分割等领域都取得了令人瞩目的效果。
进一步的,本申请可以使用CNN神经网络模型中的提取用户图像中的耳部特征信息。其中,需要将至少一张耳部图像输入至预设的卷积神经网络模型中,并将卷积神经网络模型最后一层全连接层(FC,fully connected layer)的输出作为对该耳部图像对应的特征数据。以使后续根据该特征数据,得到耳部图像对应的特征识别结果。
还需要说明的是,本申请在利用卷积神经网络模型,确定各用户图像对应的特征数据之前,还需要通过以下方式获取该卷积神经网络模型:
获取样本图像,其中,样本图像包括至少一个耳部特征信息;
利用样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的神经网络检测模型。
进一步的,本申请可以通过神经网络图像分类模型,来识别样本图像所包括的至少一个对象的样本特征(例如可以为面积大小,褶皱特征,形状特征等等)。更进一步而言,神经网络图像分类模型还可以对样本图像中的各个样本特征进行分类,并且将属于同一类别的样本特征分为同一类型,这样,样本图像进行语义分割之后所得到的多个样本特征可以为多个不同类型所组成的样本特征。
需要说明的是,神经网络图像分类模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。
例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,样本图像对神经网络图像分类模型进行反复训练,在神经网络图像分类模型对像素点的分类准确率达到70%以上时,则此时该神经网络图像分类模型可以应用在本申请实施例中,对耳部图像进行图像分割处理。
进一步可选的,在基于预设的神经网络检测模型,对耳部图像进行特征识别,得到识别结果之后,还可以实施下述步骤:
将识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果;
其中,在将识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果的过程中,可以包含以下两种情况:
第一种情况:
确定识别结果对应的识别类型,识别类型用于表征识别结果对应为耳部面积大小,和/或,耳部形状,和/或,耳部褶皱程度;
基于识别类型,将识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果。
进一步的,本申请中在获取到针对目标用户耳部图像的识别结果后,还可以进一步的确定该识别结果对应的特征为耳部面积大小,和/或,耳部形状,和/或,耳部褶皱程度的具体类型。并在确定识别类型后,根据该识别类型对应的特征,与特征数据库中的各特征数据进行一一匹配,进而得到匹配结果。
例如,当基于耳部图像,确定本次识别结果对应的识别类型为耳部面积大小特征以及耳部形状特征时,根据该耳部图像对应的耳部面积大小特征A以及耳部形状特征B。与特征数据库中的各特征数据进行一一匹配,可以理解的,当检测到耳部面积大小特征A与特征数据库中的特征数据C相匹配成功,且耳部形状特征B与特征数据库中的特征数据D相匹配成功时,生成耳部图像与特征数据库匹配成功的匹配结果。
第二种情况:
确定识别结果对应的耳部信息,耳部信息用于表征耳部图像为左耳图像,和/或,右耳图像;
基于耳部信息,将识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果。
基于匹配结果,确定目标用户的检测结果。
进一步的,本申请中在获取到针对目标用户耳部图像的识别结果后,还可以进一步的确定该识别结果对应的与目标用户的左耳器官和/或右耳器官。并在确定对应的器官后,根据该识别类型对应的耳部信息,与特征数据库中的各特征数据进行一一匹配,进而得到匹配结果。
例如,当基于耳部图像,确定本次识别结果对应的耳部信息为左耳耳部图像时,即根据该左耳耳部图像,与特征数据库中的所有左耳耳部特征数据进行一一匹配,可以理解的,当检测到特征数据库中存在于该左耳耳部图像相匹配的特征左耳耳部特征数据时,生成该耳部图像与特征数据库匹配成功的匹配结果。
以图3a-图3b进行举例说明,本申请中,在当接收到针对目标用户的检测指令时,获取目标用户的耳部图像(如图3a所示,为用户的左耳的耳部图像,以及如图3b所示,为用户的右耳的耳部图像)。进一步的,本申请可以基于预设的神经网络检测模型,对该两个耳部图像进行特征识别,得到识别结果。其中,本申请可以基于神经网络检测模型,对左耳的耳部部图像进行特征识别,得到对应于耳部形状的特征识别结果,以及本申请可以基于神经网络检测模型,对右耳的耳部部图像进行特征识别,得到对应于耳部褶皱程度的特征识别结果(对应于图3b中的1-6,为反映耳部图像褶皱程度的6个关键点)。再进一步的,本申请即可以基于两个耳部图像对应的识别结果,确定目标用户的身份识别的检测结果。
在本申请的另外一种实施方式中,如图4所示,本申请还提供一种图像检测的装置,该装置包括获取模块301,生成模块302,确定模块303,其中:
获取模块301,被设置为当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;
生成模块302,被设置为基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;
确定模块303,被设置为基于所述识别结果,确定所述目标用户的检测结果。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为对所述耳部图像进行灰度矫正,得到待过滤耳部图像;
生成模块302,被配置为对所述待过滤耳部图像进行噪声过滤,得到目标耳部图像;
生成模块302,被配置为基于预设的神经网络检测模型,对所述目标耳部图像进行特征识别,得到识别结果。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部面积大小的第一特征识别结果;
和/或,
生成模块302,被配置为基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部形状的第二特征识别结果;
和/或,
生成模块302,被配置为基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部褶皱程度的第三特征识别结果。
在本申请的另一种实施方式中,确定模块303,还包括:
确定模块303,被配置为将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果;
确定模块303,被配置为基于所述匹配结果,确定所述目标用户的检测结果。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为确定所述识别结果对应的识别类型,所述识别类型用于表征所述识别结果对应为耳部面积大小,和/或,耳部形状,和/或,耳部褶皱程度;
生成模块302,被配置为基于所述识别类型,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为确定所述识别结果对应的耳部信息,所述耳部信息用于表征所述耳部图像为左耳图像,和/或,右耳图像;
生成模块302,被配置为基于所述耳部信息,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
在本申请的另一种实施方式中,获取模块301,还包括:
获取模块301,被配置为获取样本图像,其中,所述样本图像包括至少一个耳部特征信息;
获取模块301,被配置为利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述神经网络检测模型。
图5是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述图像检测的方法,该方法包括:当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;基于所述识别结果,确定所述目标用户的检测结果。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述图像检测的方法,该方法包括:当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;基于所述识别结果,确定所述目标用户的检测结果。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种图像检测的方法,其特征在于,包括:
当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;
基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;
基于所述识别结果,确定所述目标用户的检测结果。
2.如权利要求1述的方法,其特征在于,在所述当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像之后,还包括:
对所述耳部图像进行灰度矫正,得到待过滤耳部图像;
对所述待过滤耳部图像进行噪声过滤,得到目标耳部图像;
基于预设的神经网络检测模型,对所述目标耳部图像进行特征识别,得到识别结果。
3.如权利要求1或2述的方法,其特征在于,所述基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果,包括:
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部面积大小的第一特征识别结果;
和/或,
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部形状的第二特征识别结果;
和/或,
基于所述神经网络检测模型,对所述耳部图像进行特征识别,得到对应于耳部褶皱程度的第三特征识别结果。
4.如权利要求3述的方法,其特征在于,所述基于所述识别结果,确定所述目标用户的检测结果,包括:
将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果;
基于所述匹配结果,确定所述目标用户的检测结果。
5.如权利要求4述的方法,其特征在于,所述将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果,包括:
确定所述识别结果对应的识别类型,所述识别类型用于表征所述识别结果对应为耳部面积大小,和/或,耳部形状,和/或,耳部褶皱程度;
基于所述识别类型,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
6.如权利要求4或5述的方法,其特征在于,所述将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到匹配结果,包括:
确定所述识别结果对应的耳部信息,所述耳部信息用于表征所述耳部图像为左耳图像,和/或,右耳图像;
基于所述耳部信息,将所述识别结果与特征数据库中的各特征数据进行一一匹配,得到所述匹配结果。
7.如权利要求1所述的方法,其特征在于,在所述基于预设的神经网络检测模型,对所述耳部图像进行特征识别之前,还包括:
获取样本图像,其中,所述样本图像包括至少一个耳部特征信息;
利用所述样本图像对预设的图像语义分割模型进行训练,得到满足预设条件的所述神经网络检测模型。
8.一种图像检测的装置,其特征在于,包括:
获取模块,被设置为当接收到针对目标用户的检测指令时,获取所述目标用户的耳部图像;
生成模块,被设置为基于预设的神经网络检测模型,对所述耳部图像进行特征识别,得到识别结果;
确定模块,被设置为基于所述识别结果,确定所述目标用户的检测结果。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-7中任一所述图像检测的方法的操作。
10.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-7中任一所述图像检测的方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911085420.3A CN111062248A (zh) | 2019-11-08 | 2019-11-08 | 图像检测的方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911085420.3A CN111062248A (zh) | 2019-11-08 | 2019-11-08 | 图像检测的方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111062248A true CN111062248A (zh) | 2020-04-24 |
Family
ID=70297903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911085420.3A Withdrawn CN111062248A (zh) | 2019-11-08 | 2019-11-08 | 图像检测的方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062248A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797754A (zh) * | 2020-06-30 | 2020-10-20 | 上海掌门科技有限公司 | 图像检测的方法、装置、电子设备及介质 |
CN112580462A (zh) * | 2020-12-11 | 2021-03-30 | 深圳市豪恩声学股份有限公司 | 一种特征点选择方法、终端和存储介质 |
CN113011277A (zh) * | 2021-02-25 | 2021-06-22 | 日立楼宇技术(广州)有限公司 | 基于人脸识别的数据处理方法、装置、设备及介质 |
CN113360873A (zh) * | 2021-06-02 | 2021-09-07 | 北京声智科技有限公司 | 一种耳机持有者的身份认证方法及装置 |
CN116913519A (zh) * | 2023-07-24 | 2023-10-20 | 东莞莱姆森科技建材有限公司 | 基于智能镜的健康监护方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673340A (zh) * | 2009-08-13 | 2010-03-17 | 重庆大学 | 综合多方向多尺度与bp神经网络的人耳识别方法 |
CN108596193A (zh) * | 2018-04-27 | 2018-09-28 | 东南大学 | 一种搭建针对人耳识别的深度学习网络结构的方法及系统 |
CN108960076A (zh) * | 2018-06-08 | 2018-12-07 | 东南大学 | 基于卷积神经网络的耳朵识别与跟踪方法 |
CN109871755A (zh) * | 2019-01-09 | 2019-06-11 | 中国平安人寿保险股份有限公司 | 一种基于人脸识别的身份验证方法 |
-
2019
- 2019-11-08 CN CN201911085420.3A patent/CN111062248A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673340A (zh) * | 2009-08-13 | 2010-03-17 | 重庆大学 | 综合多方向多尺度与bp神经网络的人耳识别方法 |
CN108596193A (zh) * | 2018-04-27 | 2018-09-28 | 东南大学 | 一种搭建针对人耳识别的深度学习网络结构的方法及系统 |
CN108960076A (zh) * | 2018-06-08 | 2018-12-07 | 东南大学 | 基于卷积神经网络的耳朵识别与跟踪方法 |
CN109871755A (zh) * | 2019-01-09 | 2019-06-11 | 中国平安人寿保险股份有限公司 | 一种基于人脸识别的身份验证方法 |
Non-Patent Citations (1)
Title |
---|
张杰: "基于小样本学习的人耳识别的研究和实现" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797754A (zh) * | 2020-06-30 | 2020-10-20 | 上海掌门科技有限公司 | 图像检测的方法、装置、电子设备及介质 |
CN112580462A (zh) * | 2020-12-11 | 2021-03-30 | 深圳市豪恩声学股份有限公司 | 一种特征点选择方法、终端和存储介质 |
CN113011277A (zh) * | 2021-02-25 | 2021-06-22 | 日立楼宇技术(广州)有限公司 | 基于人脸识别的数据处理方法、装置、设备及介质 |
CN113011277B (zh) * | 2021-02-25 | 2023-11-21 | 日立楼宇技术(广州)有限公司 | 基于人脸识别的数据处理方法、装置、设备及介质 |
CN113360873A (zh) * | 2021-06-02 | 2021-09-07 | 北京声智科技有限公司 | 一种耳机持有者的身份认证方法及装置 |
CN116913519A (zh) * | 2023-07-24 | 2023-10-20 | 东莞莱姆森科技建材有限公司 | 基于智能镜的健康监护方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034102B (zh) | 人脸活体检测方法、装置、设备及存储介质 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN109948586B (zh) | 人脸验证的方法、装置、设备及存储介质 | |
CN111461097A (zh) | 识别图像信息的方法、装置、电子设备及介质 | |
CN110933468A (zh) | 播放方法、装置、电子设备及介质 | |
CN110570460A (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN111104980A (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN112578971A (zh) | 页面内容展示方法、装置、计算机设备及存储介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN111354378B (zh) | 语音端点检测方法、装置、设备及计算机存储介质 | |
CN110675473B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN111128115B (zh) | 信息验证方法、装置、电子设备及存储介质 | |
CN111598896A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN111327819A (zh) | 选择图像的方法、装置、电子设备及介质 | |
CN110659895A (zh) | 支付方法、装置、电子设备及介质 | |
CN110853124A (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN111931712B (zh) | 人脸识别方法、装置、抓拍机及系统 | |
CN112860046B (zh) | 选择运行模式的方法、装置、电子设备及介质 | |
CN110232417B (zh) | 图像识别方法、装置、计算机设备及计算机可读存储介质 | |
CN112819103A (zh) | 基于图神经网络的特征识别方法、装置、存储介质及终端 | |
CN111341317A (zh) | 唤醒音频数据的评价方法、装置、电子设备及介质 | |
CN111797754B (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN112214115A (zh) | 输入方式的识别方法、装置、电子设备及存储介质 | |
CN111210001A (zh) | 调节座椅的方法、装置、电子设备及介质 | |
CN111597468A (zh) | 社交内容的生成方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200424 |