CN101493887A - 基于半监督学习和哈希索引的眉毛图像分割方法 - Google Patents
基于半监督学习和哈希索引的眉毛图像分割方法 Download PDFInfo
- Publication number
- CN101493887A CN101493887A CNA2009100795188A CN200910079518A CN101493887A CN 101493887 A CN101493887 A CN 101493887A CN A2009100795188 A CNA2009100795188 A CN A2009100795188A CN 200910079518 A CN200910079518 A CN 200910079518A CN 101493887 A CN101493887 A CN 101493887A
- Authority
- CN
- China
- Prior art keywords
- eyebrow
- pixels
- hash
- block
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000004709 eyebrow Anatomy 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000003709 image segmentation Methods 0.000 title abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 74
- 239000011159 matrix material Substances 0.000 claims abstract description 25
- 238000005516 engineering process Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims description 11
- 239000002131 composite material Substances 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims 3
- 239000000203 mixture Substances 0.000 claims 1
- 238000012856 packing Methods 0.000 claims 1
- 230000035945 sensitivity Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 description 5
- 210000004209 hair Anatomy 0.000 description 4
- 238000009827 uniform distribution Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于半监督学习和哈希索引的眉毛图像分割技术,依次包括以下步骤:接受用户的原始眉毛图像,将眉毛图像划分成大小相等的小像素块,并通过计算机在眉毛区域内外分别选定一些像素块赋予不同的标号;将每个像素块均表示成向量的形式,并通过局部敏感的哈希方法计算出这些像素块之间的相似度,得到归一化的相似距离矩阵;利用基于图的半监督学习技术为没有标号的像素块打上标号,并从中提取出标号为眉毛的像素块,完成眉毛的提取工作。本发明因为利用局部敏感的哈希方法求解基于图的半监督学习技术中的相似距离矩阵,大大地提高了运用半监督技术进行图像分割的速度。
Description
技术领域
本发明涉及一种基于半监督学习技术和局部敏感的哈希索引方法相结合的从原始眉毛图像中提取出纯眉毛图像的方法,属于电子信息技术领域。
背景技术
在现代社会中,随着计算机网络技术的高速发展和全球范围内电子商务的迅速兴起,信息安全显示出前所未有的重要性,而生物特征识别作为信息安全的一个重要方面开始越来越受到人们的重视。目前人们研究和使用的生物特征识别技术主要有:人脸识别、虹膜识别、指纹识别、手形识别、掌纹识别、人耳识别、签名识别、声音识别、步态识别、等等。眉毛作为人脸上的一个重要特征,具有作为识别特征的普遍性、唯一性、稳定性和可采集性。事实上,与人脸图像相比,眉毛图像不仅具有轮廓鲜明、结构简单和容易选取的优点,而且受光照和表情的影响较小,具有更好的稳定性和抗干扰性;与虹膜图像相比,眉毛图像则又具有易于采集和使用方便的优点。此外,人类的眉毛具有多种多样的形状,无固定结构,具有很好的身份特异性,因此能够被有效地应用于身份鉴别。
应用眉毛进行识别,一个重要的步骤就是眉毛图像的分割。图像分割历来是图像分析和模式识别的首要问题,也是图像处理的经典难题之一,它是图像分析和模式识别系统的重要组成部分,并决定图像的最终分析质量和模式识别的判别结果。目前,虽然有众多的自动分割图像的方法,包括:阈值法,聚类法,边缘检测等,但这些方法的分割结果却经常不是人们所期望的。与这些自动的分割方法相比,半自动的图像分隔技术更为实用,因此也受到了更多的关注。半自动或者交互的图像分割指通过借助人的帮助完成图像分割,代表性的工作包括:图切,随机漫步搜索,Lazy Snapping等。本质上,这些工作都可以纳入半监督学习分类的框架里面。
半监督学习技术是介于有监督学习和无监督学习之间的一种学习技术,其中给定的数据只有部分标注了类别。比如,χ={x1,…,xl,xl+1,…,xn}是一个给定的点集,χ中前l个点都有类别标号{y1,...,yl},其中yi∈t={1,...,c}(i=1,...,l),其余点没有标号,半监督学习的目标就是以某种最优准则来标注χ中没有标号的点。到目前为止,半监督学习技术有以下几种主要的实现方法:产生式模型(generative model),自训练(self-training),联合训练(Co-training),图方法(graph based methods)等。本发明的目的在于提供一种基于图的半监督学习技术的眉毛图像分割技术。一般地,眉毛图像的分割由于受到头发、光照、姿势及表情的影响比之普通的图像分割更为困难。自动分割的方法几乎不可能正确的提取出眉毛图像,其他的眉毛图像分割方法比如:主成分分析和模板匹配,虽然能基本定位,但是也都不能准确标定眉毛的边界。
发明内容
本发明的目的是提供一种基于半监督学习技术和局部敏感的哈希方法,相结合的眉毛图像分割方法。
本发明是采用以下技术手段实现的:
本发明依次包括以下步骤:
步骤1;接受用户的原始眉毛图像,并将眉毛图像划分成大小相等的小像素块s×s,s的值可根据速度和精度要求选择s=2,3,4,...,10.
步骤2;通过计算机从原始眉毛图像中选定一些眉毛点和非眉毛点,所有的像素块按照所包含的眉毛点与非眉毛点的多少给予相应的标号:如果眉毛点数大于非眉毛点数则该像素块的标号为1,反之为0;如果像素块中不包含任何选定的眉毛点和非眉毛点,则该像素块没有标号;
步骤3;所有的像素块均用向量表示,比如可以用五维向量(r,g,b,x,y)表示,其中r,g,b表示该像素块的RGB值的平均值,x,y表示该像素块的中心相对于左上角的坐标值。记所有的像素块对应的向量组成的集合为X,有标号的向量子集为L。通过局部敏感的哈希方法计算像素块之间的相似度,生成相似距离矩阵W,并归一化该相似距离矩阵为S,具体步骤如下:
步骤3.1;令d为像素块的维数,R为分割阈值(欧式距离小于R的像素块将于较大的概率散列到哈希表中的同一位置),1-δ为希望成功做到距离小于R的像素块散列到哈希表中的同一位置的概率,w为哈希表的分割尺度,比如0≤h1≤4,0≤h2≤4,则认为h1,h2具有相同的哈希值;
步骤3.2;估算参数k和l,使得查询时间最少;
步骤3.2.1;通过计算机,从X中分别任意选出固定数目的向量,组成新的集合Xt和Xq;
步骤3.2.2;选定k为某固定常数,比如k=16,l取为logδ/log(1-p1 k)上取整,其中
步骤3.2.3;通过计算机生成l个k维复合向量ci=(cil,ci2,...,cik)(1≤i≤l),其中cij(1≤i≤l,1≤j≤k)为d维向量,且cijz(1≤i≤l,1≤j≤k,1≤z≤d)均为取自标准正态分布的实数;记这l个k维复合向量组成的集合为C;再通过计算机生成l个实数bi(1≤i≤l),其中bi(1≤i≤l)均取自均匀分布U(0,w);
步骤3.2.4;对Xt中的每一个向量xt令:
pij=(Cij·xt+bi)/w(1≤i≤l,1≤j≤k)
其中·表示向量的点积;令向量pi=(pi1,pi2,...,pik)(1≤i≤l),则xt的l个哈希键值可表示为
其中表示上取整函数,au(1≤u≤k)取自均匀分布U(0,hashsize),hashsize为哈希表H的长度,一般取为Xt的向量个数;哈希表H由每个哈希值到对应哈希桶的索引构成,而每个哈希桶则由Xt中具有相同哈希值的向量构成;
步骤3.2.5;按照xt的l个哈希键值,依次将xt装入H中该哈希键值对应的哈希桶中;
步骤3.2.6;对Xq中的每一个向量xq:执行步骤3.2.4计算xq的l个哈希键值,并用Uq表示所需要的时间;根据xq的l个哈希键值,查找哈希表H中对应的哈希桶Bq,用Tq表示所有Bq的向量个数之和,用Vq表示总的查找时间;令uq=Uq/kl,令vq=Vq/l;计算所有Bq的每个向量和xq之间的欧氏距离,所花费的时间记为Gq;令gq=Gq/Tq;
步骤3.2.7;令 其中n为集合Xq中的向量个数;
步骤3.2.8;利用u、v和g的值,估算新的k值,满足条件:
其中l为logδ/log(1-p1 k)的上取整值, (dist为xt与xq之间的欧氏距离);
步骤3.2.9;根据新的k值,计算新的l为logδ/log(1-p1 k)的上取整值;
步骤3.3;令Xt为X,执行步骤3.2.3至步骤3.2.5重新生成哈希表H;
步骤3.4;遍历整个哈希表H,对于X中任意两个向量xi与xj,若具有相同的哈希键值,则定义xi与xj之间的相似度为:
wij=exp(-‖xi-xj‖2/2σ2)
其中σ为常数,否则定义ti与tj之间的相似度为0,由此得到相似距离矩阵W;
步骤3.5;归一化相似距离矩阵W,令
其中D为斜对角矩阵,且
步骤4,依据步骤3得到的归一化相似矩阵S,采用基于图的半监督学习技术进行迭代计算,为没有标号的像素块打上标号,具体步骤如下:
步骤4.1;构造初始状态矩阵Yn×2,其中n为X所含向量的总数,包括有标号的和无标号的向量,若xi∈L为已标号向量中的眉毛块,则Yi1=1,Yi2=0;若xi∈L是已标号向量中的非眉毛块,则Yi2=1,Yi1=0;否则,Yi1=Yi2=0;
步骤4.2;迭代计算F(t+1)=αSF(t)+(1-α)Y直到收敛,其中F(0)=Y,α是个介于0到1之间的常数;
步骤4.3;假设F*为迭代的结果,则无标号向量xi的标号取决于Fi *中最大的分量。即:若Fi1 *>Fi2 *,则该向量对应的像素块属于眉毛区域,令像素块的标号为1;否则,该向量对应的像素块属于非眉毛区域,令该像素块的标号为0。
步骤5;根据迭代的结果,从原始眉毛图像中提取出与原始标号为1的像素块相连通且迭代结果为眉毛的像素块,完成眉毛的提取工作;
步骤5.1;令集合A为空集;任意取出一个眉毛像素块对应的向量o∈L,将o加入集合A,并将o的标号改为2;
步骤5.2;从集合A中任意取出向量a,令A=A-{a};以a对应的像素块为起点,在八个领域中查找标号为1的所有像素块加入集合A,并将这些像素块的标号改为2;
步骤5.3;执行步骤5.2直到集合A为空;
步骤5.4;把标号为2的像素块连成眉毛区域,并通过计算机把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为眉毛区域外部颜色的均值。
本发明的基本原理在于认为某个像素块是否属于眉毛区域可以通过它的近邻们判断,利用迭代的方法,把每个像素块的标号信息(是否属于眉毛区域)扩展到它的近邻直至达到一个全局稳态。
本发明与现有技术相比,具有以下明显的优势和有益效果:
本发明由于利用了先验信息,分割效果要比自动分割的方法具有更好的效果,此外因为采用了局部敏感的哈希方法计算基于图的半监督方法中的相似距离矩阵,所以具有比较快的分割速度。
实施例的实验效果明显,说明本发明可以在实际应用中进行眉毛图像的分割。在一个具体的实验中,选择5个人的40张原始眉毛图像进行实验,本发明都能正确的将眉毛从原始图像中的背景中切割出来。这么好的分割效果,是在室内一般自然光照条件下取得的,且对图像的成像质量并没有非常高的要求。所以,可以认为本发明具有非常高的实用价值。事实上,与自动分割图像的方法相比,因为头发,眼睫毛与眉毛同属毛发,自动分割的方法几乎不可能把眉毛从背景中完全正确的分离出来。其他的人机交互的图像分割方法中与本发明比较相似的包括微软的Lazy Snapping以及Fei Wang等人在CVPR’06上提出的应用LNP(Linear Neighborhood Propagation)进行图像分割的方法。这两个方法与本发明都是通过在原始图像中画上一些线或点标注清楚背景和前景来完成图像分割。与Lazy Snapping相比,应用Lazy Snapping进行眉毛图像分割,需要对眼睫毛,头发等与眉毛颜色相近的地方进行特别的标注,而本发明并不需要;此外,因为眉毛区域的边缘比较细微,复杂,Lazy Snapping在某些边界的标定上没有本发明准确。与LNP相比,LNP运行比较缓慢,而本发明因为采用了局部敏感的哈希方法求取相似距离矩阵,在运算速度上有大幅度的提高。
本发明在许多领域中具有重要的应用价值。比如,在眉毛识别中,可以利用本发明进行前期预处理提取出纯眉毛图像,建立眉毛数据库;又比如,可以作为某些图像处理软件的插件,只需要简单的在原图像上画上几笔,就能把需要的对象从背景中提取出来。
附图说明
图1为本发明流程示意图;
图2为原始眉毛图像的示意图;
图3为在原始眉毛图像上进行标注的示意图;
图4为纯眉毛图像的示意图;
图5为原始眉毛图像的效果图;
图6为在原始眉毛图像上进行标注的效果图;
图7为纯眉毛图像的效果图。
具体实施方式
根据图1配置本发明的实施例。本发明在实施时需要数码相机或数码摄像机之类的数字图像采集设备和具有一般图像处理能力的普通台式微机。具体实方案为:
步骤1;采用图像采集卡CG300、CP240松下摄像机和75mm高精度日本进口镜头组装成数字图像采集设备,微机选为DELL GX620型计算机;在一般的光照条件下采集原始眉毛图像,并将原始眉毛图像装入计算机中;通过计算机把图像处理成RGB彩色图像,并将眉毛图像划分成大小相等的一些小像素块,小像素块的大小为7×7;
步骤2;在计算机的显示器上显示出原始眉毛图像,如图2所示,并在图像上通过鼠标注上一些眉毛区域中的点和一些非眉毛区域中的点,图3是一个对图像中的点进行标注的例子,其中外围的黑线(彩色图像中的红线)表示非眉毛区域,眉毛中的白线(彩色图像中的绿线)表示眉毛区域;所有的像素块按照所包含的眉毛点与非眉毛点的多少给予相应的标号:如果眉毛点数大于非眉毛点数则该像素块的标号为1,反之为0;如果像素块中不包含任何选定的眉毛点和非眉毛点,则该像素块没有标号。
步骤3;所有的像素块均用五维向量(r,g,b,x,y)表示,其中r,g,b表示该像素块的RGB值的平均值,x,y表示该像素块的中心相对于左上角的坐标值;记所有的像素块对应的五维向量组成的集合为X,有标号的向量组成集合L;下面通过局部敏感的哈希方法计算像素块之间的相似度,生成相似距离矩阵W,并归一化该相似距离矩阵为S,具体步骤如下:
步骤3.1;令d=5,w=4,δ=0.3,R=20;
步骤3.2;估算参数k和l;
步骤3.2.1;通过计算机,从X中任意选出1000和100个向量,分别组成新的集合Xt和Xq;
步骤3.2.2;取定k=16,l为logδ/log(1-p1 k)的上取整值,其中
步骤3.2.3;通过计算机生成l个k维复合向量ci=(ci1,ci2,...,cik)(1≤i≤l),其中cij(1≤i≤l,1≤j≤k)为d维向量,且cijz(1≤i≤l,1≤j≤k,1≤z≤d)均为取自标准正态分布的实数;记这l个k维复合向量组成的集合为C;通过计算机生成l个实数bi(1≤i≤l),bi(1≤i≤l)均取自均匀分布U(0,w);
步骤3.2.4;对Xt中的每一个向量xt令:
pij=(Cij·xt+bi)/w(1≤i≤l,1≤j≤k)
其中·表示向量的点积;令向量pi=(pi1,pi2,...,pik)(1≤i≤l),则xt的l个哈希键值可表示为
其中表示上取整函数,au(1≤u≤k)取自均匀分布U(0,hashsize),hashsize为哈希表H的长度,一般取为Xt的向量个数;哈希表H由每个哈希值到对应哈希桶的索引构成,而每个哈希桶则由Xt中具有相同哈希值的向量构成;
步骤3.2.5;按照xt的l个哈希键值,依次将xt装入H中该哈希键值对应的哈希桶中;
步骤3.2.6;对Xq中的每一个向量xq:执行步骤3.2.4计算xq的l个哈希键值,并用Uq表示所需要的时间;根据xq的l个哈希键值,查找哈希表H中对应的哈希桶Bq,用Tq表示所有Bq的向量个数之和,用Vq表示总的查找时间;令uq=Uq/kl,令vq=Vq/l;计算所有Bq的每个向量和xq之间的欧氏距离,所花费的时间记为Gq;令gq=Gq/Tq;
步骤3.2.7;令 其中n为集合Xq中的向量个数;
步骤3.2.8;利用u、v和g的值,估算新的k值,满足条件:
其中l为logδ/log(1-p1 k)的上取整值, (dist为xt与xq之间的欧氏距离);
步骤3.2.9;根据新的k值,计算新的l为logδ/log(1-p1 k)的上取整值;
步骤3.3;令Xt为X,执行步骤(3.2.3)至步骤(3.2.5)重新生成哈希表H;
步骤3.4;对于X中任意两个向量xi与xj,若具有相同的哈希键值,则定义xi与xj之间的相似度为:
wij=exp(-||xi-xj||2/2σ2)
其中σ=100为常数,否则定义ti与tj之间的相似度为0,由此得到相似距离矩阵W。归一化相似距离矩阵W,
步骤3.5;令
其中D为斜对角矩阵,且
步骤4;依据步骤3得到的归一化相似矩阵S,采用基于图的半监督学习技术进行迭代计算,为没有标号的像素块打上标号,具体步骤如下:
步骤4.1;构造基于图的半监督学习技术中的初始状态矩阵Yn×2,其中n为X所含向量的总数,包括有标号的和无标号的向量;若xi∈L为已标号向量中的眉毛块,则Yi1=1,Yi2=0;若xi∈L是已标号向量中的非眉毛块,则Yi2=1,Yi1=0;否则,Yi1=Yi2=0;
步骤4.2;迭代计算F(t+1)=αSF(t)+(1-α)Y直到收敛,其中F(0)=Y,α=0.9;
步骤4.3;假设F*为迭代的结果,则无标号向量xi的标号取决于Fi *中最大的分量。即:若Fi1 *>Fi2 *,则该向量对应的像素块属于眉毛区域,令像素块的标号为1;否则,该向量对应的像素块属于非眉毛区域,令该像素块的标号为0;
步骤5;根据迭代的结果,从原始眉毛图像中提取出与原始标号为1的像素块相连通且迭代结果为眉毛的像素块,完成眉毛的提取工作:
步骤5.1;令集合A为空集;任意取出一个眉毛像素块对应的向量o∈L,将o加入集合A,并将o的标号改为2;
步骤5.2;从集合A中任意取出向量a,令A=A-{a};以a对应的像素块为起点,在八个领域中查找标号为1的所有像素块加入集合A,并将这些像素块的标号改为2;
步骤5.3;执行步骤5.2直到集合A为空;
步骤5.4;把标号为2的像素块连成眉毛区域,并通过计算机把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为眉毛区域外部颜色的均值。
最后应说明的是:以上实施例仅用以说明本发明而并非限制本发明所描述的技术方案;因此,尽管本说明书参照上述的各个实施例对本发明已进行了详细的说明,但是,本领域的普通技术人员应当理解,仍然可以对本发明进行修改或等同替换;而一切不脱离发明的精神和范围的技术方案及其改进,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1、一种基于半监督学习和哈希索引的眉毛提取方法,其特征在于,依次包括以下步骤:
步骤1;接受用户的原始眉毛图像,并将眉毛图像划分成大小相等的小像素块s×s,s的值可根据速度和精度要求选择s=2,3,4,...,10.
步骤2;通过计算机从原始眉毛图像中选定眉毛点和非眉毛点,所有的像素块按照所包含的眉毛点与非眉毛点的多少给予相应的标号:如果眉毛点数大于非眉毛点数则该像素块的标号为1,反之为0;如果像素块中不包含任何选定的眉毛点和非眉毛点,则该像素块没有标号;
步骤3;所有的像素块均用向量表示,比如可以用五维向量(r,g,b,x,y)表示,其中r,g,b表示该像素块的RGB对应分量的平均值,x,y表示该像素块的中心相对于左上角的坐标值;记所有像素块对应的向量组成的集合为X,其中有标号的子集为L;通过局部敏感的哈希方法计算像素块之间的相似度,生成相似距离矩阵W,并归一化该相似距离矩阵为S。
2、根据权利要求1所述的基于半监督学习和哈希索引的眉毛提取方法,其特征在于:所述的步骤3包括:
步骤3.1;令d为像素块的维数,R为分割阈值(欧式距离小于R的像素块将于较大的概率散列到哈希表中的同一位置),1-δ为希望成功做到距离小于R的像素块散列到哈希表中的同一位置的概率,w为哈希表的分割尺度,比如0≤h1≤4,0≤h2≤4,则认为h1,h2具有相同的哈希值;
步骤3.2;估算参数k和l,使哈希表的查询时间最少。
3、根据权利要求2所述的基于半监督学习和哈希索引的眉毛提取方法,其特征在于:所述的步骤3.2包括:
步骤3.2.1;通过计算机,从X中分别任意选出固定数目的向量,组成新的集合Xt和Xq;
步骤3.2.2;选定k为某固定常数,比如k=16,l为logδ/log(1-p1 k)的上取整值,其中
步骤3.2.3;通过计算机生成l个k维复合向量ci=(ci1,ci2,...,cik)(1≤i≤l),其中cij(1≤i≤l,1≤j≤k)为d维向量,且cijz(1≤i≤l,1≤j≤k,1≤z≤d)均为取自标准正态分布的实数;记这l个k维复合向量组成的集合为C;通过计算机生成l个实数bi(1≤i≤l),bi(1≤i≤l)均取自均匀分布U(0,w);
步骤3.2.4;对Xt中的每一个向量xt令:
pij=(Cij·xt+bi)/w(1≤i≤l,1≤j≤k)
其中·表示向量的点积;令向量pi=(pi1,pi2,...,pik)(1≤i≤l),则xt的l个哈希键值可表示为
其中“”表示上取整函数,au(1≤u≤k)取自均匀分布U(0,hashsize),hashsize为哈希表H的长度,一般取为Xt的向量个数;哈希表H由每个哈希值到对应哈希桶的索引构成,而每个哈希桶则由Xt中具有相同哈希值的向量构成;
步骤3.2.5;按照xt的l个哈希键值,依次将xt装入H中该哈希键值对应的哈希桶中;
步骤3.2.6;对Xq中的每一个向量xq:执行步骤3.2.4计算xq的l个哈希键值,并用Uq表示所需要的时间;根据xq的l个哈希键值,查找哈希表H中对应的哈希桶Bq,用Tq表示所有Bq的向量个数之和,用Vq表示总的查找时间;令uq=Uq/kl,令vq=Vq/l;计算所有Bq的每个向量和xq之间的欧氏距离,所花费的时间记为Gq;令gq=Gq/Tq;
步骤3.2.7;令 其中n为集合Xq中的向量个数;
步骤3.2.8;利用u、v和g的值,估算新的k值,满足条件:
其中l为logδ/log(1-p1 k)的上取整值, (dist为xt与xq之间的欧氏距离);
步骤3.2.9;根据新的k值,计算新的l为logδ/log(1-p1 k)的上取整值;
步骤3.3;令Xt为X,执行步骤3.2.3至步骤3.2.5重新生成哈希表H;
步骤3.4;遍历整个哈希表H,对于X中任意两个向量xi与xj,若具有相同的哈希键值,则定义xi与xj之间的相似度为:
wij=exp(-‖xi-xj‖2/2σ2)
其中σ为常数,否则定义ti与tj之间的相似度为0,由此得到相似距离矩阵W;
步骤3.5;归一化相似距离矩阵W,令
其中D为斜对角矩阵,且
4、根据权利要求1所述的基于半监督学习和哈希索引的眉毛提取方法,其特征在于:所述得到的归一化相似矩阵S,采用基于图的半监督学习技术进行迭代计算,为没有标号的像素块打上标号,具体步骤如下:
步骤4.1;构造初始状态矩阵Yn×2,其中n为X所含向量的总数,包括有标号的和无标号的向量,若xi∈L为已标号向量中的眉毛块,则Yi1=1,Yi2=0;若xi∈L是已标号向量中的非眉毛块,则Yi2=1,Yi1=0;否则,Yi1=Yi2=0;
步骤4.2;迭代计算F(t+1)=αSF(t)+(1-α)Y直到收敛,其中F(0)=Y,α是个介于0到1之间的常数;
步骤4.3;假设F*为迭代的结果,则无标号向量xi的标号取决于Fi *中最大的分量。即:若Fi1 *>Fi2 *,则该向量对应的像素块属于眉毛区域,令像素块的标号为1;否则,该向量对应的像素块属于非眉毛区域,令该像素块的标号为0。
步骤5;根据迭代的结果,从原始眉毛图像中提取出与原始标号为1的像素块相连通且迭代结果为眉毛的像素块,完成眉毛的提取工作;
5、根据权利要求1所述的基于半监督学习和哈希索引的眉毛提取方法,其特征在于:所述步骤5包括:
步骤5.1;令集合A为空集;任意取出一个眉毛像素块对应的向量o∈L,将o加入集合A,并将o的标号改为2;
步骤5.2;从集合A中任意取出向量a,令A=A-{a};以a对应的像素块为起点,在八个领域中查找标号为1的所有像素块加入集合A,并将这些像素块的标号改为2;
步骤5.3;执行步骤5.2直到集合A为空;
步骤5.4;把标号为2的像素块连成眉毛区域,并通过计算机把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为眉毛区域外部颜色的均值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100795188A CN101493887B (zh) | 2009-03-06 | 2009-03-06 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100795188A CN101493887B (zh) | 2009-03-06 | 2009-03-06 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101493887A true CN101493887A (zh) | 2009-07-29 |
CN101493887B CN101493887B (zh) | 2012-03-28 |
Family
ID=40924479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100795188A Expired - Fee Related CN101493887B (zh) | 2009-03-06 | 2009-03-06 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101493887B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901353A (zh) * | 2010-07-23 | 2010-12-01 | 北京工业大学 | 基于子区域匹配的眉毛图像识别方法 |
CN102970462A (zh) * | 2011-08-31 | 2013-03-13 | 株式会社东芝 | 图像处理装置和图像处理方法 |
CN102982320A (zh) * | 2012-12-05 | 2013-03-20 | 山东神思电子技术股份有限公司 | 一种提取眉毛轮廓的方法 |
CN103400155A (zh) * | 2013-06-28 | 2013-11-20 | 西安交通大学 | 基于图半监督学习的色情视频检测方法 |
CN103942779A (zh) * | 2014-03-27 | 2014-07-23 | 南京邮电大学 | 一种基于图论和半监督学习相结合的图像分割方法 |
CN109697746A (zh) * | 2018-11-26 | 2019-04-30 | 深圳艺达文化传媒有限公司 | 自拍视频卡通头像叠加方法及相关产品 |
CN110309143A (zh) * | 2018-03-21 | 2019-10-08 | 华为技术有限公司 | 数据相似度确定方法、装置及处理设备 |
CN110322445A (zh) * | 2019-06-12 | 2019-10-11 | 浙江大学 | 一种基于最大化预测和标签间相关性损失函数的语义分割方法 |
CN111914604A (zh) * | 2019-05-10 | 2020-11-10 | 丽宝大数据股份有限公司 | 将头发颜色套用至眉毛的扩充实境显示方法 |
CN113095148A (zh) * | 2021-03-16 | 2021-07-09 | 深圳市雄帝科技股份有限公司 | 眉毛区域被遮挡的检测方法、系统、拍照设备和存储介质 |
CN113971804A (zh) * | 2020-07-24 | 2022-01-25 | 中国移动通信集团浙江有限公司 | 签名伪造的检测装置、方法、计算设备及存储介质 |
CN115082709A (zh) * | 2022-07-21 | 2022-09-20 | 济南星睿信息技术有限公司 | 遥感大数据处理方法、系统及云平台 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100365645C (zh) * | 2005-02-24 | 2008-01-30 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
CN1645406A (zh) * | 2005-02-24 | 2005-07-27 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
JP4533849B2 (ja) * | 2006-01-16 | 2010-09-01 | 株式会社東芝 | 画像処理装置及び画像処理プログラム |
-
2009
- 2009-03-06 CN CN2009100795188A patent/CN101493887B/zh not_active Expired - Fee Related
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901353A (zh) * | 2010-07-23 | 2010-12-01 | 北京工业大学 | 基于子区域匹配的眉毛图像识别方法 |
CN101901353B (zh) * | 2010-07-23 | 2012-10-31 | 北京工业大学 | 基于子区域匹配的眉毛图像识别方法 |
CN102970462A (zh) * | 2011-08-31 | 2013-03-13 | 株式会社东芝 | 图像处理装置和图像处理方法 |
CN102982320A (zh) * | 2012-12-05 | 2013-03-20 | 山东神思电子技术股份有限公司 | 一种提取眉毛轮廓的方法 |
CN102982320B (zh) * | 2012-12-05 | 2015-07-08 | 山东神思电子技术股份有限公司 | 一种提取眉毛轮廓的方法 |
CN103400155A (zh) * | 2013-06-28 | 2013-11-20 | 西安交通大学 | 基于图半监督学习的色情视频检测方法 |
CN103942779A (zh) * | 2014-03-27 | 2014-07-23 | 南京邮电大学 | 一种基于图论和半监督学习相结合的图像分割方法 |
CN110309143A (zh) * | 2018-03-21 | 2019-10-08 | 华为技术有限公司 | 数据相似度确定方法、装置及处理设备 |
CN110309143B (zh) * | 2018-03-21 | 2021-10-22 | 华为技术有限公司 | 数据相似度确定方法、装置及处理设备 |
CN109697746A (zh) * | 2018-11-26 | 2019-04-30 | 深圳艺达文化传媒有限公司 | 自拍视频卡通头像叠加方法及相关产品 |
CN111914604A (zh) * | 2019-05-10 | 2020-11-10 | 丽宝大数据股份有限公司 | 将头发颜色套用至眉毛的扩充实境显示方法 |
CN110322445A (zh) * | 2019-06-12 | 2019-10-11 | 浙江大学 | 一种基于最大化预测和标签间相关性损失函数的语义分割方法 |
CN113971804A (zh) * | 2020-07-24 | 2022-01-25 | 中国移动通信集团浙江有限公司 | 签名伪造的检测装置、方法、计算设备及存储介质 |
CN113095148A (zh) * | 2021-03-16 | 2021-07-09 | 深圳市雄帝科技股份有限公司 | 眉毛区域被遮挡的检测方法、系统、拍照设备和存储介质 |
CN113095148B (zh) * | 2021-03-16 | 2022-09-06 | 深圳市雄帝科技股份有限公司 | 眉毛区域被遮挡的检测方法、系统、拍照设备和存储介质 |
CN115082709A (zh) * | 2022-07-21 | 2022-09-20 | 济南星睿信息技术有限公司 | 遥感大数据处理方法、系统及云平台 |
CN115082709B (zh) * | 2022-07-21 | 2023-07-07 | 陕西合友网络科技有限公司 | 遥感大数据处理方法、系统及云平台 |
Also Published As
Publication number | Publication date |
---|---|
CN101493887B (zh) | 2012-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101493887B (zh) | 基于半监督学习和哈希索引的眉毛图像分割方法 | |
CN108664996B (zh) | 一种基于深度学习的古文字识别方法及系统 | |
Ge et al. | Detecting masked faces in the wild with lle-cnns | |
Lin et al. | Discriminatively trained and-or graph models for object shape detection | |
WO2019134327A1 (zh) | 一种基于边缘检测与sift的人脸表情识别特征提取方法 | |
CN107944020A (zh) | 人脸图像查找方法及装置、计算机装置和存储介质 | |
CN102436636B (zh) | 自动分割头发的方法及其系统 | |
WO2021082168A1 (zh) | 一种场景图像中特定目标对象的匹配方法 | |
CN114359998B (zh) | 一种人脸口罩佩戴状态下的识别方法 | |
Emeršič et al. | Pixel-wise ear detection with convolutional encoder-decoder networks | |
CN106096517A (zh) | 一种基于低秩矩阵与特征脸的人脸识别方法 | |
Angadi et al. | Face recognition through symbolic modeling of face graphs and texture | |
CN106022223A (zh) | 一种高维局部二值模式人脸识别方法及系统 | |
Paul et al. | Extraction of facial feature points using cumulative histogram | |
Wang et al. | S 3 D: Scalable pedestrian detection via score scale surface discrimination | |
Alsawwaf et al. | In your face: Person identification through ratios and distances between facial features | |
CN107315984B (zh) | 一种行人检索的方法及装置 | |
CN108062521A (zh) | 基于卷积神经网络的人脸检测方法、装置、终端及介质 | |
Shankar et al. | Frames extracted from video streaming to recognition of face: LBPH, FF and CNN | |
Yang et al. | The performance analysis of facial expression recognition system using local regions and features | |
Youlian et al. | Face detection method using template feature and skin color feature in rgb color space | |
Muthukumar et al. | Vision based hand gesture recognition for Indian sign languages using local binary patterns with support vector machine classifier | |
Fan et al. | Face recognition based on full convolutional neural network based on transfer learning model | |
CN115272689A (zh) | 基于视图的空间形状识别方法、装置、设备和存储介质 | |
Jadhav et al. | Introducing Celebrities in an Images using HAAR Cascade algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120328 Termination date: 20140306 |