CN105069083B - 关联用户的确定方法及装置 - Google Patents
关联用户的确定方法及装置 Download PDFInfo
- Publication number
- CN105069083B CN105069083B CN201510463635.XA CN201510463635A CN105069083B CN 105069083 B CN105069083 B CN 105069083B CN 201510463635 A CN201510463635 A CN 201510463635A CN 105069083 B CN105069083 B CN 105069083B
- Authority
- CN
- China
- Prior art keywords
- user
- association user
- face
- gender
- age
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims description 30
- 238000005286 illumination Methods 0.000 claims description 26
- 238000012216 screening Methods 0.000 claims description 10
- 238000012217 deletion Methods 0.000 claims description 7
- 230000037430 deletion Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 7
- 230000001568 sexual effect Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 claims 6
- 230000008569 process Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 230000018199 S phase Effects 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000012092 media component Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开是关于一种关联用户的确定方法及装置,其中,关联用户的确定方法包括:获取面孔相册,面孔相册包含多个用户的面孔集合;确定面孔相册中的目标用户,从面孔相册中筛选出目标用户的至少一个候选关联用户;获取候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,并为关联用户设置标签信息。本公开实施例,可以确定目标用户的关联用户,并为关联用户设置标签信息,实现过程快速、简单,不需要用户进行繁琐的操作,为用户节省了大量的时间。
Description
技术领域
本公开涉及图像技术处理领域,尤其涉及一种关联用户的确定方法及装置。
背景技术
随着移动终端技术的快速发展,各种移动终端例如手机已非常普及,并且,功能日益强大。例如,用户可以利用手机拍摄照片,并可以和亲朋好友分享照片。
随着照片数量的日益增多,当用户希望创建家庭相册等操作时,需要人工找到某个或某些用户的关联用户,然后根据关联用户执行后续创建家庭相册等操作。例如,目前只有宝宝的相册,需要从海量照片中找到宝宝的关联用户即他的爸爸和妈妈以创建家庭相册。
但是,人工确定关联用户的操作比较繁琐,浪费用户大量的时间。
发明内容
本公开实施例提供一种关联用户的确定方法及装置,用以解决目前确定关联用户的操作比较繁琐的问题。
根据本公开实施例的第一方面,提供一种关联用户的确定方法,包括:
获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息。
在一实施例中,所述从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户,包括:
获取所述面孔相册中所有用户的面孔来源照片,并将获取的除所述目标用户以外的用户的面孔来源照片和所述目标用户的面孔来源照片进行比对;
将与所述目标用户之间相同面孔来源照片的数量大于预设数量的用户作为所述候选关联用户。
在一实施例中,所述获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,包括:
获取所述候选关联用户的性别和年龄信息,并根据所述年龄信息删除不符合年龄要求的候选关联用户;
根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定所述剩余的候选关联用户为所述关联用户,若超出,则根据预设条件确定所述关联用户。
在一实施例中,所述获取所述候选关联用户的性别和年龄信息,包括:
收集训练样本,提取所述训练样本的特征,根据所述特征训练分类器,所述特征包括gabor特征,所述分类器包括SVM分类器;
利用所述分类器获取所述候选关联用户的性别和所属的年龄段。
在一实施例中,所述根据预设条件确定所述关联用户,包括:
获得所述剩余的候选关联用户的面孔数量,将所述面孔数量最大的候选关联用户作为所述关联用户。
在一实施例中,所述利用所述分类器获取所述候选关联用户的性别和所属的年龄段,包括:
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔的年龄,获取每个面孔对应的照片拍摄时间,并根据所述年龄和所述照片拍摄时间计算每个面孔对应的出生时间,根据计算出的所述出生时间确定所述当前候选关联用户所属的年龄段;
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为所述当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将所述数量较大的面孔对应的性别作为所述当前候选关联用户的性别。
在一实施例中,所述利用所述分类器获取当前候选关联用户的每个面孔的年龄和性别,包括:
针对当前候选关联用户的每个面孔,利用所述分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算所述当前面孔的光照和姿态信息,若计算结果符合光照和姿态要求,则将获取到的年龄和性别作为所述当前面孔的年龄和性别,并将所述当前面孔及其对应的年龄和性别保存在数据库中,若计算结果不符合光照和姿态要求,则从所述数据库中获得所述当前面孔的匹配面孔,并将所述匹配面孔的年龄和性别作为所述当前面孔的年龄和性别。
根据本公开实施例的第二方面,提供一种关联用户的确定装置,包括:
获取模块,被配置为获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定筛选模块,被配置为确定所述获取模块获取的所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
确定设置模块,被配置为获取所述确定筛选模块筛选出的所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息。
在一实施例中,所述确定筛选模块包括:
获取比对子模块,被配置为获取所述面孔相册中所有用户的面孔来源照片,并将获取的除所述目标用户以外的用户的面孔来源照片和所述目标用户的面孔来源照片进行比对;
确定子模块,被配置为将与所述目标用户之间相同面孔来源照片的数量大于预设数量的用户作为所述候选关联用户。
在一实施例中,所述确定设置模块包括:
获取删除子模块,被配置为获取所述候选关联用户的性别和年龄信息,并根据所述年龄信息删除不符合年龄要求的候选关联用户;
判断确定子模块,被配置为根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定所述剩余的候选关联用户为所述关联用户,若超出,则根据预设条件确定所述关联用户。
在一实施例中,所述获取删除子模块包括:
收集提取训练单元,被配置为收集训练样本,提取所述训练样本的特征,根据所述特征训练分类器,所述特征包括gabor特征,所述分类器包括SVM分类器;
获取单元,被配置为利用所述收集提取训练单元训练的所述分类器获取所述候选关联用户的性别和所属的年龄段。
在一实施例中,所述判断确定子模块,被配置为:
获得所述剩余的候选关联用户的面孔数量,将所述面孔数量最大的候选关联用户作为所述关联用户。
在一实施例中,所述获取单元,被配置为:
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔的年龄,获取每个面孔对应的照片拍摄时间,并根据所述年龄和所述照片拍摄时间计算每个面孔对应的出生时间,根据计算出的所述出生时间确定所述当前候选关联用户所属的年龄段;
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为所述当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将所述数量较大的面孔对应的性别作为所述当前候选关联用户的性别。
在一实施例中,所述获取单元,被配置为:
针对当前候选关联用户的每个面孔,利用所述分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算所述当前面孔的光照和姿态信息,若计算结果符合光照和姿态要求,则将获取到的年龄和性别作为所述当前面孔的年龄和性别,并将所述当前面孔及其对应的年龄和性别保存在数据库中,若计算结果不符合光照和姿态要求,则从所述数据库中获得所述当前面孔的匹配面孔,并将所述匹配面孔的年龄和性别作为所述当前面孔的年龄和性别。
根据本公开实施例的第三方面,提供一种关联用户的确定装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,处理器被配置为:
获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息。
本公开的实施例提供的技术方案可以包括以下有益效果:通过获取面孔相册,确定面孔相册中的目标用户,并从面孔相册中筛选出目标用户的至少一个候选关联用户,然后获取候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,最后为关联用户设置标签信息,实现过程快速、简单,不需要用户进行繁琐的操作,为用户节省了大量的时间。
确定候选关联用户的方式简单,易于实现。
根据候选关联用户的属性信息确定关联用户的方式简单,易于实现。
获取关联用户属性信息的方式简单、灵活。
根据预设条件确定关联用户的方式简单、准确率高。
通过获得每个候选关联用户所有面孔对应的性别和年龄信息,然后根据所有面孔对应的性别和年龄信息确定对应候选关联用户的性别和年龄段,准确率高。
在当前面孔符合光照和姿态要求时,直接将获取到的年龄和性别作为当前面孔的年龄和性别,在当前面孔不符合光照和姿态要求时,从数据库中获得当前面孔的匹配面孔,并将匹配面孔的年龄和性别作为当前面孔的年龄和性别,从而保证了当前面孔性别和年龄的识别准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种关联用户的确定方法的流程图。
图2a是根据一示例性实施例示出的一种面孔相册的示意图。
图2b是根据一示例性实施例示出的一种面孔集合的示意图。
图3是根据一示例性实施例示出的一种关联用户的确定方法的场景图。
图4a是根据一示例性实施例示出的一种获取用户属性信息的流程图。
图4b是根据一示例性实施例示出的一种获取当前候选关联用户的年龄信息的流程图。
图5是根据一示例性实施例示出的一种获取面孔年龄的流程图。
图6是根据一示例性实施例示出的一种关联用户的确定装置的框图。
图7是根据一示例性实施例示出的另一种关联用户的确定装置的框图。
图8是根据一示例性实施例示出的又一种关联用户的确定装置的框图。
图9是根据一示例性实施例示出的再一种关联用户的确定装置的框图。
图10是根据一示例性实施例示出的一种适用于关联用户的确定装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的关联用户的确定方法的流程图,如图1所示,该关联用户的确定方法可应用于移动终端上,该移动终端包括但不限于手机,该方法包括以下步骤S101-S103:
在步骤S101中,获取面孔相册,该面孔相册包含多个用户的面孔集合。
在该实施例中,若移动终端例如手机开启了“面孔相册”,则可以从服务端获取面孔相册,该面孔相册可以包含多个用户的面孔集合。
图2a给出了一个面孔相册的示例,该面孔相册中包含了多个用户的面孔集合,某个用户的面孔集合可图2b所示。
在步骤S102中,确定该面孔相册中的目标用户,从该面孔相册中筛选出目标用户的至少一个候选关联用户。
在该实施例中,目标用户可以为宝宝,在获取面孔相册后,可以从该面孔相册中识别出宝宝的面孔集合,同时可以根据宝宝面孔集合中的面孔数量来确定目标用户。例如,假设当前面孔相册中有两个宝宝的面孔集合,其中,第一个宝宝的面孔集合中包含的面孔数量为4,第二个宝宝的面孔集合中包含的面孔数量为50,则可以确定第二个宝贝为目标用户。
在确定目标用户后,可以通过但不限于以下方式从面孔相册中筛选出目标用户的至少一个候选关联用户:获取面孔相册中所有用户的面孔来源照片,并将获取的除目标用户以外的用户的面孔来源照片和目标用户的面孔来源照片进行比对,然后将与目标用户之间相同面孔来源照片的数量大于预设数量的用户作为候选关联用户。
其中,面孔来源照片是指面孔所在的照片,假设,照片1上包括面孔1和面孔2,则面孔1和面孔2的来源照片均为照片1,照片2上包括面孔3,则面孔3的来源照片为照片2。上述预设数量可以根据需要灵活设置,例如可以为10张、15张等。
假设,当前面孔相册中包含用户1-5共5个用户的面孔集合,其中,用户1为目标用户,获取这5个用户的面孔来源照片,并将用户2-5的面孔来源照片分别与用户1的面孔来源照片进行比对,假设发现用户2与用户1之间相同面孔来源照片的数量为2张,即用户2与用户1有2张合影;用户3与用户1之间相同面孔来源照片的数量为30张,即用户3与用户1有30张合影;用户4与用户1之间相同面孔来源照片的数量为33张,即用户4与用户1有33张合影;用户5与用户1之间相同面孔来源照片的数量为20张,即用户5与用户1有20张合影;假设预设数量为10张,则可以确定用户3、用户4和用户5为目标用户的候选关联用户。
在步骤S103中,获取候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,并为关联用户设置标签信息。
在确定目标用户的候选关联用户之后,可以获取候选关联用户的属性信息,以根据属性信息确定目标用户的关联用户。
例如,可以获取候选关联用户的性别和年龄信息,并根据年龄信息删除不符合年龄要求的候选关联用户,然后根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定剩余的候选关联用户为关联用户,若超出,则根据预设条件例如候选关联用户的面孔数量确定关联用户。
继续上例进行描述,假设获取到用户3的性别为男,所属的年龄段为10-15,用户4的性别为女,所属的年龄段为25-30,用户5的性别为男,所属的年龄段为28-35,由于用户3的年龄段不符合年龄要求,因此,删除用户3,由于根据用户4和用户5的性别可以确定用户4和用户5符合关联用户数量的要求,因此,确定用户4和用户5为目标用户的关联用户,例如用户4为目标用户的妈妈,用户5为目标用户的爸爸。
但是,假设获取到用户3的性别为男,所属的年龄段为25-30,则用户3-5均符合年龄要求,由于用户3和用户5均为男性,超出了关联用户数量,此时需要根据预设条件对用户3和用户5进行进一步筛选,例如可以获得用户3和用户5的面孔数量,由于用户3的面孔数量(30张)大于用户5的面孔数量(20张),因此,确定用户3为目标用户的关联用户。
上述根据预设条件确定关联用户的方式简单、准确率高。
在确定目标用户的关联用户之后,可以为关联用户设置标签信息,以便后续可以根据该标签信息执行操作。
其中,该标签信息可以为“宝宝的爸爸”或“宝宝的妈妈”,也可以为表示“宝宝的爸爸”或“宝宝的妈妈”的标记。另外,移动终端可以显示设置的标签信息,例如可以在面孔相册中对应用户面孔的底部或顶部显示标签信息,也可以在用户面孔上显示标签信息,例如在用户面孔的右上角等位置显示标签信息,需要说明的是,此处对标签信息的样式和设置的位置不进行具体限定。
进一步地,在为关联用户设置好标签信息之后,若用户触发了创建家庭相册等操作,则移动终端可以同时提取目标用户以及该目标用户的关联用户的面孔,而不是人工找到目标用户的关联用户,然后逐个提取关联用户的面孔,实现简单、快速。
下面结合图3对本公开进行示例性说明,如图3所示,用户可以使用手机31为宝宝和自己拍摄很多照片,同时可以将照片上传到服务器32上,当前用户点击开启“面孔相册”选项后,手机31可以从服务器32上获取面孔相册,同时,手机31可以自动识别出目标用户例如当前用户的宝宝,并从该面孔相册中筛选出目标用户的至少一个候选关联用户,然后获取候选关联用户的属性信息,并根据属性信息确定目标用户的关联用户即宝宝的爸爸和妈妈,并为宝宝的爸爸和妈妈设置标签信息,从而方便后续根据标签信息进行操作。
上述关联用户的确定方法实施例,通过获取面孔相册,确定面孔相册中的目标用户,并从面孔相册中筛选出目标用户的至少一个候选关联用户,然后获取候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,最后为关联用户设置标签信息,实现过程快速、简单,不需要用户进行繁琐的操作,为用户节省了大量的时间。
图4a是根据一示例性实施例示出的一种获取用户属性信息的流程图,通过该实施例可以获取候选关联用户的性别和年龄信息,如图4a所示,该过程包括:
在步骤S401中,收集训练样本,提取训练样本的特征,根据特征训练分类器。
由于该实施例中获取性别和年龄信息,因此,需要收集性别训练样本和年龄训练样本,并提取对应训练样本的特征,该特征可以包括但不限于gabor特征,然后根据特征训练对应的分类器,上述分类器可以包括但不限于支持向量机(Support Vector Machine,SVM)分类器。
其中,gabor特征是一种图像的局部特征度量方法,主要用来刻画局部纹理特征。
在步骤S402中,利用分类器获取候选关联用户的性别和所属的年龄段。
由于面孔相册中包含候选关联用户的多个面孔,因此,该实施例可以通过对应的分类器获取每个候选关联用户所有面孔的性别和年龄信息,然后通过对所有面孔的性别和年龄信息进行统计,并根据统计结果获得对应候选关联用户的性别和所属的年龄段。
例如,针对每个候选关联用户,获取当前候选关联用户的年龄信息的过程可以如图4b所示,该过程包括:
在步骤S4021中,利用分类器获取当前候选关联用户的每个面孔的年龄,并获取每个面孔对应的照片拍摄时间。
在步骤S4022中,根据获取的年龄和照片拍摄时间计算每个面孔对应的出生时间。
在步骤S4023中,根据计算出的出生时间确定当前候选关联用户所属的年龄段。
假定,当前候选关联用户有40个面孔,其中,10个面孔对应的出生时间为1988年,8个面孔对应的出生时间为1990年,7个面孔对应的出生时间为1989年,8个面孔对应的出生时间为1987年,2个面孔对应的出生时间为1980年,2个面孔对应的出生时间为1981年,2个面孔对应的出生时间为1995年,1个面孔对应的出生时间为1996年,则确定当前候选关联用户所属的年龄段为25-28。
采用上述方式确定年龄段,准确率高。
又例如,针对每个候选关联用户,利用分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将数量较大的面孔对应的性别作为当前候选关联用户的性别。
假定,当前候选关联用户有40个面孔,其中,38个面孔对应的性别为男,2个面孔对应的性别为女,则确定当前候选关联用户的性别为男。
采用上述方式确定性别,准确率高。
上述实施例,通过获得每个候选关联用户的所有面孔对应的性别和年龄信息,然后根据所有面孔对应的性别和年龄信息确定对应候选关联用户的性别和年龄段,准确率高。
图5是根据一示例性实施例示出的一种获取面孔年龄和性别的流程图,如图5所示,针对当前候选关联用户的每个面孔,获取当前面孔的年龄和性别可包括:
在步骤S501中,利用分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算当前面孔的光照和姿态信息,以获得计算结果。
由于拍摄角度、拍摄光线等原因,通常导致对同一用户不同面孔的性别和年龄的识别结果不准确。为了解决这个问题,本实施例中,需要计算当前面孔的光照和姿态信息。
其中,光照信息可以利用像素灰度值的均值和方差来计算。
在步骤S502中,判断计算结果是否符合光照和姿态要求,若符合,则执行步骤S503,若不符合,则执行步骤S504。
在该实施例中,可以判断用户的姿态是否为正面姿态,且像素灰度值的均值是否位于预设范围例如50-100,若用户的姿态是正面姿态,且像素灰度值的均值位于50-100,则确定当前面孔符合光照和姿态要求,否则,确定当前面孔不符合光照和姿态要求。
其中,可以通过多种方式判断用户的姿态是否为正面姿态,例如可以提取当前面孔上几个点的位置,例如左眼和右眼的位置,然后判断左眼和右眼是否对称,若对称,则表明是正面姿态。
在步骤S503中,将获取到的年龄和性别作为当前面孔的年龄和性别,并将当前面孔及其对应的年龄和性别保存在数据库中。
若当前面孔符合光照和姿态要求,则可以将获取到的年龄和性别作为当前面孔的年龄和性别,并可以将当前面孔及其对应的年龄和性别保存在数据库中,以便后续匹配使用。
在步骤S504中,从数据库中获得当前面孔的匹配面孔,并将匹配面孔的年龄和性别作为当前面孔的年龄和性别。
若当前面孔不符合光照和姿态要求,例如当前面孔是侧面,且光线太暗,则将获取到的年龄和性别作为当前面孔的年龄和性别不准确,需要从数据库中获得当前面孔的匹配面孔,并将匹配面孔的年龄和性别作为当前面孔的年龄和性别,以提高准确率。
上述实施例,在当前面孔符合光照和姿态要求时,直接将获取到的年龄和性别作为当前面孔的年龄和性别,在当前面孔不符合光照和姿态要求时,从数据库中获得当前面孔的匹配面孔,并将匹配面孔的年龄和性别作为当前面孔的年龄和性别,从而保证了当前面孔性别和年龄的识别准确率。
与前述关联用户的确定方法实施例相对应,本公开还提供了关联用户的确定装置实施例。
图6是根据一示例性实施例示出的一种关联用户的确定装置的框图,如图6所示,关联用户的确定装置包括:获取模块61、确定筛选模块62和确定设置模块63。
获取模块61,被配置为获取面孔相册,面孔相册包含多个用户的面孔集合。
确定筛选模块62,被配置为确定获取模块61获取的面孔相册中的目标用户,从面孔相册中筛选出目标用户的至少一个候选关联用户。
确定设置模块63,被配置为获取确定筛选模块62筛选出的候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,并为关联用户设置标签信息。
图6所示的关联用户的确定装置确定关联用户的过程可参见图1所示实施例,此处不赘述。
上述关联用户的确定装置实施例,通过获取模块获取面孔相册,通过确定筛选模块确定面孔相册中的目标用户,并从面孔相册中筛选出目标用户的至少一个候选关联用户,然后通过确定设置模块获取候选关联用户的属性信息,根据属性信息确定目标用户的关联用户,并为关联用户设置标签信息,实现过程快速、简单,不需要用户进行繁琐的操作,为用户节省了大量的时间。
图7是根据一示例性实施例示出的另一种关联用户的确定装置的框图,如图7所示,在上述图6所示实施例的基础上,确定筛选模块62可包括:获取比对子模块621和确定子模块622。
获取比对子模块621,被配置为获取面孔相册中所有用户的面孔来源照片,并将获取的除目标用户以外的用户的面孔来源照片和目标用户的面孔来源照片进行比对。
确定子模块622,被配置为将与目标用户之间相同面孔来源照片的数量大于预设数量的用户作为候选关联用户。
图7所示的关联用户的确定装置确定关联用户的过程可参见图1所示实施例的对应部分,此处不赘述。
上述实施例,确定候选关联用户的方式简单,易于实现。
图8是根据一示例性实施例示出的另一种关联用户的确定装置的框图,如图8所示,在上述图6所示实施例的基础上,确定设置模块63可包括:获取删除子模块631和判断确定子模块632。
获取删除子模块631,被配置为获取候选关联用户的性别和年龄信息,并根据年龄信息删除不符合年龄要求的候选关联用户。
判断确定子模块632,被配置为根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定剩余的候选关联用户为关联用户,若超出,则根据预设条件确定关联用户。
在一实施例中,判断确定子模块632可被配置为:获得剩余的候选关联用户的面孔数量,将面孔数量最大的候选关联用户作为关联用户。
图8所示的关联用户的确定装置确定关联用户的过程可参见图1所示实施例的对应部分,此处不赘述。
上述实施例,根据候选关联用户的属性信息确定关联用户的方式简单,易于实现。
图9是根据一示例性实施例示出的另一种关联用户的确定装置的框图,如图9所示,在上述图8所示实施例的基础上,获取删除子模块631可包括:收集提取训练单元6311和获取单元6312。
收集提取训练单元6311,被配置为收集训练样本,提取训练样本的特征,根据特征训练分类器,特征包括gabor特征,分类器包括SVM分类器。
获取单元6312,被配置为利用收集提取训练单元6311训练的分类器获取候选关联用户的性别和所属的年龄段。
在一实施例中,获取单元6312可被配置为:针对每个候选关联用户,利用分类器获取当前候选关联用户的每个面孔的年龄,获取每个面孔对应的照片拍摄时间,并根据年龄和照片拍摄时间计算每个面孔对应的出生时间,根据计算出的出生时间确定当前候选关联用户所属的年龄段;针对每个候选关联用户,利用分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将数量较大的面孔对应的性别作为当前候选关联用户的性别。
在另一实施例中,获取单元6312可被配置为:针对当前候选关联用户的每个面孔,利用分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算当前面孔的光照和姿态信息,若计算结果符合光照和姿态要求,则将获取到的年龄和性别作为当前面孔的年龄和性别,并将当前面孔及其对应的年龄和性别保存在数据库中,若计算结果不符合光照和姿态要求,则从数据库中获得当前面孔的匹配面孔,并将匹配面孔的年龄和性别作为当前面孔的年龄和性别。
图9所示的关联用户的确定装置确定关联用户的过程可参见图4a、图4b和图5所示实施例的对应部分,此处不赘述。
上述实施例,获取关联用户属性信息的方式灵活、多样,且准确率高。
关于上述实施例中的装置,其中各个模块、子模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种适用于关联用户的确定装置的框图。例如,装置1000可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图10,装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)的接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常控制装置1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1002可以包括一个或多个处理器1020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理部件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在装置1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件1006为装置1000的各种组件提供电力。电力组件1006可以包括电源管理系统,一个或多个电源,及其他与为装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在所述装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为装置1000的显示器和小键盘,传感器组件1014还可以检测装置1000或装置1000一个组件的位置改变,用户与装置1000接触的存在或不存在,装置1000方位或加速/减速和装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于装置1000和其他设备之间有线或无线方式的通信。装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由装置1000的处理器1020执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (13)
1.一种关联用户的确定方法,其特征在于,所述方法包括:
获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息;
所述获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,包括:
获取所述候选关联用户的性别和年龄信息,并根据所述年龄信息删除不符合年龄要求的候选关联用户;
根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定所述剩余的候选关联用户为所述关联用户,若超出,则根据预设条件确定所述关联用户。
2.根据权利要求1所述的关联用户的确定方法,其特征在于,所述从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户,包括:
获取所述面孔相册中所有用户的面孔来源照片,并将获取的除所述目标用户以外的用户的面孔来源照片和所述目标用户的面孔来源照片进行比对;
将与所述目标用户之间相同面孔来源照片的数量大于预设数量的用户作为所述候选关联用户。
3.根据权利要求2所述的关联用户的确定方法,其特征在于,所述获取所述候选关联用户的性别和年龄信息,包括:
收集训练样本,提取所述训练样本的特征,根据特征训练分类器,所述特征包括gabor特征,所述分类器包括SVM分类器;
利用所述分类器获取所述候选关联用户的性别和所属的年龄段。
4.根据权利要求1所述的关联用户的确定方法,其特征在于,所述根据预设条件确定所述关联用户,包括:
获得所述剩余的候选关联用户的面孔数量,将所述面孔数量最大的候选关联用户作为所述关联用户。
5.根据权利要求3所述的关联用户的确定方法,其特征在于,所述利用所述分类器获取所述候选关联用户的性别和所属的年龄段,包括:
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔的年龄,获取每个面孔对应的照片拍摄时间,并根据所述年龄和所述照片拍摄时间计算每个面孔对应的出生时间,根据计算出的所述出生时间确定所述当前候选关联用户所属的年龄段;
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为所述当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将所述数量较大的面孔对应的性别作为所述当前候选关联用户的性别。
6.根据权利要求5所述的关联用户的确定方法,其特征在于,所述利用所述分类器获取当前候选关联用户的每个面孔的年龄和性别,包括:
针对当前候选关联用户的每个面孔,利用所述分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算所述当前面孔的光照和姿态信息,若计算结果符合光照和姿态要求,则将获取到的年龄和性别作为所述当前面孔的年龄和性别,并将所述当前面孔及其对应的年龄和性别保存在数据库中,若计算结果不符合光照和姿态要求,则从所述数据库中获得所述当前面孔的匹配面孔,并将所述匹配面孔的年龄和性别作为所述当前面孔的年龄和性别。
7.一种关联用户的确定装置,其特征在于,所述装置包括:
获取模块,被配置为获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定筛选模块,被配置为确定所述获取模块获取的所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
确定设置模块,被配置为获取所述确定筛选模块筛选出的所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息;
所述确定设置模块包括:
获取删除子模块,被配置为获取所述候选关联用户的性别和年龄信息,并根据所述年龄信息删除不符合年龄要求的候选关联用户;
判断确定子模块,被配置为根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定所述剩余的候选关联用户为所述关联用户,若超出,则根据预设条件确定所述关联用户。
8.根据权利要求7所述的关联用户的确定装置,其特征在于,所述确定筛选模块包括:
获取比对子模块,被配置为获取所述面孔相册中所有用户的面孔来源照片,并将获取的除所述目标用户以外的用户的面孔来源照片和所述目标用户的面孔来源照片进行比对;
确定子模块,被配置为将与所述目标用户之间相同面孔来源照片的数量大于预设数量的用户作为所述候选关联用户。
9.根据权利要求7所述的关联用户的确定装置,其特征在于,所述获取删除子模块包括:
收集提取训练单元,被配置为收集训练样本,提取所述训练样本的特征,根据特征训练分类器,所述特征包括gabor特征,所述分类器包括SVM分类器;
获取单元,被配置为利用所述收集提取训练单元训练的所述分类器获取所述候选关联用户的性别和所属的年龄段。
10.根据权利要求7所述的关联用户的确定装置,其特征在于,所述判断确定子模块,被配置为:
获得所述剩余的候选关联用户的面孔数量,将所述面孔数量最大的候选关联用户作为所述关联用户。
11.根据权利要求9所述的关联用户的确定装置,其特征在于,所述获取单元,被配置为:
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔的年龄,获取每个面孔对应的照片拍摄时间,并根据所述年龄和所述照片拍摄时间计算每个面孔对应的出生时间,根据计算出的所述出生时间确定所述当前候选关联用户所属的年龄段;
针对每个候选关联用户,利用所述分类器获取当前候选关联用户的每个面孔对应的性别,若获取到的性别相同,则获取到的性别作为所述当前候选关联用户的性别,若获取到的性别不同,则统计属于不同性别的当前候选关联用户面孔的数量,将所述数量较大的面孔对应的性别作为所述当前候选关联用户的性别。
12.根据权利要求11所述的关联用户的确定装置,其特征在于,所述获取单元,被配置为:
针对当前候选关联用户的每个面孔,利用所述分类器获取当前候选关联用户的当前面孔的年龄和性别,并计算所述当前面孔的光照和姿态信息,若计算结果符合光照和姿态要求,则将获取到的年龄和性别作为所述当前面孔的年龄和性别,并将所述当前面孔及其对应的年龄和性别保存在数据库中,若计算结果不符合光照和姿态要求,则从所述数据库中获得所述当前面孔的匹配面孔,并将所述匹配面孔的年龄和性别作为所述当前面孔的年龄和性别。
13.一种关联用户的确定装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取面孔相册,所述面孔相册包含多个用户的面孔集合;
确定所述面孔相册中的目标用户,从所述面孔相册中筛选出所述目标用户的至少一个候选关联用户;
获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,并为所述关联用户设置标签信息;
所述获取所述候选关联用户的属性信息,根据所述属性信息确定所述目标用户的关联用户,包括:
获取所述候选关联用户的性别和年龄信息,并根据所述年龄信息删除不符合年龄要求的候选关联用户;
根据剩余的候选关联用户的性别判断剩余的候选关联用户是否超出关联用户数量,若未超出,则确定所述剩余的候选关联用户为所述关联用户,若超出,则根据预设条件确定所述关联用户。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463635.XA CN105069083B (zh) | 2015-07-31 | 2015-07-31 | 关联用户的确定方法及装置 |
JP2016532556A JP6263263B2 (ja) | 2015-07-31 | 2015-12-16 | 関連ユーザー確定方法および装置 |
PCT/CN2015/097611 WO2017020476A1 (zh) | 2015-07-31 | 2015-12-16 | 关联用户的确定方法及装置 |
RU2016119495A RU2664003C2 (ru) | 2015-07-31 | 2015-12-16 | Способ и устройство для определения ассоциированного пользователя |
MX2016006745A MX361672B (es) | 2015-07-31 | 2015-12-16 | Método y dispositivo para determinar un usuario asociado. |
KR1020167013623A KR101771153B1 (ko) | 2015-07-31 | 2015-12-16 | 연관 사용자의 확정 방법 및 장치 |
US15/209,148 US9892314B2 (en) | 2015-07-31 | 2016-07-13 | Method and device for determining associated user |
EP16181897.6A EP3125188A1 (en) | 2015-07-31 | 2016-07-29 | Method and device for determining associated user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463635.XA CN105069083B (zh) | 2015-07-31 | 2015-07-31 | 关联用户的确定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105069083A CN105069083A (zh) | 2015-11-18 |
CN105069083B true CN105069083B (zh) | 2019-03-08 |
Family
ID=54498453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510463635.XA Active CN105069083B (zh) | 2015-07-31 | 2015-07-31 | 关联用户的确定方法及装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9892314B2 (zh) |
EP (1) | EP3125188A1 (zh) |
JP (1) | JP6263263B2 (zh) |
KR (1) | KR101771153B1 (zh) |
CN (1) | CN105069083B (zh) |
MX (1) | MX361672B (zh) |
RU (1) | RU2664003C2 (zh) |
WO (1) | WO2017020476A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069083B (zh) | 2015-07-31 | 2019-03-08 | 小米科技有限责任公司 | 关联用户的确定方法及装置 |
CN105488470A (zh) * | 2015-11-30 | 2016-04-13 | 小米科技有限责任公司 | 确定人物属性信息的方法及装置 |
CN106295499B (zh) * | 2016-07-21 | 2019-10-11 | 北京小米移动软件有限公司 | 年龄估计方法及装置 |
CN110020155A (zh) * | 2017-12-06 | 2019-07-16 | 广东欧珀移动通信有限公司 | 用户性别识别方法及装置 |
CN110162956B (zh) * | 2018-03-12 | 2024-01-19 | 华东师范大学 | 确定关联账户的方法和装置 |
CN108806699B (zh) * | 2018-05-30 | 2021-03-23 | Oppo广东移动通信有限公司 | 语音反馈方法、装置、存储介质及电子设备 |
CN113454634A (zh) | 2018-12-27 | 2021-09-28 | 日本电气株式会社 | 信息处理系统、信息处理装置、信息处理方法和程序 |
CN109886158B (zh) * | 2019-01-30 | 2023-01-10 | 广州轨道交通建设监理有限公司 | 一种基于施工现场的定位标签佩戴监控方法与装置 |
CN110351389B (zh) * | 2019-08-07 | 2020-12-25 | 北京瑞策科技有限公司 | 用户社区关联数据的上链方法及其装置 |
CN112256982B (zh) * | 2020-09-15 | 2022-08-16 | 中国科学院信息工程研究所 | 基于稀疏采样时空数据的目标同行关系分析方法及电子装置 |
CN112528842A (zh) * | 2020-12-07 | 2021-03-19 | 北京嘀嘀无限科技发展有限公司 | 用于姿态检测的方法、装置、设备和存储介质 |
CN112817920A (zh) * | 2021-03-03 | 2021-05-18 | 深圳市知小兵科技有限公司 | 分布式大数据的清理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009082814A1 (en) * | 2007-12-31 | 2009-07-09 | Ray Ganong | Method, system, and computer program for identification and sharing of digital images with face signatures |
US8041082B1 (en) * | 2007-11-02 | 2011-10-18 | Google Inc. | Inferring the gender of a face in an image |
JP2012079354A (ja) * | 2012-01-26 | 2012-04-19 | Casio Comput Co Ltd | 画像表示制御装置、画像表示制御方法及びプログラム |
JP2013069024A (ja) * | 2011-09-21 | 2013-04-18 | Fuji Xerox Co Ltd | 画像検索プログラム及び画像検索装置 |
CN104021150A (zh) * | 2009-08-07 | 2014-09-03 | 谷歌公司 | 带有社交网络辅助的面部识别 |
CN104408402A (zh) * | 2014-10-29 | 2015-03-11 | 小米科技有限责任公司 | 人脸识别方法及装置 |
CN104715007A (zh) * | 2014-12-26 | 2015-06-17 | 小米科技有限责任公司 | 用户标识方法及装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SU1755268A1 (ru) * | 1989-01-06 | 1992-08-15 | Рижское Высшее Военно-Политическое Краснознаменное Училище Им.Бирюзова С.С. | Анализатор изображений |
JP2004227158A (ja) * | 2003-01-21 | 2004-08-12 | Omron Corp | 情報提供装置および情報提供方法 |
US7953690B2 (en) * | 2008-01-25 | 2011-05-31 | Eastman Kodak Company | Discovering social relationships from personal photo collections |
JP5080524B2 (ja) * | 2008-03-26 | 2012-11-21 | 富士フイルム株式会社 | 画像シェアリング用保存装置、画像シェアリングおよび方法 |
US9087059B2 (en) | 2009-08-07 | 2015-07-21 | Google Inc. | User interface for presenting search results for multiple regions of a visual query |
US9135277B2 (en) | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
CN102043820A (zh) * | 2009-10-26 | 2011-05-04 | 鸿富锦精密工业(深圳)有限公司 | 人脉关系分析系统及方法 |
KR101138822B1 (ko) | 2009-11-19 | 2012-05-10 | 한국과학기술원 | 디지털 사진들에 첨부된 인물들의 이름들을 관리하는 방법 및 시스템 |
US8805079B2 (en) | 2009-12-02 | 2014-08-12 | Google Inc. | Identifying matching canonical documents in response to a visual query and in accordance with geographic information |
US8462224B2 (en) * | 2010-06-01 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | Image retrieval |
US8929615B2 (en) * | 2011-11-03 | 2015-01-06 | Facebook, Inc. | Feature-extraction-based image scoring |
CN103399896B (zh) * | 2013-07-19 | 2019-08-23 | 广州华多网络科技有限公司 | 识别用户间关联关系的方法及系统 |
US20150032535A1 (en) * | 2013-07-25 | 2015-01-29 | Yahoo! Inc. | System and method for content based social recommendations and monetization thereof |
KR101479260B1 (ko) * | 2013-09-10 | 2015-01-09 | 부산대학교 산학협력단 | 사진 기반 인물 친밀도 검색 방법 |
US9420442B2 (en) * | 2014-10-06 | 2016-08-16 | Facebook, Inc. | Ping compensation factor for location updates |
CN104299001B (zh) * | 2014-10-11 | 2018-08-07 | 小米科技有限责任公司 | 生成影集的方法及装置 |
CN105069083B (zh) * | 2015-07-31 | 2019-03-08 | 小米科技有限责任公司 | 关联用户的确定方法及装置 |
-
2015
- 2015-07-31 CN CN201510463635.XA patent/CN105069083B/zh active Active
- 2015-12-16 WO PCT/CN2015/097611 patent/WO2017020476A1/zh active Application Filing
- 2015-12-16 RU RU2016119495A patent/RU2664003C2/ru active
- 2015-12-16 MX MX2016006745A patent/MX361672B/es active IP Right Grant
- 2015-12-16 JP JP2016532556A patent/JP6263263B2/ja active Active
- 2015-12-16 KR KR1020167013623A patent/KR101771153B1/ko active IP Right Grant
-
2016
- 2016-07-13 US US15/209,148 patent/US9892314B2/en active Active
- 2016-07-29 EP EP16181897.6A patent/EP3125188A1/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8041082B1 (en) * | 2007-11-02 | 2011-10-18 | Google Inc. | Inferring the gender of a face in an image |
WO2009082814A1 (en) * | 2007-12-31 | 2009-07-09 | Ray Ganong | Method, system, and computer program for identification and sharing of digital images with face signatures |
CN104021150A (zh) * | 2009-08-07 | 2014-09-03 | 谷歌公司 | 带有社交网络辅助的面部识别 |
JP2013069024A (ja) * | 2011-09-21 | 2013-04-18 | Fuji Xerox Co Ltd | 画像検索プログラム及び画像検索装置 |
JP2012079354A (ja) * | 2012-01-26 | 2012-04-19 | Casio Comput Co Ltd | 画像表示制御装置、画像表示制御方法及びプログラム |
CN104408402A (zh) * | 2014-10-29 | 2015-03-11 | 小米科技有限责任公司 | 人脸识别方法及装置 |
CN104715007A (zh) * | 2014-12-26 | 2015-06-17 | 小米科技有限责任公司 | 用户标识方法及装置 |
Non-Patent Citations (1)
Title |
---|
Using a Markov Network to Recognize People in Consumer Images;Andrew C Gallagher et al.;《Image Processing ICIP 2007 IEEE International Conference》;20070901;第489页 |
Also Published As
Publication number | Publication date |
---|---|
KR101771153B1 (ko) | 2017-08-24 |
CN105069083A (zh) | 2015-11-18 |
EP3125188A1 (en) | 2017-02-01 |
MX361672B (es) | 2018-12-13 |
MX2016006745A (es) | 2017-06-28 |
US20170032180A1 (en) | 2017-02-02 |
US9892314B2 (en) | 2018-02-13 |
JP6263263B2 (ja) | 2018-01-17 |
RU2664003C2 (ru) | 2018-08-14 |
RU2016119495A (ru) | 2017-11-23 |
JP2017526989A (ja) | 2017-09-14 |
KR20170023768A (ko) | 2017-03-06 |
WO2017020476A1 (zh) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105069083B (zh) | 关联用户的确定方法及装置 | |
EP3179408B1 (en) | Picture processing method and apparatus, computer program and recording medium | |
EP3125135B1 (en) | Picture processing method and device | |
CN104615769B (zh) | 图片分类方法及装置 | |
CN104717366B (zh) | 联系人头像的推荐方法及装置 | |
US10115019B2 (en) | Video categorization method and apparatus, and storage medium | |
CN104700353B (zh) | 图像滤镜生成方法及装置 | |
EP3173969B1 (en) | Method, apparatus and terminal device for playing music based on a target face photo album | |
CN107018333A (zh) | 拍摄模板推荐方法、装置及拍摄设备 | |
US10769743B2 (en) | Method, device and non-transitory storage medium for processing clothes information | |
CN106408603A (zh) | 拍摄方法及装置 | |
CN106210496A (zh) | 照片拍摄方法及装置 | |
EP3975046B1 (en) | Method and apparatus for detecting occluded image and medium | |
US11551465B2 (en) | Method and apparatus for detecting finger occlusion image, and storage medium | |
CN105335714B (zh) | 照片处理方法、装置和设备 | |
CN106303198A (zh) | 拍摄信息获取方法及装置 | |
CN107992811A (zh) | 人脸识别方法及装置 | |
CN109242045B (zh) | 图像聚类处理方法、装置、电子设备及存储介质 | |
CN107895041B (zh) | 拍摄模式设置方法、装置及存储介质 | |
CN108154091A (zh) | 图像展示方法、图像处理方法及装置 | |
CN105426904A (zh) | 照片处理方法、装置和设备 | |
CN105959563A (zh) | 图像存储方法和图像存储装置 | |
CN108509863A (zh) | 信息提示方法、装置和电子设备 | |
CN105913433A (zh) | 信息推送方法及装置 | |
CN107247549A (zh) | 获取用户头像的方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |