KR20090073294A - Method for social network analysis based on face recognition in an image or image sequences - Google Patents
Method for social network analysis based on face recognition in an image or image sequences Download PDFInfo
- Publication number
- KR20090073294A KR20090073294A KR1020070141198A KR20070141198A KR20090073294A KR 20090073294 A KR20090073294 A KR 20090073294A KR 1020070141198 A KR1020070141198 A KR 1020070141198A KR 20070141198 A KR20070141198 A KR 20070141198A KR 20090073294 A KR20090073294 A KR 20090073294A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- person
- face
- relationship
- face recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 사람 상호관계 추론 방법에 관한 것으로, 특히 영상 정보 내에 존재하는 사람의 얼굴을 인식하고, 이를 통해 한장 혹은 다수의 영상 내의 사람 상호관계를 추론하는 방법에 관한 것이다.The present invention relates to a human correlation inference method, and more particularly, to a method of recognizing a human face existing in image information and inferring human correlation in one or more images.
근래의 통신기술의 발전은 사람 간의 의사소통과 관계기반의 활동을 상당부분 통신망을 통하여 이루어지도록 하고 있다. 인터넷 블로그나 이메일은 통신망 기반의 관계활동의 대표적인 예로 일종의 사회 관계를 표현하는 매체라고 할 수 있다. 특히 페이스 북(Facebook)이나, 국내의 싸이월드(cyworld)의 경우 텍스트 기반의 온라인 사회활동이 아닌 영상 기반의 활동이 빈번하다. 그중에서도, 사람의 얼굴이 중심이 되는 경우가 많으며 사람은 별다른 학습과정 없이도 여러 장의 사진 예시를 통하여 인물 간의 관계를 추론할 필요성이 있으며, 이러한 과정을 자동화하여 인물간의 관계를 추론하고 더 나아가 다량의 사진으로부터 인물의 군집화(grouping), 군집간의 연결인물 추정, 다량의 군집을 가장 적은 방문으로 통합할 수 있는 인물의 추정 등이 필요하다.The recent development of communication technology has made much of the communication and relationship-based activities between people through the communication network. Internet blogs and e-mails are a representative example of communication activities based on communication networks. In particular, Facebook and cyworld in Korea are often video-based activities, not text-based online social activities. Among them, the face of the person is often the center, and the person needs to infer the relationship between the people through the example of several pictures without any learning process. Grouping of figures, estimation of connected persons between clusters, and estimation of persons who can integrate a large number of clusters into the least visits.
일반적으로 기존에는 하나의 얼굴에 대하여 지정된 입력 얼굴이 등장하는 영상의 집합을 아내는 영상검색 분야가 활발히 연구되어 왔다. 이러한 영상검색 분야는 물론 같은 얼굴인식 기술을 사용하고 있지만 확률적 계산에 의한 1:1 검색에 한정되어 있다.In general, the field of image retrieval has been actively studied for a set of images in which a specified input face appears for a single face. The field of image retrieval uses the same face recognition technology, of course, but is limited to 1: 1 retrieval by probabilistic calculation.
관련된 종래 기술로는 신경 회로망과 은닉 마르코프 모델과의 결합을 이용한 얼굴인식 방법(한국공개특허 1999-0086440)이 있는데 이는 상이한 사람마다 각기 다수개의 얼굴 영상을 취득하여 T 개의 특징 벡터를 추출하고, 추출된 T개의 특징 벡터 중 절반을 이용하여 신경 회로망을 훈련시킴으로써 각각의 식별 대상자를 등록하고, 훈련된 신경 회로망에 상기 나머지 절반의 특징 벡터를 제공하여 상기 등록된 식별 대상자와 나머지 절반의 특징 벡터와의 관련 데이터 파일을 생성하고, 생성된 관련 데이터 파일로부터 절반의 파일 데이터를 이용하여 은닉 마르코프 모델을 훈련시켜 상기 대상자당 가장 작은 수렴값을 갖는 모델 파라미터를 생성하는 단계로 구성된다. Related prior arts include a face recognition method using a combination of neural networks and hidden Markov models (Korean Patent Laid-Open Publication No. 1999-0086440), which extracts and extracts T feature vectors by acquiring a plurality of face images for different people. Each of the subjects is registered by training a neural network using half of the T feature vectors, and the trained neural network is provided with the remaining half of the feature vectors to be associated with the registered identifiers and the other half of the feature vectors. Generating a related data file and training the hidden Markov model using half the file data from the generated related data file to generate a model parameter with the smallest convergence value per subject.
또한, 블록 매칭 기반 얼굴 특징 추적 방법(한국공개특허 2002-0080064)은 피사체 얼굴의 구성요소를 검출하고, 검출된 얼굴의 구성 요소의 위치정보를 검출하고, 검출되어진 위치정보를 정규화시켜 특징 벡터 궤적을 산출하여 노이즈 등을 제거하고, 표정 인식에 따른 특징 벡터의 유효 공간 정의와 양자화를 수행하여 은닉 마르코프 모델을 기준으로 표정을 인식하는 과정을 포함하여 구성된다.In addition, the block matching-based facial feature tracking method (Korean Patent Laid-Open Publication No. 2002-0080064) detects a component of a subject face, detects position information of a component of the detected face, and normalizes the detected position information to track a feature vector. Is calculated to remove noise and the like, and to perform effective space definition and quantization of a feature vector according to facial expression recognition to recognize facial expressions based on a hidden Markov model.
상기와 같은 종래의 기술은 따라서, 주로 얼굴을 인식하는데 중점을 두고 있어 하나의 영상화면에 존재하는 다수의 인물들 간의 관계를 파악하는 것은 어려운 문제점이 있다. 또한 같은 영상 내의 인물들 간의 관계뿐만 아니라 하나의 영상화면에 존재했던 인물이 다른 영상에서 존재하는 경우 그러한 인물들 간의 연결점을 찾고 관련된 인물들 간의 관계를 파악하기에는 어려운 문제점이 있다.Therefore, the above-described conventional technology mainly focuses on face recognition, and thus, it is difficult to grasp the relationship between a plurality of people existing in one image screen. In addition, when there are not only relationships between people in the same image but also a person who existed in one image screen in another image, it is difficult to find a connection point between such people and to identify a relationship between related people.
본 발명은 상기한 종래 기술의 문제점을 해결하기 위하여 안출된 것으로서, 한장 혹은 다수의 영상정보로부터 해당 영상정보 내의 인간들 간의 상호 연결관계를 자동으로 파악하고, 이를 데이터 베이스화하여 특정 인간과 타 인간과의 관계를 용이하게 검색하게 해주는 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-described problems of the prior art, and automatically grasps the interconnection relationship between humans in the image information from one or a plurality of image information, and makes a database thereof to establish a database with a specific human and other humans. It is an object of the present invention to provide a method of inferring human interrelationship in images through face recognition which makes it easy to search for a relationship.
상기한 과제를 해결하기 위한 본 발명에 따른 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법은 하나 이상의 영상 정보를 입력받는 제 1 단계, 상기 입력된 영상 정보에서 얼굴을 검출하는 제 2 단계, 상기 제 2 단계에서 검출된 얼굴을 고유값으로 레이블링하여 인물을 인식하는 제 3 단계, 상기 제 3 단계에서 인식된 인물에 대해 관계 빈도 행렬의 빈도를 증가시키고 화면에 등장하는 인물들간 군집화하는 제 4 단계 및 상기 관계 빈도 행렬과 군집화된 데이터를 이용하여 다수의 인물들 간의 관계를 추정하는 제 5 단계를 포함한다.According to an aspect of the present invention, there is provided a method for inferring human correlation in an image through face recognition according to an embodiment of the present invention. A first step of receiving one or more image information, a second step of detecting a face from the input image information, A third step of recognizing the person by labeling the face detected in the second step with an eigen value, a fourth step of increasing the frequency of the relationship frequency matrix for the person recognized in the third step and clustering among the people appearing on the screen And a fifth step of estimating a relationship between a plurality of persons using the relationship frequency matrix and the clustered data.
여기서, 상기 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법은 상기 입력된 영상 정보에 포함된 모든 인물의 얼굴을 검출할 때까지 상기 제 2 단계 내지 제 3 단계를 반복한다.Here, the method of inferring human correlation in the image through the face recognition repeats the second to third steps until the faces of all persons included in the input image information are detected.
상기 제 2 단계는 상기 입력된 영상으로부터 얼굴 후보 영역을 검출하는 제 1 과정 및 상기 얼굴 후보 영역 중 얼굴 크기와 피부색을 이용하여 얼굴 이외의 영 역을 필터링하는 제 2 과정을 포함한다.The second step includes a first step of detecting a face candidate area from the input image and a second step of filtering an area other than the face by using a face size and a skin color among the face candidate areas.
상기 제 3 단계는 고유 얼굴(Eigenfaces) 인식 방법을 사용하여 인물을 인식하거나, 은닉 마르코프 모델(Hidden Markov Model)을 사용하여 인물을 인식한다.The third step is to recognize a person using an eigenfaces recognition method, or to recognize a person using a Hidden Markov Model.
상기 제 4 단계는 상기 제 3 단계에서 인식된 인물이 기존의 데이터 베이스에 존재하는 인물이 아닌 경우에는 이름을 포함하는 해당 인물의 식별값을 사용자로부터 입력받는 과정을 더 포함한다.The fourth step further includes receiving an identification value of the corresponding person including a name from the user when the person recognized in the third step is not a person existing in the existing database.
상기 제 4 단계의 관계 빈도 행렬은 행을 i로 하고 열을 j로 하는 aij를 행렬원소로 하는 행렬로, 여기서 i,j는 인물의 식별 번호이며, aij는 i 인물이 등장할 때 j 인물이 등장하는 빈도값이다.The relationship frequency matrix of the fourth step is a matrix whose row is i and the column j is a ij , where i, j is an identification number of a person, and a ij is j when a person appears. The frequency of the appearance of a person.
상기 제 4 단계는 하나의 정지 영상 단위로 상기 관계 빈도 행렬을 갱신한다.The fourth step updates the relationship frequency matrix in one still image unit.
상기 제 4 단계는 상기 제 3 단계에서 인식된 인물이 기존의 데이터 베이스에 존재하는 인물이 아닌 경우에는 상기 관계 빈도 행렬의 행과 열의 전체 크기를 1씩 증가시키고 인식된 인물에 새로운 식별 번호를 부여한다.In the fourth step, when the person recognized in the third step is not a person existing in the existing database, the total size of the rows and columns of the relationship frequency matrix is increased by one and a new identification number is assigned to the recognized person. do.
상기 제 4 단계는 하나의 정지 영상에 포함된 인물들 상호 간에 상기 관계 빈도 행렬의 해당 빈도값을 1씩 증가시킨다.The fourth step increases the corresponding frequency value of the relationship frequency matrix by 1 between persons included in one still image.
상기 제 4 단계는 하나의 정지 영상에서 인식된 인물들끼리 하나의 그룹으로 군집화한다.In the fourth step, people recognized in one still image are clustered into one group.
상기 제 5 단계는 서로 다른 그룹의 인물들 중 공통적으로 등장하는 인물을 연결점으로 설정하는 제 1 과정 및 상기 연결점으로 설정된 인물과 그 인물이 속하는 하나 이상의 그룹에 포함된 타 인물들 간에 상기 관계 빈도 행렬의 빈도값에 따른 관계를 추정한다.The fifth step may be a first process of setting a person appearing in common among different groups of persons as a connection point, and the relationship frequency matrix between the person set as the connection point and other people included in at least one group to which the person belongs. Estimate the relationship according to the frequency value of.
상기와 같이 구성되는 본 발명에 따른 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법은 얼굴인식을 통하여 다량의 영상 가운데에서 한 인물에서 다른 인물까지 관계에 이르는 방법을 알아낼 수 있다. 이는 특정 사회구성원들의 관계를 직접 조사하지 않고 영상을 통하여 알아낼 수 있으며, 자신이 가진 여러 장의 영상으로부터 등장하는 인물들에 대한 관계 정보를 얻어 냄으로서 기존에 자신이 가지고 있던 관계에 대하여 인지하지 못하였던 부분을 새롭게 알아낼 수 있다. 또한, 앞으로 그 양이 무한해질 영상에 대해서 잠재적인 관계 추론 방법을 제안함으로써 과학수사, 인지과학 분야에 긍정적인 기여를 할 수 있다. 또한 본 발명은, 인공지능(Artificial Intelligence), 심리학(Psychology), 뇌과학(Neuro Science) 등의 학문 분야에도 기여할 수 있다.In the method of inferring human interaction in an image through face recognition according to the present invention configured as described above, a method of reaching a relationship from one person to another person in a plurality of images through face recognition may be found. This can be found through video without investigating the relations of specific members of the society, and by getting relationship information about the characters appearing from several images of their own, they have not been aware of their existing relationships. New parts can be found. In addition, it is possible to make a positive contribution to the field of forensic science and cognitive science by proposing potential relation inference method for the images which will be infinite in the future. The present invention can also contribute to academic fields such as artificial intelligence, psychology, neuroscience and the like.
이하, 첨부된 도면을 참조하여 본 발명의 구체적인 구성 및 실시예를 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings illustrating a specific configuration and embodiment of the present invention.
본 발명은 얼굴인식 방법을 이용하여 영상에서의 사람 상호관계를 알아내는 방법에 관한 것이다. 본 발명에서는 1:1 검색이 아니라 영상에서 등장하는 얼굴들을 일정 관계로 모델링하여 서로 다른 두 영상에서 교차되는 인물을 주요 특징점으로 하여 서로 만나거나 같이 영상이 등장한 적이 없더라도 교집합을 이루는 인물들을 주요 지점으로 한 인적 네트워크 구조를 밝혀낼 수 있다. 이는 사람이 뇌를 이용하여 관계를 정의하는 방법과 비슷한 것이다. 본 발명에서는 얼굴이라는 신체 주요 특징을 지정된 영상에서 검출해 내고 이를 인식하기 위하여 인공지능 알고리즘을 사용한다. The present invention relates to a method of detecting human correlation in an image using a face recognition method. In the present invention, rather than 1: 1 search, the faces appearing in the image are modeled in a certain relationship, and the characters intersecting in two different images are the main feature points. One human network structure can be identified. This is similar to how a person uses the brain to define a relationship. In the present invention, an artificial intelligence algorithm is used to detect and recognize a main body feature of a face in a designated image.
도 1은 본 발명에 따른 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법이 도시된 순서도이다.1 is a flowchart illustrating a method of inferring human correlation in an image through face recognition according to the present invention.
도 1을 참조하면, 먼저 하나 이상의 영상정보를 입력받는다(S10).Referring to FIG. 1, first, at least one image information is input (S10).
입력되는 영상정보는 하나의 정지영상이거나 동영상이 될 수 있다. The input image information may be one still image or a moving image.
다음 단계로 상기 입력된 영상 정보에서 얼굴을 검출한다(S20).In operation S20, a face is detected from the input image information.
만약 입력된 영상이 정지영상인 경우에는 해당 정지영상에 등장하는 인물들의 얼굴을 검출하고, 동영상의 경우에는 각 프레임 또는 일정한 간격으로 샘플링된 다수의 정지 영상에 대하여 각 정지 영상마다 등장하는 인물들의 얼굴을 검출한다.If the input image is a still image, the faces of people appearing in the still image are detected, and in the case of a video, the faces of people appearing in each still image for a plurality of still images sampled at each frame or at regular intervals. Is detected.
얼굴을 검출하는 과정은 다음과 같이 이루어진다.The process of detecting a face is performed as follows.
입력된 영상으로부터 먼저 얼굴 후보 영역을 검출하고, 상기 얼굴 후보 영역 중에 얼굴 이외의 영역을 제거하는 필터링을 거쳐 최종적인 얼굴 영역을 검출한다.The face candidate region is first detected from the input image, and the final face region is detected by filtering to remove a region other than the face from the face candidate region.
상기 얼굴 후보 영역은 이후의 필터링 과정을 거쳐 얼굴이 아니라고 판단되거나 보다 정확한 얼굴 영역으로 다듬어진다.The face candidate region is determined to be not a face through a subsequent filtering process or trimmed to a more accurate face region.
이때 얼굴 후보 영역을 검출한 후에 보다 정확한 얼굴 영역을 검출하기 위해서 영상을 보정할 필요가 있다. 이 경우 상기 얼굴 후보 영역을 밝기값에 대한 분산을 이용하여 정규화 할 수 있다. 즉, 밝기 히스토그램의 평준화를 사용하여 얼굴 후보 영역에서 지나치게 어둡거나 지나치게 밝은 부분을 보정하는 것이다.In this case, after detecting the face candidate region, it is necessary to correct the image in order to detect a more accurate face region. In this case, the face candidate region may be normalized by using variance of brightness values. In other words, by using the leveling of the brightness histogram, an excessively dark or too bright part of the face candidate area is corrected.
다음으로, 얼굴 후보 영역 중에서 얼굴 이외의 부분을 제거하는데, 본 발명은 일실시예로 추출된 후보 영역 중 잘못 추출된 영역을 제거하기 위하여 색영역(피부색) 기반의 필터링 방법, 크기 기반의 필터링 방법을 사용한다. Next, a part other than the face is removed from the face candidate areas, and the present invention provides a color gamut (skin color) based filtering method and a size based filtering method to remove an incorrectly extracted area from among extracted candidate areas. Use
피부색 기반은 얼굴이라는 신체 특징상 영상에서 피부색이 두드러지기 때문에 검출된 얼굴 후보 영역의 피부색 확률이 일정 수치(임계치) 미만일 경우 얼굴 후보 영역으로 사용하지 않는다.The skin color base is not used as the face candidate area when the skin color probability of the detected face candidate area is less than a predetermined value (threshold value) because the skin color is prominent in the image due to the physical feature of the face.
크기 기반은 우연히 얼굴 비슷한 특징을 가진 개체가 감지되더라도 영상에서 얼굴이 가질 수 있는 크기를 임계치로 설정하고 이에 미달되면 얼굴 후보 영역으로 사용하지 않는 방법을 사용한다. The size-based method uses a method that sets a size that a face can have in the image as a threshold even if an object having a face-like feature is detected by accident and does not use it as a face candidate area if it falls short of this.
즉, 소정의 기준 얼굴 크기를 정해놓고 해당 기준 얼굴 크기보다 작은 얼굴 후보 영역은 고려 대상에서 제외하거나, 얼굴 후보 영역 중 피부색 이외의 부분을 제거함으로써 보다 정확한 얼굴 영역만을 검출한다.That is, a predetermined reference face size is determined and a face candidate area smaller than the reference face size is excluded from consideration, or only a more accurate face area is detected by removing portions other than skin color among the face candidate areas.
이렇게 얼굴 영역을 검출한 후에는 검출된 얼굴을 고유값으로 레이블링하여 인물을 인식한다(S30).After detecting the face region as described above, the detected face is labeled with a unique value to recognize a person (S30).
이 경우 얼굴을 인식하여 인물을 구별하는 방법에는 기존의 다양한 방법이 사용될 수 있다. 여기서 얼굴 인식은 인물 인식과 동일한 의미이다.In this case, a variety of existing methods may be used to distinguish faces by recognizing faces. Here, face recognition has the same meaning as person recognition.
얼굴 인식은 얼굴 생체 정보를 통한 개인 인식의 한 방법이다. 얼굴 인식을 위해서는 먼저 하나의 영상에서 얼굴에 해당하는 영역을 상기 서술한 바와 같이 검출하고 패턴 인식기에 해당 영역에 대한 정보를 전달해 주어야 한다.Face recognition is a method of personal recognition through face biometric information. For face recognition, first, an area corresponding to a face is detected in one image as described above, and information about the area is transmitted to the pattern recognizer.
패턴 인식기는 입력된 특징으로부터 고유값을 추출하여 식별한다. The pattern recognizer extracts and identifies the eigenvalues from the input feature.
패턴인식기에 되는 특징(Feature)에 따라 다음과 같이 분류 할 수 있다.It can be classified as follows according to the feature (Feature) to be a pattern recognizer.
전체적 접근법은 얼굴 영상 전체를 패턴 인식기에 전달하는 방법이다. 이 방법의 대표적인 예로는 고유 얼굴(Eigenface) 인식 방법이 있다. 고유 얼굴(Eigenface)는 선형대수에서 고유 벡터(Eigenvector)를 이용하여 같은 선형공간의 나머지 벡터를 재구성할 수 있다는 개념으로부터 도출되어, 고유 얼굴(eigenface)의 선형 조합으로 모든 얼굴을 표현 가능하다는 가정하에 얼굴인식을 수행하는 방법이다. 이를 이용하는 방법으로는, Fisherface, Support Vector Machines, Nearest Feature Lines(NFL), Independent Component Analysis 가 있다. 이들은 모두 중요 구성요소 분석(Principal Component Analysis, 이하 PCA) 를 기초로 하고 있다. PCA 는 반복적인 학습과정 중 데이터 집합을 좀더 낮은 차원으로 단순화시키는 기법이다. The holistic approach is to deliver the entire face image to the pattern recognizer. A representative example of this method is the eigenface recognition method. Eigenface is derived from the concept of reconstructing the remaining vectors of the same linear space using eigenvectors in linear algebra, assuming that all faces can be represented by linear combinations of eigenfaces. How to perform face recognition. Methods using this include Fisherface, Support Vector Machines, Nearest Feature Lines (NFL), and Independent Component Analysis. They are all based on Principal Component Analysis (PCA). PCA is a technique that simplifies the data set to a lower level during an iterative learning process.
다음으로, 특징기반 접근법은 얼굴 영상을 여러 가지 영상처리 기법을 통하 여 해석된 정보를 사용한다. 이 해석된 정보는 특징(Feature) 이라고 한다. 이 특징에 대한 정보는 주로 코, 눈, 간의 거리나 각도정보 등의 얼굴 구조적인 정보를 표현한다. 이 접근법의 단점은 다양한 시점에 따라 다른 구조를 지닌다는 점과 조명상황에 불변하는 특징점을 찾는 것이 어렵다는 것이다. Next, the feature-based approach uses the information of the face image interpreted through various image processing techniques. This interpreted information is called a feature. The information on this feature mainly represents facial structural information such as nose, eyes, distance or angle information between the eyes. The disadvantages of this approach are that they have different structures at different points in time and it is difficult to find feature points that are invariant to lighting conditions.
다음으로, 복합적인 접근법은 사람이 얼굴인식을 수행하는 것과 가장 유사한 것으로 위에서 언급한 두 가지 방법을 조합하여 사용한다. 확률적으로는 가장 높은 신뢰도를 보이지만 컴퓨터 연산양은 가장 많다.Next, the complex approach is the most similar to human face recognition, using a combination of the two methods mentioned above. Probably the highest confidence, but the largest amount of computing.
얼굴의 인식을 위한 인공지능 알고리즘의 일례로 은닉 마르코프 모델(Hidden Markov Model)을 사용할 수 있다. As an example of an artificial intelligence algorithm for face recognition, a hidden Markov model may be used.
필터링을 거쳐 최종으로 얻어낸 얼굴 영역을 정규화하여 은닉 마르코프 모델(Hidden Markov Model)에 전달한다.After filtering, the final face area is normalized and passed to the Hidden Markov Model.
은닉 마르코프 모델은 얼굴 후보 영역을 분석하여 소정의 계수값을 반환하는데 이 계수값을 식별을 위한 고유값으로 이용하여 얼굴을 구분할 수 있다.The hidden Markov model analyzes the face candidate region and returns a predetermined coefficient value, which can be distinguished by using the coefficient value as a unique value for identification.
또한, 이 경우 해당 인물의 이름이나 별명 등을 사용자 인터페이스로부터 입력받을 수 있고 이를 고유값으로 하여 인물을 구별할 수 있다.In this case, the name or nickname of the person may be input from the user interface, and the person may be distinguished using the unique value.
본 발명은 상기 설명한 방법에 의해 한정되지 않고 이외에 다른 여러 가지 방법을 사용하여 얼굴 이미지를 분석하여 인물을 식별할 수 있다.The present invention is not limited to the above-described method, and a person may be identified by analyzing a face image using various other methods.
이렇게 인물을 식별하면 식별된 인물이 기존의 데이터 베이스에 존재하는 인물인지 새롭게 등장한 인물인지 판단한다(S40). When the person is identified in this way, it is determined whether the identified person is a person existing in the existing database or a person newly appearing (S40).
만약 새롭게 인식된 인물인 경우에는 새로운 식별 번호를 부여한다(S50).If the newly recognized person is assigned a new identification number (S50).
다음으로 인식된 인물에 대해 관계 빈도 행렬의 빈도값을 증가시키고 하나의 화면에 등장하는 인물들간 군집화한다(S60, S70).Next, the frequency value of the relationship frequency matrix is increased for the recognized person and clustered among people appearing on one screen (S60 and S70).
상기와 같이 식별 번호가 부여된 여러 인물들 간의 관계를 파악하기 위해 본 발명은 관계 빈도 행렬을 이용한다.As described above, the present invention uses a relationship frequency matrix in order to grasp the relationship between the various persons assigned the identification number.
관계 빈도 행렬과 관계된 파라미터들은 다음과 같다.The parameters related to the relationship frequency matrix are as follows.
N 은 인식되어 저장된 인물의 수를 말하며, i 인물이 등장할 경우 j 인물이 등장할 확률 또는 빈도값인 aij=p[Rj|Ri] 로 표현되며, Ri 는 i 인물에 대한 고유값을 말하는데 은닉 마르코프 모델의 계수값이라든지 기타 설정된 인물의 이름을 말한다.N is the number of characters recognized and stored, and when i person appears, it is expressed as a ij = p [R j | R i ], which is the probability or frequency of j person appearing, and R i is unique to i person. It refers to a value, such as the coefficient value of a hidden Markov model or the name of a set person.
또한, 관계 빈도 행렬인 A 는 행을 i로 하고 열을 j로 하며, 행렬 요소가 aij인 행렬(N×N)이다. 여기서 i 와 j 는 모두 1 에서 N 사이의 값(1≤<i,j≤<N)이며, 상기 각 인물의 식별 번호이다.Further, A, which is a relation frequency matrix, is a matrix (N × N) in which a row is i, a column is j, and a matrix element is a ij . I and j are both
새로운 인물이 인식될 때마다 i와 j의 최대값인 N 은 증가하게 되며, 새로운 인물은 제일 마지막 인식된 인물의 식별 번호보다 하나 더 식별 번호를 가지게 된다.Each time a new person is recognized, N, the maximum value of i and j, increases, and the new person has one more identification number than the last recognized person's identification number.
상기와 같은 파라미터들을 가지는 관계특징(Relation Feature)들은 3차원 공간에 분포하게 되는데, 각 차원의 요소는 (i, j, aij)를 가진다. 이를 그림으로 나타낸 것이 도 2 이며, 도 2는 관계 특징의 분포 예가 도시된 도이다.Relation Features having the above parameters are distributed in three-dimensional space, and each dimension element has (i, j, a ij ). This is illustrated in FIG. 2, and FIG. 2 is a diagram showing an example of distribution of relationship features.
행렬 A 는 한 인물에서 다른 한 인물 간의 접촉빈도를 나타내는 행렬로 이미 지에서는 등장 횟수를 의미한다.Matrix A Is a matrix representing the frequency of contact between one person and another and means the number of appearances in the image.
도 3은 관계 빈도 행렬의 작성 알고리즘이 도시된 도이다.3 is a diagram illustrating an algorithm for creating a relationship frequency matrix.
도 3을 참조하여 관계 빈도 행렬이 어떻게 생성되고 갱신되는지 설명하겠다.Referring to FIG. 3, how the relationship frequency matrix is generated and updated will be described.
먼저 하나의 정지영상에 등장하는 인물의 얼굴을 인식하여 인식된 인물에게 순차적으로 식별 번호를 부여한다.First, a face of a person appearing in one still image is recognized and an identification number is sequentially assigned to the recognized person.
도 4는 임의의 제 1 영상에 등장한 인물에 식별번호가 부여된 일례가 도시된 도이며, 도 5는 제 1 영상에 등장한 인물들로 이루어진 관계 빈도 행렬의 일례가 도시된 도이다.FIG. 4 is a diagram illustrating an example in which an identification number is assigned to a person appearing in an arbitrary first image, and FIG. 5 is a diagram illustrating an example of a relationship frequency matrix composed of persons appearing in the first image.
도 4를 참조하면, 세 명의 인물이 인식되면 이를 데이터 베이스에 저장된 인물과 일치하는지 검사하여 새로운 인물인 경우에는 이 세 명에게 고유의 식별 번호를 부여한다. 즉, 도 4에 도시된 바와 같이 1번, 2번, 3번을 부여하고 관계 빈도 행렬의 행과 열을 새롭게 검색된 인물의 수만큼 확장한다.Referring to FIG. 4, when three persons are recognized, the characters are checked to match those stored in the database, and in the case of a new person, the three persons are given unique identification numbers. That is, as shown in FIG. 4, 1, 2, and 3 are assigned, and the rows and columns of the relationship frequency matrix are expanded by the number of newly searched persons.
만약 기존에 어떠한 관계 빈도 행렬이 없었다면 도 5와 같이 새롭게 3행 3열로 이루어진 관계 빈도 행렬(A)을 생성하고, 새롭게 생성된 부분의 행렬요소는 0으로 초기화한다.If there is no relation frequency matrix, the relation frequency matrix A consisting of three rows and three columns is newly created as shown in FIG. 5, and the matrix elements of the newly generated portion are initialized to zero.
그리고 제 1 영상에 등장한 인물들끼리 교차되는 행렬요소에 빈도값을 1씩 증가시킨다. 모든 인물에 대해 이 과정이 이루어지면 도 5와 같이 완성된 관계 빈도 행렬이 만들어진다.In addition, the frequency value is increased by 1 in the matrix element where the characters appearing in the first image intersect. When this process is performed for all the figures, the completed relationship frequency matrix is created as shown in FIG. 5.
도 5를 참조하면, 1번, 2번, 3번 인물은 서로 각각 1 번의 빈도를 가지게 된다. 즉, 하나의 영상에 1번 등장하였다는 것을 기록한 것이다.Referring to FIG. 5, the first, second and third persons have a frequency of one each. That is, it is recorded that one appearance appeared in one image.
다음으로 새로운 제 2 영상에 대해 인식된 인물을 상기 제 1 영상에서 완성된 관계 빈도 행렬에 추가하는 방법을 설명한다.Next, a method of adding a person recognized for the new second image to the relationship frequency matrix completed in the first image will be described.
도 6은 임의의 제 2 영상에 등장한 인물에 식별번호가 부여된 일례가 도시된 도이며, 도 7은 제 2 영상에 등장한 인물들로 이루어진 관계 빈도 행렬의 일례가 도시된 도이다.FIG. 6 is a diagram illustrating an example in which an identification number is assigned to a person appearing in a second image, and FIG. 7 is a diagram illustrating an example of a relationship frequency matrix composed of people appearing in a second image.
도 6 을 참조하면, 먼저 제 2 영상 내의 인물을 인식한다. 인식된 인물을 기존의 데이터 베이스에 저장된 인물과 검색하여 새로운 인물이 누구인지 판별한다.Referring to FIG. 6, first, a person in a second image is recognized. The recognized person is searched with the person stored in the existing database to determine who the new person is.
제 2 영상에서는 1번 인물이 기존의 인물이며, 나머지는 새롭게 인식된 인물로 가정되었기에 새롭게 인식된 인물에 새로운 식별 번호를 부여한다. 이전의 정지영상에서 3번 까지 부여하였으므로, 4번 및 5번으로 식별 번호를 부여한다.In the second image, the first person is an existing person, and the other person is assumed to be a newly recognized person, and thus a new identification number is assigned to the newly recognized person. Since the number is given up to 3 times in the previous still image, the identification number is assigned as 4 and 5.
다음으로, 관계 빈도 행렬(A)을 갱신해야 한다. 관계 빈도 행렬은 이전에 3×3 행렬이었으나, 새롭게 두 명의 인물이 등장하였으므로, 행과 열을 각각 2만큼 증가시킨다. 개개의 인물 별로 식별한 후에 관계 빈도 행렬을 갱신하는 경우에는 4번 인물에 대해 한번 행과 열을 증가시키고, 5번 인물에 대해 한번 더 행과 열을 증가시키게 되는 것이다.Next, the relationship frequency matrix A needs to be updated. The relationship frequency matrix was previously a 3x3 matrix, but since two new characters appeared, we increment the rows and columns by 2 each. In the case of updating the relationship frequency matrix after identifying each person, the number of rows and columns is increased once for
도 7은 상기에서 살펴본 바와 같이 새롭게 인식된 2명의 인물에 대해 관계 빈도 행렬을 갱신한 것이다. 1번 인물은 2번, 3번, 4번, 5번 모두와 한번의 빈도값을 가지며, 2번 및 3번은 4번 및 5번과는 관계 빈도가 없음을 알 수 있다.FIG. 7 illustrates a relationship frequency matrix updated for two newly recognized persons as described above.
이렇게 관계 빈도 행렬은 다수의 정지 영상에 등장하는 다수의 인물들 간의 빈도값을 기록할 수 있다.As such, the relationship frequency matrix may record frequency values among a plurality of persons appearing in a plurality of still images.
그리고 제 2 영상에 함께 등장한 1번, 4번, 5번 인물들에 대한 영상 정보 및 인물 정보를 그룹화하여 데이터 베이스에 저장한다.In addition, image information and person information of
이렇게 하나의 정지 영상에 대해 관계 빈도 행렬이 만들어지면, 정지 영상에 같이 등장한 인물끼리 군집화한다. 군집화의 제 1 실시예로는 인물들이 등장한 정지 영상의 식별값과 해당 정지영상에 등장한 인물이 누구누구였는지에 대한 정보를 그룹화하여 데이터베이스에 저장한다(S70).When a relationship frequency matrix is generated for one still image, the figures appearing in the still image are clustered together. In the first embodiment of the clustering, the identification value of the still image in which the persons appear and the information on who the person appeared in the still image are grouped and stored in the database (S70).
군집화의 제 2 실시예로는 영상을 통해 인식된 전체 인물들을 정점(V)과 간선(E)으로 이루어진 그래프 G=(V, E)로 만들고, 상기 그래프에서 소정의 간선을 제거하여 하나 이상의 그룹으로 만들 수 있다. 구체적인 설명은 다음과 같다.In a second embodiment of clustering, all the figures recognized through the image are made into a graph G = (V, E) of vertices V and edges E, and one or more groups are removed by removing predetermined edges from the graph. Can be made with The detailed description is as follows.
도 8은 관계 추정을 위한 두 그룹의 일례가 도시된 도이다.8 is a diagram illustrating an example of two groups for relationship estimation.
일반적으로 경험에 그룹의 정의는 그룹 내의 연결은 강하고 그룹 외부로의 연결은 약한 사람들의 집합이라고 할 수 있다. 이러한 사회적 네트워크는 그래프 이론을 이용하여 표현하는 것이 해석하기 용이하다.In general, experience defines a group as a group of people who have strong connections within the group and weak connections outside the group. Such social networks are easy to interpret using graph theory.
따라서, 하나의 사회 관계를 다음과 같이 정의한다.Therefore, one social relationship is defined as follows.
그래프 G=(V, E)는 사회 관계의 전체 집합(영상에 의해 인식된 인물의 전체 집합)을 의미하며 V는 정점(인식된 개개인)을 의미하고 E는 각 정점 간의 간선(인식된 인물들간의 관계)을 의미한다.The graph G = (V, E) means the whole set of social relations (the whole set of figures recognized by the image), V means the vertices (individuals recognized), and E means the edges between each vertex (between the recognized figures). Relationship).
전체 관계 집합 속에서 앞서 정의한 그룹의 정의에 기반하여 N 개의 그룹으로 나누는 것은 사회 관계 구조해석에 반드시 필요하다. In the whole relationship set, dividing into N groups based on the group definitions defined above is essential for the social relationship structure analysis.
하나의 정점에서 다른 정점으로 갈 때 확률적으로 가장 많이 거치는 정점이 가장 큰 사이(betweenness) 값을 갖는 특징이 있다. 사이값은 하기의 [수학식 1]과 같이 정의된다.When going from one vertex to another, there is a characteristic that the vertices most likely to pass through have the largest betweenness value. The inter-value is defined as in
σst(=σts) 는 그래프 G=(V, E) 에서 정점 s∈V 에서 t∈V 로 갈 수 있는 길의 개수이며, σst(v)는 정점 s 에서 t 로의 가장 짧은 길(shortest path) 중 정점 v 를 지나는 길의 개수이다. CB(v)는 한 그래프 집합에서 하나의 정점의 영향력을 측정할 수 있는 척도인 평가함수이다.σ st (= σ ts ) is the number of paths from vertex s∈V to t∈V in graph G = (V, E), and σ st (v) is the shortest path from vertex s to t number of paths through vertex v). C B (v) is an evaluation function that is a measure of the impact of one vertex in a set of graphs.
이러한 관계는 정점 뿐만 아니라 간선에 대해서도 동일하게 적용할 수 있다. 주어진 그래프에서 σst(e)는 정점 s 에서 t 로의 길 중 간선 e를 지나가는 길의 개수이며, s, t 는 간선 e 의 양 끝에 존재하는 정점이다. 상기에서 설명한 각 정점간의 최단거리는 앞서 구한 관계 빈도 행렬을 이용하여 구한다.This relationship is equally applicable to edges as well as vertices. In a given graph, σ st (e) is the number of paths along the edge e of the path from vertex s to t, and s and t are vertices at both ends of the edge e. The shortest distance between each vertex described above is obtained using the relationship frequency matrix obtained above.
간선의 사이(Betweenness)값의 정의는 하기의 [수학식 2]와 같다.The definition of the betweenness value of the edge is shown in
여기서, CB(e)는 간선 e 를 지나는 최단거리의 개수를 의미한다. 앞서 언급한 그룹의 정의에 따르면 그룹을 결정하는 방법은 사이값이 높은 간선을 제거하는 것이다. 이는 사이값이 높은 간선 e 는 그룹간의 연결이라고 볼 수 있기 때문이다. 하지만 그룹 내부에서는 그룹간 연결보다 사이값이 낮다. 이러한 특성은 그룹을 등분하는 데 사용될 수 있다. 또한 그룹의 개수는 사이값의 크기로 내림차순 정렬된 간선들을 하나씩 제거해 나감으로써 조절할 수 있다.Here, C B (e) means the number of the shortest distance passing through the trunk line e. According to the definition of a group mentioned above, the method of determining a group is to remove edges having high inter-values. This is because the edge e having a high interstitial value can be regarded as a connection between groups. However, within the group, the inter-value is lower than the connection between groups. This property can be used to subdivide groups. In addition, the number of groups can be adjusted by removing edges sorted in descending order by the magnitude of the values.
도 8을 참조하면, 도 8은 분할되기 전의 두 개의 그룹을 보여주고 있는데, 왼쪽에 a 정점을 포함한 4개의 정점과 오른쪽에 b 정점을 포함한 7개의 정점 집합이 존재하는데, 간선 e 에 의해 연결되고 있다. 간선 e 는 높은 사이값을 가진다고 할 수 있다. 즉 왼쪽 그룹의 임의의 한 정점에서 오른쪽 임의의 한 정점으로 가는 경우에 간선 e가 가장 많이 사용될 수 있으므로 간선 e 의 사이값이 가장 크다. 따라서, 간선 e 를 제거하면 두 개의 그룹으로 분리할 수 있다.Referring to FIG. 8, FIG. 8 shows two groups before splitting, where there are four vertices including a vertex on the left and seven vertices including b vertex on the right, connected by edge e. have. Edge e can be said to have a high value. That is, the edge e may be the most used in the case of going from any one vertex in the left group to any one vertex in the right group, so the value between the edges e is the largest. Thus, if the edge e is removed, it can be divided into two groups.
상기 설명한 관계 빈도 행렬을 구성하는 과정(S60)과 군집화하는 과정(S70)들은 정지 영상에 인물 하나 하나가 인식될 때마다 매번 개별적으로 이루어질 수도 있고, 정지 영상 내의 모든 인물을 인식한 후에 모든 인물들에 대해 동시에 이루어질 수도 있다.The process of constructing the relationship frequency matrix (S60) and the clustering process (S70) described above may be performed separately each time one person is recognized in the still image, or after all persons in the still image are recognized. It may also be done at the same time.
다음으로 상기 관계 빈도 행렬과 군집화된 데이터를 이용하여 다수의 인물들 간의 관계를 추정할 수 있다.Next, the relationship between a plurality of persons may be estimated using the relationship frequency matrix and the clustered data.
이를 위해서 먼저 서로 다른 그룹의 인물들 중 공통적으로 등장하는 인물들을 연결점으로 설정하고, 상기 연결점으로 설정된 인물과 그 인물이 속하는 하나 이상의 그룹에 포함된 타 인물들 간에 상기 관계 빈도 행렬의 빈도값에 따라 관계를 추정한다.To this end, first, people who appear in common among different groups of people are set as connection points, and according to the frequency value of the relationship frequency matrix between the person set as the connection point and other people included in at least one group to which the person belongs. Estimate the relationship.
즉, 본 발명에서는 관계 빈도의 빈도값이 높을수록 두 인물 간 친밀도가 높다고 판단할 수 있다. 서로 교류하고 있는 빈도가 높을 경우 동일한 사진에 등장할 확률이 높으며, 하나의 사진에 등장하는 사람들은 서로 알고 있는 관계라고 간주하는 것이다.That is, in the present invention, it may be determined that the higher the frequency value of the relationship frequency, the higher the intimacy between the two persons. If the frequency of interaction with each other is high, the probability of appearing in the same picture is high, and people appearing in one picture are regarded as a relationship known to each other.
관계 추정을 위해 데이터 베이스에 저장된 그룹화 정보를 검색하여 여러 그룹에서 중첩적으로 등장하는 인물을 추출하고 해당 인물이 등장하는 영상들에 관한 식별값과 해당 인물과 같이 등장하는 다른 인물들간의 관계 빈도값 등을 링크시켜 데이터 베이스에 저장한다.Search the grouping information stored in the database to estimate the relationship, extract the characters that appear in several groups, and identify the identification values of the images in which the persons appear and the frequency of relations between other persons who appear like the persons Link back and store in the database.
본 발명은 일실시예로 사용자 인터페이스를 통해 사용자로부터 다양한 질문이나 식별자를 입력받아 데이터 베이스에 저장된 그룹화 정보와 관계 빈도 행렬에 따라 특정 인물 간의 관계를 추정하고 그 결과를 출력하도록 구성될 수 있다.The present invention may be configured to estimate a relationship between a specific person according to grouping information and a relationship frequency matrix stored in a database by receiving various questions or identifiers from a user through a user interface, and output the result.
관계 빈도 행렬 A 및 군집화 정보는 그래프이론, 클러스터링 알고리즘을 통하여 다음과 같이 다양하게 해석할 수 있다.Relation frequency matrix A and clustering information can be variously interpreted as follows through graph theory and clustering algorithm.
1. 설정된 인물 i 로부터 인물 j 까지 거쳐야 할 사람의 수와 그 사람의 추정1. the number of people to pass from the set person i to person j and their estimates
2. 같이 등장하는 사람들의 집합을 추정2. Estimate the set of people who appear together
3. 추정된 사람들의 집합 간에 연결점이 되는 인물 추정3. Estimating the person who is the link between the estimated set of people
4. 각 연결점이 되는 인물중 가장 많은 그룹을 포함하는 인물 추정4. Estimating a person that includes the largest group of people in each connection
이러한 해석 결과를 사용자 인터페이스를 통해 사용자에게 제공할 수 있다.This analysis result can be provided to the user through the user interface.
이상과 같이 본 발명에 의한 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법을 예시된 도면을 참조로 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명은 한정되지 않고, 기술사상이 보호되는 범위 이내에서 응용될 수 있다. As described above, the method of inferring human correlation in an image through face recognition according to the present invention has been described with reference to the illustrated drawings, but the present invention is not limited by the embodiments and drawings disclosed herein, and the technical idea is protected. It can be applied within the range.
도 1은 본 발명에 따른 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법이 도시된 순서도,1 is a flowchart illustrating a method of inferring human correlation in an image through face recognition according to the present invention;
도 2는 관계 특징의 분포 예가 도시된 도,2 is a diagram showing an example of distribution of relationship features;
도 3은 관계 빈도 행렬의 작성 알고리즘이 도시된 도,3 is a diagram illustrating an algorithm for creating a relationship frequency matrix;
도 4는 임의의 제 1 영상에 등장한 인물에 식별번호가 부여된 일례가 도시된 도, 4 is a diagram illustrating an example in which an identification number is assigned to a person appearing in an arbitrary first image;
도 5는 제 1 영상에 등장한 인물들로 이루어진 관계 빈도 행렬의 일례가 도시된 도,5 is a diagram illustrating an example of a relationship frequency matrix composed of persons appearing in a first image;
도 6은 임의의 제 2 영상에 등장한 인물에 식별번호가 부여된 일례가 도시된 도, 6 is a diagram illustrating an example in which an identification number is assigned to a person appearing in an arbitrary second image;
도 7은 제 2 영상에 등장한 인물들로 이루어진 관계 빈도 행렬의 일례가 도시된 도,7 is a diagram illustrating an example of a relationship frequency matrix composed of persons appearing in a second image;
도 8은 관계 추정을 위한 두 그룹의 일례가 도시된 도이다.8 is a diagram illustrating an example of two groups for relationship estimation.
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070141198A KR100969298B1 (en) | 2007-12-31 | 2007-12-31 | Method For Social Network Analysis Based On Face Recognition In An Image or Image Sequences |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070141198A KR100969298B1 (en) | 2007-12-31 | 2007-12-31 | Method For Social Network Analysis Based On Face Recognition In An Image or Image Sequences |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090073294A true KR20090073294A (en) | 2009-07-03 |
KR100969298B1 KR100969298B1 (en) | 2010-07-09 |
Family
ID=41330459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070141198A KR100969298B1 (en) | 2007-12-31 | 2007-12-31 | Method For Social Network Analysis Based On Face Recognition In An Image or Image Sequences |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100969298B1 (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011017653A1 (en) * | 2009-08-07 | 2011-02-10 | Google Inc. | Facial recognition with social network aiding |
WO2011049783A3 (en) * | 2009-10-23 | 2011-08-18 | Microsoft Corporation | Automatic labeling of a video session |
WO2011109250A2 (en) * | 2010-03-01 | 2011-09-09 | Microsoft Corporation | Ranking based on facial image analysis |
EP2355006A3 (en) * | 2010-01-28 | 2014-03-26 | Pantech Co., Ltd. | Mobile terminal and method for forming human network using the same |
KR20140091599A (en) * | 2011-11-15 | 2014-07-21 | 페이스북, 인크. | Facial recognition using social networking information |
US8805079B2 (en) | 2009-12-02 | 2014-08-12 | Google Inc. | Identifying matching canonical documents in response to a visual query and in accordance with geographic information |
US8811742B2 (en) | 2009-12-02 | 2014-08-19 | Google Inc. | Identifying matching canonical documents consistent with visual query structural information |
WO2014126308A1 (en) * | 2013-02-18 | 2014-08-21 | 명지대학교 산학협력단 | System for selecting career using hierarchical feature categorization of facial image and method for same |
US8935246B2 (en) | 2012-08-08 | 2015-01-13 | Google Inc. | Identifying textual terms in response to a visual query |
US8977639B2 (en) | 2009-12-02 | 2015-03-10 | Google Inc. | Actionable search results for visual queries |
US9087059B2 (en) | 2009-08-07 | 2015-07-21 | Google Inc. | User interface for presenting search results for multiple regions of a visual query |
US9135277B2 (en) | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
US9146923B2 (en) | 2010-08-10 | 2015-09-29 | Samsung Electronics Co., Ltd | Method and apparatus for providing information about an identified object |
US9183224B2 (en) | 2009-12-02 | 2015-11-10 | Google Inc. | Identifying matching canonical documents in response to a visual query |
US9405772B2 (en) | 2009-12-02 | 2016-08-02 | Google Inc. | Actionable search results for street view visual queries |
KR20160128275A (en) | 2016-10-27 | 2016-11-07 | 에스케이플래닛 주식회사 | Service systembased on face recognition inference, and face recognition inference method and storage medium thereof |
US9852156B2 (en) | 2009-12-03 | 2017-12-26 | Google Inc. | Hybrid use of location sensor data and visual query to return local listings for visual query |
KR101898648B1 (en) * | 2018-01-02 | 2018-09-13 | 단국대학교 산학협력단 | Apparatus and Method for Detecting Interacting Groups Between Individuals in an Image |
CN113283480A (en) * | 2021-05-13 | 2021-08-20 | 北京奇艺世纪科技有限公司 | Object identification method and device, electronic equipment and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004302644A (en) * | 2003-03-28 | 2004-10-28 | Sony Corp | Face identification device, face identification method, recording medium and robot device |
KR100571826B1 (en) * | 2003-12-02 | 2006-04-17 | 삼성전자주식회사 | Large volume face recognition appratus and method thereof |
-
2007
- 2007-12-31 KR KR1020070141198A patent/KR100969298B1/en not_active IP Right Cessation
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104021150B (en) * | 2009-08-07 | 2017-12-19 | 谷歌公司 | Face recognition with social networks auxiliary |
WO2011017653A1 (en) * | 2009-08-07 | 2011-02-10 | Google Inc. | Facial recognition with social network aiding |
US10534808B2 (en) | 2009-08-07 | 2020-01-14 | Google Llc | Architecture for responding to visual query |
US10515114B2 (en) | 2009-08-07 | 2019-12-24 | Google Llc | Facial recognition with social network aiding |
US9087059B2 (en) | 2009-08-07 | 2015-07-21 | Google Inc. | User interface for presenting search results for multiple regions of a visual query |
CN102667763A (en) * | 2009-08-07 | 2012-09-12 | 谷歌公司 | Facial recognition with social network aiding |
US8670597B2 (en) | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
US10031927B2 (en) | 2009-08-07 | 2018-07-24 | Google Llc | Facial recognition with social network aiding |
US9135277B2 (en) | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
US9208177B2 (en) | 2009-08-07 | 2015-12-08 | Google Inc. | Facial recognition with social network aiding |
CN104021150A (en) * | 2009-08-07 | 2014-09-03 | 谷歌公司 | Facial recognition with social network aiding |
WO2011049783A3 (en) * | 2009-10-23 | 2011-08-18 | Microsoft Corporation | Automatic labeling of a video session |
CN102598055A (en) * | 2009-10-23 | 2012-07-18 | 微软公司 | Automatic labeling of a video session |
US8811742B2 (en) | 2009-12-02 | 2014-08-19 | Google Inc. | Identifying matching canonical documents consistent with visual query structural information |
US8805079B2 (en) | 2009-12-02 | 2014-08-12 | Google Inc. | Identifying matching canonical documents in response to a visual query and in accordance with geographic information |
US9183224B2 (en) | 2009-12-02 | 2015-11-10 | Google Inc. | Identifying matching canonical documents in response to a visual query |
US8977639B2 (en) | 2009-12-02 | 2015-03-10 | Google Inc. | Actionable search results for visual queries |
US9087235B2 (en) | 2009-12-02 | 2015-07-21 | Google Inc. | Identifying matching canonical documents consistent with visual query structural information |
US9405772B2 (en) | 2009-12-02 | 2016-08-02 | Google Inc. | Actionable search results for street view visual queries |
US9852156B2 (en) | 2009-12-03 | 2017-12-26 | Google Inc. | Hybrid use of location sensor data and visual query to return local listings for visual query |
US10346463B2 (en) | 2009-12-03 | 2019-07-09 | Google Llc | Hybrid use of location sensor data and visual query to return local listings for visual query |
US8953835B2 (en) | 2010-01-28 | 2015-02-10 | Pantech Co., Ltd. | Mobile terminal and method for forming human network using the same |
EP2355006A3 (en) * | 2010-01-28 | 2014-03-26 | Pantech Co., Ltd. | Mobile terminal and method for forming human network using the same |
US10296811B2 (en) | 2010-03-01 | 2019-05-21 | Microsoft Technology Licensing, Llc | Ranking based on facial image analysis |
WO2011109250A3 (en) * | 2010-03-01 | 2011-11-17 | Microsoft Corporation | Ranking based on facial image analysis |
WO2011109250A2 (en) * | 2010-03-01 | 2011-09-09 | Microsoft Corporation | Ranking based on facial image analysis |
US9465993B2 (en) | 2010-03-01 | 2016-10-11 | Microsoft Technology Licensing, Llc | Ranking clusters based on facial image analysis |
US9146923B2 (en) | 2010-08-10 | 2015-09-29 | Samsung Electronics Co., Ltd | Method and apparatus for providing information about an identified object |
US10031926B2 (en) | 2010-08-10 | 2018-07-24 | Samsung Electronics Co., Ltd | Method and apparatus for providing information about an identified object |
KR20140091599A (en) * | 2011-11-15 | 2014-07-21 | 페이스북, 인크. | Facial recognition using social networking information |
US9619694B2 (en) | 2011-11-15 | 2017-04-11 | Facebook, Inc. | Facial recognition using social networking information |
US9372920B2 (en) | 2012-08-08 | 2016-06-21 | Google Inc. | Identifying textual terms in response to a visual query |
US8935246B2 (en) | 2012-08-08 | 2015-01-13 | Google Inc. | Identifying textual terms in response to a visual query |
WO2014126308A1 (en) * | 2013-02-18 | 2014-08-21 | 명지대학교 산학협력단 | System for selecting career using hierarchical feature categorization of facial image and method for same |
KR20160128275A (en) | 2016-10-27 | 2016-11-07 | 에스케이플래닛 주식회사 | Service systembased on face recognition inference, and face recognition inference method and storage medium thereof |
KR101898648B1 (en) * | 2018-01-02 | 2018-09-13 | 단국대학교 산학협력단 | Apparatus and Method for Detecting Interacting Groups Between Individuals in an Image |
CN113283480A (en) * | 2021-05-13 | 2021-08-20 | 北京奇艺世纪科技有限公司 | Object identification method and device, electronic equipment and storage medium |
CN113283480B (en) * | 2021-05-13 | 2023-09-05 | 北京奇艺世纪科技有限公司 | Object identification method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR100969298B1 (en) | 2010-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100969298B1 (en) | Method For Social Network Analysis Based On Face Recognition In An Image or Image Sequences | |
CN109190470B (en) | Pedestrian re-identification method and device | |
EP2091021A1 (en) | Face authentication device | |
US20200401846A1 (en) | System and method for detecting potential matches between a candidate biometric and a dataset of biometrics | |
CN109815826A (en) | The generation method and device of face character model | |
Terhörst et al. | Deep and multi-algorithmic gender classification of single fingerprint minutiae | |
Soltane et al. | Multi-modal biometric authentications: concept issues and applications strategies | |
Akhtar et al. | Biometric template update under facial aging | |
CN111738059A (en) | Non-sensory scene-oriented face recognition method | |
Yin et al. | Fusion of face recognition and facial expression detection for authentication: a proposed model | |
Al-Nima | Human authentication with earprint for secure telephone system | |
Sun et al. | Using backpropagation neural network for face recognition with 2D+ 3D hybrid information | |
Liu et al. | Palm-dorsa vein recognition based on independent principle component analysis | |
Das et al. | Human gait recognition using deep neural networks | |
Chandana et al. | Face recognition through machine learning of periocular region | |
Hassen et al. | Human identification system: A review | |
Yu et al. | Research on face recognition method based on deep learning | |
Khan et al. | Introduction to face detection using eigenfaces | |
US20230230277A1 (en) | Object position estimation device, object position estimation method, and recording medium | |
KR20050091558A (en) | System and method for face recognition using light and preprocess | |
Lin et al. | A probabilistic union approach to robust face recognition with partial distortion and occlusion | |
Arunkumar et al. | PALMPRINT AND FACE BASED MULTIMODAL RECOGNITION USING PSO DEPENDENT FEATURE LEVEL FUSION. | |
Sagiroglu et al. | Artificial neural network based automatic face parts prediction system from only fingerprints | |
Tiwari | Gabor Based Face Recognition Using EBGM and PCA | |
Kartbayev et al. | Development of a computer system for identity authentication using artificial neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130527 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140612 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150626 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160602 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170621 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |