Nothing Special   »   [go: up one dir, main page]

KR101619656B1 - Gaze Tracking Apparatus and Method for Detecting Pupil thereof - Google Patents

Gaze Tracking Apparatus and Method for Detecting Pupil thereof Download PDF

Info

Publication number
KR101619656B1
KR101619656B1 KR1020140172313A KR20140172313A KR101619656B1 KR 101619656 B1 KR101619656 B1 KR 101619656B1 KR 1020140172313 A KR1020140172313 A KR 1020140172313A KR 20140172313 A KR20140172313 A KR 20140172313A KR 101619656 B1 KR101619656 B1 KR 101619656B1
Authority
KR
South Korea
Prior art keywords
pupil
eye image
image
state
unit
Prior art date
Application number
KR1020140172313A
Other languages
Korean (ko)
Inventor
김선아
이재호
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140172313A priority Critical patent/KR101619656B1/en
Application granted granted Critical
Publication of KR101619656B1 publication Critical patent/KR101619656B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a line-of-sight tracking device and a pupil detecting method thereof which can predict information on a pupil within a current acquired eye image based on pupil information detected from a previous eye image when detecting a pupil for tracking a line-of-sight, and detect a pupil based on the predicted pupil information, such that pupil detection accuracy can be improved. An eye image is inputted by a camera. A pupil state (a position and a size) within the eye image is predicted. Then, pupil candidates are selected from the eye image, and a pupil candidate which is most similar to the pupil state is detected among the pupil candidates as a pupil.

Description

시선추적장치 및 그의 동공검출방법{Gaze Tracking Apparatus and Method for Detecting Pupil thereof}Technical Field [0001] The present invention relates to a gaze tracking apparatus and a pupil detection method thereof,

본 발명은 시선추적장치에 관한 것으로, 더욱 상세하게는 시선 추적을 위해 동공 검출 시 이전 눈 영상에서 검출한 동공 정보에 근거하여 현재 취득한 눈 영상 내 동공에 대한 정보를 예측하고 그 예측한 동공정보를 기반으로 동공을 검출하여 정확도를 향상시킬 수 있는 시선추적장치 및 그의 동공검출방법에 관한 것이다.The present invention relates to a line-of-sight tracking apparatus, and more particularly to a line-of-sight tracking apparatus for predicting information on a pupil in a currently acquired eye image based on pupil information detected in a previous eye image, The present invention relates to a line-of-sight tracking apparatus and a pupil detection method thereof, which can improve pupil detection and accuracy.

일반적으로, 시선추적기는 얼굴 영상 및 눈 영상을 촬영하고 그 영상에서 동공을 검출한 후 동공 내 조명 반사점을 검출하고 그 검출한 조명 반사점을 이용하여 시선벡터를 계산하므로 시선 추적을 수행한다.In general, the gaze tracker captures facial images and eye images, detects pupil in the image, detects illumination reflections in the pupil, and calculates gaze vectors using the detected reflections.

이러한 종래의 시선추적기는 동공 검출 및 조명반사점을 검출한 뒤 칼만 필터(kalman filter) 등을 적용하여 스무딩(smoothing) 및 보정을 하여 시선벡터를 계산한다.Such a conventional gaze tracker detects a pupil and detects an illumination reflection point, and applies a Kalman filter or the like to smoothen and correct the gaze vector.

그러나, 종래와 같이 칼만 필터 등의 필터를 그대로 사용할 경우 시선 움직임이 선형적(linear)이지 않기 때문에 정확성이 떨어지는 문제점이 있다.However, when a filter such as a Kalman filter is used as it is in the prior art, there is a problem in that accuracy is poor because the gaze movement is not linear.

본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 시선 추적을 위해 동공 검출 시 이전 눈 영상에서 검출한 동공 정보에 근거하여 현재 취득한 눈 영상 내 동공에 대한 정보를 예측하고 그 예측한 동공정보를 기반으로 동공을 검출하여 정확도를 향상시킬 수 있는 시선추적장치 및 그의 동공검출방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the problems of the conventional art described above, and it is an object of the present invention to provide a method and apparatus for predicting information on a pupil in a currently acquired eye image based on pupil information detected in a previous eye image, A gaze tracking apparatus and pupil detection method capable of detecting pupil based on pupil information and improving accuracy.

상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 시선추적장치의 동공검출방법은 카메라를 통해 눈 영상을 입력받는 단계와, 상기 눈 영상내 동공상태를 예측하는 단계와, 상기 눈 영상에서 동공 후보를 선택하는 단계와, 상기 동공 후보 중 상기 동공상태와 가장 유사한 동공후보를 동공으로 검출하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of detecting a pupil of a line-of-sight tracing apparatus, including the steps of receiving an eye image through a camera, predicting a pupil state in the eye image, Selecting pupil candidates from the pupil candidates, and detecting the pupil candidates most similar to the pupil candidates out of the pupil candidates as pupils.

또한, 상기 동공상태 예측 단계는, 칼만 필터와 같은 재귀 필터를 이용하여 상기 동공상태를 예측하는 것을 특징으로 한다.The pupil state predicting step predicts the pupil state using a recursive filter such as a Kalman filter.

또한, 상기 동공상태는, 동공 위치 및 크기를 포함하는 것을 특징으로 한다.Further, the pupil state includes a pupil position and a size.

또한, 상기 재귀 필터는, 검출된 동공의 상태정보를 피드백받아 필터 내 이전 동공상태를 보정하는 것을 특징으로 한다.Further, the recursive filter corrects the pupil state in the filter by receiving the detected state information of the pupil.

또한, 상기 동공 후보 선정 단계는, 상기 눈 영상을 이진화하여 이진영상을 생성하는 단계와, 상기 이진영상에서 윤곽선을 추출하는 단계와, 상기 추출한 윤곽선 중 일정 크기 이상의 윤곽선을 동공 후보로 지정하는 단계를 포함하는 것을 특징으로 한다.The pupil candidate selection step may include generating a binary image by binarizing the eye image, extracting an outline on the binary image, and designating an outline of a predetermined size or more out of the extracted outline as a pupil candidate .

또한, 상기 동공 검출 단계는, 상기 눈 영상내 예측된 동공 위치와 동공 후보의 위치 사이의 거리를 산출하는 단계와, 상기 거리가 최소인 동공 후보를 동공으로 검출하는 단계를 포함하는 것을 특징으로 한다.The pupil detection step may include calculating a distance between the pupil position predicted in the eye image and the pupil candidate position and detecting pupil candidates having the smallest distance as the pupil .

한편, 본 발명의 일 실시예에 따른 시선추적장치는 사용자의 영상을 취득하는 카메라와, 상기 사용자에게 빛을 발산하는 조명부와, 상기 사용자의 영상으로부터 검출한 눈 영상내 동공상태를 예측하고 그 예측한 동공상태에 근거하여 동공을 검출하는 제어부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a gaze tracking apparatus including a camera for capturing an image of a user, an illumination unit for emitting light to the user, a pupil state estimation unit for estimating a pupil state in the eye image detected from the user's image, And a control unit for detecting the pupil based on the pupil state.

또한, 상기 제어부는, 상기 사용자의 영상으로부터 상기 눈 영상을 검출하는 눈 검출부와, 상기 눈 영상 내 동공의 위치 및 크기를 포함하는 상기 동공상태를 예측하는 동공 예측부와, 윤곽선 검출을 통해 상기 눈 영상으로부터 동공 후보를 선정하고 상기 동공 후보 중 상기 동공상태와 가장 유사도가 높은 동공 후보를 동공으로 검출하는 동공 검출부와, 상기 동공 내에서 상기 조명부에 의한 조명반사점을 검출하는 조명반사점 검출부와, 상기 동공과 조명반사점을 이용하여 시선벡터를 연산하는 시선 산출부를 포함하는 것을 특징으로 한다.The control unit may include an eye detection unit for detecting the eye image from the user's image, a pupil prediction unit for predicting the pupil state including the position and size of the pupil in the eye image, A pupil detection unit which selects a pupil candidate from the image and detects a pupil candidate having the highest degree of similarity with the pupil candidate among the pupil candidates as a pupil; an illumination reflection point detection unit that detects an illumination reflection point by the illumination unit in the pupil; And a line-of-sight calculating unit for calculating a line-of-sight vector using the illumination reflection point.

또한, 상기 동공 예측부는, 칼만 필터로 구현되는 것을 특징으로 한다.The pupil prediction unit may be implemented as a Kalman filter.

또한, 상기 동공 검출부는, 검출한 동공의 위치 정보 및 크기를 상기 동공 예측부로 피드백하는 것을 특징으로 한다.Further, the pupil detecting unit feeds back the detected position and size of the pupil to the pupil predicting unit.

본 발명은 동공 검출 시 이전 눈 영상에서 검출한 동공 정보에 근거하여 현재 취득한 눈 영상 내 동공에 대한 정보를 예측하고 그 예측한 동공정보를 기반으로 동공을 검출하여 정확도를 향상시킬 수 있다.The present invention predicts information on a pupil in a currently acquired eye image based on pupil information detected in a previous eye image in pupil detection, and improves accuracy by detecting pupil based on the predicted pupil information.

도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도.
도 2는 본 발명의 일 실시예에 따른 시선추적장치의 동공검출방법을 도시한 흐름도.
1 is a block diagram showing a gaze tracking apparatus according to an embodiment of the present invention;
FIG. 2 is a flowchart illustrating a pupil detection method of a gaze tracking apparatus according to an embodiment of the present invention. FIG.

본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The terms "comprises", "comprising", "having", and the like are used herein to mean that a component can be implanted unless otherwise specifically stated, Quot; element ".

또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " part, "" module, " and" module ", as used herein, refer to a unit that processes at least one function or operation and may be implemented as hardware or software or a combination of hardware and software . It is also to be understood that the articles "a", "an", "an" and "the" Can be used.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 시선추적장치를 도시한 블록구성도이다.1 is a block diagram illustrating a gaze tracking apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 시선추적장치(100)는 카메라(110), 조명부(120), 제어부(130)를 포함한다.1, the eye-gaze tracking apparatus 100 includes a camera 110, an illumination unit 120, and a control unit 130. [

카메라(110)는 사용자를 향하도록 설치되어 사용자의 영상을 취득한다. 이러한 카메라(110)는 하나 이상의 영상센서(미도시)로 구성된다. 여기서, 영상센서는 CCD(charge coupled device) 영상센서(image sensor), CMOS(complementary metal oxide semi-conductor) 영상센서, CPD(charge priming device) 영상센서 및 CID(charge injection device) 영상센서, 적외선 영상센서 등과 같은 영상센서들 중 어느 하나의 영상센서로 구현될 수 있다.The camera 110 is installed facing the user and acquires the image of the user. The camera 110 is composed of one or more image sensors (not shown). Here, the image sensor may be a charge coupled device (CCD) image sensor, a complementary metal oxide semi-conductor (CMOS) image sensor, a charge priming device (CPD) image sensor, a charge injection device (CID) And may be implemented as any one of image sensors such as a sensor.

예를 들어, 카메라(110)가 두 개의 적외선 영상센서 및 적외선 필터로 구성되는 스테레오 카메라일 수 있다.For example, the camera 110 may be a stereo camera composed of two infrared image sensors and an infrared filter.

조명부(120)는 카메라(110)과 나란하게 배치되어 사용자를 향해 빛을 조사한다. 조명부(120)는 하나 이상의 적외선 발광소자(IR LED)로 구성될 수 있다.The illumination unit 120 is disposed side by side with the camera 110 to irradiate light toward the user. The illumination unit 120 may be composed of one or more infrared light emitting devices (IR LEDs).

제어부(130)는 카메라(110)를 통해 획득한 사용자의 영상으로부터 눈 영상을 검출하고 눈 영상에서 동공 및 조명반사점을 검출한 후 동공 및 조명반사점을 이용하여 시선을 추적한다. 제어부(130)는 영상처리기(image processor)로 구현될 수 있다.The control unit 130 detects the eye image from the user's image acquired through the camera 110, detects the pupil and illumination reflection points in the eye image, and tracks the eyes using pupil and illumination reflection points. The controller 130 may be implemented as an image processor.

이러한 제어부(130)는 눈 검출부(131), 동공 검출부(133), 동공 예측부(135), 조명반사점 검출부(137), 시선 산출부(139)를 포함한다.The control unit 130 includes an eye detection unit 131, a pupil detection unit 133, a pupil prediction unit 135, an illumination reflection point detection unit 137, and a gaze calculation unit 139.

눈 검출부(131)는 카메라(110)로부터 입력되는 사용자의 영상으로부터 얼굴 영상을 추출한다. 그리고, 눈 검출부(131)는 얼굴 영상에서 눈 영상을 검출한다. 이때, 눈 검출부(131)는 공지된 얼굴 검출 알고리즘 및 눈 검출 알고리즘을 이용할 수 있다.The eye detecting unit 131 extracts a face image from a user's image input from the camera 110. [ Then, the eye detecting unit 131 detects the eye image from the face image. At this time, the eye detecting unit 131 may use a known face detection algorithm and an eye detection algorithm.

동공 검출부(133)는 눈 영상을 이진화(thresholding)을 통해 이진영상으로 변환한다. 동공 검출부(133)는 이진영상에서 하나 이상의 윤곽선(contours)을 검출한다. 동공 검출부(133)는 검출한 윤곽선 중 동공 형상과 유사한 윤곽선을 동공 후보로 선정한다. 예를 들어, 동공 검출부(133)는 윤곽선의 가로/세로 비율이 0.9이상 1.1이하인 윤곽선을 동공 후보로 검출한다. 또는, 동공 검출부(133)는 지름이 2mm이상 6mm이하인 원형의 윤곽선을 동공 후보로 검출한다.The pupil detection unit 133 converts the eye image into a binary image through thresholding. The pupil detection unit 133 detects one or more contours on the binary image. The pupil detection unit 133 selects a contour similar to the pupil shape among the detected contours as pupil candidates. For example, the pupil detection unit 133 detects a contour line having a horizontal / vertical ratio of the contour line of 0.9 or more and 1.1 or less as a pupil candidate. Alternatively, the pupil detecting section 133 detects a circular contour line having a diameter of 2 mm or more and 6 mm or less as pupil candidates.

동공 검출부(133)는 동공 예측부(135)에 의해 예측된 눈 영상내 동공의 상태정보를 이용하여 동공 후보 중 어느 하나의 동공 후보를 최종적으로 동공으로 검출한다. 여기서, 상태정보는 동공의 위치(좌표) 및 크기(예: 반지름) 등을 포함한다.The pupil detection unit 133 finally detects any one of the pupil candidates as the pupil using the state information of the pupil in the eye image predicted by the pupil predictor 135. [ Here, the state information includes the position (coordinate) and size (e.g., radius) of the pupil.

예컨대, 동공 검출부(133)는 동공 예측부(135)에 의해 예측된 동공의 위치로부터 가장 근접하게 위치하는 윤곽선을 동공으로 최정 결정한다.For example, the pupil detection unit 133 determines the pupil closest to the contour located closest to the position of the pupil predicted by the pupil predictor 135.

동공 예측부(135)는 동공 검출부(133)에 의해 이전에 검출된 동공의 상태정보(위치 및 크기)를 이용하여 현재 시점의 눈 영상내 동공의 상태정보를 예측한다. 예를 들어, 동공 예측부(135)는 이전 눈 영상에서 검출된 동공의 위치정보(동공의 중심점 좌표)를 이용하여 현재 눈 영상내 동공의 위치를 예측한다.The pupil prediction unit 135 predicts the state information of the pupil in the eye image at the current time using the pupil state information (position and size) previously detected by the pupil detection unit 133. [ For example, the pupil prediction unit 135 predicts the position of the pupil in the current eye image using the pupil position information (pupil center point coordinate) detected in the previous eye image.

동공 예측부(135)는 칼만 필터(Kalman Filter)와 같은 재귀 필터로 구현된다. 칼만 필터는 예측(predict) 단계와 보정(correct) 단계가 재귀적으로 동작한다. 예측 단계는 이전 시점에서 측정된 데이터를 기반으로 현재 시점의 추정값을 생성한다. 보정(measurement update) 단계는 현재 시점의 측정값을 받아 이전 값들을 통해서 보정하는 단계로 잡음을 제거하는 역할을 한다.The pupil prediction unit 135 is implemented with a recursive filter such as a Kalman filter. The Kalman filter recursively operates on the predictive and corrective steps. The prediction step generates an estimated value of the current time point based on the data measured at the previous time point. The measurement update step is a step of receiving the measured value at the current point and correcting the measured value through the previous values, thereby removing the noise.

이와 같이, 시선추적장치는 후처리로써 필터값을 활용하는 것이 아니라 동공 검출시 필터값을 통해 동공 위치를 미리 예측하여 가중치를 준다.Thus, the gaze tracking apparatus predicts the pupil position through the filter value at the time of pupil detection, and weights the pupil position instead of using the filter value as a post-processing.

동공 예측부(135)는 초기 동작 시 일정 프레임(예: 10 프레임) 동안 눈 영상(현재 프레임)에서 동공의 상태정보를 예측하고, 동공 검출부(133)로부터 검출된 동공의 상태정보를 보정한다.The pupil prediction unit 135 predicts the pupil state information in the eye image (current frame) for a predetermined frame (for example, 10 frames) in the initial operation, and corrects the state information of the pupil detected from the pupil detection unit 133.

조명반사점 검출부(137)는 검출한 동공 내 조명부(120)에 의해 발생되는 조명반사점(glint)을 검출한다. 조명반사점 검출은 동공 검출 방식을 이용할 수 있다.The illumination reflection point detection unit 137 detects an illumination reflection point (glint) generated by the detected intra-pupil illumination unit 120. The pupil detection method can be used for detection of the illumination reflection point.

시선 산출부(139)는 동공 검출부(133) 및 조명반사점 검출부(137)를 통해 검출된 동공 및 조명반사점의 중심점 좌표 및 카메라 정보를 이용하여 시선벡터를 연산한다. 예를 들어, 동공 및 조명반사점의 중심점 좌표를 연결하는 직선에 수직한 방향을 시선으로 산출한다.
The gaze calculation unit 139 calculates the gaze vector using the coordinates of the center point of the pupil and the illumination reflection point detected by the pupil detection unit 133 and the illumination reflection point detection unit 137 and the camera information. For example, the direction perpendicular to the straight line connecting the center point coordinates of the pupil and the illumination reflection point is calculated as a line of sight.

도 2는 본 발명의 일 실시예에 따른 시선추적장치의 동공검출방법을 도시한 흐름도이다.2 is a flowchart illustrating a pupil detection method of a gaze tracking apparatus according to an embodiment of the present invention.

먼저, 시선추적장치(100)는 카메라(110)를 통해 눈 영상을 취득한다(S101). 제어부(130)는 카메라(110)로부터 사용자의 영상을 입력받으면 얼굴 영역을 검출하고, 그 검출한 얼굴 영역에서 눈 영역을 검출한다.First, the gaze tracking device 100 acquires a snow image through the camera 110 (S101). Upon receiving the user's image from the camera 110, the control unit 130 detects the face region and detects the eye region in the detected face region.

제어부(130)는 눈 영상내 동공의 상태를 예측한다(S103). 다시 말해서, 제어부(130)의 동공 예측부(135)는 눈 영상 내 동공의 위치(동공 중심점 좌표) 및 크기(예: 반지름, 지름 등) 등을 포함하는 상태정보를 생성한다. 동공 예측부(135)는 예측한 동공 상태정보를 동공 검출부(133)로 전송한다.The control unit 130 predicts the pupil state in the eye image (S103). In other words, the pupil prediction unit 135 of the control unit 130 generates state information including the position (pupil center coordinate) and size (e.g., radius, diameter, etc.) of the pupil in the eye image. The pupil prediction unit 135 transmits the predicted pupil state information to the pupil detection unit 133. [

제어부(130)는 눈 영상을 이진화를 통해 이진영상으로 변환한다(S105).The control unit 130 converts the eye image into a binary image through binarization (S105).

제어부(130)는 윤곽선 검출기법을 이용하여 이진영상에서 윤곽선을 추출한다(S107). 이때, 제어부(130)는 추출한 윤곽선의 위치 및 크기를 산출한다.The control unit 130 extracts contour lines on the binary image using the contour detection technique (S107). At this time, the control unit 130 calculates the position and size of the extracted contour line.

제어부(130)는 검출한 윤곽선 중 동공 후보를 선택한다(S109). 예컨대, 제어부(130)는 검출한 윤곽선 중 지름 2mm 이상 6mm 이하인 윤곽선을 동공 후보로 선정한다.The control unit 130 selects pupil candidates among the detected contour lines (S109). For example, the control unit 130 selects a contour line having a diameter of 2 mm or more and 6 mm or less among the detected contour lines as pupil candidates.

제어부(130)는 예측한 동공상태와 동공 후보 사이의 유사도를 산출한다(S111). 예를 들어, 동공 검출부(133)는 동공의 예측 위치와 동공 후보의 위치 사이의 거리를 연산한다.The control unit 130 calculates the degree of similarity between the predicted pupil state and the pupil candidate (S111). For example, the pupil detection unit 133 calculates the distance between the predicted position of the pupil and the position of the pupil candidate.

제어부(130)는 유사도가 가장 높은 동공 후보를 동공으로 검출한다(S113). 동공 검출부(133)는 동공의 예측 위치와 동공 후보의 위치가 가장 가까운 동공 후보를 동공으로 검출한다.The control unit 130 detects pupil candidates having the highest similarity as a pupil (S113). The pupil detection unit 133 detects pupil candidates that are closest to the predicted position of the pupil and the pupil candidate as the pupil.

제어부(130)는 검출한 동공의 상태정보를 동공 예측부(135)로 피드백한다(S115). 동공 검출부(133)는 검출한 동공의 위치 및 크기를 포함하는 상태정보를 동공 예측부(135)로 전달한다.The control unit 130 feeds back the detected pupil state information to the pupil prediction unit 135 (S115). The pupil detection unit 133 transmits state information including the position and size of the detected pupil to the pupil prediction unit 135.

이후, 제어부(130)는 검출한 동공내 조명반사점을 검출하고, 검출한 동공과 조명반사점의 중심점좌표를 이용하여 시선벡터를 연산한다.
Then, the control unit 130 detects the detected intra-pupillary illumination reflex points and computes the line-of-sight vector using the coordinates of the center point of the detected pupil and the illumination reflex points.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the elements and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.

본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, a procedure, a function, or the like which performs the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

본 발명은 본 발명의 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

100: 시선추적장치
110: 카메라
120: 조명부
130: 제어부
131: 눈 검출부
133: 동공 검출부
135: 동공 예측부
137: 조명반사점 검출부
139: 시선 산출부
100: eye tracking device
110: camera
120:
130:
131: eye detection unit
133: Pupil detection unit
135: Pupil predictor
137: Illumination reflection point detector
139: line of sight calculation unit

Claims (10)

카메라를 통해 눈 영상을 입력받는 단계와,
상기 눈 영상내 동공 위치 및 크기를 포함하는 동공상태를 예측하는 단계와,
상기 눈 영상에서 동공 후보를 선택하는 단계와,
상기 동공 후보 중 상기 동공상태와 가장 유사한 동공후보를 동공으로 검출하는 단계를 포함하고,
상기 동공 검출 단계는,
상기 눈 영상내 예측된 동공 위치와 동공 후보의 위치 사이의 거리를 산출하는 단계와,
상기 거리가 최소인 동공 후보를 동공으로 검출하는 단계를 포함하는 것을 특징으로 하는 시선추적장치의 동공검출방법.
Receiving an eye image through a camera;
Estimating a pupil state including a pupil position and a size in the eye image;
Selecting pupil candidates from the eye image,
Detecting a pupil candidate most similar to the pupil state among the pupil candidates as a pupil,
The pupil detection step may include:
Calculating a distance between a pupil position predicted in the eye image and a pupil candidate position;
And detecting a pupil candidate having the minimum distance as a pupil.
제1항에 있어서,
상기 동공상태 예측 단계는,
칼만 필터와 같은 재귀 필터를 이용하여 상기 동공상태를 예측하는 것을 특징으로 하는 시선추적장치의 동공검출방법.
The method according to claim 1,
Wherein the pupil state predicting step comprises:
Wherein the pupil state is predicted using a recursive filter such as a Kalman filter.
삭제delete 제2항에 있어서,
상기 재귀 필터는,
검출된 동공의 상태정보를 피드백받아 필터 내 이전 동공상태를 보정하는 것을 특징으로 하는 시선추적장치의 동공검출방법.
3. The method of claim 2,
Wherein the recursive filter comprises:
And the state of the detected pupil is fed back to correct the pupil state in the filter.
제1항에 있어서,
상기 동공 후보 선택 단계는,
상기 눈 영상을 이진화하여 이진영상을 생성하는 단계와,
상기 이진영상에서 윤곽선을 추출하는 단계와,
상기 추출한 윤곽선 중 일정 크기 이상의 윤곽선을 동공 후보로 지정하는 단계를 포함하는 것을 특징으로 하는 시선추적장치의 동공검출방법.
The method according to claim 1,
Wherein the pupil candidate selection step comprises:
Generating a binary image by binarizing the eye image;
Extracting a contour on the binary image;
And designating a contour of a predetermined size or more out of the extracted contours as pupil candidates.
삭제delete 사용자의 영상을 취득하는 카메라와,
상기 사용자에게 빛을 발산하는 조명부와,
상기 사용자의 영상으로부터 검출한 눈 영상내 동공의 위치 및 크기를 포함하는 동공상태를 예측하고 그 예측한 동공상태에 근거하여 동공을 검출하는 제어부를 포함하고,
상기 제어부는 윤곽선 검출을 통해 상기 눈 영상으로부터 동공 후보를 선정하고 상기 동공 후보 중 예측된 동공 위치와의 거리가 최소인 동공 후보를 동공으로 검출하는 것을 특징으로 하는 시선추적장치.
A camera for acquiring a user's image,
A lighting unit for emitting light to the user;
And a controller for predicting a pupil state including a position and a size of a pupil in the eye image detected from the image of the user and detecting the pupil based on the predicted pupil state,
Wherein the control unit selects a pupil candidate from the eye image through contour detection and detects a pupil candidate having a minimum distance from the predicted pupil position of the pupil candidate as a pupil.
제7항에 있어서,
상기 제어부는,
상기 사용자의 영상으로부터 상기 눈 영상을 검출하는 눈 검출부와,
상기 눈 영상 내 상기 동공상태를 예측하는 동공 예측부와,
상기 눈 영상으로부터 동공으로 검출하는 동공 검출부와,
상기 동공 내에서 상기 조명부에 의한 조명반사점을 검출하는 조명반사점 검출부와,
상기 동공과 조명반사점을 이용하여 시선벡터를 연산하는 시선 산출부를 포함하는 것을 특징으로 하는 시선추적장치.
8. The method of claim 7,
Wherein,
An eye detector for detecting the eye image from the user's image;
A pupil prediction unit for predicting the pupil state in the eye image,
A pupil detection unit for detecting pupil from the eye image,
An illumination reflection point detection unit for detecting an illumination reflection point by the illumination unit in the pupil,
And a line-of-sight calculating unit for calculating a line-of-sight vector using the pupil and the illumination reflection point.
제8항에 있어서,
상기 동공 예측부는,
칼만 필터로 구현되는 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
Wherein the pupil prediction unit comprises:
And a Kalman filter.
제8항에 있어서,
상기 동공 검출부는,
검출한 동공의 위치 정보 및 크기를 상기 동공 예측부로 피드백하는 것을 특징으로 하는 시선추적장치.
9. The method of claim 8,
Wherein the pupil detection unit comprises:
And the position information and the size of the detected pupil are fed back to the pupil predicting unit.
KR1020140172313A 2014-12-03 2014-12-03 Gaze Tracking Apparatus and Method for Detecting Pupil thereof KR101619656B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140172313A KR101619656B1 (en) 2014-12-03 2014-12-03 Gaze Tracking Apparatus and Method for Detecting Pupil thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140172313A KR101619656B1 (en) 2014-12-03 2014-12-03 Gaze Tracking Apparatus and Method for Detecting Pupil thereof

Publications (1)

Publication Number Publication Date
KR101619656B1 true KR101619656B1 (en) 2016-05-10

Family

ID=56021266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140172313A KR101619656B1 (en) 2014-12-03 2014-12-03 Gaze Tracking Apparatus and Method for Detecting Pupil thereof

Country Status (1)

Country Link
KR (1) KR101619656B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078611A (en) * 2016-12-30 2018-07-10 주식회사 펀진 Pupil tracking device
KR102038413B1 (en) * 2018-05-28 2019-10-30 백석대학교산학협력단 Online lecture monitoring method using face verification and gaze tracking technology
SE1950825A1 (en) * 2019-06-28 2020-12-29 Tobii Ab Method and system for 3d cornea position estimation
KR20220051515A (en) 2020-10-19 2022-04-26 주식회사 씨앤비랩 An on-line sensing system for identifing examinees and students

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030006A (en) 2002-06-24 2004-01-29 Digital Fashion Ltd Eye detection apparatus, eye detection program, recording medium for recording the program, and eye detection method
JP2012024154A (en) * 2010-07-20 2012-02-09 Panasonic Corp Pupil detecting device and pupil detecting method
JP2013215549A (en) * 2012-03-16 2013-10-24 Fujitsu Ltd Image processing device, image processing program, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030006A (en) 2002-06-24 2004-01-29 Digital Fashion Ltd Eye detection apparatus, eye detection program, recording medium for recording the program, and eye detection method
JP2012024154A (en) * 2010-07-20 2012-02-09 Panasonic Corp Pupil detecting device and pupil detecting method
JP2013215549A (en) * 2012-03-16 2013-10-24 Fujitsu Ltd Image processing device, image processing program, and image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078611A (en) * 2016-12-30 2018-07-10 주식회사 펀진 Pupil tracking device
KR101917600B1 (en) * 2016-12-30 2018-11-13 주식회사 펀진 Pupil tracking device
KR102038413B1 (en) * 2018-05-28 2019-10-30 백석대학교산학협력단 Online lecture monitoring method using face verification and gaze tracking technology
SE1950825A1 (en) * 2019-06-28 2020-12-29 Tobii Ab Method and system for 3d cornea position estimation
SE543455C2 (en) * 2019-06-28 2021-02-23 Tobii Ab Method and system for 3d cornea position estimation
KR20220051515A (en) 2020-10-19 2022-04-26 주식회사 씨앤비랩 An on-line sensing system for identifing examinees and students

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
JP6577454B2 (en) On-axis gaze tracking system and method
US20180350070A1 (en) Recording medium storing computer program for pupil detection, information processing apparatus, and pupil detecting method
CN106547341B (en) Gaze tracker and method for tracking gaze thereof
KR101619656B1 (en) Gaze Tracking Apparatus and Method for Detecting Pupil thereof
US9454226B2 (en) Apparatus and method for tracking gaze of glasses wearer
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
US10552675B2 (en) Method and apparatus for eye detection from glints
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP2010123019A (en) Device and method for recognizing motion
JP2017117341A (en) Object detection method, device and program
JP2016532217A (en) Method and apparatus for detecting eyes with glint
US20200193131A1 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
US11308321B2 (en) Method and system for 3D cornea position estimation
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
KR101673694B1 (en) Gaze tracking apparatus and method for detecting glint thereof
KR101610496B1 (en) Method and apparatus for gaze tracking
CN111079555A (en) User preference degree determining method and device, electronic equipment and readable storage medium
US10474297B2 (en) Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
JP2017004438A (en) Input device, finger-tip position detection method, and computer program for finger-tip position detection
JP2016099939A (en) Face recognition device
KR101628543B1 (en) Gaze tracking apparatus and method for measuring tracking accuracy of the same
KR20160075322A (en) Apparatus for recognizing iris and operating method thereof
KR20160061691A (en) Gaze Tracker and Method for Detecting Pupil thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 4