Nothing Special   »   [go: up one dir, main page]

KR102001950B1 - Gaze Tracking Apparatus and Method - Google Patents

Gaze Tracking Apparatus and Method Download PDF

Info

Publication number
KR102001950B1
KR102001950B1 KR1020120082014A KR20120082014A KR102001950B1 KR 102001950 B1 KR102001950 B1 KR 102001950B1 KR 1020120082014 A KR1020120082014 A KR 1020120082014A KR 20120082014 A KR20120082014 A KR 20120082014A KR 102001950 B1 KR102001950 B1 KR 102001950B1
Authority
KR
South Korea
Prior art keywords
region
image
pupil
light
eye
Prior art date
Application number
KR1020120082014A
Other languages
Korean (ko)
Other versions
KR20140014870A (en
Inventor
이규태
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120082014A priority Critical patent/KR102001950B1/en
Publication of KR20140014870A publication Critical patent/KR20140014870A/en
Application granted granted Critical
Publication of KR102001950B1 publication Critical patent/KR102001950B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

실시 예에 따른 시선 추적 장치는 제 1 영상을 획득하는 단계; 상기 획득한 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 생성하는 단계; 상기 생성한 제 2 영상 내에서 사용자의 안구 영역을 인식하는 단계; 및 상기 인식한 안구 영역 내에서 사용자 동공을 인식하여 사용자 시선을 추적하는 단계를 포함한다.The eye tracking apparatus according to an embodiment of the present invention includes: acquiring a first image; Generating a second image having a higher resolution than the first image using the acquired first image; Recognizing a user's eye region within the generated second image; And tracking the user's gaze by recognizing the user's pupil within the recognized eye region.

Description

시선 추적 장치 및 이의 시선 추적 방법{Gaze Tracking Apparatus and Method}[0001] Gaze Tracking Apparatus and Method [0002]

실시 예는, 시선 추적 장치 및 이의 시선 추적 방법에 관한 것이다.An embodiment relates to a gaze tracking apparatus and a gaze tracking method thereof.

최근, 사용자의 시선 추적을 기반으로 통한 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등이 이루어지고 있다.Recently, it has been proposed to measure the viewer's advertisement effect based on the user's gaze tracking, analyze driver's driving behavior and prevent drowsiness, rearrange the menu through analysis of web page consumption behavior, control game using eye interaction, And placement of shelves through analysis of technical training programs and consumption behavior.

특허문헌 1은, 컴퓨터 비전 기반의 시선 추적 방법에 관련한다.Patent Document 1 relates to a computer vision-based gaze tracking method.

이 방법은 사용자의 얼굴 및 눈에 대한 특성 값에 대한 룩-업 테이블을 사용 전 구성 한다. 실제 시선 추적에 있어서는, 얼굴방향 및 홍채의 중심점을 측정한 후, 상기 특성 값과 상기 측정값을 비교하여 시선 방향을 계산한다. 시선 방향은 측정된 얼굴 방향 좌표계 및 홍채 중심 좌표계의 합성에 의해 계산된다. 얼굴 방향 측정은 T자 스틱형 참조모델을 착용하여 정확한 각도를 찾아내고, 홍채의 중심점은 홍채의 색깔 분포 분석에 의한 홍채색깔의 무게중심을 구하여, 그 무게중심을 시작으로 업/다운 스캐닝함으로써, 타원형 홍채 에지 내의 가장 긴 수평 라인을 찾고, 그 수평 라인의 중심점을 홍채의 중심점으로 결정한다. This method constitutes a look-up table for the user ' s face and eye characteristic values. In actual line-of-sight tracing, the gaze direction is calculated by measuring the face direction and the center point of the iris, and then comparing the characteristic value with the measured value. The gaze direction is calculated by combining the measured face direction coordinate system and the iris center coordinate system. The direction of the face is measured by finding a correct angle by wearing a T-stick type reference model. The center of the iris is obtained by finding the center of gravity of the iris color by analyzing the color distribution of the iris, Finds the longest horizontal line in the elliptical iris edge, and determines the center point of the horizontal line as the center point of the iris.

그러나, 이 방법은 다양한 얼굴 및 눈에 대한 특성 값을 미리 측정하여 룩업 테이블을 구성하는데 있어서 신뢰성을 높이기 위해서는 수많은 특성에 대한 특성을 미리 고려하고 수집해야 하는 제약이 있으며, 홍채 영역이 눈꺼풀에 의해 가려지는 경우 시선 추적 정확도가 떨어질 수 있다.However, in this method, in order to increase the reliability in constructing the look-up table by measuring characteristic values of various faces and eyes in advance, there is a restriction to collect and collect characteristics of a number of characteristics in advance. The eye tracking accuracy may be lowered.

특허문헌 2에 개시된 종래 기술은 사용자의 얼굴을 복수의 특징점에 의한 특징 면으로 파악하여 이 특징 면의 병진 및 회전에 의해 사용자의 얼굴의 방향을 인식함으로써 시선을 추적한다. 그 결과 신뢰도가 매우 높고 정확한 응시 위치 추적 시스템이 일반 사용이 가능할 만큼 저렴한 가격으로 제공될 수 있다. 그러나, 얼굴의 특징점만을 이용하고 안구의 회전은 고려하지 않기 때문에 직관적인 시선 추적 인터페이스라고 할 수 없으며, 목적한 위치에 커서를 움직이기 위해서는 고개를 지속적으로 움직여야 한다.The conventional technique disclosed in Patent Document 2 tracks the user's face by recognizing the face of the user as a feature surface by a plurality of feature points and recognizing the direction of the user's face by translating and rotating the feature surface. As a result, highly reliable and accurate pointing and tracking systems can be provided at a price that is affordable for general use. However, since only the feature points of the face are used and the rotation of the eyeball is not considered, it is not an intuitive eye tracking interface. In order to move the cursor to the desired position, the head should be moved continuously.

비 특허논문은 2대의 카메라로 구성한 스테레오 카메라 장치 및 3개의 적외선 조명을 이용하여 안구의 3차원 위치를 추정하고, 이를 통해 시선 벡터를 구하여 2차원 평면 화면상의 시선 위치를 구하는 방법을 제안한다. Non-patent papers propose a method of estimating the 3D position of eyeballs using a stereo camera device composed of two cameras and three infrared lights, and obtaining a gaze vector through this to obtain eye gaze position on a two-dimensional plane screen.

이 방법의 수행을 위해서는, 스테레오 카메라 구성을 위해 2대의 카메라 간 캘리브레이션 과정이 선행되어야 하며, 3개의 조명 간 위치가 정확하게 설정되어야 한다. In order to perform this method, the calibration process between two cameras must precede the stereo camera configuration, and the position between the three lights must be accurately set.

이러한 방법은 다수의 카메라 및 조명 장치를 구축하기 위한 비용이 많이 소요되는 문제점이 있다.This method has a problem that it is expensive to construct a large number of cameras and lighting devices.

특허문헌 1: KR 10-0311605Patent Document 1: KR 10-0311605

특허문헌 2: KR 10-0325365Patent Document 2: KR 10-0325365

비 특허문헌: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004 Non-Patent Documents: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004

실시 예는, 초 해상도 기법을 적용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 추적 방법을 제공한다.The embodiment provides a gaze tracking apparatus and a tracking method thereof that can track a user's gaze by applying a super resolution technique.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

실시 예에 따른 시선 추적 장치는 제 1 영상을 획득하는 단계; 상기 획득한 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 생성하는 단계; 상기 생성한 제 2 영상 내에서 사용자의 안구 영역을 인식하는 단계; 및 상기 인식한 안구 영역 내에서 사용자 동공을 인식하여 사용자 시선을 추적하는 단계를 포함한다.The eye tracking apparatus according to an embodiment of the present invention includes: acquiring a first image; Generating a second image having a higher resolution than the first image using the acquired first image; Recognizing a user's eye region within the generated second image; And tracking the user's gaze by recognizing the user's pupil within the recognized eye region.

또한, 실시 예에 따른 시선 추적 장치는, 제 1 영상을 획득하는 제 1 영상 획득부; 상기 제 1 영상 획득부를 통해 획득된 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 획득하는 제 2 영상 획득부; 상기 제 2 영상 획득부를 통해 획득된 제 2 영상으로부터 사용자의 안구 영역을 인식하고, 상기 인식한 안구 영역 내에 포함된 동공을 인식하는 시선 추적부; 및 상기 시선 추적부를 통해 인식된 동공을 이용하여 사용자 시선을 추적하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a gaze tracking apparatus comprising: a first image acquiring unit acquiring a first image; A second image acquiring unit for acquiring a second image having a higher resolution than the first image using the first image acquired through the first image acquiring unit; A gaze tracking unit for recognizing a user's eye region from a second image acquired through the second image acquisition unit and recognizing a pupil included in the recognized eye region; And a controller for tracking the user's gaze using the pupil recognized through the gaze tracking unit.

실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.

도 1은 실시 예에 따른 시선 추적 장치를 설명하는 도면이다.
도 2는 도 1에 도시된 영상 획득부의 상세 구성도이다.
도 3a 내지 3c는 일 실시 예에 따른 고해상도 영상 생성 개념을 나타내는 도면이다.
도 4는 실시 예에 의해 형성되는 고해상도 영상을 나타낸 도면이다.
도 5는 실시 예에 따른 시선 추적 방법을 설명하는 도면이다.
1 is a view for explaining a gaze tracking apparatus according to an embodiment.
2 is a detailed configuration diagram of the image acquisition unit shown in FIG.
3A to 3C are views illustrating a high-resolution image generation concept according to an embodiment.
4 is a view showing a high-resolution image formed by the embodiment.
5 is a view for explaining a gaze tracking method according to an embodiment.

첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention in the drawings, thicknesses are enlarged in order to clearly illustrate various layers and regions, and parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification .

도 1은 실시 예에 따른 시선 추적 장치를 설명하는 도면이다.1 is a view for explaining a gaze tracking apparatus according to an embodiment.

도 1을 참조하면, 시선 추적 장치는 영상 획득부(110), 고해상도 영상 생성부(120), 시선 추적부(130) 및 제어부(140)를 포함한다.Referring to FIG. 1, the gaze tracking apparatus includes an image acquisition unit 110, a high-resolution image generation unit 120, a gaze tracking unit 130, and a control unit 140.

영상 획득부(110)는 복수의 저해상도 이미지를 획득한다.The image acquiring unit 110 acquires a plurality of low resolution images.

도 2에 도시된 바와 같이, 이를 위해 영상 획득부(110)는 물체의 상을 맺기 위한 메인 렌즈(111), 메인 렌즈(111)를 통과한 광선들을 광선들의 방향에 기초하여 분리하여 포토 센서 어레이(115)로 향하게 하는 마이크로렌즈 어레이(113) 및 포토센서 어레이(115)를 포함한다.2, the image acquisition unit 110 includes a main lens 111 for forming an image of an object, a light source 111 for separating light beams passing through the main lens 111 based on the direction of light rays, Lens array 113 and photosensor array 115 that directs the light beam to the light source 115, as shown in FIG.

상기 영상 획득부(110)에 포함된 마이크로렌즈 어레이(113) 및 포토센서 어레이(115)는 이미지 센서(112)로 구현될 수 있다.The microlens array 113 and the photosensor array 115 included in the image acquisition unit 110 may be implemented as an image sensor 112.

상기와 같은 영상 획득부(110)를 이용하여, 실시 예에서는 복수의 저해상도 영상을 획득할 수 있다.In the embodiment, a plurality of low-resolution images can be obtained by using the image acquisition unit 110 as described above.

영상 획득부(110)의 동작에 대해 구체적으로 설명하면 다음과 같다.The operation of the image acquisition unit 110 will be described in detail as follows.

이미지화된 장면 내의 피사체(105) 상의 단일 점으로부터의 광선들은 마이크로렌즈 어레이(113)의 초점 평면상의 단일 수렴점으로 도달될 수 있다. The rays from a single point on the subject 105 in the imaged scene can reach a single convergent point on the focal plane of the microlens array 113. [

이 수렴점에서의 마이크로렌즈(114)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 어레이의 포토센서 상에 메인 렌즈(111)의 구경의 포커싱된 이미지를 생성한다.The microlens 114 at this convergence point separates these rays of light based on the direction of the light and produces a focused image of the aperture of the main lens 111 on the photosensor of the microlens array.

포토센서 어레이(115)는 그 위에 입사되는 광을 검출하고, 여러 가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(105, 106, 및 107)을 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토 센서에 대한 위치정보와 함께 데이터를 사용하는 고해상도 영상 생성부(120)로 보내진다.The photosensor array 115 detects the light incident thereon and produces an output that is processed using one or more of the various components. The output optical data includes, for example, a high-resolution image generation unit 120 using data together with positional information on each photosensor providing data when generating an image of a scene including the subjects 105, 106, and 107 ).

고해상도 영상 생성부(120)는, 이미지 데이터를 처리하고 피사체(105, 106 및 107)를 포함하는 장면의 이미지를 계산하도록 구현된다.The high-resolution image generation unit 120 is implemented to process the image data and calculate an image of a scene including the subjects 105, 106, and 107.

고해상도 영상 생성부(120) 광이 마이크로렌즈 어레이에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.Refocusing using the detected light or the characteristics of the detected light together with the known direction (calculated using the known position of each photosensor) in which the high-resolution image generating section 120 light reaches the microlens array, Selectively refocusing and / or calibrating the data as it forms an image that can be corrected.

이때, 마이크로렌즈(113)는 예로서 몇 개의 구별가능한 마이크로렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로렌즈로 구현된다. At this point, the microlens 113 is shown as several distinct microlenses, for example, but the array is typically implemented with multiple (e.g., thousands or millions) microlenses.

메인 렌즈(111)를 통과한 광선들을 광선들의 방향에 기초하여 분리하는 한 마이크로렌즈어레이(113) 이외에 광 부호화 마스크 등 다른 형태로 구성될 수 있다. 본 기술분야의 통상의 지식을 가진자는 현재 이용가능하거나 장래에 개발되는 여러가지 렌즈 및/또는 마이크로 렌즈 어레이를 이용하여 메인 렌즈(111) 및 마이크로렌즈 어레이(113)가 구현될 수 있음을 알 수 있을 것이다.In addition to the microlens array 113, an optical coding mask or the like may be used as long as the light beams passing through the main lens 111 are separated based on the directions of the light beams. Those skilled in the art will recognize that the main lens 111 and the microlens array 113 may be implemented using various lenses and / or microlens arrays that are currently available or will be developed in the future will be.

포토센서 어레이(115)는 일반적으로, 마이크로렌즈 어레이(113) 내의 각각의 마이크로렌즈마다 몇 개의 포토센서를 갖는다. 포토센서 어레이(115)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로렌즈 어레이(114)보다 상대적으로 미세하다. 또한, 마이크로렌즈 어레이(113)내의 마이크로렌즈 및 포토센서 어레이(115) 내의 포토센서는 일반적으로 각각의 마이크로렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로렌즈를 통해 나아간 광과 겹치지 않도록 위치설정될 수 있다.The photosensor array 115 generally has several photosensors for each microlens in the microlens array 113. The size, or pitch, of each pixel of the photosensor array 115 is relatively finer than the microlens array 114. In addition, the microlenses in the microlens array 113 and the photosensors in the photosensor array 115 are generally positioned such that light traveling through each microlens to the photosensor array does not overlap with light traveling through the adjacent microlenses .

메인 렌즈(111)는 메인 렌즈(111)와 예시적인 촬상 피사체(105) 사이에 예시된 바와 같은 원하는 심도 "d"에서 관심 있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. 따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.The main lens 111 has the same performance as moving in the horizontal direction along the optical axis to focus on a subject of interest at the desired depth "d" as illustrated between the main lens 111 and the exemplary imaging subject 105 . Thus, it is possible to perform refocusing at each position of interest based on the obtained optical field data.

예로서, 피사체(105)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로렌즈 어레이(113)의 초점 평면상의 마이크로렌즈(114)에서 단일 수렴점으로 도달할 수 있다. 마이크로렌즈(114)는 이들 광선들의 방향에 기초하여 분리해서, 마이크로렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(111)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.By way of example, rays from a single point of the subject 105 are shown for this illustration. These rays can reach a single convergence point in the microlens 114 on the focal plane of the microlens array 113. [ The microlens 114 separates based on the direction of these rays to produce focused image and light field data of the aperture of the main lens 111 on the set of pixels in the pixel array below the microlens.

시선 추적 장치 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(111)와 교차하고, (s,t)에서 마이크로렌즈 어레이(113)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(111)의 각 서브-어퍼쳐(sub-aperture)의 위치(u,v)를 통과하는 인텐서티 값들을 나타낸다. 여기에서, 서브-어퍼쳐는 메인 렌즈(111)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로렌즈 어레이(113)는 196개의 픽셀로 구성될 수 있다.The optical field data L (u, v, s, t) intersects the main lens 111 at (u, v), and (s, t ) Along the light ray intersecting the plane of the microlens array 113. [ For example, intensities passing through the position (u, v) of each sub-aperture of the main lens 111 in each microlens s, t. Here, the sub-aperture refers to the number of directional resolutions of the main lens 111. For example, if the number of sub-apertures is 196, each microlens array 113 may be composed of 196 pixels.

포토센서 어레이(115)내의 각각의 포토센서는 메인 렌즈(111) 및 마이크로렌즈 어레이(113)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(113)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in the photosensor array 115 may be implemented to provide a value representative of the set of rays directed to the photosensor through the main lens 111 and the microlens array 113. That is, each photosensor generates an output in response to light incident on the photosensor, and the position of each photosensor with respect to the microlens array 113 is used to provide direction information on the incident light.

고해상도 영상 생성부(120)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 리포커싱 영상을 생성할 수 있다. 이때, 고해상도 영상 생성부(120)는 마이크로렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서상의 광의 방향을 결정할 수 있다. 또한, 고해상도 영상 생성부(120)는 검출된 광이 퍼져나오는 장면 내의 피사체의 시야 심도를 결정하고, 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.The high resolution image generating unit 120 may generate the re-focusing image using the optical field data, i.e., L (u, v, s, t). At this time, the high-resolution image generator 120 can determine the direction of light on each photo sensor using the position of each photo sensor with respect to the microlenses. Also, the high-resolution image generation unit 120 determines the depth of field of the subject in the scene in which the detected light is emitted, and uses the depth of field and the direction of the detected light to generate a composite image focused on a focal plane different from the focal plane Can be calculated.

한편, 마이크로렌즈 어레이(113)내의 특정 마이크로렌즈(114) 아래에 형성되는 이미지는 촬상 평면상의 그 위치에 대한 시스템의 방향 분해능(directional resoultion)을 지시한다. 메인 렌즈(111)는 유효하게 마이크로렌즈의 광학적 무한 거리에 있고 마이크로렌즈를 포커싱하기 위해, 포토센서 어레이(115)는 마이크로 렌즈의 초점 심도에서 한 평면 내에 위치할 수 있다. On the other hand, the image formed below the specific microlens 114 in the microlens array 113 indicates the directional resoultion of the system relative to its position on the imaging plane. The main lens 111 is effectively at an optical infinity of the microlens and the photo sensor array 115 can be positioned in one plane at the focal depth of the microlens in order to focus the microlenses.

메인 렌즈(111)와 마이크로렌즈 어레이(113) 사이의 분리거리 "s"는 마이크로렌즈의 시야 심도 내에서 예리한 이미지를 달성하도록 선택될 수 있다.The separation distance "s" between the main lens 111 and the microlens array 113 can be selected to achieve a sharp image within the field of view of the microlens.

메인 렌즈(111)의 구경 크기 및 마이크로렌즈 어레이(113) 내의 마이크로렌즈의 구경 크기(예를 들어, 렌즈 내의 개구부의 유효 크기)는 시선 추적 장치가 구현되는 특정 애플리케이션에 부합하도록 선택될 수 있다. 이 방법은 메인 렌즈 및 마이크로렌즈의 f-수(초점비율: 즉, 렌즈의 유효 초점 길이 대 구경의 비)에 맞춤으로써 용이해진다.The aperture size of the main lens 111 and the aperture size of the microlenses in the microlens array 113 (e.g., the effective size of the aperture in the lens) may be selected to match the particular application in which the eye tracking device is implemented. This method is facilitated by fitting to the f-number (focal ratio: the effective focal length of the lens to the aperture diameter) of the main lens and the microlens.

도 3a 내지 3c는 일 실시 예에 따른 고해상도 영상 생성 개념을 나타내는 도면이다.3A to 3C are views illustrating a high-resolution image generation concept according to an embodiment.

도 3a에 도시된 바와 같이 광 필드 데이터를 캡처한다. 전술한 바와 같이, 광 필드 데이터를 이용하여 영상을 획득하면, 동일한 포토센서 어레이를 이용한 일반적인 촬상 장치에 비하여 공간 해상도가 저하된 복수 개의 저해상도 영상 또는 서브 샘플링된 영상이 획득된다. 일 실시 예에 따르면, 복수 개의 저해상도 영상 중 하나의 영상을 기준 영상 프레임으로 결정하고, 기준 영상 프레임 이외의 서브 샘플링된 저해상도 영상 프레임들을 적어도 하나의 참조 영상 프레임으로 선택하여 결정할 수 있다.Captures the light field data as shown in FIG. 3A. As described above, when an image is acquired using optical field data, a plurality of low-resolution images or sub-sampled images having reduced spatial resolution as compared with a general image pickup apparatus using the same photo sensor array are obtained. According to an exemplary embodiment, one of the plurality of low-resolution images may be determined as a reference image frame, and the sub-sampled low resolution image frames other than the reference image frame may be selected as at least one reference image frame.

도 3b는 HR 그리드 상에 광 필드 데이터를 등록한 결과를 나타낸다.3B shows the result of registering the optical field data on the HR grid.

도 3b는 일 실시 예에 따른 선정되는 기준 영상 프레임 및 참조 영상 프레임을 구성하는 광 필드 데이터를 고해상도 그리드 상에 등록한 것을 나타낸 도면이다. 도 3b에서, ●,×, △, *는 오브젝트의 한 점에 대한 광 필드 데이터로서 다른 메인 렌즈의 위치를 통과한 광 필드 데이터를 나타낸다. 3B is a diagram illustrating registration of optical field data constituting a reference image frame and a reference image frame to be selected according to an embodiment on a high resolution grid. In Fig. 3B, & cir &, DELTA, and * represent optical field data that passes through the position of another main lens as optical field data for one point of the object.

일 실시 예에 따르면, 점(311, 312)를 포함하는 ●으로 표시된 광 필드 데이터를 이용하여 형성된 영상 프레임이 기준 영상 프레임인 경우, 고해상도 그리드상에 도 3b에 도시된 바와 같이 등록될 수 있다.According to one embodiment, if the image frame formed using the light field data indicated by a circle including points 311 and 312 is a reference image frame, it may be registered on the high resolution grid as shown in FIG. 3B.

도 3c에 도시된 바와 같이 고해상도 영상 프레임을 재구성한다. 일 실시 예에 따르면, 오브젝트의 하나의 포인트에 대한 광 필드 데이터를 이용하여 기준 영상 프레임을 구성하는 광 필드 데이터 사이의 값을 보간함으로써 기준 영상 프레임의 해상도를 높일 수 있다. 예를 들어, 광 필드 데이터(311)와 광 필드 데이터(312) 사이의 HR 그리드상의 값(313)은 도 3b의 HR 그리드 상의 영역(310)에 속한 광 필드 데이터들을 이용하여 보간될 수 있다.The high-resolution image frame is reconstructed as shown in FIG. 3C. According to one embodiment, the resolution of the reference image frame can be increased by interpolating the values between the optical field data constituting the reference image frame using the optical field data for one point of the object. For example, the value 313 on the HR grid between the light field data 311 and the light field data 312 can be interpolated using the light field data belonging to the region 310 on the HR grid of Figure 3b.

상기와 같이, 도 4를 참조하면, 영상 획득부(110)는 저해상도를 갖는 복수의 이미지(410)를 획득하고, 고해상도 영상 생성부(120)는 상기 획득된 복수의 이미지(410)를 이용하여 고해상도의 영상(420)을 생성한다.4, the image acquisition unit 110 acquires a plurality of images 410 having a low resolution, and the high-resolution image generation unit 120 acquires a plurality of images 410 using the obtained plurality of images 410 And generates a high-resolution image 420.

상기와 같은 원리의 궁극적인 목적은, 상기 저해상도 영상 내에서 사용자의 안구 영역을 검출하고, 그에 따라 상기 고해상도 영상을 생성하여 상기 검출한 안구 영역을 확대하기 위한 것이다.The ultimate goal of the above principle is to detect the eye region of the user in the low-resolution image, and thereby to generate the high-resolution image to enlarge the detected eye region.

이에 따라, 상기 고해상도 영상 생성부(120)는 상기 저해상도 영상으로부터 사용자의 안구 영역을 검출하고, 그에 따라 상기 검출한 안구 영역을 확대한 고해상도 영상을 생성한다.Accordingly, the high-resolution image generating unit 120 detects a user's eye region from the low-resolution image, and generates a high-resolution image obtained by enlarging the detected eye region.

시선 추적부(130)는 상기 고해상도 영상 생성부(120)를 통해 생성된 고해상도 영상 내에서 사용자의 안구 영역을 검출한다.The gaze tracking unit 130 detects the user's eye area within the high-resolution image generated through the high-resolution image generation unit 120. [

특히, 시선 추적부(130)는 상기 고해상도 영상에 대해 영상 처리 알고리즘 및 원형 검출 알고리즘 등을 구동하여 사용자의 동공을 획득한다. 즉, 시선 추적부(130)는 상기 고해상도 영상 생성부(120)를 통해 생성한 고해상도 영상으로부터 사용자 동공 영역을 검출하고, 원형 검출 알고리즘을 구동하여 상기 검출된 동공 영역으로부터 동공의 중심점을 획득한다.In particular, the gaze tracking unit 130 acquires the pupil of the user by driving an image processing algorithm and a circular detection algorithm on the high-resolution image. That is, the gaze tracking unit 130 detects the user pupil region from the high-resolution image generated through the high-resolution image generating unit 120, and drives the circular detection algorithm to acquire the center point of the pupil from the detected pupil region.

원형 검출 알고리즘은, 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 동공 영역으로 이동시켜, 템플릿의 내부 원과 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고, 상기 검출한 영역의 중심점을 동공 중심점으로 획득할 수 있다.The circular detection algorithm is a method of detecting a portion having the largest gray level sum of an inner circle and an outer circle of a template by moving a circular detection template composed of an inner circle and an outer circle to a pupil region and detecting a center point of the detected region Can be obtained as a center point.

또한, 시선 추적부(130)는 상기 원형 검출 알고리즘과 더불어 지역적 이진화 기법을 더 수행하여 상기 동공 중심점을 획득할 수도 있을 것이다.In addition, the gaze tracking unit 130 may further perform the local binarization technique in addition to the circular detection algorithm to obtain the pupil center point.

이와 같이, 시선 추적부(130)는 동공의 중심점을 정확히 획득하기 위하여, 원형 검출 알고리즘과 더불어 지역적 이진화를 수행하고, 이진화된 영역 중 어두운 부분을 동공 영역으로 판단하여, 어두운 영역에 대한 무게 중심을 사용자 동공의 실질적인 중심점으로 판단할 수 있다.In this manner, the gaze tracking unit 130 performs local binarization in addition to the circular detection algorithm to accurately obtain the center point of the pupil, determines the dark part of the binarized area as a pupil area, It can be judged as a practical center point of the user's pupil.

이와 다르게, 시선 추적부(130)는 상기 고해상도 영상으로부터 안구 영역의 영상을 획득한다. 이후, 시선 추적부(130)는 상기 안구 영역의 영상에 대해 임계값 이진화, 열림 연산, 닫힘 연산, 미디언 필터링, 라벨링 및 무게 중심 등의 영상 처리 기법을 이용하여 동공의 중심과 반사점의 중심을 구한다.Alternatively, the gaze tracking unit 130 acquires an image of the eye region from the high-resolution image. Thereafter, the gaze tracking unit 130 detects the center of the pupil and the center of the reflex point using image processing techniques such as threshold binarization, open computation, closure computation, median filtering, labeling, and center of gravity I ask.

제어부(140)는 상기 시선 추적부(130)를 통해 획득한 좌측 동공의 중심점 및 우측 동공의 중심점의 거리를 토대로 사용자의 시선을 추적한다.The control unit 140 tracks the user's gaze based on the distance between the center point of the left pupil and the center point of the right pupil obtained through the gaze tracking unit 130. [

또한, 제어부(140)는 상기 동공의 중심과 두 반사점의 거리 관계를 이용하여 사용자가 현재 스크린 상의 어느 부분을 보고 있는지를 추적한다.In addition, the controller 140 tracks which portion of the screen the user is viewing by using the distance between the center of the pupil and the two reflection points.

제어부(140)는 상기 사용자의 시선이 추적되면, 상기 추적한 시선을 기반으로, 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등에 대응하는 기능을 제공한다.If the user's gaze is tracked, the control unit 140 displays the gaze effect based on the tracked gaze, such as viewer advertisement effect measurement, driver driving behavior analysis and drowsiness prevention, menu rearrangement through analysis of web page consumption behavior, Control, iris information based user authentication, exercise and expertise training programs, and disposition of shelves through consumption behavior analysis.

상기와 같이 실시 예에서는, 고해상도 영상 획득을 통해 사용자 시선을 추적한다.In the embodiment described above, the user's gaze is tracked through acquisition of a high-resolution image.

실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.

도 5는 실시 예에 따른 시선 추적 방법을 설명하는 도면이다.5 is a view for explaining a gaze tracking method according to an embodiment.

도 5를 참조하면, 시선 추적 방법은, 우선적으로 복수의 저해상도 영상을 획득한다(110단계).Referring to FIG. 5, in the gaze tracking method, a plurality of low-resolution images are preferentially acquired (Step 110).

상기 복수의 저해상도 영상이 획득되면, 영상 보간법을 이용하여 상기 복수의 저해상도 영상을 토대로 고해상도의 영상을 생성한다(120단계).When the plurality of low resolution images are acquired, a high resolution image is generated based on the plurality of low resolution images using an image interpolation method (operation 120).

이후, 상기 생성한 고해상도 영상으로부터 사용자의 안구가 위치한 안구 영역을 확인한다(130단계).Then, an eye region in which the user's eyeball is located is identified from the generated high-resolution image in operation 130.

상기 안구 영역이 확인되면, 상기 확인된 안구 영역에서 좌측 동공 및 우측 동공을 인식한다(140단계).When the eyeball region is identified, the left pupil and the right pupil are recognized in the confirmed eyeball region (Step 140).

이후, 상기 좌측 동공과 우측 동공의 거리 관계를 이용하여 사용자가 현재 스크린의 어느 부분을 보고 있는지에 대한 시선을 추적한다(150단계).Thereafter, using the distance relationship between the left pupil and the right pupil, a line of sight of which part of the current screen the user is viewing is tracked (operation 150).

한편, 상기에서는 복수의 사용자에 대한 시선이 추적될 수 있다.On the other hand, in the above, the eyes of a plurality of users can be tracked.

이에 따라, 제어부(140)는 상기 시선 추적 장치의 전방에 복수의 사용자가 위치한 경우, 상기 위치한 복수의 사용자 각각에 대한 시선 추적을 행한다.Accordingly, when a plurality of users are located in front of the gaze tracking device, the control unit 140 performs gaze tracking for each of the plurality of positioned users.

또한, 상기 시선 추적이 행해지면, 상기 복수의 사용자 각각의 대해 추적한 시선 정보를 디스플레이하여, 상기 복수의 사용자 각각이 현재 디스플레이 화면의 어느 부분을 주시하고 있는지에 대한 정보를 제공한다.In addition, when the line-of-sight tracking is performed, the line-of-sight information tracked for each of the plurality of users is displayed, and information on which part of the current screen is viewed by each of the plurality of users is provided.

이를 위해서는, 제어부(140)는 상기 고해상도 영상으로부터 복수의 사용자에 대한 안구 위치 정보를 각각 획득하고, 상기 획득한 안구 위치 정보를 토대로 상기 각각의 안구 위치에 대응하는 동공을 인식하여 시선 추적이 이루어지도록 한다.For this purpose, the control unit 140 acquires eye position information for a plurality of users from the high-resolution image, recognizes pupils corresponding to the respective eye positions based on the obtained eye position information, do.

한편, 상기 시선 추적에 따른 다양한 기능을 제공하기 위해서는, 한 명의 사용자에 대한 시선이 추적되어야 한다. 이때, 상기 복수의 사용자에 대한 시선이 추적되면, 상기와 같은 다양한 기능을 효과적으로 제공할 수 있다.Meanwhile, in order to provide various functions according to the line-of-sight tracking, the gaze of one user must be tracked. At this time, if the eyes of the plurality of users are tracked, the various functions as described above can be effectively provided.

한편, 일반적으로, 디스플레이장치를 주시하고 있는 시청자는 상기 디스플레이장치로부터 가장 가까운 거리에 위치해 있다.On the other hand, in general, the viewer who is watching the display device is located at the closest distance from the display device.

또한, 상기 가장 가까운 거리에 위치해 있는 시청자의 동공은, 상기 고해상도 영상 내에서 가장 많은 부분을 차지하게 된다. 이는, 가까운 곳에 위치한 영상이 화면상에 크게 표시되는 원리와 유사하다.Also, the pupil of the viewer located at the closest distance occupies the largest portion in the high-resolution image. This is similar to the principle that images located close to each other are largely displayed on the screen.

이에 따라, 제어부(140)는 상기 고해상도 영상으로부터 가장 가까운 거리에 위치한 사용자의 안구 위치만을 획득하고, 그에 따라 상기 획득한 안구 위치를 이용하여 시선 추적을 실시한다.Accordingly, the control unit 140 acquires only the eye position of the user located at the closest distance from the high-resolution image, and performs gaze tracking using the obtained eye position.

실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

110: 영상 획득부
120: 고해상도 영상 생성부
130: 시선 추적부
140: 제어부
111: 메인 렌즈
112: 이미지 센서
113: 마이크로 렌즈 어레이
115: 포토센서 어레이
110:
120: a high-resolution image generating unit
130: eye tracking unit
140:
111: main lens
112: Image sensor
113: micro lens array
115: Photo sensor array

Claims (19)

광 정보를 획득하는 복수 개의 포토센서를 포함하는 포토센서 어레이를 이용해 서로 상이한 초점 거리를 갖는 복수 개의 제 1 영상 프레임을 획득하는 단계;
상기 포토센서 어레이 상의 상기 포토센서 위치 정보를 이용하여 상기 광 정보가 입사되는 방향을 획득하는 단계;
상기 복수 개의 제 1 영상 프레임의 상기 광 정보와 상기 복수 개의 제 1 영상 프레임의 상기 광 정보가 입사되는 방향을 이용하여 각각의 상기 제 1 영상 프레임 보다 해상도가 높은 제 2 영상 프레임을 생성하는 단계;
상기 생성한 제 2 영상 프레임 내에서 안구 영역을 인식하는 단계;
상기 안구 영역에서 동공 영역을 인식하는 단계;
상기 동공 영역에서 상기 동공의 중심을 인식하는 단계; 및
상기 동공의 중심 정보를 이용하여 피사체의 시선을 추적하는 단계를 포함하고,
상기 복수 개의 제 1 영상 프레임은 단일 개의 영상 획득부에 위치한 렌즈를 광축 방향으로 이동시켜 동일한 상기 피사체에 대해 초점이 다르게 촬영된 영상이고,
상기 동공 영역을 인식하는 단계는 이진화 기법을 수행하며,
상기 동공의 중심을 인식하는 단계는 상기 동공 영역에 대해 원형 검출 알고리즘과 상기 이진화 기법을 수행하여 동공의 중심 위치를 획득하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역 내의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하고,
상기 이진화 기법은 상기 안구 영역 내에서 임계값을 기준으로 어두운영역과 밝은 영역으로 나누고, 상기 어두운 영역에 대한 무게 중심을 상기 동공의 실질적인 중심점으로 판단하는 시선 추적 방법.
Obtaining a plurality of first image frames having different focal distances from each other using a photosensor array including a plurality of photosensors for acquiring optical information;
Acquiring a direction in which the optical information is incident using the photosensor position information on the photo sensor array;
Generating a second image frame having a higher resolution than the first image frame using the optical information of the plurality of first image frames and the direction in which the optical information of the plurality of first image frames are incident;
Recognizing an eye region within the generated second image frame;
Recognizing a pupil region in the eye region;
Recognizing the center of the pupil in the pupil region; And
And tracking the line of sight of the subject using the center information of the pupil,
Wherein the plurality of first image frames are images photographed differently in focus with respect to the same subject by moving a lens located in a single image acquisition unit in the direction of an optical axis,
The step of recognizing the pupil region performs a binarization technique,
The step of recognizing the center of the pupil may include performing a circular detection algorithm and the binarization technique on the pupil region to obtain a pupil center position,
Wherein the circular detection algorithm detects a portion having a greatest gray level sum difference between the inner circle and the outer circle of the template by moving a circular detection template composed of an inner circle and an outer circle to the pupil region in the eye region, Acquiring a center point of an area as a center point of the pupil,
Wherein the binarization technique divides a shadow region into a dark region and a bright region based on a threshold value in the eye region and determines a center of gravity of the dark region as a substantial center point of the pupil.
제 1 항에 있어서,
상기 광이 입사되는 방향은 상기 포토센서 상에 입사된 광의 방향인 시선 추적 방법.
The method according to claim 1,
Wherein a direction in which the light is incident is a direction of light incident on the photosensor.
삭제delete 삭제delete 제 1항에 있어서,
상기 제 2 영상 프레임을 생성하는 단계는,
상기 복수 개의 제 1 영상 프레임에 대해 영상 보간 알고리즘을 적용하여 상기 제 2 영상 프레임을 생성하는 시선 추적 방법.
The method according to claim 1,
Wherein the generating the second video frame comprises:
Wherein the second image frame is generated by applying an image interpolation algorithm to the plurality of first image frames.
제 1항에 있어서,
상기 제 2 영상 프레임을 생성하는 단계는,
상기 복수 개의 제 1 영상 프레임 내에 포함된 상기 피사체의 상기 안구 영역을 확대한 확대 영상을 생성하는 단계를 포함하는 시선 추적 방법.
The method according to claim 1,
Wherein the generating the second video frame comprises:
And generating an enlarged image obtained by enlarging the eye region of the subject included in the plurality of first image frames.
제 1항에 있어서,
상기 안구 영역을 인식하는 단계는
상기 제 2 영상 프레임 내에 복수의 상기 피사체가 존재하는 경우, 상기 복수의 피사체 각각에 대한 상기 안구 영역을 확대한 영상을 생성하는 단계를 포함하는 시선 추적 방법.
The method according to claim 1,
The step of recognizing the eye region
And generating an enlarged image of the eyeball region for each of the plurality of subjects when a plurality of the objects exist in the second image frame.
제 7항에 있어서,
상기 피사체 시선을 추적하는 단계는,
상기 복수의 피사체 각각에 대한 상기 안구 영역 내에서 상기 동공을 인식하여 상기 복수의 피사체 각각에 대한 상기 시선을 추적하는 단계를 포함하는 시선 추적 방법.
8. The method of claim 7,
Wherein the step of tracking the subject's eye-
And recognizing the pupil in the eye region for each of the plurality of subjects to track the gaze for each of the plurality of subjects.
제 8항에 있어서,
상기 복수의 피사체 각각에 대해 추적한 상기 시선에 대한 정보를 표시하는 단계를 더 포함하는 시선 추적 방법.
9. The method of claim 8,
And displaying information on the gaze tracked for each of the plurality of subjects.
광이 입사되는 메인 렌즈;
상기 메인 렌즈에 입사한 광의 방향을 분리하는 마이크로렌즈 어레이;
복수 개의 포토센서로 구성되어, 상기 광의 정보와 상기 포토센서 위치 정보를 획득하는 포토센서 어레이;
상기 메인 렌즈, 상기 마이크로렌즈 어레이, 상기 포토센서 어레이로 구성되어 상기 메인 렌즈를 광축 방향으로 이동시켜 서로 상이한 초점 거리를 가지는 복수 개의 제 1 영상 프레임을 획득하는 단일 개의 영상 획득부;
상기 포토센서의 위치 정보를 이용하여 상기 광이 입사되는 방향을 획득하고, 상기 광이 입사되는 방향과 상기 광 정보를 이용하여 제 2 영상 프레임을 생성하는 고해상도 영상 생성부;
상기 고해상도 영상 생성부를 통해 생성된 상기 제 2 영상 프레임으로부터 안구 영역을 인식하고, 상기 안구 영역 내에 포함된 동공의 중심점을 획득하는 시선 추적부; 및
상기 시선 추적부를 통해 인식된 상기 동공의 정보를 이용하여 피사체의 시선을 추적하는 제어부를 포함하고,
상기 제 2 영상 프레임은 상기 제 1 영상 프레임 보다 높은 해상도를 가지고,
상기 시선 추적부는 상기 안구 영역에 대하여 원형 검출 알고리즘과 이진화 기법을 수행하여 상기 동공의 중심 위치를 획득하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역 내의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하고,
상기 이진화 기법은 상기 안구 영역 내에서 임계값을 기준으로 어두운 영역과 밝은 영역으로 나누고, 상기 어두운 영역을 상기 동공 영역으로 판단하고 상기 어두운 영역에 대한 무게 중심을 상기 동공의 실질적인 중심점으로 판단하는 시선 추적 장치.
A main lens on which light is incident;
A microlens array for separating the direction of light incident on the main lens;
A photosensor array including a plurality of photosensors, the photosensor array acquiring the light information and the photosensor position information;
A single image acquiring unit which is composed of the main lens, the microlens array, and the photo sensor array and moves the main lens in the optical axis direction to acquire a plurality of first image frames having different focal lengths;
A high-resolution image generation unit for acquiring a direction in which the light is incident using the position information of the photosensor and generating a second image frame using the light incidence direction and the light information;
A gaze tracking unit for recognizing an eye region from the second image frame generated through the high resolution image generating unit and acquiring a center point of the pupil included in the eye region; And
And a control unit for tracking the gaze of the subject using the information of the pupil recognized through the gaze tracking unit,
Wherein the second video frame has a higher resolution than the first video frame,
Wherein the gaze tracking unit acquires a center position of the pupil by performing a circular detection algorithm and a binarization technique on the eye region,
Wherein the circular detection algorithm detects a portion having a greatest gray level sum difference between the inner circle and the outer circle of the template by moving a circular detection template composed of an inner circle and an outer circle to the pupil region in the eye region, Acquiring a center point of an area as a center point of the pupil,
The binarization technique divides the eye region into a dark region and a bright region based on a threshold value, determines the dark region as the pupil region, and determines a center of gravity of the dark region as a substantial center point of the pupil Device.
제 10 항에 있어서,
상기 광이 입사되는 방향은 상기 포토센서 상에 입사된 광의 방향인 시선 추적 장치.
11. The method of claim 10,
Wherein the direction in which the light is incident is a direction of light incident on the photosensor.
제 10 항에 있어서,
상기 마이크로렌즈 어레이는 복수 개의 마이크로 렌즈로 구성되고,
상기 메인 렌즈에서 상기 광이 통과하는 개구인 서브 어퍼쳐의 개수는 상기 마이크로 렌즈 어레이에 대응되는 상기 포토센서의 픽셀 수와 동일한 시선 추적 장치.
11. The method of claim 10,
Wherein the microlens array is composed of a plurality of microlenses,
Wherein the number of sub-apertures through which the light passes through the main lens is equal to the number of pixels of the photo sensor corresponding to the microlens array.
삭제delete 제 10항에 있어서,
상기 고해상도 영상 생성부는,
상기 복수 개의 제 1 영상 프레임에 대해 영상 보간 알고리즘을 적용하는 시선 추적 장치.
11. The method of claim 10,
Wherein the high-
Wherein the image interpolation algorithm is applied to the plurality of first image frames.
제 10항에 있어서,
상기 고해상도 영상 생성부는,
상기 복수 개의 제 1 영상 프레임에서 상기 안구 영역을 검출하고, 상기 복수개의 제 1 영상 프레임에서 인식된 상기 안구 영역을 상기 제 2 영상 프레임에서 확대한 확대 영상을 생성하는 시선 추적 장치.
11. The method of claim 10,
Wherein the high-
Wherein the eyeball region is detected in the plurality of first image frames and an enlarged image in which the eyeball region recognized in the plurality of first image frames is enlarged in the second image frame is generated.
제 10항에 있어서,
상기 제어부는,
상기 피사체가 복수 개일 경우 상기 복수의 피사체 각각에 대한 상기 안구 영역을 확대한 영상을 생성하고, 상기 동공을 인식하여 상기 복수의 피사체 각각에 대한 상기 시선을 추적하는 시선 추적 장치.
11. The method of claim 10,
Wherein,
An image enlarging unit that enlarges the eyeball region for each of the plurality of subjects when the plurality of subjects are included, and recognizes the pupil and tracks the gaze for each of the plurality of subjects.
제 16항에 있어서,
상기 제어부는,
추적한 상기 복수의 피사체 각각에 대한 시선 정보를 표시하는 시선 추적 장치.
17. The method of claim 16,
Wherein,
Eye line information for each of the plurality of tracked subjects.
삭제delete 삭제delete
KR1020120082014A 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method KR102001950B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120082014A KR102001950B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120082014A KR102001950B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Publications (2)

Publication Number Publication Date
KR20140014870A KR20140014870A (en) 2014-02-06
KR102001950B1 true KR102001950B1 (en) 2019-07-29

Family

ID=50264681

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120082014A KR102001950B1 (en) 2012-07-26 2012-07-26 Gaze Tracking Apparatus and Method

Country Status (1)

Country Link
KR (1) KR102001950B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361519B2 (en) 2014-03-28 2016-06-07 Intel Corporation Computational array camera with dynamic illumination for eye tracking
KR102305999B1 (en) * 2015-01-26 2021-09-28 엘지이노텍 주식회사 Iris recognition camera system, terminal including the same and iris recognition method using the same
US10373592B2 (en) * 2016-08-01 2019-08-06 Facebook Technologies, Llc Adaptive parameters in image regions based on eye tracking information
GB2553353B (en) * 2016-09-05 2021-11-24 Advanced Risc Mach Ltd Graphics processing systems and graphics processors
KR20190123039A (en) * 2018-04-23 2019-10-31 박승민 Method for processing image of extended reality and apparatus thereof
CN112749600B (en) * 2019-10-31 2024-03-12 Oppo广东移动通信有限公司 Human eye position determining method and related products
CN111311494B (en) * 2020-02-13 2023-04-18 Oppo广东移动通信有限公司 Eyeball tracking and positioning accuracy determination method and related product
US11595575B2 (en) 2020-05-11 2023-02-28 Samsung Electronics Co., Ltd. Image sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0888853A (en) * 1994-09-16 1996-04-02 Toshiba Corp Medium processing system
KR101608970B1 (en) * 2009-11-27 2016-04-05 삼성전자주식회사 Apparatus and method for processing image using light field data
KR20120057033A (en) * 2010-11-26 2012-06-05 한국전자통신연구원 Gaze tracking system and method for controlling internet protocol tv at a distance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
US20120147328A1 (en) * 2010-12-13 2012-06-14 Microsoft Corporation 3d gaze tracker

Also Published As

Publication number Publication date
KR20140014870A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
KR102001950B1 (en) Gaze Tracking Apparatus and Method
US10893260B2 (en) Depth mapping with a head mounted display using stereo cameras and structured light
CN108307675B (en) Multi-baseline camera array system architecture for depth enhancement in VR/AR applications
Zennaro et al. Performance evaluation of the 1st and 2nd generation Kinect for multimedia applications
US10334151B2 (en) Phase detection autofocus using subaperture images
US9720089B2 (en) 3D zoom imager
JP6172978B2 (en) IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING DEVICE, PROGRAM, AND STORAGE MEDIUM
US11330200B2 (en) Parallax correction using cameras of different modalities
US20130335535A1 (en) Digital 3d camera using periodic illumination
US20120133754A1 (en) Gaze tracking system and method for controlling internet protocol tv at a distance
WO2015180659A1 (en) Image processing method and image processing device
KR20190076998A (en) Apparatus and method for obtaining distance information from a view
US20120237114A1 (en) Method and apparatus for feature-based stereo matching
JP2013156109A (en) Distance measurement device
CN103873788A (en) Camera and method for thermal image noise reduction using post processing techniques
TWI610059B (en) Three-dimensional measurement method and three-dimensional measurement device using the same
KR20130107981A (en) Device and method for tracking sight line
US20140300703A1 (en) Image processing apparatus, image processing method, and program
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
JP2012015642A (en) Imaging device
JPWO2019026287A1 (en) Imaging device and information processing method
AU2020408599A1 (en) Light field reconstruction method and system using depth sampling
WO2008132741A2 (en) Apparatus and method for tracking human objects and determining attention metrics
WO2022026342A1 (en) Devices and methods for determining confidence in stereo matching using a classifier-based filter
KR101961266B1 (en) Gaze Tracking Apparatus and Method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant