KR102001950B1 - Gaze Tracking Apparatus and Method - Google Patents
Gaze Tracking Apparatus and Method Download PDFInfo
- Publication number
- KR102001950B1 KR102001950B1 KR1020120082014A KR20120082014A KR102001950B1 KR 102001950 B1 KR102001950 B1 KR 102001950B1 KR 1020120082014 A KR1020120082014 A KR 1020120082014A KR 20120082014 A KR20120082014 A KR 20120082014A KR 102001950 B1 KR102001950 B1 KR 102001950B1
- Authority
- KR
- South Korea
- Prior art keywords
- region
- image
- pupil
- light
- eye
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
실시 예에 따른 시선 추적 장치는 제 1 영상을 획득하는 단계; 상기 획득한 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 생성하는 단계; 상기 생성한 제 2 영상 내에서 사용자의 안구 영역을 인식하는 단계; 및 상기 인식한 안구 영역 내에서 사용자 동공을 인식하여 사용자 시선을 추적하는 단계를 포함한다.The eye tracking apparatus according to an embodiment of the present invention includes: acquiring a first image; Generating a second image having a higher resolution than the first image using the acquired first image; Recognizing a user's eye region within the generated second image; And tracking the user's gaze by recognizing the user's pupil within the recognized eye region.
Description
실시 예는, 시선 추적 장치 및 이의 시선 추적 방법에 관한 것이다.An embodiment relates to a gaze tracking apparatus and a gaze tracking method thereof.
최근, 사용자의 시선 추적을 기반으로 통한 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등이 이루어지고 있다.Recently, it has been proposed to measure the viewer's advertisement effect based on the user's gaze tracking, analyze driver's driving behavior and prevent drowsiness, rearrange the menu through analysis of web page consumption behavior, control game using eye interaction, And placement of shelves through analysis of technical training programs and consumption behavior.
특허문헌 1은, 컴퓨터 비전 기반의 시선 추적 방법에 관련한다.Patent Document 1 relates to a computer vision-based gaze tracking method.
이 방법은 사용자의 얼굴 및 눈에 대한 특성 값에 대한 룩-업 테이블을 사용 전 구성 한다. 실제 시선 추적에 있어서는, 얼굴방향 및 홍채의 중심점을 측정한 후, 상기 특성 값과 상기 측정값을 비교하여 시선 방향을 계산한다. 시선 방향은 측정된 얼굴 방향 좌표계 및 홍채 중심 좌표계의 합성에 의해 계산된다. 얼굴 방향 측정은 T자 스틱형 참조모델을 착용하여 정확한 각도를 찾아내고, 홍채의 중심점은 홍채의 색깔 분포 분석에 의한 홍채색깔의 무게중심을 구하여, 그 무게중심을 시작으로 업/다운 스캐닝함으로써, 타원형 홍채 에지 내의 가장 긴 수평 라인을 찾고, 그 수평 라인의 중심점을 홍채의 중심점으로 결정한다. This method constitutes a look-up table for the user ' s face and eye characteristic values. In actual line-of-sight tracing, the gaze direction is calculated by measuring the face direction and the center point of the iris, and then comparing the characteristic value with the measured value. The gaze direction is calculated by combining the measured face direction coordinate system and the iris center coordinate system. The direction of the face is measured by finding a correct angle by wearing a T-stick type reference model. The center of the iris is obtained by finding the center of gravity of the iris color by analyzing the color distribution of the iris, Finds the longest horizontal line in the elliptical iris edge, and determines the center point of the horizontal line as the center point of the iris.
그러나, 이 방법은 다양한 얼굴 및 눈에 대한 특성 값을 미리 측정하여 룩업 테이블을 구성하는데 있어서 신뢰성을 높이기 위해서는 수많은 특성에 대한 특성을 미리 고려하고 수집해야 하는 제약이 있으며, 홍채 영역이 눈꺼풀에 의해 가려지는 경우 시선 추적 정확도가 떨어질 수 있다.However, in this method, in order to increase the reliability in constructing the look-up table by measuring characteristic values of various faces and eyes in advance, there is a restriction to collect and collect characteristics of a number of characteristics in advance. The eye tracking accuracy may be lowered.
특허문헌 2에 개시된 종래 기술은 사용자의 얼굴을 복수의 특징점에 의한 특징 면으로 파악하여 이 특징 면의 병진 및 회전에 의해 사용자의 얼굴의 방향을 인식함으로써 시선을 추적한다. 그 결과 신뢰도가 매우 높고 정확한 응시 위치 추적 시스템이 일반 사용이 가능할 만큼 저렴한 가격으로 제공될 수 있다. 그러나, 얼굴의 특징점만을 이용하고 안구의 회전은 고려하지 않기 때문에 직관적인 시선 추적 인터페이스라고 할 수 없으며, 목적한 위치에 커서를 움직이기 위해서는 고개를 지속적으로 움직여야 한다.The conventional technique disclosed in Patent Document 2 tracks the user's face by recognizing the face of the user as a feature surface by a plurality of feature points and recognizing the direction of the user's face by translating and rotating the feature surface. As a result, highly reliable and accurate pointing and tracking systems can be provided at a price that is affordable for general use. However, since only the feature points of the face are used and the rotation of the eyeball is not considered, it is not an intuitive eye tracking interface. In order to move the cursor to the desired position, the head should be moved continuously.
비 특허논문은 2대의 카메라로 구성한 스테레오 카메라 장치 및 3개의 적외선 조명을 이용하여 안구의 3차원 위치를 추정하고, 이를 통해 시선 벡터를 구하여 2차원 평면 화면상의 시선 위치를 구하는 방법을 제안한다. Non-patent papers propose a method of estimating the 3D position of eyeballs using a stereo camera device composed of two cameras and three infrared lights, and obtaining a gaze vector through this to obtain eye gaze position on a two-dimensional plane screen.
이 방법의 수행을 위해서는, 스테레오 카메라 구성을 위해 2대의 카메라 간 캘리브레이션 과정이 선행되어야 하며, 3개의 조명 간 위치가 정확하게 설정되어야 한다. In order to perform this method, the calibration process between two cameras must precede the stereo camera configuration, and the position between the three lights must be accurately set.
이러한 방법은 다수의 카메라 및 조명 장치를 구축하기 위한 비용이 많이 소요되는 문제점이 있다.This method has a problem that it is expensive to construct a large number of cameras and lighting devices.
특허문헌 1: KR 10-0311605Patent Document 1: KR 10-0311605
특허문헌 2: KR 10-0325365Patent Document 2: KR 10-0325365
비 특허문헌: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004 Non-Patent Documents: S. W. Shih and J. Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on Systems, Man and Cybernetics, Part B, vol. 34, no. 1, pp. 234-245, Feb. 2004
실시 예는, 초 해상도 기법을 적용하여 사용자의 시선을 추적할 수 있는 시선 추적 장치 및 이의 추적 방법을 제공한다.The embodiment provides a gaze tracking apparatus and a tracking method thereof that can track a user's gaze by applying a super resolution technique.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.
실시 예에 따른 시선 추적 장치는 제 1 영상을 획득하는 단계; 상기 획득한 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 생성하는 단계; 상기 생성한 제 2 영상 내에서 사용자의 안구 영역을 인식하는 단계; 및 상기 인식한 안구 영역 내에서 사용자 동공을 인식하여 사용자 시선을 추적하는 단계를 포함한다.The eye tracking apparatus according to an embodiment of the present invention includes: acquiring a first image; Generating a second image having a higher resolution than the first image using the acquired first image; Recognizing a user's eye region within the generated second image; And tracking the user's gaze by recognizing the user's pupil within the recognized eye region.
또한, 실시 예에 따른 시선 추적 장치는, 제 1 영상을 획득하는 제 1 영상 획득부; 상기 제 1 영상 획득부를 통해 획득된 제 1 영상을 이용하여 상기 제 1 영상보다 해상도가 높은 제 2 영상을 획득하는 제 2 영상 획득부; 상기 제 2 영상 획득부를 통해 획득된 제 2 영상으로부터 사용자의 안구 영역을 인식하고, 상기 인식한 안구 영역 내에 포함된 동공을 인식하는 시선 추적부; 및 상기 시선 추적부를 통해 인식된 동공을 이용하여 사용자 시선을 추적하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a gaze tracking apparatus comprising: a first image acquiring unit acquiring a first image; A second image acquiring unit for acquiring a second image having a higher resolution than the first image using the first image acquired through the first image acquiring unit; A gaze tracking unit for recognizing a user's eye region from a second image acquired through the second image acquisition unit and recognizing a pupil included in the recognized eye region; And a controller for tracking the user's gaze using the pupil recognized through the gaze tracking unit.
실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.
도 1은 실시 예에 따른 시선 추적 장치를 설명하는 도면이다.
도 2는 도 1에 도시된 영상 획득부의 상세 구성도이다.
도 3a 내지 3c는 일 실시 예에 따른 고해상도 영상 생성 개념을 나타내는 도면이다.
도 4는 실시 예에 의해 형성되는 고해상도 영상을 나타낸 도면이다.
도 5는 실시 예에 따른 시선 추적 방법을 설명하는 도면이다.1 is a view for explaining a gaze tracking apparatus according to an embodiment.
2 is a detailed configuration diagram of the image acquisition unit shown in FIG.
3A to 3C are views illustrating a high-resolution image generation concept according to an embodiment.
4 is a view showing a high-resolution image formed by the embodiment.
5 is a view for explaining a gaze tracking method according to an embodiment.
첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention in the drawings, thicknesses are enlarged in order to clearly illustrate various layers and regions, and parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification .
도 1은 실시 예에 따른 시선 추적 장치를 설명하는 도면이다.1 is a view for explaining a gaze tracking apparatus according to an embodiment.
도 1을 참조하면, 시선 추적 장치는 영상 획득부(110), 고해상도 영상 생성부(120), 시선 추적부(130) 및 제어부(140)를 포함한다.Referring to FIG. 1, the gaze tracking apparatus includes an
영상 획득부(110)는 복수의 저해상도 이미지를 획득한다.The
도 2에 도시된 바와 같이, 이를 위해 영상 획득부(110)는 물체의 상을 맺기 위한 메인 렌즈(111), 메인 렌즈(111)를 통과한 광선들을 광선들의 방향에 기초하여 분리하여 포토 센서 어레이(115)로 향하게 하는 마이크로렌즈 어레이(113) 및 포토센서 어레이(115)를 포함한다.2, the
상기 영상 획득부(110)에 포함된 마이크로렌즈 어레이(113) 및 포토센서 어레이(115)는 이미지 센서(112)로 구현될 수 있다.The
상기와 같은 영상 획득부(110)를 이용하여, 실시 예에서는 복수의 저해상도 영상을 획득할 수 있다.In the embodiment, a plurality of low-resolution images can be obtained by using the
영상 획득부(110)의 동작에 대해 구체적으로 설명하면 다음과 같다.The operation of the
이미지화된 장면 내의 피사체(105) 상의 단일 점으로부터의 광선들은 마이크로렌즈 어레이(113)의 초점 평면상의 단일 수렴점으로 도달될 수 있다. The rays from a single point on the
이 수렴점에서의 마이크로렌즈(114)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 어레이의 포토센서 상에 메인 렌즈(111)의 구경의 포커싱된 이미지를 생성한다.The
포토센서 어레이(115)는 그 위에 입사되는 광을 검출하고, 여러 가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(105, 106, 및 107)을 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토 센서에 대한 위치정보와 함께 데이터를 사용하는 고해상도 영상 생성부(120)로 보내진다.The
고해상도 영상 생성부(120)는, 이미지 데이터를 처리하고 피사체(105, 106 및 107)를 포함하는 장면의 이미지를 계산하도록 구현된다.The high-resolution
고해상도 영상 생성부(120) 광이 마이크로렌즈 어레이에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.Refocusing using the detected light or the characteristics of the detected light together with the known direction (calculated using the known position of each photosensor) in which the high-resolution
이때, 마이크로렌즈(113)는 예로서 몇 개의 구별가능한 마이크로렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로렌즈로 구현된다. At this point, the
메인 렌즈(111)를 통과한 광선들을 광선들의 방향에 기초하여 분리하는 한 마이크로렌즈어레이(113) 이외에 광 부호화 마스크 등 다른 형태로 구성될 수 있다. 본 기술분야의 통상의 지식을 가진자는 현재 이용가능하거나 장래에 개발되는 여러가지 렌즈 및/또는 마이크로 렌즈 어레이를 이용하여 메인 렌즈(111) 및 마이크로렌즈 어레이(113)가 구현될 수 있음을 알 수 있을 것이다.In addition to the
포토센서 어레이(115)는 일반적으로, 마이크로렌즈 어레이(113) 내의 각각의 마이크로렌즈마다 몇 개의 포토센서를 갖는다. 포토센서 어레이(115)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로렌즈 어레이(114)보다 상대적으로 미세하다. 또한, 마이크로렌즈 어레이(113)내의 마이크로렌즈 및 포토센서 어레이(115) 내의 포토센서는 일반적으로 각각의 마이크로렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로렌즈를 통해 나아간 광과 겹치지 않도록 위치설정될 수 있다.The
메인 렌즈(111)는 메인 렌즈(111)와 예시적인 촬상 피사체(105) 사이에 예시된 바와 같은 원하는 심도 "d"에서 관심 있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. 따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.The
예로서, 피사체(105)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로렌즈 어레이(113)의 초점 평면상의 마이크로렌즈(114)에서 단일 수렴점으로 도달할 수 있다. 마이크로렌즈(114)는 이들 광선들의 방향에 기초하여 분리해서, 마이크로렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(111)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.By way of example, rays from a single point of the
시선 추적 장치 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(111)와 교차하고, (s,t)에서 마이크로렌즈 어레이(113)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(111)의 각 서브-어퍼쳐(sub-aperture)의 위치(u,v)를 통과하는 인텐서티 값들을 나타낸다. 여기에서, 서브-어퍼쳐는 메인 렌즈(111)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로렌즈 어레이(113)는 196개의 픽셀로 구성될 수 있다.The optical field data L (u, v, s, t) intersects the
포토센서 어레이(115)내의 각각의 포토센서는 메인 렌즈(111) 및 마이크로렌즈 어레이(113)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(113)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in the
고해상도 영상 생성부(120)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 리포커싱 영상을 생성할 수 있다. 이때, 고해상도 영상 생성부(120)는 마이크로렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서상의 광의 방향을 결정할 수 있다. 또한, 고해상도 영상 생성부(120)는 검출된 광이 퍼져나오는 장면 내의 피사체의 시야 심도를 결정하고, 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.The high resolution
한편, 마이크로렌즈 어레이(113)내의 특정 마이크로렌즈(114) 아래에 형성되는 이미지는 촬상 평면상의 그 위치에 대한 시스템의 방향 분해능(directional resoultion)을 지시한다. 메인 렌즈(111)는 유효하게 마이크로렌즈의 광학적 무한 거리에 있고 마이크로렌즈를 포커싱하기 위해, 포토센서 어레이(115)는 마이크로 렌즈의 초점 심도에서 한 평면 내에 위치할 수 있다. On the other hand, the image formed below the
메인 렌즈(111)와 마이크로렌즈 어레이(113) 사이의 분리거리 "s"는 마이크로렌즈의 시야 심도 내에서 예리한 이미지를 달성하도록 선택될 수 있다.The separation distance "s" between the
메인 렌즈(111)의 구경 크기 및 마이크로렌즈 어레이(113) 내의 마이크로렌즈의 구경 크기(예를 들어, 렌즈 내의 개구부의 유효 크기)는 시선 추적 장치가 구현되는 특정 애플리케이션에 부합하도록 선택될 수 있다. 이 방법은 메인 렌즈 및 마이크로렌즈의 f-수(초점비율: 즉, 렌즈의 유효 초점 길이 대 구경의 비)에 맞춤으로써 용이해진다.The aperture size of the
도 3a 내지 3c는 일 실시 예에 따른 고해상도 영상 생성 개념을 나타내는 도면이다.3A to 3C are views illustrating a high-resolution image generation concept according to an embodiment.
도 3a에 도시된 바와 같이 광 필드 데이터를 캡처한다. 전술한 바와 같이, 광 필드 데이터를 이용하여 영상을 획득하면, 동일한 포토센서 어레이를 이용한 일반적인 촬상 장치에 비하여 공간 해상도가 저하된 복수 개의 저해상도 영상 또는 서브 샘플링된 영상이 획득된다. 일 실시 예에 따르면, 복수 개의 저해상도 영상 중 하나의 영상을 기준 영상 프레임으로 결정하고, 기준 영상 프레임 이외의 서브 샘플링된 저해상도 영상 프레임들을 적어도 하나의 참조 영상 프레임으로 선택하여 결정할 수 있다.Captures the light field data as shown in FIG. 3A. As described above, when an image is acquired using optical field data, a plurality of low-resolution images or sub-sampled images having reduced spatial resolution as compared with a general image pickup apparatus using the same photo sensor array are obtained. According to an exemplary embodiment, one of the plurality of low-resolution images may be determined as a reference image frame, and the sub-sampled low resolution image frames other than the reference image frame may be selected as at least one reference image frame.
도 3b는 HR 그리드 상에 광 필드 데이터를 등록한 결과를 나타낸다.3B shows the result of registering the optical field data on the HR grid.
도 3b는 일 실시 예에 따른 선정되는 기준 영상 프레임 및 참조 영상 프레임을 구성하는 광 필드 데이터를 고해상도 그리드 상에 등록한 것을 나타낸 도면이다. 도 3b에서, ●,×, △, *는 오브젝트의 한 점에 대한 광 필드 데이터로서 다른 메인 렌즈의 위치를 통과한 광 필드 데이터를 나타낸다. 3B is a diagram illustrating registration of optical field data constituting a reference image frame and a reference image frame to be selected according to an embodiment on a high resolution grid. In Fig. 3B, & cir &, DELTA, and * represent optical field data that passes through the position of another main lens as optical field data for one point of the object.
일 실시 예에 따르면, 점(311, 312)를 포함하는 ●으로 표시된 광 필드 데이터를 이용하여 형성된 영상 프레임이 기준 영상 프레임인 경우, 고해상도 그리드상에 도 3b에 도시된 바와 같이 등록될 수 있다.According to one embodiment, if the image frame formed using the light field data indicated by a
도 3c에 도시된 바와 같이 고해상도 영상 프레임을 재구성한다. 일 실시 예에 따르면, 오브젝트의 하나의 포인트에 대한 광 필드 데이터를 이용하여 기준 영상 프레임을 구성하는 광 필드 데이터 사이의 값을 보간함으로써 기준 영상 프레임의 해상도를 높일 수 있다. 예를 들어, 광 필드 데이터(311)와 광 필드 데이터(312) 사이의 HR 그리드상의 값(313)은 도 3b의 HR 그리드 상의 영역(310)에 속한 광 필드 데이터들을 이용하여 보간될 수 있다.The high-resolution image frame is reconstructed as shown in FIG. 3C. According to one embodiment, the resolution of the reference image frame can be increased by interpolating the values between the optical field data constituting the reference image frame using the optical field data for one point of the object. For example, the
상기와 같이, 도 4를 참조하면, 영상 획득부(110)는 저해상도를 갖는 복수의 이미지(410)를 획득하고, 고해상도 영상 생성부(120)는 상기 획득된 복수의 이미지(410)를 이용하여 고해상도의 영상(420)을 생성한다.4, the
상기와 같은 원리의 궁극적인 목적은, 상기 저해상도 영상 내에서 사용자의 안구 영역을 검출하고, 그에 따라 상기 고해상도 영상을 생성하여 상기 검출한 안구 영역을 확대하기 위한 것이다.The ultimate goal of the above principle is to detect the eye region of the user in the low-resolution image, and thereby to generate the high-resolution image to enlarge the detected eye region.
이에 따라, 상기 고해상도 영상 생성부(120)는 상기 저해상도 영상으로부터 사용자의 안구 영역을 검출하고, 그에 따라 상기 검출한 안구 영역을 확대한 고해상도 영상을 생성한다.Accordingly, the high-resolution
시선 추적부(130)는 상기 고해상도 영상 생성부(120)를 통해 생성된 고해상도 영상 내에서 사용자의 안구 영역을 검출한다.The
특히, 시선 추적부(130)는 상기 고해상도 영상에 대해 영상 처리 알고리즘 및 원형 검출 알고리즘 등을 구동하여 사용자의 동공을 획득한다. 즉, 시선 추적부(130)는 상기 고해상도 영상 생성부(120)를 통해 생성한 고해상도 영상으로부터 사용자 동공 영역을 검출하고, 원형 검출 알고리즘을 구동하여 상기 검출된 동공 영역으로부터 동공의 중심점을 획득한다.In particular, the
원형 검출 알고리즘은, 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 동공 영역으로 이동시켜, 템플릿의 내부 원과 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고, 상기 검출한 영역의 중심점을 동공 중심점으로 획득할 수 있다.The circular detection algorithm is a method of detecting a portion having the largest gray level sum of an inner circle and an outer circle of a template by moving a circular detection template composed of an inner circle and an outer circle to a pupil region and detecting a center point of the detected region Can be obtained as a center point.
또한, 시선 추적부(130)는 상기 원형 검출 알고리즘과 더불어 지역적 이진화 기법을 더 수행하여 상기 동공 중심점을 획득할 수도 있을 것이다.In addition, the
이와 같이, 시선 추적부(130)는 동공의 중심점을 정확히 획득하기 위하여, 원형 검출 알고리즘과 더불어 지역적 이진화를 수행하고, 이진화된 영역 중 어두운 부분을 동공 영역으로 판단하여, 어두운 영역에 대한 무게 중심을 사용자 동공의 실질적인 중심점으로 판단할 수 있다.In this manner, the
이와 다르게, 시선 추적부(130)는 상기 고해상도 영상으로부터 안구 영역의 영상을 획득한다. 이후, 시선 추적부(130)는 상기 안구 영역의 영상에 대해 임계값 이진화, 열림 연산, 닫힘 연산, 미디언 필터링, 라벨링 및 무게 중심 등의 영상 처리 기법을 이용하여 동공의 중심과 반사점의 중심을 구한다.Alternatively, the
제어부(140)는 상기 시선 추적부(130)를 통해 획득한 좌측 동공의 중심점 및 우측 동공의 중심점의 거리를 토대로 사용자의 시선을 추적한다.The
또한, 제어부(140)는 상기 동공의 중심과 두 반사점의 거리 관계를 이용하여 사용자가 현재 스크린 상의 어느 부분을 보고 있는지를 추적한다.In addition, the
제어부(140)는 상기 사용자의 시선이 추적되면, 상기 추적한 시선을 기반으로, 시청자 광고 효과 측정, 운전자 운전 행태 분석 및 졸음 방지, 웹페이지 소비 행태 분석을 통한 메뉴 재배치, 시선 상호 작용을 이용한 게임 제어, 홍채 정보 기반 사용자 인증, 운동 및 전문 기술 트레이닝 프로그램 및 소비 행태 분석을 통한 진열대 배치 등에 대응하는 기능을 제공한다.If the user's gaze is tracked, the
상기와 같이 실시 예에서는, 고해상도 영상 획득을 통해 사용자 시선을 추적한다.In the embodiment described above, the user's gaze is tracked through acquisition of a high-resolution image.
실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.
도 5는 실시 예에 따른 시선 추적 방법을 설명하는 도면이다.5 is a view for explaining a gaze tracking method according to an embodiment.
도 5를 참조하면, 시선 추적 방법은, 우선적으로 복수의 저해상도 영상을 획득한다(110단계).Referring to FIG. 5, in the gaze tracking method, a plurality of low-resolution images are preferentially acquired (Step 110).
상기 복수의 저해상도 영상이 획득되면, 영상 보간법을 이용하여 상기 복수의 저해상도 영상을 토대로 고해상도의 영상을 생성한다(120단계).When the plurality of low resolution images are acquired, a high resolution image is generated based on the plurality of low resolution images using an image interpolation method (operation 120).
이후, 상기 생성한 고해상도 영상으로부터 사용자의 안구가 위치한 안구 영역을 확인한다(130단계).Then, an eye region in which the user's eyeball is located is identified from the generated high-resolution image in
상기 안구 영역이 확인되면, 상기 확인된 안구 영역에서 좌측 동공 및 우측 동공을 인식한다(140단계).When the eyeball region is identified, the left pupil and the right pupil are recognized in the confirmed eyeball region (Step 140).
이후, 상기 좌측 동공과 우측 동공의 거리 관계를 이용하여 사용자가 현재 스크린의 어느 부분을 보고 있는지에 대한 시선을 추적한다(150단계).Thereafter, using the distance relationship between the left pupil and the right pupil, a line of sight of which part of the current screen the user is viewing is tracked (operation 150).
한편, 상기에서는 복수의 사용자에 대한 시선이 추적될 수 있다.On the other hand, in the above, the eyes of a plurality of users can be tracked.
이에 따라, 제어부(140)는 상기 시선 추적 장치의 전방에 복수의 사용자가 위치한 경우, 상기 위치한 복수의 사용자 각각에 대한 시선 추적을 행한다.Accordingly, when a plurality of users are located in front of the gaze tracking device, the
또한, 상기 시선 추적이 행해지면, 상기 복수의 사용자 각각의 대해 추적한 시선 정보를 디스플레이하여, 상기 복수의 사용자 각각이 현재 디스플레이 화면의 어느 부분을 주시하고 있는지에 대한 정보를 제공한다.In addition, when the line-of-sight tracking is performed, the line-of-sight information tracked for each of the plurality of users is displayed, and information on which part of the current screen is viewed by each of the plurality of users is provided.
이를 위해서는, 제어부(140)는 상기 고해상도 영상으로부터 복수의 사용자에 대한 안구 위치 정보를 각각 획득하고, 상기 획득한 안구 위치 정보를 토대로 상기 각각의 안구 위치에 대응하는 동공을 인식하여 시선 추적이 이루어지도록 한다.For this purpose, the
한편, 상기 시선 추적에 따른 다양한 기능을 제공하기 위해서는, 한 명의 사용자에 대한 시선이 추적되어야 한다. 이때, 상기 복수의 사용자에 대한 시선이 추적되면, 상기와 같은 다양한 기능을 효과적으로 제공할 수 있다.Meanwhile, in order to provide various functions according to the line-of-sight tracking, the gaze of one user must be tracked. At this time, if the eyes of the plurality of users are tracked, the various functions as described above can be effectively provided.
한편, 일반적으로, 디스플레이장치를 주시하고 있는 시청자는 상기 디스플레이장치로부터 가장 가까운 거리에 위치해 있다.On the other hand, in general, the viewer who is watching the display device is located at the closest distance from the display device.
또한, 상기 가장 가까운 거리에 위치해 있는 시청자의 동공은, 상기 고해상도 영상 내에서 가장 많은 부분을 차지하게 된다. 이는, 가까운 곳에 위치한 영상이 화면상에 크게 표시되는 원리와 유사하다.Also, the pupil of the viewer located at the closest distance occupies the largest portion in the high-resolution image. This is similar to the principle that images located close to each other are largely displayed on the screen.
이에 따라, 제어부(140)는 상기 고해상도 영상으로부터 가장 가까운 거리에 위치한 사용자의 안구 위치만을 획득하고, 그에 따라 상기 획득한 안구 위치를 이용하여 시선 추적을 실시한다.Accordingly, the
실시 예에 따르면, 초 해상도 기법을 적용하여 사용자 시선을 추적함으로써, 시선 추적 장치의 구축을 위한 비용을 절감시키면서 시선 추적에 따른 다양한 기능을 제공할 수 있다.According to the embodiment, by tracking the user's gaze by applying the super resolution technique, various functions according to gaze tracking can be provided while reducing the cost for constructing the gaze tracking device.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
110: 영상 획득부
120: 고해상도 영상 생성부
130: 시선 추적부
140: 제어부
111: 메인 렌즈
112: 이미지 센서
113: 마이크로 렌즈 어레이
115: 포토센서 어레이110:
120: a high-resolution image generating unit
130: eye tracking unit
140:
111: main lens
112: Image sensor
113: micro lens array
115: Photo sensor array
Claims (19)
상기 포토센서 어레이 상의 상기 포토센서 위치 정보를 이용하여 상기 광 정보가 입사되는 방향을 획득하는 단계;
상기 복수 개의 제 1 영상 프레임의 상기 광 정보와 상기 복수 개의 제 1 영상 프레임의 상기 광 정보가 입사되는 방향을 이용하여 각각의 상기 제 1 영상 프레임 보다 해상도가 높은 제 2 영상 프레임을 생성하는 단계;
상기 생성한 제 2 영상 프레임 내에서 안구 영역을 인식하는 단계;
상기 안구 영역에서 동공 영역을 인식하는 단계;
상기 동공 영역에서 상기 동공의 중심을 인식하는 단계; 및
상기 동공의 중심 정보를 이용하여 피사체의 시선을 추적하는 단계를 포함하고,
상기 복수 개의 제 1 영상 프레임은 단일 개의 영상 획득부에 위치한 렌즈를 광축 방향으로 이동시켜 동일한 상기 피사체에 대해 초점이 다르게 촬영된 영상이고,
상기 동공 영역을 인식하는 단계는 이진화 기법을 수행하며,
상기 동공의 중심을 인식하는 단계는 상기 동공 영역에 대해 원형 검출 알고리즘과 상기 이진화 기법을 수행하여 동공의 중심 위치를 획득하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역 내의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하고,
상기 이진화 기법은 상기 안구 영역 내에서 임계값을 기준으로 어두운영역과 밝은 영역으로 나누고, 상기 어두운 영역에 대한 무게 중심을 상기 동공의 실질적인 중심점으로 판단하는 시선 추적 방법.Obtaining a plurality of first image frames having different focal distances from each other using a photosensor array including a plurality of photosensors for acquiring optical information;
Acquiring a direction in which the optical information is incident using the photosensor position information on the photo sensor array;
Generating a second image frame having a higher resolution than the first image frame using the optical information of the plurality of first image frames and the direction in which the optical information of the plurality of first image frames are incident;
Recognizing an eye region within the generated second image frame;
Recognizing a pupil region in the eye region;
Recognizing the center of the pupil in the pupil region; And
And tracking the line of sight of the subject using the center information of the pupil,
Wherein the plurality of first image frames are images photographed differently in focus with respect to the same subject by moving a lens located in a single image acquisition unit in the direction of an optical axis,
The step of recognizing the pupil region performs a binarization technique,
The step of recognizing the center of the pupil may include performing a circular detection algorithm and the binarization technique on the pupil region to obtain a pupil center position,
Wherein the circular detection algorithm detects a portion having a greatest gray level sum difference between the inner circle and the outer circle of the template by moving a circular detection template composed of an inner circle and an outer circle to the pupil region in the eye region, Acquiring a center point of an area as a center point of the pupil,
Wherein the binarization technique divides a shadow region into a dark region and a bright region based on a threshold value in the eye region and determines a center of gravity of the dark region as a substantial center point of the pupil.
상기 광이 입사되는 방향은 상기 포토센서 상에 입사된 광의 방향인 시선 추적 방법.The method according to claim 1,
Wherein a direction in which the light is incident is a direction of light incident on the photosensor.
상기 제 2 영상 프레임을 생성하는 단계는,
상기 복수 개의 제 1 영상 프레임에 대해 영상 보간 알고리즘을 적용하여 상기 제 2 영상 프레임을 생성하는 시선 추적 방법.The method according to claim 1,
Wherein the generating the second video frame comprises:
Wherein the second image frame is generated by applying an image interpolation algorithm to the plurality of first image frames.
상기 제 2 영상 프레임을 생성하는 단계는,
상기 복수 개의 제 1 영상 프레임 내에 포함된 상기 피사체의 상기 안구 영역을 확대한 확대 영상을 생성하는 단계를 포함하는 시선 추적 방법.The method according to claim 1,
Wherein the generating the second video frame comprises:
And generating an enlarged image obtained by enlarging the eye region of the subject included in the plurality of first image frames.
상기 안구 영역을 인식하는 단계는
상기 제 2 영상 프레임 내에 복수의 상기 피사체가 존재하는 경우, 상기 복수의 피사체 각각에 대한 상기 안구 영역을 확대한 영상을 생성하는 단계를 포함하는 시선 추적 방법.The method according to claim 1,
The step of recognizing the eye region
And generating an enlarged image of the eyeball region for each of the plurality of subjects when a plurality of the objects exist in the second image frame.
상기 피사체 시선을 추적하는 단계는,
상기 복수의 피사체 각각에 대한 상기 안구 영역 내에서 상기 동공을 인식하여 상기 복수의 피사체 각각에 대한 상기 시선을 추적하는 단계를 포함하는 시선 추적 방법.8. The method of claim 7,
Wherein the step of tracking the subject's eye-
And recognizing the pupil in the eye region for each of the plurality of subjects to track the gaze for each of the plurality of subjects.
상기 복수의 피사체 각각에 대해 추적한 상기 시선에 대한 정보를 표시하는 단계를 더 포함하는 시선 추적 방법.9. The method of claim 8,
And displaying information on the gaze tracked for each of the plurality of subjects.
상기 메인 렌즈에 입사한 광의 방향을 분리하는 마이크로렌즈 어레이;
복수 개의 포토센서로 구성되어, 상기 광의 정보와 상기 포토센서 위치 정보를 획득하는 포토센서 어레이;
상기 메인 렌즈, 상기 마이크로렌즈 어레이, 상기 포토센서 어레이로 구성되어 상기 메인 렌즈를 광축 방향으로 이동시켜 서로 상이한 초점 거리를 가지는 복수 개의 제 1 영상 프레임을 획득하는 단일 개의 영상 획득부;
상기 포토센서의 위치 정보를 이용하여 상기 광이 입사되는 방향을 획득하고, 상기 광이 입사되는 방향과 상기 광 정보를 이용하여 제 2 영상 프레임을 생성하는 고해상도 영상 생성부;
상기 고해상도 영상 생성부를 통해 생성된 상기 제 2 영상 프레임으로부터 안구 영역을 인식하고, 상기 안구 영역 내에 포함된 동공의 중심점을 획득하는 시선 추적부; 및
상기 시선 추적부를 통해 인식된 상기 동공의 정보를 이용하여 피사체의 시선을 추적하는 제어부를 포함하고,
상기 제 2 영상 프레임은 상기 제 1 영상 프레임 보다 높은 해상도를 가지고,
상기 시선 추적부는 상기 안구 영역에 대하여 원형 검출 알고리즘과 이진화 기법을 수행하여 상기 동공의 중심 위치를 획득하고,
상기 원형 검출 알고리즘은 내부 원과 외부 원으로 구성되는 원형 검출 템플릿을 상기 안구 영역 내의 상기 동공 영역으로 이동시켜 상기 템플릿의 상기 내부 원과 상기 외부 원의 그레이 레벨 합 차가 가장 큰 부분을 검출하고 상기 검출한 영역의 중심점을 상기 동공의 중심점으로 획득하고,
상기 이진화 기법은 상기 안구 영역 내에서 임계값을 기준으로 어두운 영역과 밝은 영역으로 나누고, 상기 어두운 영역을 상기 동공 영역으로 판단하고 상기 어두운 영역에 대한 무게 중심을 상기 동공의 실질적인 중심점으로 판단하는 시선 추적 장치.A main lens on which light is incident;
A microlens array for separating the direction of light incident on the main lens;
A photosensor array including a plurality of photosensors, the photosensor array acquiring the light information and the photosensor position information;
A single image acquiring unit which is composed of the main lens, the microlens array, and the photo sensor array and moves the main lens in the optical axis direction to acquire a plurality of first image frames having different focal lengths;
A high-resolution image generation unit for acquiring a direction in which the light is incident using the position information of the photosensor and generating a second image frame using the light incidence direction and the light information;
A gaze tracking unit for recognizing an eye region from the second image frame generated through the high resolution image generating unit and acquiring a center point of the pupil included in the eye region; And
And a control unit for tracking the gaze of the subject using the information of the pupil recognized through the gaze tracking unit,
Wherein the second video frame has a higher resolution than the first video frame,
Wherein the gaze tracking unit acquires a center position of the pupil by performing a circular detection algorithm and a binarization technique on the eye region,
Wherein the circular detection algorithm detects a portion having a greatest gray level sum difference between the inner circle and the outer circle of the template by moving a circular detection template composed of an inner circle and an outer circle to the pupil region in the eye region, Acquiring a center point of an area as a center point of the pupil,
The binarization technique divides the eye region into a dark region and a bright region based on a threshold value, determines the dark region as the pupil region, and determines a center of gravity of the dark region as a substantial center point of the pupil Device.
상기 광이 입사되는 방향은 상기 포토센서 상에 입사된 광의 방향인 시선 추적 장치.11. The method of claim 10,
Wherein the direction in which the light is incident is a direction of light incident on the photosensor.
상기 마이크로렌즈 어레이는 복수 개의 마이크로 렌즈로 구성되고,
상기 메인 렌즈에서 상기 광이 통과하는 개구인 서브 어퍼쳐의 개수는 상기 마이크로 렌즈 어레이에 대응되는 상기 포토센서의 픽셀 수와 동일한 시선 추적 장치.11. The method of claim 10,
Wherein the microlens array is composed of a plurality of microlenses,
Wherein the number of sub-apertures through which the light passes through the main lens is equal to the number of pixels of the photo sensor corresponding to the microlens array.
상기 고해상도 영상 생성부는,
상기 복수 개의 제 1 영상 프레임에 대해 영상 보간 알고리즘을 적용하는 시선 추적 장치.11. The method of claim 10,
Wherein the high-
Wherein the image interpolation algorithm is applied to the plurality of first image frames.
상기 고해상도 영상 생성부는,
상기 복수 개의 제 1 영상 프레임에서 상기 안구 영역을 검출하고, 상기 복수개의 제 1 영상 프레임에서 인식된 상기 안구 영역을 상기 제 2 영상 프레임에서 확대한 확대 영상을 생성하는 시선 추적 장치.11. The method of claim 10,
Wherein the high-
Wherein the eyeball region is detected in the plurality of first image frames and an enlarged image in which the eyeball region recognized in the plurality of first image frames is enlarged in the second image frame is generated.
상기 제어부는,
상기 피사체가 복수 개일 경우 상기 복수의 피사체 각각에 대한 상기 안구 영역을 확대한 영상을 생성하고, 상기 동공을 인식하여 상기 복수의 피사체 각각에 대한 상기 시선을 추적하는 시선 추적 장치.11. The method of claim 10,
Wherein,
An image enlarging unit that enlarges the eyeball region for each of the plurality of subjects when the plurality of subjects are included, and recognizes the pupil and tracks the gaze for each of the plurality of subjects.
상기 제어부는,
추적한 상기 복수의 피사체 각각에 대한 시선 정보를 표시하는 시선 추적 장치.17. The method of claim 16,
Wherein,
Eye line information for each of the plurality of tracked subjects.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120082014A KR102001950B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120082014A KR102001950B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140014870A KR20140014870A (en) | 2014-02-06 |
KR102001950B1 true KR102001950B1 (en) | 2019-07-29 |
Family
ID=50264681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120082014A KR102001950B1 (en) | 2012-07-26 | 2012-07-26 | Gaze Tracking Apparatus and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102001950B1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9361519B2 (en) | 2014-03-28 | 2016-06-07 | Intel Corporation | Computational array camera with dynamic illumination for eye tracking |
KR102305999B1 (en) * | 2015-01-26 | 2021-09-28 | 엘지이노텍 주식회사 | Iris recognition camera system, terminal including the same and iris recognition method using the same |
US10373592B2 (en) * | 2016-08-01 | 2019-08-06 | Facebook Technologies, Llc | Adaptive parameters in image regions based on eye tracking information |
GB2553353B (en) * | 2016-09-05 | 2021-11-24 | Advanced Risc Mach Ltd | Graphics processing systems and graphics processors |
KR20190123039A (en) * | 2018-04-23 | 2019-10-31 | 박승민 | Method for processing image of extended reality and apparatus thereof |
CN112749600B (en) * | 2019-10-31 | 2024-03-12 | Oppo广东移动通信有限公司 | Human eye position determining method and related products |
CN111311494B (en) * | 2020-02-13 | 2023-04-18 | Oppo广东移动通信有限公司 | Eyeball tracking and positioning accuracy determination method and related product |
US11595575B2 (en) | 2020-05-11 | 2023-02-28 | Samsung Electronics Co., Ltd. | Image sensor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215403A (en) * | 2000-02-01 | 2001-08-10 | Canon Inc | Image pickup device and automatic focus detection method |
US20120147328A1 (en) * | 2010-12-13 | 2012-06-14 | Microsoft Corporation | 3d gaze tracker |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0888853A (en) * | 1994-09-16 | 1996-04-02 | Toshiba Corp | Medium processing system |
KR101608970B1 (en) * | 2009-11-27 | 2016-04-05 | 삼성전자주식회사 | Apparatus and method for processing image using light field data |
KR20120057033A (en) * | 2010-11-26 | 2012-06-05 | 한국전자통신연구원 | Gaze tracking system and method for controlling internet protocol tv at a distance |
-
2012
- 2012-07-26 KR KR1020120082014A patent/KR102001950B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215403A (en) * | 2000-02-01 | 2001-08-10 | Canon Inc | Image pickup device and automatic focus detection method |
US20120147328A1 (en) * | 2010-12-13 | 2012-06-14 | Microsoft Corporation | 3d gaze tracker |
Also Published As
Publication number | Publication date |
---|---|
KR20140014870A (en) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102001950B1 (en) | Gaze Tracking Apparatus and Method | |
US10893260B2 (en) | Depth mapping with a head mounted display using stereo cameras and structured light | |
CN108307675B (en) | Multi-baseline camera array system architecture for depth enhancement in VR/AR applications | |
Zennaro et al. | Performance evaluation of the 1st and 2nd generation Kinect for multimedia applications | |
US10334151B2 (en) | Phase detection autofocus using subaperture images | |
US9720089B2 (en) | 3D zoom imager | |
JP6172978B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, SIGNAL PROCESSING DEVICE, PROGRAM, AND STORAGE MEDIUM | |
US11330200B2 (en) | Parallax correction using cameras of different modalities | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
US20120133754A1 (en) | Gaze tracking system and method for controlling internet protocol tv at a distance | |
WO2015180659A1 (en) | Image processing method and image processing device | |
KR20190076998A (en) | Apparatus and method for obtaining distance information from a view | |
US20120237114A1 (en) | Method and apparatus for feature-based stereo matching | |
JP2013156109A (en) | Distance measurement device | |
CN103873788A (en) | Camera and method for thermal image noise reduction using post processing techniques | |
TWI610059B (en) | Three-dimensional measurement method and three-dimensional measurement device using the same | |
KR20130107981A (en) | Device and method for tracking sight line | |
US20140300703A1 (en) | Image processing apparatus, image processing method, and program | |
US20180276844A1 (en) | Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device | |
JP2012015642A (en) | Imaging device | |
JPWO2019026287A1 (en) | Imaging device and information processing method | |
AU2020408599A1 (en) | Light field reconstruction method and system using depth sampling | |
WO2008132741A2 (en) | Apparatus and method for tracking human objects and determining attention metrics | |
WO2022026342A1 (en) | Devices and methods for determining confidence in stereo matching using a classifier-based filter | |
KR101961266B1 (en) | Gaze Tracking Apparatus and Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |