JP5621456B2 - Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal - Google Patents
Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal Download PDFInfo
- Publication number
- JP5621456B2 JP5621456B2 JP2010211060A JP2010211060A JP5621456B2 JP 5621456 B2 JP5621456 B2 JP 5621456B2 JP 2010211060 A JP2010211060 A JP 2010211060A JP 2010211060 A JP2010211060 A JP 2010211060A JP 5621456 B2 JP5621456 B2 JP 5621456B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- light source
- pupil
- user
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
Description
本発明は、例えば、角膜反射像を検出することにより視線方向を検出する視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびにそのような視線検出装置を用いた携帯端末に関する。 The present invention relates to, for example, a gaze detection device that detects a gaze direction by detecting a cornea reflection image, a gaze detection method, a computer program for gaze detection, and a portable terminal using such a gaze detection device.
従来より、ユーザの眼を撮影した画像を解析することにより光源の角膜反射像(プルキンエ像)を検出することで、ユーザの視線方向を検出する視線検出装置が開発されている。
このような視線検出装置は、プルキンエ像を検出できなければ、視線方向を検出することができない。例えば、ユーザが眼鏡を掛けている場合、視線検出装置は、光源からの照明光が眼鏡レンズにより反射された像とプルキンエ像が重なって、プルキンエ像を検出できないことがある。そこで、視線検出装置がユーザの眼を撮影した画像上でプルキンエ像を検出できなければ、撮影条件または画像取得条件を変更して再度ユーザの眼を撮影し、再撮影された画像上でプルキンエ像を検出する技術が提案されている(例えば、特許文献1〜4を参照)。例えば、このような公知技術の一例では、視線検出装置は複数の照明光源を有し、そのうちの何れかの光源を点灯させた状態でユーザの眼を撮影する。そして視線検出装置は、その撮影画像上でプルキンエ像を検出できない場合、他の光源を点灯させた状態でユーザの眼を再度撮影し、その再撮影された画像上でプルキンエ像を検出する。
2. Description of the Related Art Conventionally, a line-of-sight detection device that detects a user's line-of-sight direction by detecting a cornea reflection image (Purkinje image) of a light source by analyzing an image obtained by photographing a user's eyes has been developed.
Such a gaze detection device cannot detect the gaze direction unless it can detect the Purkinje image. For example, when the user is wearing spectacles, the line-of-sight detection apparatus may not be able to detect the Purkinje image because the illumination light from the light source overlaps with the Purkinje image. Therefore, if the eye-gaze detection device cannot detect the Purkinje image on the image obtained by photographing the user's eyes, the photographing condition or the image acquisition condition is changed to photograph the user's eyes again, and the Purkinje image on the re-photographed image. Has been proposed (see, for example, Patent Documents 1 to 4). For example, in one example of such a known technique, the line-of-sight detection apparatus has a plurality of illumination light sources, and images the user's eyes with any one of the light sources turned on. When the Purkinje image cannot be detected on the captured image, the visual line detection device captures the user's eyes again with the other light sources turned on, and detects the Purkinje image on the recaptured image.
しかしながら、視線検出装置が、プルキンエ像の検出処理を行い、その検出に失敗してからユーザの眼を再撮影すると、プルキンエ像が検出できるまでにタイムラグが生じてしまう。そして最初の撮影時から再撮影時までの間にユーザが眼を動かすと、視線検出装置は、最初の撮影時におけるユーザの視線方向を検出できなくなってしまう。 However, if the line-of-sight detection device performs a Purkinje image detection process and fails to detect the eye, the user's eyes are re-photographed, so that a time lag occurs until the Purkinje image can be detected. If the user moves his / her eyes between the first shooting and the second shooting, the line-of-sight detection device cannot detect the user's line-of-sight direction at the time of the first shooting.
そこで本明細書は、光源のプルキンエ像の検出に失敗してから、光源のプルキンエ像を検出できるまでのタイムラグを短縮できる視線検出装置及び視線検出方法を提供することを目的とする。 In view of this, it is an object of the present specification to provide a line-of-sight detection apparatus and a line-of-sight detection method capable of reducing the time lag from the failure of detection of the Purkinje image of the light source to the detection of the Purkinje image of the light source.
一つの実施形態によれば、視線検出装置が提供される。この視線検出装置は、互いに異なる位置に配置された複数の光源と、所定の周期ごとに、複数の光源のうちの第1の光源がユーザの眼を照明している間にユーザの眼を撮影した第1の画像と、複数の光源のうちの第2の光源がユーザの眼を照明している間にユーザの眼を撮影した第2の画像を生成する撮像部と、所定の周期ごとに、第1の画像及び第2の画像のうちの一方から、第1の光源及び第2の光源のうちの一方による角膜反射像とユーザの瞳孔重心とを検出できるか否か判定し、角膜反射像及び瞳孔重心を検出した場合、その瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向を検出し、一方、角膜反射像または瞳孔重心の何れかを検出できない場合、第1の画像及び第2の画像のうちの他方から瞳孔重心及び角膜反射像を検出し、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向を検出する制御部とを有する。 According to one embodiment, a line-of-sight detection device is provided. The line-of-sight detection device captures a user's eyes while a plurality of light sources arranged at different positions and a first light source of the plurality of light sources illuminating the user's eyes for each predetermined period. The first image, an imaging unit that generates a second image of the user's eyes while the second light source of the plurality of light sources illuminates the user's eyes, and every predetermined period Then, it is determined from one of the first image and the second image whether the cornea reflection image and the user's pupil center of gravity by one of the first light source and the second light source can be detected, and the cornea reflection. When the image and the pupil centroid are detected, the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image. On the other hand, when either the corneal reflection image or the pupil centroid cannot be detected, Pupil centroid and corneal reflection image from the other of the image and the second image Detect, and a control unit for detecting a gaze direction of the user in accordance with the positional relationship between the pupil centroid and the cornea reflection image.
また他の実施形態によれば、携帯端末が提供される。この携帯端末は、表示部と、表示部の周囲の互いに異なる位置に配置された複数の光源と、所定の周期ごとに、複数の光源のうちの第1の光源がユーザの眼を照明している間にユーザの眼を撮影した第1の画像と、複数の光源のうちの第2の光源がユーザの眼を照明している間にユーザの眼を撮影した第2の画像を生成する撮像部と、所定の周期ごとに、第1の画像及び第2の画像のうちの一方から、第1の光源及び第2の光源のうちの一方による角膜反射像とユーザの瞳孔重心とを検出できるか否か判定し、角膜反射像及び瞳孔重心を検出できる場合、その瞳孔重心と角膜反射像との位置関係に応じてユーザが表示部上で注視している注視位置を検出し、一方、角膜反射像または瞳孔重心の何れかを検出できない場合、第1の画像及び第2の画像のうちの他方から瞳孔重心及び角膜反射像を検出し、瞳孔重心と角膜反射像との位置関係に応じて注視位置を検出する制御部と、注視位置と関連付けられた処理を実行するアプリケーション実行部とを有する。 According to another embodiment, a mobile terminal is provided. In this portable terminal, a display unit, a plurality of light sources arranged at different positions around the display unit, and a first light source of the plurality of light sources illuminate the user's eyes at predetermined intervals. A first image obtained by photographing the user's eyes while the second light source among the plurality of light sources illuminates the user's eyes, and a second image obtained by photographing the user's eyes And a corneal reflection image of one of the first light source and the second light source and the user's pupil center of gravity can be detected from one of the first image and the second image for each predetermined period. If the corneal reflection image and the pupil centroid can be detected, the gaze position on which the user is gazing on the display unit is detected according to the positional relationship between the pupil centroid and the corneal reflection image. If either the reflected image or the pupil center of gravity cannot be detected, the first image and the second A control unit that detects the center of gravity of the pupil and the corneal reflection image from the other of the images, detects the gaze position according to the positional relationship between the center of gravity of the pupil and the corneal reflection image, and executes the application that executes processing associated with the gaze position Part.
さらに他の実施形態によれば、視線検出方法が提供される。この視線検出方法は、所定の周期ごとに、互いに異なる位置に配置された複数の光源のうちの第1の光源がユーザの眼を照明している間にユーザの眼を撮影した第1の画像と、複数の光源のうちの第2の光源がユーザの眼を照明している間にユーザの眼を撮影した第2の画像を取得し、所定の周期ごとに、第1の画像及び第2の画像のうちの一方から、第1の光源及び第2の光源のうちの一方による角膜反射像とユーザの瞳孔重心とを検出できるか否か判定し、角膜反射像及び瞳孔重心を検出した場合、その瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向を検出し、一方、角膜反射像または瞳孔重心の何れかを検出できない場合、第1の画像及び第2の画像のうちの他方から瞳孔重心及び角膜反射像を検出し、瞳孔重心と角膜反射像との位置関係に応じてユーザの視線方向を検出することを含む。 According to still another embodiment, a gaze detection method is provided. In this line-of-sight detection method, a first image obtained by photographing a user's eye while a first light source among a plurality of light sources arranged at different positions is illuminating the user's eye for each predetermined period. And a second image obtained by photographing the user's eye while the second light source among the plurality of light sources illuminates the user's eye, and the first image and the second image are acquired at predetermined intervals. When it is determined from one of the images that the cornea reflection image by one of the first light source and the second light source and the user's pupil centroid can be detected, and the corneal reflection image and the pupil centroid are detected If the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image, and if either the corneal reflection image or the pupil centroid cannot be detected, the first image and the second image Detects the center of gravity of the pupil and the corneal reflection image from the other side of the And detecting a gaze direction of the user in accordance with the positional relationship between Izo.
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.
本明細書に開示された視線検出装置及び視線検出方法は、光源のプルキンエ像の検出に失敗してから、光源のプルキンエ像を検出できるまでのタイムラグを短縮できる。 The line-of-sight detection apparatus and line-of-sight detection method disclosed in this specification can shorten the time lag from when the detection of the Purkinje image of the light source fails until the Purkinje image of the light source can be detected.
以下、図を参照しつつ、一つの実施形態による、視線検出装置について説明する。
この視線検出装置は、異なる位置に配置された複数の光源を有し、一定の周期ごとに、各光源のうち点灯する光源を変えつつ複数回ユーザの眼を撮影することで、眼を照明する光源が異なる複数の画像を生成する。そしてこの視線検出装置は、一定の周期ごとに生成された複数の画像に対して順次プルキンエ像及び瞳孔の重心を検出し、プルキンエ像及び瞳孔の重心が検出された画像を用いてユーザの視線を検出する。このように、この視線検出装置は、プルキンエ像または瞳孔の重心の検出に失敗してからユーザの眼を再撮影するのではなく、予めユーザの眼を照明する光源が異なる複数の画像を取得しているので、最初に解析した画像上でプルキンエ像または瞳孔の重心の検出に失敗した場合でも、ユーザの視線方向が検出できるまでのタイムラグを短縮できる。
Hereinafter, a gaze detection apparatus according to one embodiment will be described with reference to the drawings.
This line-of-sight detection device has a plurality of light sources arranged at different positions, and illuminates the eyes by photographing the user's eyes a plurality of times while changing the light sources to be lit among the respective light sources at regular intervals. A plurality of images having different light sources are generated. This gaze detection device sequentially detects the Purkinje image and the center of gravity of the pupil for a plurality of images generated at regular intervals, and uses the images from which the Purkinje image and the center of gravity of the pupil are detected to detect the user's gaze. To detect. In this way, this line-of-sight detection device does not re-photograph the user's eyes after failing to detect the Purkinje image or the center of gravity of the pupil, but acquires a plurality of images with different light sources that illuminate the user's eyes in advance. Therefore, even when the detection of the Purkinje image or the center of gravity of the pupil fails on the first analyzed image, the time lag until the user's line-of-sight direction can be detected can be shortened.
図1は、一つの実施形態による視線検出装置を搭載した携帯端末のハードウェア構成図である。携帯端末1は、ユーザインターフェース2と、メモリ3と、制御部4と、筺体5と、視線検出装置10とを有するコンピュータである。なお、携帯端末1は、例えば、携帯電話機または携帯情報端末である。さらに携帯端末1は、携帯端末1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。なお、図1は、携帯端末1が有する構成要素を説明するための図であり、携帯端末1の各構成要素の実際の配置を表した図ではないことに留意されたい。 FIG. 1 is a hardware configuration diagram of a mobile terminal equipped with a line-of-sight detection device according to one embodiment. The mobile terminal 1 is a computer having a user interface 2, a memory 3, a control unit 4, a housing 5, and a line-of-sight detection device 10. The mobile terminal 1 is, for example, a mobile phone or a mobile information terminal. Furthermore, the mobile terminal 1 may have a communication interface circuit (not shown) for connecting the mobile terminal 1 to another device. Note that FIG. 1 is a diagram for explaining the constituent elements of the mobile terminal 1 and is not a diagram showing the actual arrangement of the constituent elements of the mobile terminal 1.
ユーザインターフェース2は、例えば、タッチパネルディスプレイを有する。そしてユーザインターフェース2は、筺体5の正面において、ユーザインターフェース2の表示画面が、筺体5の正面に対向するユーザを向くように配置される。そしてユーザインターフェース2は、例えば、様々なアイコンを制御部4からの制御信号に応じて表示する。またユーザインターフェース2は、表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号を制御部4へ出力する。
なお、ユーザインターフェース2は、液晶ディスプレイといった表示装置と、キーパッドなどの複数の操作スイッチを有していてもよい。
The user interface 2 has, for example, a touch panel display. The user interface 2 is arranged on the front surface of the housing 5 such that the display screen of the user interface 2 faces the user facing the front surface of the housing 5. And the user interface 2 displays various icons according to the control signal from the control part 4, for example. In addition, when the user touches the position of the displayed icon, the user interface 2 generates an operation signal corresponding to the position and outputs the operation signal to the control unit 4.
The user interface 2 may have a display device such as a liquid crystal display and a plurality of operation switches such as a keypad.
メモリ3は、例えば、読み書き可能な不揮発性の半導体メモリを有する。そしてメモリ3は、制御部4上で実行される各種のアプリケーションプログラム及び各種のデータを記憶する。またメモリ3は、ユーザインターフェース2の表示画面に表示中のアイコンの領域を表す情報を記憶する。 The memory 3 includes, for example, a readable / writable nonvolatile semiconductor memory. The memory 3 stores various application programs executed on the control unit 4 and various data. The memory 3 also stores information representing the icon area being displayed on the display screen of the user interface 2.
さらに、メモリ3は、視線検出装置10の記憶部としても機能する。そしてメモリ3は、例えば、プルキンエ像の重心に対する瞳孔重心の相対的な位置とユーザが注視する位置との関係を表す参照テーブルなど、ユーザが注視する位置を検出するために利用される各種のデータを記憶する。また、メモリ3は、キャリブレーション処理の実行時において使用される、ユーザが眼鏡を装着しているか否かを表す眼鏡装着フラグを記憶する。さらに、メモリ3は、視線検出処理を実行するプログラムを記憶する。
なお、視線検出装置10の記憶部として機能するメモリ回路は、メモリ3とは別個に携帯端末1に実装されてもよい。
Furthermore, the memory 3 also functions as a storage unit of the line-of-sight detection device 10. The memory 3 is, for example, a variety of data used for detecting the position at which the user is gazing, such as a reference table that represents the relationship between the position of the pupil centroid relative to the centroid of the Purkinje image and the position at which the user is gazing. Remember. In addition, the memory 3 stores a spectacle wearing flag that is used when the calibration process is performed and that indicates whether the user is wearing spectacles. Furthermore, the memory 3 stores a program for executing the line-of-sight detection process.
The memory circuit that functions as the storage unit of the line-of-sight detection device 10 may be mounted on the mobile terminal 1 separately from the memory 3.
視線検出装置10は、ユーザインターフェース2の表示画面上でユーザが注視している位置、すなわち、ユーザの視線方向を求める。そして視線検出装置10は、ユーザが注視している位置を表す情報を制御部4が実行中のアプリケーションプログラムに渡す。なお、視線検出装置10の詳細については後述する。 The line-of-sight detection device 10 obtains the position where the user is gazing on the display screen of the user interface 2, that is, the user's line-of-sight direction. Then, the line-of-sight detection device 10 passes information indicating the position where the user is gazing to the application program being executed by the control unit 4. Details of the line-of-sight detection device 10 will be described later.
制御部4は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部4は、携帯端末1の各部と信号線を介して接続されており、携帯端末1全体を制御する。例えば、制御部4は、ユーザインターフェース2から受け取った操作信号と実行中のアプリケーションプログラムに応じた処理を実行する。
また制御部4は、視線検出装置10の制御部としても機能する。なお、視線検出装置10の制御部としての機能及び動作に関しては後述する。
さらに、制御部4は、アプリケーション実行部の一例であり、例えば、視線検出装置10により求められた、ユーザが注視している位置とメモリ3に記憶されているユーザインターフェース2の表示画面上の各アイコンの表示領域とを比較する。そして制御部4は、ユーザが注視している位置と何れかのアイコンの表示領域とが重なっている場合、そのアイコンに応じた処理を実行する。例えば、表示画面に現在地に近いホテルを表すアイコンが表示されており、各アイコンには、ホテルの詳細情報を表示画面の下方に表示する処理が関連付けられているとする。
この場合、ユーザが注視する位置が何れかのアイコンの表示領域と重なっていれば、制御部4は、ユーザインターフェース2に、そのアイコンに関連するホテルの詳細情報を表示画面の下方に表示させる。本実施形態では、視線検出装置10が一定の周期ごとに眼を照明する光源が異なる複数の画像に基づいてユーザが注視する位置を検出するので、制御部4は、ユーザが注視している位置を各周期において知ることができる。そのため、ユーザが注視するアイコンを次々に変えても、制御部4は、ユーザが注視したアイコンに関連付けられた情報を確実に表示させることができる。
The control unit 4 includes one or a plurality of processors and their peripheral circuits. And the control part 4 is connected with each part of the portable terminal 1 via a signal line, and controls the portable terminal 1 whole. For example, the control unit 4 executes processing according to the operation signal received from the user interface 2 and the application program being executed.
The control unit 4 also functions as a control unit of the line-of-sight detection device 10. The function and operation as the control unit of the line-of-sight detection device 10 will be described later.
Further, the control unit 4 is an example of an application execution unit. For example, each position on the display screen of the user interface 2 stored in the memory 3 and the position at which the user is gazing, which is obtained by the line-of-sight detection device 10. Compare the icon display area. And the control part 4 performs the process according to the icon, when the position which the user is gazing and the display area of any icon have overlapped. For example, it is assumed that an icon representing a hotel close to the current location is displayed on the display screen, and each icon is associated with a process of displaying detailed hotel information below the display screen.
In this case, if the position where the user gazes overlaps with the display area of any icon, the control unit 4 causes the user interface 2 to display the detailed information of the hotel related to the icon at the bottom of the display screen. In the present embodiment, since the line-of-sight detection device 10 detects a position at which the user gazes based on a plurality of images with different light sources that illuminate the eyes at regular intervals, the control unit 4 is a position at which the user is gazing. Can be known in each cycle. Therefore, even if the icons that the user watches are changed one after another, the control unit 4 can surely display information associated with the icons that the user has watched.
視線検出装置10は、ユーザの視線を検出するために、4個の光源11−1〜11−4と、カメラ12と、メモリ3と、制御部4とを有する。
光源11−1〜11−4は、携帯端末1を操作するユーザの眼及びその周囲を照明する。そのため、各光源11−1〜11−4は、例えば、少なくとも一つの赤外発光ダイオードと、制御部4からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして各光源11−1〜11−4は、制御部4から光源を点灯させる制御信号を受信している間、照明光を発する。
なお、視線検出装置10が有する光源の数は、4個に限られない。視線検出装置10は、互いに異なる位置に配置された2個以上の光源を有すればよい。
The line-of-sight detection device 10 includes four light sources 11-1 to 11-4, a camera 12, a memory 3, and a control unit 4 in order to detect a user's line of sight.
The light sources 11-1 to 11-4 illuminate the eyes of the user who operates the mobile terminal 1 and the surroundings thereof. Therefore, each of the light sources 11-1 to 11-4 is, for example, a drive that supplies power from a power source (not shown) to the infrared light emitting diodes according to at least one infrared light emitting diode and a control signal from the control unit 4. Circuit. Each of the light sources 11-1 to 11-4 emits illumination light while receiving a control signal for turning on the light source from the control unit 4.
Note that the number of light sources included in the line-of-sight detection device 10 is not limited to four. The line-of-sight detection device 10 only needs to have two or more light sources arranged at different positions.
カメラ12は、撮像部の一例であり、ユーザの眼が写った画像を生成する。そのために、カメラ12は、光源11−1〜11−4の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にユーザの眼の像を結像する撮像光学系を有する。カメラ12は、虹彩による反射像及び光源11−1〜11−4以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。
また、画像が光源11−1〜11−4のプルキンエ像を識別できる程度の解像度を有するように、カメラ12のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像であり、画素ごとに赤色(R)、緑色(G)及び青色(B)の3色の成分を持つ。各色成分は、例えば、0〜255の何れかの値をとり、色成分値が大きいほど、その色の輝度が高い。あるいは、イメージセンサにより生成される画像は、光の強度が強いほど各画素の輝度が高くなるモノクロ画像であってもよい。
カメラ12は、制御部4から撮影指示信号を受け取ると、光源11−1〜11−4の何れかが点灯している間に撮影することにより、点灯している光源により照明されたユーザの少なくとも一方の眼、好ましくは両方の眼が写った画像を生成する。そしてカメラ12は、画像を生成する度に、生成した画像を制御部4へ出力する。
The camera 12 is an example of an imaging unit, and generates an image in which the user's eyes are shown. For this purpose, the camera 12 forms an image of a user's eye on the image sensor having a solid-state imaging device arranged in a two-dimensional shape having sensitivity to the light of the light sources 11-1 to 11-4. An imaging optical system. The camera 12 has visible light between the image sensor and the imaging optical system in order to suppress detection of a reflection image by an iris and a corneal reflection image of light from a light source other than the light sources 11-1 to 11-4. You may further have a cut filter.
The number of pixels of the image sensor of the camera 12 is, for example, 1 million, 2 million, or 4 million so that the image has a resolution that can identify the Purkinje images of the light sources 11-1 to 11-4. Can do. An image generated by the image sensor is a color image, and each pixel has three color components of red (R), green (G), and blue (B). Each color component takes any value from 0 to 255, for example. The larger the color component value, the higher the luminance of the color. Alternatively, the image generated by the image sensor may be a monochrome image in which the luminance of each pixel increases as the light intensity increases.
When the camera 12 receives the shooting instruction signal from the control unit 4, the camera 12 takes a picture while any one of the light sources 11-1 to 11-4 is turned on, so that at least the user illuminated by the light source that is turned on. An image with one eye, preferably both eyes, is generated. The camera 12 outputs the generated image to the control unit 4 every time an image is generated.
図2は、携帯端末1の概略正面図である。本実施形態では、図2に示されるように、携帯端末1のユーザインターフェース2の表示画面2aの上端に近接してカメラ12が配置される。このカメラ12は、表示画面2aに対向するユーザの顔を撮影できるように向けられる。なお、表示画面2aは、ユーザが注視する可能性がある注視領域の一例である。
各光源11−1〜11−4は、表示画面2aに対向するユーザの顔を照明できるように、ユーザインターフェース2の外周に沿って配置される。また、ユーザが眼鏡を掛けている場合に、光源11−1〜11−4の少なくとも一つの眼鏡レンズによる反射像とユーザの角膜による反射像とがカメラ12の像面で重複しないように、各光源11−1〜11−4は、互いに異なる位置に配置される。例えば、光源11−1〜11−4のうちの少なくとも二つの間隔が、ユーザが携帯端末1を操作する際のユーザと表示画面2a間の距離においてその二つの光源の眼鏡レンズによる反射像間の距離が瞳孔の直径よりも大きくなるように設定される。例えば、光源11−1と光源11−2間の距離は、50mm以上に設定されることが好ましい。この例では、光源11−1は、ユーザインターフェース2の上側に配置される。また光源11−2〜11−4は、それぞれ、ユーザインターフェース2の下側、左側、右側に配置される。
FIG. 2 is a schematic front view of the mobile terminal 1. In the present embodiment, as shown in FIG. 2, the camera 12 is disposed close to the upper end of the display screen 2 a of the user interface 2 of the mobile terminal 1. The camera 12 is directed so that the user's face facing the display screen 2a can be photographed. The display screen 2a is an example of a gaze area in which the user may gaze.
Each light source 11-1 to 11-4 is arranged along the outer periphery of the user interface 2 so as to illuminate the face of the user facing the display screen 2a. Further, when the user wears spectacles, each of the reflection images of at least one spectacle lens of the light sources 11-1 to 11-4 and the reflection image of the user's cornea are not overlapped on the image plane of the camera 12. The light sources 11-1 to 11-4 are arranged at different positions. For example, at least two of the light sources 11-1 to 11-4 are spaced between the reflected images of the two light sources by the spectacle lens at a distance between the user and the display screen 2a when the user operates the mobile terminal 1. The distance is set to be larger than the diameter of the pupil. For example, the distance between the light source 11-1 and the light source 11-2 is preferably set to 50 mm or more. In this example, the light source 11-1 is arranged on the upper side of the user interface 2. The light sources 11-2 to 11-4 are disposed on the lower side, the left side, and the right side of the user interface 2, respectively.
一般に、眼鏡レンズのユーザと対向しない側の表面は凸状に形成されるが、その曲率半径は、角膜の曲率半径よりも非常に大きい。すなわち、カメラ12にとって、眼鏡レンズと角膜の両方とも、凸面鏡として機能するが、角膜の光学パワーの絶対値の方が、眼鏡レンズの光学パワーの絶対値よりも強い。したがって、光源の位置が変化すると、角膜による光源の反射像の位置変化量は、眼鏡レンズによる光源の反射像の位置変化量よりも小さい。そのため、ある光源の眼鏡レンズによる反射像と角膜による反射像がカメラ12の像面で重なる場合、他の位置にある光源の眼鏡レンズによる反射像と角膜による反射像は、カメラ12の像面では異なる位置になる。
したがって、互いに異なる位置に配置された複数の光源11−1〜11−4のうちの点灯する光源を変えることで、視線検出装置1は、光源11からの照明光の眼鏡レンズによる反射像とその照明光のプルキンエ像とをカメラ12の像面上で異なる位置に分離できる。
In general, the surface of the spectacle lens that does not face the user is formed in a convex shape, but its curvature radius is much larger than the curvature radius of the cornea. That is, for the camera 12, both the spectacle lens and the cornea function as convex mirrors, but the absolute value of the optical power of the cornea is stronger than the absolute value of the optical power of the spectacle lens. Therefore, when the position of the light source changes, the amount of change in the position of the reflected image of the light source by the cornea is smaller than the amount of change in the position of the reflected image of the light source by the spectacle lens. Therefore, when the reflected image from the spectacle lens of a certain light source and the reflected image from the cornea overlap on the image plane of the camera 12, the reflected image from the spectacle lens of the light source at another position and the reflected image from the cornea are on the image plane of the camera 12. Become a different position.
Therefore, by changing the light source to be lit among the plurality of light sources 11-1 to 11-4 arranged at different positions, the line-of-sight detection apparatus 1 reflects the reflected image of the illumination light from the light source 11 by the spectacle lens and its The Purkinje image of the illumination light can be separated at different positions on the image plane of the camera 12.
図3は、光源のプルキンエ像と眼鏡レンズで反射された光源の像とが写った画像の一例を示す図である。図3に示された画像300では、上下方向に並んだ二つの光源により照明されたユーザの眼が写っている。画像300上の輝点301、302は、それぞれ、二つの光源のプルキンエ像である。一方、輝点311、312は、それぞれ、眼鏡レンズの表面で反射された二つの光源の反射像である。眼鏡レンズによる反射像は明るいので、その反射像と光源のプルキンエ像が重なると、視線検出装置10がそのプルキンエ像を検出するのは困難である。しかし、輝点311と輝点312の間隔は、輝点301と302間の間隔よりも非常に大きい。したがって、上側の光源または下側の光源の何れか一方に関して、光源のプルキンエ像と眼鏡レンズによる反射像が重なる場合には、他方の光源については、光源のプルキンエ像と眼鏡レンズによる反射像が重ならないことが分かる。 FIG. 3 is a diagram illustrating an example of an image in which the Purkinje image of the light source and the image of the light source reflected by the spectacle lens are shown. In the image 300 shown in FIG. 3, the eyes of the user illuminated by two light sources arranged in the vertical direction are shown. Bright points 301 and 302 on the image 300 are Purkinje images of two light sources, respectively. On the other hand, the bright spots 311 and 312 are reflection images of two light sources reflected on the surface of the spectacle lens, respectively. Since the reflected image by the spectacle lens is bright, if the reflected image and the Purkinje image of the light source overlap, it is difficult for the line-of-sight detection device 10 to detect the Purkinje image. However, the distance between the bright spot 311 and the bright spot 312 is much larger than the distance between the bright spots 301 and 302. Therefore, when either the upper light source or the lower light source overlaps the Purkinje image of the light source and the reflected image by the spectacle lens, the Purkinje image of the light source and the reflected image by the spectacle lens overlap for the other light source. I understand that it doesn't become.
また各光源11−1〜11−4とカメラ12とを結ぶ線が、表示画面2aの中心から外れるように各光源11−1〜11−4及びカメラ12は配置されることが好ましい。このように各光源とカメラ12を配置することにより、表示画面2aに対して正対しているユーザが眼鏡を掛けていても、眼鏡レンズで反射された光源の光はカメラ12と異なる方向へ向かう可能性が高くなる。そのため、視線検出装置10は、ユーザが眼鏡を掛けている場合でも、光源のプルキンエ像及び瞳孔の重心と眼鏡レンズによる光源の像とが重なる可能性を低減できる。 Moreover, it is preferable that each light source 11-1 to 11-4 and the camera 12 are arrange | positioned so that the line which connects each light source 11-1 to 11-4 and the camera 12 may remove | deviate from the center of the display screen 2a. By arranging the light sources and the camera 12 in this way, even if the user who is facing the display screen 2a is wearing glasses, the light of the light source reflected by the spectacle lens is directed in a different direction from the camera 12. The possibility increases. Therefore, the line-of-sight detection device 10 can reduce the possibility that the Purkinje image of the light source and the center of gravity of the pupil overlap with the image of the light source by the spectacle lens even when the user is wearing glasses.
制御部4は、上述したように、携帯端末1の制御部でもあり、視線検出装置10の各部と信号線を通じて接続されている。そして制御部4は、視線検出装置10の各部へ信号線を通じて制御信号を送信することで視線検出装置10の各部を制御する。
また制御部4は、ユーザが注視している位置の情報を用いるアプリケーションが携帯端末1で実行されている間、ユーザが注視している位置を求める視線方向検出処理を実行する。また、制御部4は、携帯端末1の起動時、あるいは上記のようなアプリケーションの起動時など、特定のタイミングにおいて、光源のプルキンエ像と瞳孔重心との相対的な位置関係とユーザが注視している位置との関係を求めるキャリブレーション処理を実行する。
As described above, the control unit 4 is also a control unit of the mobile terminal 1 and is connected to each unit of the visual line detection device 10 through a signal line. And the control part 4 controls each part of the visual line detection apparatus 10 by transmitting a control signal to each part of the visual line detection apparatus 10 through a signal line.
Further, the control unit 4 executes a gaze direction detection process for obtaining a position where the user is gazing while an application using information on the position where the user is gazing is executed on the mobile terminal 1. In addition, the control unit 4 pays attention to the relative positional relationship between the Purkinje image of the light source and the pupil center of gravity at a specific timing, such as when the mobile terminal 1 is started or when the above-described application is started. A calibration process is performed to obtain the relationship with the current position.
図4は、制御部4の視線検出処理に関する機能ブロック図である。制御部4は、光源制御部21と、カメラ制御部22と、顔検出部23と、プルキンエ像検出部24と、視線検出部25と、キャリブレーション部26とを有する。
光源制御部21、カメラ制御部22、顔検出部23、プルキンエ像検出部24、視線検出部25及びキャリブレーション部26は、制御部4が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
あるいは、光源制御部21、カメラ制御部22、顔検出部23、プルキンエ像検出部24、視線検出部25及びキャリブレーション部26は、それぞれ、制御部4が有するプロセッサとは別個の回路として形成されてもよい。あるいは光源制御部21、カメラ制御部22、顔検出部23、プルキンエ像検出部24、視線検出部25及びキャリブレーション部26は、その各部に対応する回路が集積された一つの集積回路として、制御部4が有するプロセッサとは別個に携帯端末1に実装されてもよい。この場合、その集積回路は、メモリ3とは別個に、参照テーブルなどを記憶して、視線検出装置10が有する記憶部として機能する記憶回路を含んでいてもよい。
FIG. 4 is a functional block diagram relating to the line-of-sight detection process of the control unit 4. The control unit 4 includes a light source control unit 21, a camera control unit 22, a face detection unit 23, a Purkinje image detection unit 24, a line-of-sight detection unit 25, and a calibration unit 26.
The light source control unit 21, camera control unit 22, face detection unit 23, Purkinje image detection unit 24, line-of-sight detection unit 25, and calibration unit 26 are functions realized by a computer program executed on a processor included in the control unit 4. It is a module.
Alternatively, the light source control unit 21, the camera control unit 22, the face detection unit 23, the Purkinje image detection unit 24, the line-of-sight detection unit 25, and the calibration unit 26 are each formed as a separate circuit from the processor included in the control unit 4. May be. Alternatively, the light source control unit 21, the camera control unit 22, the face detection unit 23, the Purkinje image detection unit 24, the line-of-sight detection unit 25, and the calibration unit 26 are controlled as one integrated circuit in which circuits corresponding to the respective units are integrated. The mobile terminal 1 may be mounted separately from the processor included in the unit 4. In this case, the integrated circuit may include a storage circuit that stores a reference table or the like separately from the memory 3 and functions as a storage unit included in the visual line detection device 10.
光源制御部21は、光源11−1〜11−4のそれぞれについて点灯するタイミングを制御する。そして光源制御部21は、視線検出処理の実行中において、点灯する光源が一定の周期で切り替わるように各光源へ制御信号を送信する。例えば、光源制御部21は、一定周期ごとに、点灯する光源が、11−1→11−2→11−3→11−4の順序で切り替わるように各光源へ制御信号を送信してもよい。
また光源制御部21は、同時に2個以上の光源が点灯するように各光源へ制御信号を送信してもよい。同時に複数の光源が点灯すると、プルキンエ像にも点灯している複数の光源の像が含まれるので、視線検出装置10は、画像上での輝点の配置パターンが、実際に点灯している光源の配置パターンと一致するか否か調べることができる。そのため、視線検出装置10は、室内灯または太陽など、他の光源の像と視線検出装置10が有する光源の像とを識別し易くなる。
The light source control unit 21 controls the lighting timing of each of the light sources 11-1 to 11-4. Then, the light source control unit 21 transmits a control signal to each light source so that the light source to be turned on is switched at a constant cycle during the execution of the line-of-sight detection process. For example, the light source control unit 21 may transmit a control signal to each light source so that the light source to be turned on is switched in the order of 11-1 → 11-2 → 11-3 → 11-4 at regular intervals. .
The light source control unit 21 may transmit a control signal to each light source so that two or more light sources are turned on simultaneously. When a plurality of light sources are turned on at the same time, the Purkinje image also includes a plurality of light source images that are turned on. Therefore, the line-of-sight detection device 10 uses a light source in which the arrangement pattern of bright spots on the image is actually turned on. It can be checked whether or not it matches the arrangement pattern. Therefore, the line-of-sight detection device 10 can easily distinguish between an image of another light source such as an indoor lamp or the sun and an image of the light source included in the line-of-sight detection device 10.
例えば、光源制御部21は、一定周期ごとに、点灯する光源が、(11−1、11−3)→(11−2、11−4)の順序で切り替わるように各光源へ制御信号を送信してもよい。あるいは、光源制御部21は、一定周期ごとに、点灯する光源が、(11−1、11−3)→(11−2、11−4)→(11−1、11−4)→(11−2、11−3)の順序で切り替わるように各光源へ制御信号を送信してもよい。
また一定周期は、例えば、ユーザの視線の移動に追随して必要な操作が実行されるように決定される。例えば、一定周期は、50ミリ秒〜100ミリ秒に設定される。
また光源制御部21は、キャリブレーション処理の実行中において、1回の周期における光源の点灯順序に従って、各光源を順次点灯させる。
光源制御部21は、点灯させる光源を切り替える度に、その旨をカメラ制御部22へ通知する。
For example, the light source control unit 21 transmits a control signal to each light source so that the light source to be turned on is switched in the order of (11-1, 11-3) → (11-2, 11-4) at regular intervals. May be. Alternatively, the light source control unit 21 determines that the light source to be lit is (11-1, 11-3) → (11-2, 11-4) → (11-1, 11-4) → (11 at regular intervals. -2, 11-3) A control signal may be transmitted to each light source so as to be switched in the order.
Further, the fixed period is determined so that, for example, a necessary operation is performed following the movement of the user's line of sight. For example, the fixed period is set to 50 milliseconds to 100 milliseconds.
Further, the light source control unit 21 sequentially turns on each light source according to the lighting order of the light sources in one cycle during the execution of the calibration process.
Each time the light source control unit 21 switches the light source to be turned on, the light source control unit 21 notifies the camera control unit 22 accordingly.
カメラ制御部22は、視線検出処理またはキャリブレーション処理の実行中において、カメラ12が撮影するタイミングを制御する。カメラ制御部22は、光源制御部21から点灯させる光源を切り替えることを通知されると、カメラ12に対して撮影を実行させる撮影指示信号を送信する。そしてカメラ制御部22は、カメラ12から画像を受け取ると、その画像を一旦メモリ3に記憶させる。
したがって、カメラ制御部22は、光源11−1〜11−4の点灯パターンが一巡する一定周期ごとに、カメラ12から複数の画像を受け取る。例えば、上記のように、光源11−1〜11−4が一定周期内で1個ずつ点灯する場合、カメラ制御部22は、各光源が点灯している間に撮影された4枚の画像を受け取る。また、光源11−1〜11−4が、一定周期内で2個ずつ、2通りのパターンで点灯する場合、カメラ制御部22は、それぞれの点灯パターンで光源が点灯している間に撮影された2枚の画像を受け取る。
The camera control unit 22 controls the timing at which the camera 12 captures an image during the execution of the line-of-sight detection process or the calibration process. When notified from the light source control unit 21 that the light source to be turned on is switched, the camera control unit 22 transmits a shooting instruction signal for causing the camera 12 to perform shooting. When receiving an image from the camera 12, the camera control unit 22 temporarily stores the image in the memory 3.
Therefore, the camera control unit 22 receives a plurality of images from the camera 12 at regular intervals in which the lighting patterns of the light sources 11-1 to 11-4 make a round. For example, as described above, when the light sources 11-1 to 11-4 are turned on one by one within a certain period, the camera control unit 22 displays four images taken while each light source is turned on. receive. In addition, when the light sources 11-1 to 11-4 are turned on in two patterns two by two within a certain period, the camera control unit 22 is photographed while the light sources are turned on with the respective lighting patterns. Receive two images.
顔検出部23は、視線検出処理またはキャリブレーション処理の実行中において、画像上でユーザの眼が写っている可能性のある領域を特定するために、カメラ12から受け取った画像上で、ユーザの顔が写っている領域を検出する。
本実施形態では、撮影時において、ユーザの顔は光源11−1〜11−4からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、画像上で顔の肌の部分が写っている画素の輝度は高い。一方、画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで、顔検出部23は、画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして顔検出部23は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、画像の各画素の値が輝度を表すモノクロ画像である場合、顔検出部23は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
The face detection unit 23 performs an operation on the image received from the camera 12 on the image received from the camera 12 in order to identify a region where the user's eyes may be captured on the image during the line-of-sight detection process or the calibration process. Detect the area where the face is reflected.
In the present embodiment, at the time of shooting, the user's face is illuminated with infrared light from the light sources 11-1 to 11-4, and the reflectance of the skin to the infrared light is relatively high (for example, the reflection of the skin). The rate is a few tens of percent in the near-infrared wavelength region), so the brightness of the pixels where the facial skin is reflected on the image is high. On the other hand, since the area of the hair or the user's back area on the image has a low reflectance with respect to infrared light or is far from the light source, the luminance of the pixel in which the hair or the area behind the user is reflected is relatively low.
Therefore, when the value of each pixel of the image is a color image represented by the RGB color system, the face detection unit 23 converts the value of each pixel into a value represented by the YUV color system. Then, the face detection unit 23 extracts pixels whose luminance component (Y component) value of each pixel is equal to or greater than a predetermined threshold as face area candidate pixels that may have a face. When the value of each pixel of the image is a monochrome image representing luminance, the face detection unit 23 compares the value of each pixel with a predetermined threshold value. For example, the predetermined threshold is set to a value obtained by multiplying the maximum value of the luminance component on the image by 0.8.
また、ユーザの視線に応じて携帯端末1の操作が実行される場合、ユーザの顔は、携帯端末1の正面を向いており、かつ、携帯端末1の正面から略数十cm離れた位置にあると想定される。そのため、画像上でユーザの顔が占める領域は比較的大きく、かつ、画像上で顔が占める領域の大きさもある程度推定される。
そこで顔検出部23は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして顔検出部23は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、顔検出部23はその顔候補領域をユーザの顔が写っている顔領域と判定する。
なお、顔候補領域の大きさは、例えば、顔候補領域の水平方向の最大幅の画素数で表される。この場合、基準範囲は、例えば、画像の水平方向画素数の1/4以上〜2/3以下に設定される。あるいは、顔候補領域の大きさは、例えば、顔候補領域に含まれる画素数で表されてもよい。この場合、基準範囲は、例えば、画像全体の画素数の1/16以上〜4/9以下に設定される。
When the operation of the mobile terminal 1 is executed according to the user's line of sight, the user's face is facing the front of the mobile terminal 1 and at a position approximately several tens of centimeters away from the front of the mobile terminal 1. It is assumed that there is. Therefore, the area occupied by the user's face on the image is relatively large, and the size of the area occupied by the face on the image is estimated to some extent.
Therefore, the face detection unit 23 performs a labeling process on the face area candidate pixels, and sets a set of face area candidate pixels adjacent to each other as a face candidate area. Then, the face detection unit 23 determines whether the size of the face candidate area is included in a reference range corresponding to the size of the user's face. If the size of the face candidate area is included in the reference range corresponding to the size of the user's face, the face detection unit 23 determines that the face candidate area is a face area in which the user's face is reflected.
Note that the size of the face candidate area is represented by, for example, the maximum number of pixels in the horizontal direction of the face candidate area. In this case, the reference range is set to, for example, from 1/4 to 2/3 of the number of pixels in the horizontal direction of the image. Alternatively, the size of the face candidate area may be represented by the number of pixels included in the face candidate area, for example. In this case, the reference range is set to, for example, 1/16 or more to 4/9 or less of the number of pixels of the entire image.
顔検出部23は、顔候補領域の大きさだけでなく、顔候補領域の形状も、顔候補領域を顔領域と判定するための判定条件に加えてもよい。人の顔は、一般に略楕円形状を有している。そこで顔検出部23は、例えば、顔候補領域の大きさが上記の基準範囲に含まれ、かつ、顔候補領域の円形度が、一般的な顔の輪郭に相当する所定の閾値以上である場合に顔候補領域を顔領域としてもよい。なお顔検出部23は、顔候補領域の輪郭上に位置する画素の合計を顔候補領域の周囲長として求め、顔候補領域内の総画素数に4πを乗じた値を周囲長の2乗で除することにより円形度を算出できる。 The face detection unit 23 may add not only the size of the face candidate area but also the shape of the face candidate area to the determination condition for determining the face candidate area as the face area. A human face generally has a substantially elliptical shape. Therefore, the face detection unit 23, for example, when the size of the face candidate area is included in the reference range and the circularity of the face candidate area is equal to or greater than a predetermined threshold corresponding to a general face contour. Alternatively, the face candidate area may be a face area. The face detection unit 23 obtains the total number of pixels located on the contour of the face candidate area as the perimeter of the face candidate area, and multiplies the total number of pixels in the face candidate area by 4π as the square of the perimeter. The circularity can be calculated by dividing.
あるいは、顔検出部23は、顔候補領域の輪郭上の各画素の座標を楕円方程式に当てはめて最小二乗法を適用することにより、顔候補領域を楕円近似してもよい。そして顔検出部23は、その楕円の長軸と短軸の比が一般的な顔の長軸と短軸の比の範囲に含まれる場合に、顔候補領域を顔領域としてもよい。なお、顔検出部23は、楕円近似により顔候補領域の形状を評価する場合、画像の各画素の輝度成分に対して近傍画素間演算を行ってエッジに相当するエッジ画素を検出してもよい。この場合、顔検出部23は、エッジ画素を例えばラベリング処理を用いて連結し、一定の長さ以上に連結されたエッジ画素を顔候補領域の輪郭とする。 Alternatively, the face detection unit 23 may approximate the face candidate area to an ellipse by applying the least square method by applying the coordinates of each pixel on the contour of the face candidate area to an elliptic equation. The face detection unit 23 may use the face candidate area as a face area when the ratio of the major axis to the minor axis of the ellipse is included in the range of the ratio of the major axis to the minor axis of the face. Note that, when the shape of the face candidate region is evaluated by ellipse approximation, the face detection unit 23 may detect an edge pixel corresponding to an edge by performing an inter-pixel calculation on the luminance component of each pixel of the image. . In this case, the face detection unit 23 connects the edge pixels using, for example, a labeling process, and uses the edge pixels connected to a certain length or more as the contour of the face candidate region.
なお、顔検出部23は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、顔検出部23は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。 The face detection unit 23 may detect the face area according to any of various other methods for detecting the face area shown on the image. For example, the face detection unit 23 performs template matching between the face candidate area and a template corresponding to a general face shape, calculates the degree of coincidence between the face candidate area and the template, and the degree of coincidence is predetermined. If the value is greater than or equal to the value, the face candidate area may be determined as a face area.
顔検出部23は、顔領域を抽出できると、顔領域を表す情報を生成する。例えば、顔領域を表す情報は、画像と同一のサイズを有し、かつ顔領域内の画素と顔領域外の画素とが異なる画素値を持つ2値画像とすることができる。
そして顔検出部23は、顔領域を表す情報をプルキンエ像検出部24へ渡す。
When the face area can be extracted, the face detection unit 23 generates information representing the face area. For example, the information representing the face area may be a binary image having the same size as the image and having different pixel values for the pixels in the face area and the pixels outside the face area.
The face detection unit 23 passes information representing the face area to the Purkinje image detection unit 24.
プルキンエ像検出部24は、視線検出処理またはキャリブレーション処理の実行中において、顔領域内でユーザの眼が写っている領域を検出し、眼が写っている領域内でプルキンエ像を検出する。
眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこでプルキンエ像検出部24は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そしてプルキンエ像検出部24は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、プルキンエ像検出部24は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
The Purkinje image detection unit 24 detects a region in which the user's eyes are reflected in the face region during execution of the line-of-sight detection processing or calibration processing, and detects a Purkinje image in the region in which the eyes are reflected.
The luminance of the pixel corresponding to the eye is significantly different from the luminance of the pixel corresponding to the periphery of the eye. Therefore, the Purkinje image detection unit 24 detects, for each pixel in the face region, an edge pixel whose luminance changes in the vertical direction by performing a difference calculation between adjacent pixels in the vertical direction using, for example, a Sobel filter. The Purkinje image detection unit 24 sets, for example, a region surrounded by two edge lines in which a predetermined number or more of edge pixels are connected in a substantially horizontal direction corresponding to the size of the eye.
Alternatively, the Purkinje image detection unit 24 detects a region that most closely matches the template in the face region by template matching between the template representing the image of the eye on the image and the face region, and uses the detected region as the eye region. It is good.
さらに、プルキンエ像検出部24は、眼の領域内で瞳孔が写っている領域を検出する。本実施形態では、プルキンエ像検出部24は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そしてプルキンエ像検出部24は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、プルキンエ像検出部24は、各テンプレートと眼の領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、プルキンエ像検出部24は、一致度の最高値に対応するテンプレートと重なった領域に瞳孔が写っていると判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。 Further, the Purkinje image detection unit 24 detects an area where the pupil is reflected in the eye area. In the present embodiment, the Purkinje image detection unit 24 performs template matching between a template corresponding to the pupil and the eye region, and detects a region having the highest degree of matching with the template in the eye region. Then, the Purkinje image detection unit 24 determines that the pupil is reflected in the detected area when the maximum value of the coincidence is higher than a predetermined coincidence threshold. A plurality of templates may be prepared according to the size of the pupil. In this case, the Purkinje image detection unit 24 executes template matching between each template and the eye region, and obtains the highest value of the matching degree. If the highest coincidence value is higher than the coincidence degree threshold, the Purkinje image detection unit 24 determines that the pupil appears in an area overlapping the template corresponding to the highest coincidence value. Note that the degree of coincidence is calculated as, for example, a normalized cross-correlation value between a template and a region overlapping the template. The coincidence threshold is set to 0.7 or 0.8, for example.
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこでプルキンエ像検出部24は、眼の領域内で、同心円状に半径の異なる2本のリングを設定する。そしてプルキンエ像検出部24は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。またプルキンエ像検出部24は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼の領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
プルキンエ像検出部24は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の座標として算出する。一方、プルキンエ像検出部24は、瞳孔領域の検出に失敗した場合、制御部4へその旨を表す信号を返す。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the Purkinje image detection unit 24 sets two concentric rings with different radii in the eye region. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is larger than a predetermined threshold value, the Purkinje image detection unit 24 is surrounded by the inner ring. The region may be the pupil region. The Purkinje image detection unit 24 may add to the condition for detecting the pupil region that the average luminance value of the region surrounded by the inner ring is equal to or less than a predetermined threshold value. In this case, for example, the predetermined threshold is set to a value obtained by adding 10% to 20% of the difference between the maximum luminance value and the minimum luminance value in the eye region to the minimum luminance value.
When the Purkinje image detection unit 24 succeeds in detecting the pupil region, the Purkinje image detection unit 24 calculates the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the pupil region as the coordinates of the center of gravity of the pupil region. . On the other hand, if the Purkinje image detection unit 24 fails to detect the pupil region, the Purkinje image detection unit 24 returns a signal indicating that to the control unit 4.
またプルキンエ像検出部24は、眼の領域内で光源11−1〜11−4のプルキンエ像を検出する。光源11−1〜11−4のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、光源11−1〜11−4のプルキンエ像が写っている領域の形状は、各光源の発光面の形状と略一致する。そこでプルキンエ像検出部24は、眼の領域内で、光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そしてプルキンエ像検出部24は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を光源11−1〜11−4のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
なお、プルキンエ像検出部24は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、プルキンエ像検出部24は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
The Purkinje image detection unit 24 detects Purkinje images of the light sources 11-1 to 11-4 in the eye region. The luminance of the region where the Purkinje images of the light sources 11-1 to 11-4 are reflected is higher than the luminance of the surrounding region, and the luminance value is substantially saturated (that is, the luminance value is the pixel value). It is almost the maximum value of brightness to obtain). In addition, the shape of the region in which the Purkinje images of the light sources 11-1 to 11-4 are reflected substantially matches the shape of the light emitting surface of each light source. Therefore, the Purkinje image detection unit 24 sets two rings that have a shape that substantially matches the contour shape of the light emitting surface of the light source in the eye region, and that have different sizes and centers. Then, the Purkinje image detection unit 24 has a difference value obtained by subtracting the average value of the luminance of the outer pixels from the average value of the luminance of the pixels corresponding to the inner ring, greater than a predetermined difference threshold value, and When the inner brightness average value is higher than a predetermined brightness threshold, the area surrounded by the inner ring is used as the Purkinje image of the light sources 11-1 to 11-4. Note that the difference threshold value can be, for example, an average value of difference values between neighboring pixels in the eye region. The predetermined luminance threshold can be set to 80% of the maximum luminance value in the eye region, for example.
Note that the Purkinje image detection unit 24 may detect the region in which the pupil is shown using any of various other methods for detecting the region in which the pupil is shown on the image. Similarly, the Purkinje image detection unit 24 detects the region where the Purkinje image of the light source is captured using any of various other methods for detecting the region where the Purkinje image of the light source is captured on the image. Also good.
プルキンエ像検出部24は、光源11−1〜11−4の何れかのプルキンエ像の検出に成功した場合、光源に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。一方、プルキンエ像検出部24は、光源のプルキンエ像の検出に失敗した場合、制御部4へその旨を表す信号を返す。
プルキンエ像検出部24は、キャリブレーション処理の実行時の場合、プルキンエ像の重心及び瞳孔重心をキャリブレーション部26へ通知する。一方、プルキンエ像検出部24は、視線検出処理の実行時には、プルキンエ像の重心及び瞳孔重心を視線検出部25へ通知する。
When the Purkinje image detection unit 24 succeeds in detecting any of the Purkinje images of the light sources 11-1 to 11-4, the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the light source. Is calculated as the coordinates of the center of gravity of the Purkinje image. On the other hand, if the Purkinje image detection unit 24 fails to detect the Purkinje image of the light source, the Purkinje image detection unit 24 returns a signal indicating that to the control unit 4.
When performing the calibration process, the Purkinje image detection unit 24 notifies the calibration unit 26 of the center of gravity of the Purkinje image and the center of the pupil. On the other hand, the Purkinje image detection unit 24 notifies the gaze detection unit 25 of the center of gravity of the Purkinje image and the center of the pupil when performing the gaze detection process.
視線検出部25は、視線検出処理の実行中において、プルキンエ像の重心及び瞳孔重心に基づいて、ユーザが、ユーザインターフェース2の表示画面2a上で注視している位置、すなわち、ユーザの視線方向を検出する。なお、以下では、便宜上、ユーザが表示画面2a上で注視している位置を単に注視位置と呼ぶ。 The line-of-sight detection unit 25 determines the position at which the user is gazing on the display screen 2a of the user interface 2, that is, the direction of the line of sight of the user, based on the center of gravity of the Purkinje image and the center of the pupil during the line-of-sight detection process. To detect. Hereinafter, for the sake of convenience, a position where the user is gazing on the display screen 2a is simply referred to as a gazing position.
角膜の表面は略球形であるため、視線方向によらず、光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ユーザの視線方向に応じて移動する。そのため、視線検出部25は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ユーザの視線方向を検出できる。
本実施形態では、視線検出部25は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部25は、瞳孔重心の相対的な位置と表示画面2a上でのユーザの注視位置との関係を表す参照テーブルを参照することにより、ユーザの注視位置を決定する。
そして視線検出部25は、ユーザの注視位置を制御部4で実行中のアプリケーションプログラムへ通知する。
Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the light source is substantially constant regardless of the line-of-sight direction. On the other hand, the center of gravity of the pupil moves according to the user's line-of-sight direction. Therefore, the line-of-sight detection unit 25 can detect the user's line-of-sight direction by obtaining the relative position of the pupil center of gravity with respect to the center of gravity of the Purkinje image.
In the present embodiment, the line-of-sight detection unit 25 determines the relative position of the pupil centroid relative to the centroid of the Purkinje image of the light source, for example, the horizontal direction of the centroid of the Purkinje image from the horizontal coordinate and the vertical coordinate of the pupil centroid. It is obtained by subtracting the coordinate and the vertical coordinate. The line-of-sight detection unit 25 determines the user's gaze position by referring to a reference table that represents the relationship between the relative position of the pupil center of gravity and the user's gaze position on the display screen 2a.
The line-of-sight detection unit 25 notifies the application program being executed by the control unit 4 of the user's gaze position.
図5は、参照テーブルの一例を示す図である。参照テーブル500の左側の列の各欄には、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置の座標が表される。また参照テーブル500の右側の列の各欄には、同じ行の瞳孔重心の相対的な位置の座標に対応する注視位置の座標が表される。なお、瞳孔重心の相対的な位置の座標は、画像上の画素単位で表され、一方、注視位置の座標は、表示画面2aの画素単位で表される。例えば、行501には、瞳孔重心の相対的な位置の座標(0,0)に対する注視位置の座標が(cx,cy)であることが示されている。なお、cx、cyは、例えば、表示画面2aの中心の水平座標及び垂直座標である。また、行502には、瞳孔重心の相対的な位置の座標(-2,0)に対する注視位置の座標が(cx-10,cy)であることが示されている。 FIG. 5 is a diagram illustrating an example of a reference table. In each column of the left column of the reference table 500, coordinates of the relative position of the center of the pupil relative to the center of gravity of the Purkinje image of the light source are represented. In addition, in each column in the right column of the reference table 500, the coordinates of the gaze position corresponding to the coordinates of the relative position of the pupil centroid in the same row are represented. Note that the coordinates of the relative position of the center of gravity of the pupil are expressed in units of pixels on the image, while the coordinates of the gaze position are expressed in units of pixels on the display screen 2a. For example, the row 501 indicates that the coordinates of the gaze position with respect to the coordinates (0,0) of the relative position of the pupil center of gravity are (cx, cy). Note that cx and cy are, for example, the horizontal and vertical coordinates of the center of the display screen 2a. The row 502 indicates that the gaze position coordinate is (cx-10, cy) with respect to the relative position coordinate (−2, 0) of the pupil center of gravity.
キャリブレーション部26は、参照テーブルを更新する。またキャリブレーション部26は、キャリブレーション処理の実行タイミングを決定する。
キャリブレーション部26は、例えば、制御部4から携帯端末1が起動したことを示す信号を受信したとき、あるいは、特定のアプリケーションが起動されたことを示す信号を受信したときに、最初のキャリブレーション処理を実行する。
キャリブレーション処理が開始されると、キャリブレーション部26は、ユーザインターフェース2の表示画面2a上の所定の基準位置にキャリブレーション用のマークを表示させる。基準位置は、例えば、表示画面2aの中心、あるいは表示画面2aの4角の何れかとすることができる。またキャリブレーションの実行中、ユーザは、表示画面2a上に表示されているキャリブレーション用のマークを注視するものとする。
The calibration unit 26 updates the reference table. The calibration unit 26 determines the execution timing of the calibration process.
For example, when the calibration unit 26 receives a signal indicating that the mobile terminal 1 has been activated from the control unit 4 or receives a signal indicating that a specific application has been activated, the calibration unit 26 performs the first calibration. Execute the process.
When the calibration process is started, the calibration unit 26 displays a calibration mark at a predetermined reference position on the display screen 2 a of the user interface 2. The reference position can be, for example, either the center of the display screen 2a or the four corners of the display screen 2a. In addition, during the calibration, the user gazes at the calibration mark displayed on the display screen 2a.
キャリブレーション部26は、表示画面2aの中心にマークが表示されているときに撮影された画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部24から受け取る。そしてキャリブレーション部26は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、表示画面2aの中心に対応させるよう、参照テーブルを更新する。
またキャリブレーション部26は、表示画面2aの左上の角にマークが表示されているときに撮影された画像に基づいて検出された、プルキンエ像の重心及び瞳孔重心の座標をプルキンエ像検出部24から受け取る。そしてキャリブレーション部26は、このときのプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、表示画面2aの左上の角に対応させるよう、参照テーブルを更新する。同様に、キャリブレーション部26は、マークが表示画面2aのそれぞれの角に表示されているときの撮影画像から求められたプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、そのマークの表示位置と対応づけるよう参照テーブルを更新する。
さらに、キャリブレーション部26は、表示画面2a上のその他の位置に対するプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、既に求められている上記の5個のマークの位置に対応する瞳孔重心の相対的な位置を用いて例えば線形補間することにより決定する。そしてキャリブレーション部26は、様々な表示画面2a上の位置に対する瞳孔重心の相対的な位置を対応づけるように参照テーブルを更新する。
キャリブレーション部26は、表示画面2a上の各点に対する瞳孔重心の相対的な位置を決定すると、更新された参照テーブルをメモリ3に保存する。
なお、参照テーブルは、点灯している光源ごとに予め作成され、各参照テーブルは、対応する光源の識別番号と関連付けてメモリ3に記憶されてもよい。この場合、キャリブレーション部26は、制御部4から点灯している光源についての識別情報を取得して、更新対象となる参照テーブルを特定する。
The calibration unit 26 receives from the Purkinje image detection unit 24 the coordinates of the center of gravity of the Purkinje image and the center of the pupil, which are detected based on the image taken when the mark is displayed at the center of the display screen 2a. Then, the calibration unit 26 updates the reference table so that the relative position of the pupil center of gravity based on the center of the Purkinje image corresponds to the center of the display screen 2a.
Further, the calibration unit 26 obtains the coordinates of the center of gravity of the Purkinje image and the center of the pupil detected based on the image taken when the mark is displayed at the upper left corner of the display screen 2a from the Purkinje image detection unit 24. receive. Then, the calibration unit 26 updates the reference table so that the relative position of the center of the pupil relative to the center of the Purkinje image at this time corresponds to the upper left corner of the display screen 2a. Similarly, the calibration unit 26 determines the relative position of the pupil centroid relative to the centroid of the Purkinje image obtained from the captured image when the mark is displayed at each corner of the display screen 2a. The reference table is updated to correspond to the display position.
Further, the calibration unit 26 corresponds to the relative positions of the pupil centroid relative to the other positions on the display screen 2a with respect to the centroid of the Purkinje image as the positions of the five marks already obtained. For example, linear interpolation is performed using the relative position of the center of gravity of the pupil. And the calibration part 26 updates a reference table so that the relative position of the pupil center of gravity with respect to the position on various display screens 2a may be matched.
When the calibration unit 26 determines the relative position of the center of the pupil with respect to each point on the display screen 2 a, the calibration unit 26 stores the updated reference table in the memory 3.
The reference table may be created in advance for each light source that is turned on, and each reference table may be stored in the memory 3 in association with the identification number of the corresponding light source. In this case, the calibration unit 26 acquires identification information about the light source that is lit from the control unit 4, and specifies a reference table to be updated.
またキャリブレーション部26は、プルキンエ像の検出に成功したか否かに基づいて、キャリブレーションの実行タイミングを決定する。例えば、ユーザが眼鏡を掛けている場合、眼鏡レンズによる光源の反射像が瞳孔重心または光源のプルキンエ像と重なる可能性があるため、ユーザが眼鏡を掛けていない場合よりもプルキンエ像検出部24が光源のプルキンエ像の検出に失敗する可能性が高い。そこでキャリブレーション部26は、ユーザが眼鏡を掛けている場合のキャリブレーションの実行頻度が、ユーザが眼鏡を掛けていない場合の実行頻度よりも多くなるように、キャリブレーションの実行タイミングを決定する。 The calibration unit 26 determines the calibration execution timing based on whether or not the Purkinje image has been successfully detected. For example, when the user wears spectacles, the reflection image of the light source by the spectacle lens may overlap with the pupil center of gravity or the Purkinje image of the light source. Therefore, the Purkinje image detection unit 24 is more effective than when the user is not wearing spectacles. There is a high possibility that the detection of the Purkinje image of the light source will fail. Therefore, the calibration unit 26 determines the calibration execution timing so that the calibration execution frequency when the user is wearing glasses is higher than the execution frequency when the user is not wearing glasses.
本実施形態において、プルキンエ像検出部24が、何れかの光源が点灯しているときの画像について光源のプルキンエ像または瞳孔重心の検出に失敗した場合、ユーザが眼鏡を掛けていると推定される。そこでこの場合、キャリブレーション部26は、所定の期間が経過する度にキャリブレーション処理を実行するよう、キャリブレーション処理の実行タイミングを設定する。なお、所定の期間は、例えば、5分間に設定される。またキャリブレーション部26は、携帯端末1が表示画面2aに何らかの操作を伴う情報を表示させるアプリケーションを起動した時にもキャリブレーション処理を実行してもよい。さらにキャリブレーション部26は、最新の画像における顔領域の重心位置が、過去に撮影された画像における顔領域の重心位置から所定画素数以上ずれたときにもキャリブレーション処理を実行してもよい。
さらに、キャリブレーション部26は、視線検出処理の実行時において、各周期における瞳孔重心及びプルキンエ像の検出を行う画像の順序を設定してもよい。例えば、キャリブレーション部26は、光源のプルキンエ像または瞳孔重心の検出に成功した画像に対応する光源が点灯している間に撮影された画像について、先に瞳孔重心及びプルキンエ像の検出を行うようにしてもよい。これにより、視線検出装置1は、視線検出処理の実行中に、瞳孔重心及びプルキンエ像の検出に失敗する可能性を低減できるので、視線検出処理に要する演算負荷を軽減できる。
In the present embodiment, if the Purkinje image detection unit 24 fails to detect the Purkinje image or pupil center of gravity of the light source for an image when any of the light sources is lit, it is estimated that the user is wearing glasses. . Therefore, in this case, the calibration unit 26 sets the execution timing of the calibration process so that the calibration process is executed every time a predetermined period elapses. The predetermined period is set to 5 minutes, for example. The calibration unit 26 may also execute the calibration process when the portable terminal 1 starts an application that displays information accompanied by some operation on the display screen 2a. Further, the calibration unit 26 may execute the calibration process when the gravity center position of the face area in the latest image is shifted by a predetermined number of pixels or more from the gravity center position of the face area in the previously captured image.
Further, the calibration unit 26 may set the order of images for detecting the pupil center of gravity and the Purkinje image in each cycle when the line-of-sight detection process is executed. For example, the calibration unit 26 may first detect the pupil centroid and the Purkinje image with respect to an image taken while the light source corresponding to the Purkinje image of the light source or the image for which the pupil centroid has been successfully detected. It may be. As a result, the line-of-sight detection device 1 can reduce the possibility that the detection of the pupil center of gravity and the Purkinje image will fail during the execution of the line-of-sight detection process, thereby reducing the computational load required for the line-of-sight detection process.
一方、前回のキャリブレーション処理の実行時において、キャリブレーション部26が何れの光源が点灯しているときに撮影された画像についても、光源のプルキンエ像または瞳孔重心の検出に成功した場合、ユーザは眼鏡を掛けていないと推定される。
そこでこの場合、キャリブレーション部26は、携帯端末1が表示画面2aに何らかの操作を伴う情報を表示させるアプリケーションを起動した時にキャリブレーション処理を実行する。また、キャリブレーション部26は、最新の画像における顔領域の重心位置が、過去に撮影された画像における顔領域の重心位置から所定画素数以上ずれたときにもキャリブレーション処理を実行してもよい。
On the other hand, if the calibration unit 26 succeeds in detecting the Purkinje image or pupil center of gravity of the light source for the image captured when any light source is lit, the user is Presumed not wearing glasses.
Therefore, in this case, the calibration unit 26 executes the calibration process when the mobile terminal 1 starts an application that displays information accompanying some operation on the display screen 2a. The calibration unit 26 may also execute the calibration process when the gravity center position of the face area in the latest image is shifted by a predetermined number of pixels or more from the gravity center position of the face area in the previously captured image. .
図6は、制御部4により実行される、キャリブレーション処理の動作フローチャートを示す。
図6に示されるように、制御部4は、ユーザインターフェース2の表示画面2a上の基準位置に所定のマークを表示させる。また制御部4は、ユーザが眼鏡を装着しているか否かを表す眼鏡装着フラグを、眼鏡を装着していないことを表す値(以下、便宜上OFFと表記する)に設定する(ステップS101)。
次に、制御部4は、点灯する光源が異なる状態で撮影された複数の画像を取得する(ステップS102)。そして制御部4は、未着目の画像のうちで着目する画像を設定する(ステップS103)。
FIG. 6 shows an operation flowchart of the calibration process executed by the control unit 4.
As shown in FIG. 6, the control unit 4 displays a predetermined mark at the reference position on the display screen 2 a of the user interface 2. In addition, the control unit 4 sets a spectacle wearing flag indicating whether or not the user is wearing spectacles to a value indicating that the user is not wearing spectacles (hereinafter referred to as OFF for convenience) (step S101).
Next, the control unit 4 acquires a plurality of images taken with different light sources to be lit (step S102). Then, the control unit 4 sets a focused image among unfocused images (step S103).
制御部4の顔検出部23は、着目画像上で顔が写っている顔領域を抽出する(ステップS104)。そして顔検出部23は、顔領域を表す情報を制御部4のプルキンエ像検出部24へ渡す。
プルキンエ像検出部24は、顔領域内で眼の領域を検出する(ステップS105)。そしてプルキンエ像検出部24は、眼の領域内で瞳孔重心を検出する(ステップS106)。またプルキンエ像検出部24は、眼の領域内で点灯している光源のプルキンエ像を検出する(ステップS107)。
プルキンエ像検出部24は、プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功したか否か判定する(ステップS108)。
プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功した場合(ステップS108−Yes)、プルキンエ像検出部24は、光源のプルキンエ像の重心及び瞳孔重心を制御部4のキャリブレーション部26へ通知する。
キャリブレーション部26は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求める。そしてキャリブレーション部26は、その相対的な位置と表示画面2aに表示されているマークの位置により決定される注視位置とに基づいて、参照テーブルを更新する(ステップS109)。
一方、プルキンエ像検出部24が瞳孔重心または光源のプルキンエ像の検出に失敗した場合(ステップS108−No)、制御部4は、眼鏡装着フラグの値をユーザが眼鏡を装着していることを表す値に設定する(ステップS110)。なお、以下では、ユーザが眼鏡を装着していることを表す眼鏡装着フラグの値を、便宜上ONと表記する。
制御部4は、全ての画像を着目画像に設定したか否か判定する(ステップS111)。何れかの画像が着目画像に設定されていなければ(ステップS111−No)、制御部4は、ステップS103以降の処理を再度実行する。
一方、全ての画像が着目画像に設定されていれば(ステップS111−Yes)、キャリブレーション部26は、眼鏡装着フラグがONか否か判定する(ステップS112)。
眼鏡装着フラグがONであれば(ステップS112−Yes)、キャリブレーション部26は、ユーザが眼鏡を未装着の時よりもキャリブレーション頻度が高くなるようにキャリブレーションタイミングを設定する(ステップS113)。
一方、眼鏡装着フラグがOFFであれば(ステップS112−No)、キャリブレーション部26は、ユーザが眼鏡を装着の時よりもキャリブレーション頻度が低くなるようにキャリブレーションタイミングを設定する(ステップS114)。
ステップS113またはS114その後、制御部4は、キャリブレーション処理を終了する。なお、プルキンエ像検出部24は、ステップS106の処理とステップS107の処理の順序を入れ替えてもよい。またプルキンエ像検出部24は、顔領域全体でユーザの瞳孔及び光源のプルキンエ像を探索してもよい。この場合、ステップS105の処理は省略される。
The face detection unit 23 of the control unit 4 extracts a face region where a face is shown on the image of interest (step S104). Then, the face detection unit 23 passes information representing the face area to the Purkinje image detection unit 24 of the control unit 4.
The Purkinje image detection unit 24 detects an eye region within the face region (step S105). Then, the Purkinje image detector 24 detects the center of gravity of the pupil in the eye region (step S106). The Purkinje image detection unit 24 detects the Purkinje image of the light source that is lit in the eye region (step S107).
The Purkinje image detection unit 24 determines whether or not the Purkinje image detection unit 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (step S108).
When the Purkinje image detection unit 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (step S108-Yes), the Purkinje image detection unit 24 uses the calibration unit of the control unit 4 to calculate the center of gravity of the Purkinje image of the light source and the pupil center of gravity. 26 is notified.
The calibration unit 26 obtains the relative position of the pupil centroid relative to the centroid of the Purkinje image. And the calibration part 26 updates a reference table based on the relative position and the gaze position determined by the position of the mark currently displayed on the display screen 2a (step S109).
On the other hand, if the Purkinje image detection unit 24 fails to detect the center of the pupil or the Purkinje image of the light source (step S108-No), the control unit 4 indicates that the user wears spectacles based on the value of the spectacle wearing flag. A value is set (step S110). In the following description, the value of the spectacle wearing flag indicating that the user is wearing spectacles is referred to as ON for convenience.
The control unit 4 determines whether or not all images have been set as the image of interest (step S111). If any image is not set as the image of interest (step S111-No), the control unit 4 executes the processing from step S103 onward again.
On the other hand, if all the images are set as the image of interest (step S111—Yes), the calibration unit 26 determines whether or not the glasses wearing flag is ON (step S112).
If the spectacle wearing flag is ON (step S112—Yes), the calibration unit 26 sets the calibration timing so that the calibration frequency is higher than when the user does not wear spectacles (step S113).
On the other hand, if the spectacle wearing flag is OFF (step S112—No), the calibration unit 26 sets the calibration timing so that the calibration frequency is lower than when the user wears spectacles (step S114). .
Step S113 or S114 Thereafter, the controller 4 ends the calibration process. Note that the Purkinje image detection unit 24 may change the order of the processing in step S106 and the processing in step S107. Further, the Purkinje image detection unit 24 may search for the Purkinje image of the user's pupil and light source in the entire face area. In this case, the process of step S105 is omitted.
図7は、制御部4により実行される、視線検出処理の動作フローチャートを示す。
図7に示されるように、制御部4は、点灯する光源が異なる状態で撮影された複数の画像を取得する(ステップS201)。そして制御部4は、未着目の画像のうちで着目する画像を設定する(ステップS202)。
ここで制御部4は、例えば、複数の画像のうち、撮影時に点灯していた光源がカメラ12に近い順に着目する画像を設定してもよい。ユーザが眼鏡を掛けている場合、一般に、眼鏡レンズの光軸は、ユーザの顔の正面方向よりも下方を向いている。そのため、ユーザが表示画面2aに正対していると、カメラ12に近い光源から照射された光は、眼鏡レンズでその光源よりも下方へ反射される。その結果、眼鏡レンズによる光源の像(虚像)は、その光源よりも上方にできるので、眼鏡レンズによる光源の像は、光源のプルキンエ像及び瞳孔重心と重ならない。したがって、撮影時に点灯していた光源がカメラ12に近い画像ほど、制御部4は、瞳孔重心及び光源のプルキンエ像を検出できる可能性が高い。そのため、制御部4は、このような順序で着目する画像を設定することで、瞳孔重心及び光源のプルキンエ像の検出をやり直す確率を低減できるので、結果として各周期における視線検出処理の演算負荷を軽減できる。
あるいは、制御部4は、最新のキャリブレーションの際に、光源のプルキンエ像及び瞳孔重心が検出された画像が、光源のプルキンエ像または瞳孔重心が検出されなかった画像よりも先に着目画像となるように、着目画像の設定順序を決定してもよい。
FIG. 7 shows an operation flowchart of the line-of-sight detection process executed by the control unit 4.
As shown in FIG. 7, the control unit 4 acquires a plurality of images taken with different light sources to be lit (step S <b> 201). Then, the control unit 4 sets a focused image among unfocused images (step S202).
Here, for example, the control unit 4 may set an image of interest among the plurality of images in the order in which the light source that was turned on at the time of shooting is closer to the camera 12. When the user wears spectacles, generally, the optical axis of the spectacle lens faces downward from the front direction of the user's face. Therefore, when the user is facing the display screen 2a, the light emitted from the light source close to the camera 12 is reflected below the light source by the spectacle lens. As a result, since the image (virtual image) of the light source by the spectacle lens can be above the light source, the image of the light source by the spectacle lens does not overlap with the Purkinje image and pupil center of gravity of the light source. Therefore, the closer the image of the light source lit at the time of shooting to the camera 12 is, the higher the possibility that the control unit 4 can detect the pupil center of gravity and the Purkinje image of the light source. Therefore, the control unit 4 can reduce the probability of redoing the detection of the pupil center of gravity and the Purkinje image of the light source by setting the image of interest in such an order. As a result, the calculation load of the eye gaze detection process in each cycle is reduced. Can be reduced.
Alternatively, in the latest calibration, the control unit 4 makes the image in which the Purkinje image of the light source and the pupil center of gravity are detected become the image of interest earlier than the image in which the Purkinje image of the light source or the pupil center of gravity is not detected. As such, the setting order of the image of interest may be determined.
制御部4の顔検出部23は、着目画像上で顔が写っている顔領域を抽出する(ステップS203)。そして顔検出部23は、顔領域の抽出に成功したか否か判定する(ステップS204)。顔領域の抽出に失敗した場合(ステップS204−No)、ユーザは携帯端末1を向いていない。そのため、制御部4は、視線検出処理を終了する。その後制御部4は、キャリブレーション処理を実行してもよい。 The face detection unit 23 of the control unit 4 extracts a face region where a face is shown on the image of interest (step S203). Then, the face detection unit 23 determines whether or not the face area has been successfully extracted (step S204). When face area extraction has failed (step S204—No), the user is not facing the mobile terminal 1. Therefore, the control unit 4 ends the line-of-sight detection process. Thereafter, the control unit 4 may execute a calibration process.
一方、顔検出部23が顔領域の抽出に成功した場合(ステップS204−Yes)、顔検出部23は、顔領域を表す情報を制御部4のプルキンエ像検出部24へ渡す。
プルキンエ像検出部24は、顔領域内で眼の領域を検出する(ステップS205)。そしてプルキンエ像検出部24は、眼の領域内で瞳孔重心を検出する(ステップS206)。またプルキンエ像検出部24は、眼の領域内で点灯している光源のプルキンエ像を検出する(ステップS207)。そしてプルキンエ像検出部24は、プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功したか否か判定する(ステップS208)。
On the other hand, when the face detection unit 23 succeeds in extracting the face area (step S204—Yes), the face detection unit 23 passes information representing the face area to the Purkinje image detection unit 24 of the control unit 4.
The Purkinje image detection unit 24 detects an eye region within the face region (step S205). Then, the Purkinje image detector 24 detects the center of gravity of the pupil in the eye region (step S206). The Purkinje image detection unit 24 detects a Purkinje image of a light source that is lit in the eye region (step S207). Then, the Purkinje image detector 24 determines whether or not the Purkinje image detector 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (step S208).
プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に失敗した場合(ステップS208−No)、制御部4は、ステップS202以降の処理を再度実行する。
一方、プルキンエ像検出部24が瞳孔重心及び光源のプルキンエ像の検出に成功した場合(ステップS208−Yes)、プルキンエ像検出部24は、光源のプルキンエ像の重心及び瞳孔重心を制御部4の視線検出部25へ通知する。
視線検出部25は、参照テーブルを参照してプルキンエ像の重心を基準とする瞳孔重心の位置に対応する注視位置を検出する(ステップS209)。そして視線検出部25は、その注視位置を表す情報を、制御部4が実行中のアプリケーションプログラムへ渡す。
その後、制御部4は、視線検出処理を終了する。なお、プルキンエ像検出部24は、ステップS206の処理とステップS207の処理の順序を入れ替えてもよい。またプルキンエ像検出部24は、顔領域全体でユーザの瞳孔及び光源のプルキンエ像を探索してもよい。この場合、ステップS205の処理は省略される。あるいは、プルキンエ像検出部24が着目画像上で瞳孔重心または光源のプルキンエ像の何れか一方の検出に失敗した時点で、他方の検出処理を行わずに、制御部4は、ステップS202以降の処理を再実行してもよい。
When the Purkinje image detection unit 24 fails to detect the pupil center of gravity and the Purkinje image of the light source (No at Step S208), the control unit 4 executes the processing after Step S202 again.
On the other hand, when the Purkinje image detection unit 24 has successfully detected the pupil center of gravity and the Purkinje image of the light source (step S208-Yes), the Purkinje image detection unit 24 uses the line of sight of the Purkinje image of the light source and the pupil center of gravity of the control unit 4. Notify the detection unit 25.
The line-of-sight detection unit 25 refers to the reference table and detects a gaze position corresponding to the position of the pupil center of gravity with reference to the center of gravity of the Purkinje image (step S209). The line-of-sight detection unit 25 passes information indicating the gaze position to the application program being executed by the control unit 4.
Thereafter, the control unit 4 ends the line-of-sight detection process. Note that the Purkinje image detection unit 24 may reverse the order of the processing in step S206 and the processing in step S207. Further, the Purkinje image detection unit 24 may search for the Purkinje image of the user's pupil and light source in the entire face area. In this case, the process of step S205 is omitted. Alternatively, when the Purkinje image detection unit 24 fails to detect either the pupil center of gravity or the Purkinje image of the light source on the image of interest, the control unit 4 performs the processing after step S202 without performing the other detection processing. May be re-executed.
以上に説明してきたように、この視線検出装置は、一定の周期ごとに、異なる位置に配置された複数の光源のうち点灯する光源を変えつつ複数回ユーザの眼を撮影することで、眼を照明した光源が異なる複数の画像を生成する。そしてこの視線検出装置は、各周期において、複数の画像に対して順次瞳孔重心及び光源のプルキンエ像の検出処理を行い、プルキンエ像が検出された画像を用いてユーザの視線を検出する。このように、この視線検出装置は、瞳孔重心または光源のプルキンエ像の検出に失敗してからユーザの眼を再撮影するのではなく、予め光源の点灯パターンが異なる複数の画像を取得している。そのため、この視線検出装置は、最初に解析した画像上で瞳孔重心または光源のプルキンエ像の検出に失敗した場合でも、プルキンエ像が検出できるまでのタイムラグを短縮できる。 As described above, this line-of-sight detection device captures the eye by photographing the user's eye a plurality of times while changing the light source to be lit among a plurality of light sources arranged at different positions at regular intervals. A plurality of images with different illuminated light sources are generated. Then, this line-of-sight detection apparatus sequentially detects the center of the pupil and the Purkinje image of the light source for a plurality of images in each cycle, and detects the user's line of sight using the image from which the Purkinje image has been detected. As described above, this line-of-sight detection device does not re-photograph the user's eyes after failing to detect the pupil center of gravity or the Purkinje image of the light source, but acquires a plurality of images with different light source lighting patterns in advance. . Therefore, this line-of-sight detection apparatus can shorten the time lag until the Purkinje image can be detected even if the detection of the pupil center of gravity or the Purkinje image of the light source fails on the first analyzed image.
なお、本発明は上記の実施形態に限定されるものではない。例えば、カメラは、視線検出処理の実行中、各周期において、全ての光源が消灯した状態で撮影した画像を生成してもよい。そして制御部のプルキンエ像検出部は、光源のプルキンエ像を検出するために、何れかの光源が点灯している状態で撮影された画像と、全ての光源が消灯した状態で撮影された画像との間で、対応画素間の差分演算を行って差分画像を算出する。差分画像では、光源のプルキンエ像に相当する領域以外の画素の値は非常に小さくなる。そのため、プルキンエ像検出部は、差分画像を、例えば、その差分画像の各画素の値の平均値で2値化することにより光源のプルキンエ像を検出できる。またこれにより、角膜上に太陽または室内灯など他の光源の像が写っていても、プルキンエ像検出部は、他の光源の像を、視線検出装置が有する光源のプルキンエ像として誤検出することを防止できる。 In addition, this invention is not limited to said embodiment. For example, the camera may generate an image shot with all light sources turned off in each cycle during execution of the line-of-sight detection process. Then, the Purkinje image detection unit of the control unit detects an image of the light source, and an image taken with any light source turned on, and an image taken with all the light sources turned off, A difference image is calculated by performing a difference calculation between corresponding pixels. In the difference image, the values of the pixels other than the region corresponding to the Purkinje image of the light source are very small. Therefore, the Purkinje image detection unit can detect the Purkinje image of the light source by binarizing the difference image with, for example, the average value of the pixels of the difference image. In addition, this makes it possible for the Purkinje image detection unit to erroneously detect the image of the other light source as the Purkinje image of the light source included in the line-of-sight detection device, even if an image of the other light source such as the sun or room light is captured on the cornea. Can be prevented.
また、カメラは、視線検出処理の実行中、各周期において、全ての光源が消灯した状態で撮影した画像と、全ての光源が点灯した状態で撮影した画像とを生成してもよい。そして制御部のプルキンエ像検出部は、全ての光源が点灯している状態で撮影された画像と、全ての光源が消灯した状態で撮影された画像との間で、対応画素間の差分演算を行って差分画像を算出する。差分画像では、光源のプルキンエ像に相当する領域以外の画素の値は非常に小さくなる。そのため、プルキンエ像検出部は、差分画像を、例えば、その差分画像の各画素の値の平均値で2値化することにより、光源のプルキンエ像が写っている可能性があるプルキンエ像候補領域を特定できる。そこでプルキンエ像検出部は、プルキンエ像候補領域内で光源のプルキンエ像の検出処理を実行すればよい。またこれにより、角膜上に太陽または室内灯など他の光源の像が写っていても、プルキンエ像検出部は、他の光源の像を、視線検出装置が有する光源のプルキンエ像として誤検出することを防止できる。 Further, the camera may generate an image shot with all light sources turned off and an image shot with all light sources turned on in each cycle during execution of the line-of-sight detection process. The Purkinje image detection unit of the control unit calculates a difference between corresponding pixels between an image shot with all the light sources turned on and an image shot with all the light sources turned off. Go to calculate the difference image. In the difference image, the values of the pixels other than the region corresponding to the Purkinje image of the light source are very small. Therefore, the Purkinje image detection unit binarizes the difference image by, for example, the average value of the pixels of the difference image, thereby obtaining a Purkinje image candidate area in which the Purkinje image of the light source may be reflected. Can be identified. Therefore, the Purkinje image detection unit may execute the detection process of the Purkinje image of the light source in the Purkinje image candidate region. In addition, this makes it possible for the Purkinje image detection unit to erroneously detect the image of the other light source as the Purkinje image of the light source included in the line-of-sight detection device, even if an image of the other light source such as the sun or room light is captured on the cornea. Can be prevented.
さらに他の変形例では、参照テーブルは、光源のプルキンエ像に対する瞳孔重心の相対的な位置と、ユーザの視線方向を表すヨー角とピッチ角とを関連付けてもよい。この場合、ユーザの視線方向を表す角度は、例えば、表示画面の中心をユーザが注視しているときにヨー角及びピッチ角はそれぞれ0°に設定される。それ以外の表示画面の各点をユーザが注視している場合のヨー角及びピッチ角は、ユーザの眼と表示画面の中心間の距離を仮定することにより、3点間の距離と角度との関係を表す式により求められる。 In still another modification, the reference table may associate the relative position of the center of the pupil with respect to the Purkinje image of the light source, and the yaw angle and pitch angle representing the user's line-of-sight direction. In this case, for example, when the user is gazing at the center of the display screen, the yaw angle and the pitch angle are each set to 0 ° as the angle representing the user's line-of-sight direction. The yaw angle and pitch angle when the user is gazing at each other point on the display screen is the distance between the three points and the angle by assuming the distance between the user's eyes and the center of the display screen. It is calculated | required by the formula showing a relationship.
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
互いに異なる位置に配置された複数の光源と、
所定の周期ごとに、前記複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を生成する撮像部と、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する制御部と、
を有する視線検出装置。
(付記2)
前記第1の光源は前記第2の光源よりも前記撮像部に近く、
前記制御部は、前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出する、付記1に記載の視線検出装置。
(付記3)
前記制御部は、前記角膜反射像と前記瞳孔重心との位置関係と前記視線方向との対応を表す参照テーブルを参照することにより前記視線方向を検出し、かつ
前記制御部は、前記第1の画像及び前記第2の画像の少なくとも何れかについて前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記参照テーブルを更新するキャリブレーションの実行頻度を、前記第1及び第2の画像の両方について前記角膜反射像及び前記瞳孔重心を検出できる場合の前記キャリブレーションの実行頻度よりも高く設定する、付記1に記載の視線検出装置。
(付記4)
前記制御部は、前記キャリブレーションにおいて、前記第1の画像について前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、当該キャリブレーション以降の各所定の周期において、前記第1の画像よりも先に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、一方、前記キャリブレーションにおいて、前記第2の画像について前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、当該キャリブレーション以降の各所定の周期において、前記第2の画像よりも先に前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定する、付記3に記載の視線検出装置。
(付記5)
前記複数の光源及び前記撮像部は、ユーザが注視する可能性がある注視領域の周囲に配置され、かつ前記複数の光源のそれぞれについて、当該光源と前記撮像部とを結ぶ直線が前記注視領域の中心を通らないように、前記複数の光源及び前記撮像部は配置される、付記1〜4の何れか一項に記載の視線検出装置。
(付記6)
表示部と、
前記表示部の周囲の互いに異なる位置に配置された複数の光源と、
所定の周期ごとに、前記複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を生成する撮像部と、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、前記角膜反射像及び前記瞳孔重心を検出できる場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザが前記表示部上で注視している注視位置を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記注視位置を検出する制御部と、
前記注視位置と関連付けられた処理を実行するアプリケーション実行部と、
を有する携帯端末。
(付記7)
コンピュータが、
所定の周期ごとに、互いに異なる位置に配置された複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を取得し、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、
前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する、
ことを含む視線検出方法。
(付記7)
所定の周期ごとに、互いに異なる位置に配置された複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を取得し、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、
前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する、
ことをコンピュータに実行させる視線検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A plurality of light sources arranged at different positions;
For each predetermined period, the first image of the user's eyes while the first light source of the plurality of light sources illuminates the user's eyes, and the second of the plurality of light sources. An imaging unit that generates a second image of the user's eyes while the light source is illuminating the user's eyes;
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, When the cornea reflection image and the pupil centroid are detected, the gaze direction of the user is detected according to the positional relationship between the pupil centroid and the corneal reflection image, while the cornea When either the reflected image or the pupil centroid cannot be detected, the pupil centroid and the corneal reflection image are detected from the other image of the first image and the second image, and the pupil centroid and the cornea are detected. A control unit that detects the user's line-of-sight direction according to the positional relationship with the reflected image;
A line-of-sight detection apparatus comprising:
(Appendix 2)
The first light source is closer to the imaging unit than the second light source,
The control unit determines whether or not the pupil centroid and the corneal reflection image can be detected from the first image, and when the corneal reflection image or the pupil centroid cannot be detected from the first image, The line-of-sight detection device according to appendix 1, which detects the pupil center of gravity and the corneal reflection image.
(Appendix 3)
The control unit detects the line-of-sight direction by referring to a reference table representing a correspondence between a positional relationship between the cornea reflection image and the pupil center of gravity and the line-of-sight direction, and the control unit includes the first When it is not possible to detect either the cornea reflection image or the pupil center of gravity for at least one of the image and the second image, the execution frequency of the calibration for updating the reference table is set as the frequency of the first and second images. The line-of-sight detection device according to appendix 1, wherein the eye-gaze reflection image and the pupil center of gravity are set to be higher than the calibration execution frequency in both cases.
(Appendix 4)
In the calibration, when the calibration cannot detect either the cornea reflection image or the pupil center of gravity for the first image, the control unit is more than the first image in each predetermined period after the calibration. First, it is determined whether the pupil centroid and the corneal reflection image can be detected from the second image. On the other hand, in the calibration, either the corneal reflection image or the pupil centroid is determined for the second image. If it is not detected, it is determined whether or not the pupil center of gravity and the corneal reflection image can be detected from the first image before the second image in each predetermined period after the calibration. The line-of-sight detection device described.
(Appendix 5)
The plurality of light sources and the imaging unit are arranged around a gaze area where a user may gaze, and for each of the plurality of light sources, a straight line connecting the light source and the imaging unit is the gaze area. The line-of-sight detection device according to any one of appendices 1 to 4, wherein the plurality of light sources and the imaging unit are arranged so as not to pass through a center.
(Appendix 6)
A display unit;
A plurality of light sources arranged at different positions around the display unit;
For each predetermined period, the first image of the user's eyes while the first light source of the plurality of light sources illuminates the user's eyes, and the second of the plurality of light sources. An imaging unit that generates a second image of the user's eyes while the light source is illuminating the user's eyes;
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, When the cornea reflection image and the pupil centroid can be detected, the gaze that the user is gazing on the display unit according to the positional relationship between the pupil centroid and the corneal reflection image If the position is detected and, on the other hand, either the corneal reflection image or the pupil centroid cannot be detected, the pupil centroid and the corneal reflection image are obtained from the other of the first image and the second image. A control unit that detects and detects the gaze position according to a positional relationship between the pupil center of gravity and the corneal reflection image;
An application execution unit that executes processing associated with the gaze position;
A mobile terminal.
(Appendix 7)
Computer
A first image obtained by photographing the user's eye while a first light source among a plurality of light sources arranged at different positions for each predetermined period illuminates the user's eye; Acquiring a second image of the user's eyes while a second light source of the light sources illuminates the user's eyes;
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, Whether or not can be detected,
When the cornea reflection image and the pupil centroid are detected, the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image, while either the corneal reflection image or the pupil centroid Is not detected, the pupil centroid and the corneal reflection image are detected from the other image of the first image and the second image, and according to the positional relationship between the pupil centroid and the corneal reflection image. Detecting the gaze direction of the user;
A gaze detection method including the above.
(Appendix 7)
A first image obtained by photographing the user's eye while a first light source among a plurality of light sources arranged at different positions for each predetermined period illuminates the user's eye; Acquiring a second image of the user's eyes while a second light source of the light sources illuminates the user's eyes;
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, Whether or not can be detected,
When the cornea reflection image and the pupil centroid are detected, the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image, while either the corneal reflection image or the pupil centroid Is not detected, the pupil centroid and the corneal reflection image are detected from the other image of the first image and the second image, and according to the positional relationship between the pupil centroid and the corneal reflection image. Detecting the gaze direction of the user;
A computer program for eye-gaze detection that causes a computer to execute the above.
1 携帯端末
2 ユーザインターフェース
3 メモリ
4 制御部
5 筺体
10 視線検出装置
11−1〜11−4 光源
12 カメラ
21 光源制御部
22 カメラ制御部
23 顔検出部
24 プルキンエ像検出部
25 視線検出部
26 キャリブレーション部
DESCRIPTION OF SYMBOLS 1 Portable terminal 2 User interface 3 Memory 4 Control part 5 Housing 10 Eye gaze detection apparatus 11-1 to 11-4 Light source 12 Camera 21 Light source control part 22 Camera control part 23 Face detection part 24 Purkinje image detection part 25 Eye gaze detection part 26 Calibration Section
Claims (13)
所定の周期ごとに、前記複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を生成する撮像部と、
前記所定の周期ごとに、前記複数の光源のうちの第1の光源と第2の光源を切り替えて点灯させ、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する制御部と、
を有する視線検出装置。 A plurality of light sources arranged at different positions;
For each predetermined period, the first image of the user's eyes while the first light source of the plurality of light sources illuminates the user's eyes, and the second of the plurality of light sources. An imaging unit that generates a second image of the user's eyes while the light source is illuminating the user's eyes;
For each predetermined period , the first light source and the second light source among the plurality of light sources are switched and turned on, and the first light source is selected from one of the first image and the second image. It is determined whether the cornea reflection image by one of the light source and the second light source and the pupil centroid of the user can be detected, and when the corneal reflection image and the pupil centroid are detected, the pupil centroid and the cornea If the user's line-of-sight direction is detected according to the positional relationship with the reflection image, and if either the cornea reflection image or the pupil center of gravity cannot be detected, the first image and the second image A control unit that detects the pupil centroid and the corneal reflection image from the other image, and detects the user's line-of-sight direction according to a positional relationship between the pupil centroid and the corneal reflection image;
A line-of-sight detection apparatus comprising:
前記制御部は、前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出する、請求項1に記載の視線検出装置。 The first light source is closer to the imaging unit than the second light source,
The control unit determines whether or not the pupil centroid and the corneal reflection image can be detected from the first image, and when the corneal reflection image or the pupil centroid cannot be detected from the first image, The line-of-sight detection device according to claim 1, wherein the eyeball center of gravity and the cornea reflection image are detected.
前記制御部は、前記第1の画像及び前記第2の画像の少なくとも何れかについて前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記参照テーブルを更新するキャリブレーションの実行頻度を、前記第1及び第2の画像の両方について前記角膜反射像及び前記瞳孔重心を検出できる場合の前記キャリブレーションの実行頻度よりも高く設定する、請求項1に記載の視線検出装置。 The control unit detects the line-of-sight direction by referring to a reference table representing a correspondence between a positional relationship between the cornea reflection image and the pupil center of gravity and the line-of-sight direction, and the control unit includes the first When it is not possible to detect either the cornea reflection image or the pupil center of gravity for at least one of the image and the second image, the execution frequency of the calibration for updating the reference table is set as the frequency of the first and second images. The line-of-sight detection device according to claim 1, wherein the line-of-sight detection device is set to be higher than the calibration execution frequency when the cornea reflection image and the pupil center of gravity can be detected for both.
前記表示部の周囲の互いに異なる位置に配置された複数の光源と、
所定の周期ごとに、前記複数の光源のうちの第1の光源がユーザの眼を照明している間に前記ユーザの眼を撮影した第1の画像と、前記複数の光源のうちの第2の光源が前記ユーザの眼を照明している間に前記ユーザの眼を撮影した第2の画像を生成する撮像部と、
前記所定の周期ごとに、前記複数の光源のうちの第1の光源と第2の光源を切り替えて点灯させ、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、前記角膜反射像及び前記瞳孔重心を検出できる場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザが前記表示部上で注視している注視位置を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記注視位置を検出する制御部と、
前記注視位置と関連付けられた処理を実行するアプリケーション実行部と、
を有する携帯端末。 A display unit;
A plurality of light sources arranged at different positions around the display unit;
For each predetermined period, the first image of the user's eyes while the first light source of the plurality of light sources illuminates the user's eyes, and the second of the plurality of light sources. An imaging unit that generates a second image of the user's eyes while the light source is illuminating the user's eyes;
For each predetermined period , the first light source and the second light source among the plurality of light sources are switched and turned on, and the first light source is selected from one of the first image and the second image. It is determined whether or not the cornea reflection image by one of the light source and the second light source and the pupil centroid of the user can be detected, and when the corneal reflection image and the pupil centroid can be detected, the pupil centroid and the cornea If the gaze position on which the user is gazing on the display unit is detected according to the positional relationship with the reflection image, and if either the cornea reflection image or the pupil center of gravity cannot be detected, the first image And a control unit that detects the pupil centroid and the corneal reflection image from the other image of the second images, and detects the gaze position according to a positional relationship between the pupil centroid and the corneal reflection image;
An application execution unit that executes processing associated with the gaze position;
A mobile terminal.
前記制御部は、前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出する、請求項5に記載の携帯端末。The control unit determines whether or not the pupil centroid and the corneal reflection image can be detected from the first image, and when the corneal reflection image or the pupil centroid cannot be detected from the first image, The mobile terminal according to claim 5, wherein the center of gravity of the pupil and the corneal reflection image are detected.
前記制御部は、前記第1の画像及び前記第2の画像の少なくとも何れかについて前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記参照テーブルを更新するキャリブレーションの実行頻度を、前記第1及び第2の画像の両方について前記角膜反射像及び前記瞳孔重心を検出できる場合の前記キャリブレーションの実行頻度よりも高く設定する、請求項5に記載の携帯端末。When the control unit cannot detect either the corneal reflection image or the pupil center of gravity for at least one of the first image and the second image, the execution frequency of calibration for updating the reference table, The mobile terminal according to claim 5, wherein the mobile terminal is set to be higher than an execution frequency of the calibration when the cornea reflection image and the pupil center of gravity can be detected for both the first and second images.
所定の周期ごとに、互いに異なる位置に配置された複数の光源のうちの第1の光源と第2の光源を切り替えて点灯させ、
前記所定の周期ごとに、前記第1の光源がユーザの眼を照明している間に撮像部が前記ユーザの眼を撮影した第1の画像と、前記第2の光源が前記ユーザの眼を照明している間に前記撮像部が前記ユーザの眼を撮影した第2の画像を取得し、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、
前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する、
ことを含む視線検出方法。 Computer
For each predetermined period, the first light source and the second light source among a plurality of light sources arranged at different positions are switched and turned on,
For each of the predetermined period, the eye of the first image and the previous SL second light source the user the imaging unit has captured the eye of the user while the first light source is illuminating the eye of the user The imaging unit obtains a second image obtained by photographing the user's eyes while illuminating
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, Whether or not can be detected,
When the cornea reflection image and the pupil centroid are detected, the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image, while either the corneal reflection image or the pupil centroid Is not detected, the pupil centroid and the corneal reflection image are detected from the other of the first image and the second image, and the user is detected according to the positional relationship between the pupil centroid and the corneal reflection image. Detecting the gaze direction of
A gaze detection method including the above.
前記角膜反射像と前記瞳孔重心とを検出できるか否か判定することは、前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出することを含む、請求項8に記載の視線検出方法。Determining whether the cornea reflection image and the pupil centroid can be detected determines whether the pupil centroid and the corneal reflection image can be detected from the first image, and the corneal reflection image or the pupil The line-of-sight detection method according to claim 8, further comprising detecting the pupil centroid and the corneal reflection image from the second image when any of the centroids cannot be detected.
前記コンピュータは、前記第1の画像及び前記第2の画像の少なくとも何れかについて前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記参照テーブルを更新するキャリブレーションの実行頻度を、前記第1及び第2の画像の両方について前記角膜反射像及び前記瞳孔重心を検出できる場合の前記キャリブレーションの実行頻度よりも高く設定することをさらに含む、請求項8に記載の視線検出方法。When the computer cannot detect either the cornea reflection image or the pupil center of gravity for at least one of the first image and the second image, the computer executes the calibration execution frequency for updating the reference table, The line-of-sight detection method according to claim 8, further comprising setting the corneal reflection image and the pupil centroid for both the first and second images to be higher than the calibration execution frequency.
前記所定の周期ごとに、前記第1の光源がユーザの眼を照明している間に撮像部が前記ユーザの眼を撮影した第1の画像と、前記第2の光源が前記ユーザの眼を照明している間に前記撮像部が前記ユーザの眼を撮影した第2の画像を取得し、
前記所定の周期ごとに、前記第1の画像及び前記第2の画像のうちの一方から、前記第1の光源及び前記第2の光源のうちの一方による角膜反射像と前記ユーザの瞳孔重心とを検出できるか否か判定し、
前記角膜反射像及び前記瞳孔重心を検出した場合、当該瞳孔重心と当該角膜反射像との位置関係に応じて前記ユーザの視線方向を検出し、一方、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記第1の画像及び前記第2の画像のうちの他方の画像から前記瞳孔重心及び前記角膜反射像を検出し、前記瞳孔重心と前記角膜反射像との位置関係に応じて前記ユーザの視線方向を検出する、
ことをコンピュータに実行させる視線検出用コンピュータプログラム。 For each predetermined period, the first light source and the second light source among a plurality of light sources arranged at different positions are switched and turned on,
For each of the predetermined period, the eye of the first image and the previous SL second light source the user the imaging unit has captured the eye of the user while the first light source is illuminating the eye of the user The imaging unit obtains a second image obtained by photographing the user's eyes while illuminating
At each predetermined period, from one of the first image and the second image, a corneal reflection image by one of the first light source and the second light source, and the pupil center of gravity of the user, Whether or not can be detected,
When the cornea reflection image and the pupil centroid are detected, the user's line-of-sight direction is detected according to the positional relationship between the pupil centroid and the corneal reflection image, while either the corneal reflection image or the pupil centroid Is not detected, the pupil centroid and the corneal reflection image are detected from the other image of the first image and the second image, and according to the positional relationship between the pupil centroid and the corneal reflection image. Detecting the gaze direction of the user;
A computer program for eye-gaze detection that causes a computer to execute the above.
前記角膜反射像と前記瞳孔重心とを検出できるか否か判定することは、前記第1の画像から前記瞳孔重心及び前記角膜反射像を検出できるか否か判定し、前記角膜反射像または前記瞳孔重心の何れかを検出できない場合に前記第2の画像から前記瞳孔重心及び前記角膜反射像を検出することを含む、請求項11に記載の視線検出用コンピュータプログラム。Determining whether the cornea reflection image and the pupil centroid can be detected determines whether the pupil centroid and the corneal reflection image can be detected from the first image, and the corneal reflection image or the pupil The computer program for eye gaze detection according to claim 11, comprising detecting the pupil center of gravity and the cornea reflection image from the second image when any of the centers of gravity cannot be detected.
前記第1の画像及び前記第2の画像の少なくとも何れかについて前記角膜反射像または前記瞳孔重心の何れかを検出できない場合、前記参照テーブルを更新するキャリブレーションの実行頻度を、前記第1及び第2の画像の両方について前記角膜反射像及び前記瞳孔重心を検出できる場合の前記キャリブレーションの実行頻度よりも高く設定することをさらにコンピュータに実行させる、請求項11に記載の視線検出用コンピュータプログラム。When it is not possible to detect either the cornea reflection image or the pupil center of gravity for at least one of the first image and the second image, the execution frequency of the calibration for updating the reference table is set to the first and the second images. The computer program for eye-gaze detection according to claim 11, further causing the computer to execute a setting higher than the calibration execution frequency when the cornea reflection image and the pupil center of gravity can be detected for both of the two images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010211060A JP5621456B2 (en) | 2010-09-21 | 2010-09-21 | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010211060A JP5621456B2 (en) | 2010-09-21 | 2010-09-21 | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012065719A JP2012065719A (en) | 2012-04-05 |
JP5621456B2 true JP5621456B2 (en) | 2014-11-12 |
Family
ID=46163732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010211060A Expired - Fee Related JP5621456B2 (en) | 2010-09-21 | 2010-09-21 | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5621456B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6056323B2 (en) | 2012-09-24 | 2017-01-11 | 富士通株式会社 | Gaze detection device, computer program for gaze detection |
JP2014064634A (en) * | 2012-09-25 | 2014-04-17 | Kyocera Corp | Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method |
CN105765608A (en) * | 2013-09-02 | 2016-07-13 | 醒眸行有限公司 | Method and apparatus for eye detection from glints |
US10552675B2 (en) | 2014-03-12 | 2020-02-04 | Seeing Machines Limited | Method and apparatus for eye detection from glints |
CN106455969A (en) * | 2014-03-19 | 2017-02-22 | 威盛纳斯医疗系统公司 | Eye imaging apparatus and systems |
JP6468078B2 (en) * | 2015-05-29 | 2019-02-13 | 富士通株式会社 | Gaze calibration program, gaze calibration apparatus, and gaze calibration method |
JP6631951B2 (en) * | 2015-12-18 | 2020-01-15 | 国立大学法人静岡大学 | Eye gaze detection device and eye gaze detection method |
WO2017217026A1 (en) * | 2016-06-16 | 2017-12-21 | アルプス電気株式会社 | Cornea center detection device and gaze detection device |
JP7444358B2 (en) * | 2020-02-18 | 2024-03-06 | 学校法人明治大学 | Eye movement measurement device, calibration system, eye movement measurement method, and eye movement measurement program |
JP2022036452A (en) * | 2020-08-24 | 2022-03-08 | 株式会社Jvcケンウッド | Line of sight detection device, line of sight detection method, and line of sight detection program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0694977A (en) * | 1992-09-14 | 1994-04-08 | Nikon Corp | Device for detecting line of sight |
JPH0694980A (en) * | 1992-09-14 | 1994-04-08 | Nikon Corp | Camera provided with device for detecting line of sight |
-
2010
- 2010-09-21 JP JP2010211060A patent/JP5621456B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012065719A (en) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5621456B2 (en) | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal | |
EP3453316B1 (en) | Eye tracking using eyeball center position | |
JP5949319B2 (en) | Gaze detection apparatus and gaze detection method | |
JP6056323B2 (en) | Gaze detection device, computer program for gaze detection | |
JP6930223B2 (en) | Pupil detection computer program, pupil detection device and pupil detection method | |
JP2017182739A (en) | Gaze detection device, gaze detection method and computer program for gaze detection | |
JP5626039B2 (en) | Gaze detection apparatus and gaze detection method | |
JP6308940B2 (en) | System and method for identifying eye tracking scene reference position | |
JP2012187178A (en) | Visual line detection device and visual line detection method | |
EP2881891B1 (en) | Image processing device and image processing method | |
US10324529B1 (en) | Method and system for glint/reflection identification | |
JP4491604B2 (en) | Pupil detection device | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP5601179B2 (en) | Gaze detection apparatus and gaze detection method | |
US20200187774A1 (en) | Method and system for controlling illuminators | |
JP2018205819A (en) | Gazing position detection computer program, gazing position detection device, and gazing position detection method | |
US11216066B2 (en) | Display device, learning device, and control method of display device | |
KR20150139183A (en) | Wrist-type wearable device for vein recognition | |
US10288879B1 (en) | Method and system for glint/reflection identification | |
WO2019185136A1 (en) | Method and system for controlling illuminators | |
JP2017199148A (en) | Visual line detection device, visual line detection method and visual line detection-purpose computer program | |
JP2018011681A (en) | Visual line detection device, visual line detection program, and visual line detection method | |
WO2017154356A1 (en) | Sight line detection device and sight line detection method | |
KR101673694B1 (en) | Gaze tracking apparatus and method for detecting glint thereof | |
EP3801196B1 (en) | Method and system for glint/reflection identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5621456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |