Nothing Special   »   [go: up one dir, main page]

JP2011115460A - Visual axis controlling device, method of controlling visual axis, and program of the same - Google Patents

Visual axis controlling device, method of controlling visual axis, and program of the same Download PDF

Info

Publication number
JP2011115460A
JP2011115460A JP2009276686A JP2009276686A JP2011115460A JP 2011115460 A JP2011115460 A JP 2011115460A JP 2009276686 A JP2009276686 A JP 2009276686A JP 2009276686 A JP2009276686 A JP 2009276686A JP 2011115460 A JP2011115460 A JP 2011115460A
Authority
JP
Japan
Prior art keywords
line
sight
pupil
control device
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009276686A
Other languages
Japanese (ja)
Other versions
JP5578603B2 (en
Inventor
Kohei Arai
康平 新井
Purwanto Djoko
ジョーコー・プルワント
Mardiyanto Ronny
ロニー・マーディヤント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saga University NUC
Original Assignee
Saga University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saga University NUC filed Critical Saga University NUC
Priority to JP2009276686A priority Critical patent/JP5578603B2/en
Publication of JP2011115460A publication Critical patent/JP2011115460A/en
Application granted granted Critical
Publication of JP5578603B2 publication Critical patent/JP5578603B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a visual axis detecting device or the like, which removes a burden on a user and detects an accurate visual axis direction from the center of a pupil and the center of a corneal curvature. <P>SOLUTION: A visual axis controlling device includes: a camera 11 for imaging a direction of eye balls; a plurality of light sources for emitting light to the direction of the eye balls; a corneal curvature radius-calculating part 23 for calculating a corneal curvature radius based on a plurality of Purkinje images on a corneal surface acquired by the light emitted from the light source; a part 24 for calculating the center of a corneal curvature, which calculates the center of the corneal curvature based on the corneal curvature radius, a position of the camera 11, and the position of the light source 12; a part 25 for calculating the center of a pupil, which extracts a pupil region based on the presence and absence of the reflection of the light emitted from the light source and calculates the center of the pupil by an ellipse approximation; and a visual axis direction-determining part 26 for determining a vector passing through the center of the pupil and the center of the corneal curvature as the visual axis direction. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、視線により制御対象物の駆動を制御する視線制御装置等に関する。   The present invention relates to a line-of-sight control device that controls the driving of a controlled object by a line of sight.

視線方向の推定を利用して制御対象物(例えば、車椅子等)を制御する技術が開示されている(特許文献1、非特許文献1を参照)。
また、人間の眼球運動を検出する手法として様々な方法が知られているが、視線推定原理、眼球運動検出法により、以下のように大別できる。(1)リンバストラッキング法:黒目(虹彩)、角膜と白目、強膜の反射率の相違を利用する方法(非特許文献2を参照)。(2)角膜反射法:角膜前面、後面、水晶体前面、後面の屈折率の異なる面からの近赤外波長域反射像(プルキニエ像)の最も明るい像を用いる方法(非特許文献3を参照)。(3)EOG(Electrooculography)法:電極を眼球付近に貼り付け、角膜におけるプラス電位と網膜におけるマイナス電位の電位差を利用する方法(非特許文献4を参照)。(4)サーチコイル法:コイルを内臓したコンタクトレンズを装着した利用者を磁界中に置き、眼球運動によりコイルと磁界の角度によって発生する電位差を用いる方法(非特許文献5を参照)。(5)Fundus Haploscope法:赤外波長域における眼底写真撮像装置を用いて眼底を直接観察する方法(非特許文献6を参照)。(6)画像解析法:眼球を撮像し、瞳孔中心を画像処理法によって検出する方法。
A technique for controlling a control object (for example, a wheelchair or the like) using gaze direction estimation is disclosed (see Patent Document 1 and Non-Patent Document 1).
Various methods are known as methods for detecting human eye movements, and can be roughly classified as follows according to the gaze estimation principle and the eye movement detection method. (1) Limbus tracking method: a method using the difference in reflectance between black eyes (iris), cornea and white eyes, and sclera (see Non-Patent Document 2). (2) Corneal reflection method: a method using the brightest image of the near-infrared wavelength region reflection image (Purkinje image) from the front surface of the cornea, the rear surface, the front surface of the lens, and the rear surface having different refractive indexes (see Non-Patent Document 3) . (3) EOG (Electrooculography) method: A method in which an electrode is attached to the vicinity of the eyeball and a potential difference between a positive potential in the cornea and a negative potential in the retina is used (see Non-Patent Document 4). (4) Search coil method: A method in which a user wearing a contact lens with a built-in coil is placed in a magnetic field, and a potential difference generated by the angle of the coil and the magnetic field by eye movement is used (see Non-Patent Document 5). (5) Fundus Haploscope method: a method of directly observing the fundus using a fundus photographic imaging device in the infrared wavelength region (see Non-Patent Document 6). (6) Image analysis method: A method of imaging an eyeball and detecting the pupil center by an image processing method.

(1)、(3)、(4)、及び(5)の方法は、視線推定精度が高いが、接触型であるため利用者に身体的、心理的な負担を強いることになる。また、システムが高価になってしまう。(6)は比較的安価であり、画像解析手法の高度化に伴い発達しているが、推定制度が低いという問題がある。(2)のプルキニエ像を利用した眼球運動検出法によれば、非接触型で安定的に高精度な眼球運動を検出できる。   Although the methods (1), (3), (4), and (5) have high gaze estimation accuracy, they are of a contact type and therefore impose a physical and psychological burden on the user. In addition, the system becomes expensive. Although (6) is relatively inexpensive and has been developed with the advancement of image analysis techniques, there is a problem that the estimation system is low. According to the eye movement detection method using the Purkinje image of (2), it is possible to detect the eye movement stably and accurately with a non-contact type.

これらの先行技術では、典型的な眼球モデルを仮定したものが多く、眼球サイズ等のあらゆるパラメータを定数として眼球運動推定を行っている。そのため、眼球形状の個人差により誤差を生じ、高い眼球運動計測推定精度は望めない。この問題に対し、キャリブレーションにより個人差を除去する補正作業を利用者に強いているが、キャリブレーション作業には習熟と時間が必要となるため、利用者にとって大きな負担となる。   In many of these prior arts, a typical eyeball model is assumed, and eyeball motion estimation is performed using all parameters such as eyeball size as constants. Therefore, an error occurs due to individual differences in eyeball shape, and high eye movement measurement estimation accuracy cannot be expected. In order to solve this problem, the user is forced to perform correction work for removing individual differences by calibration. However, the calibration work requires a great deal of skill and time, which is a heavy burden on the user.

また、眼球回転中心座標と瞳孔中心とを結ぶ線を視線として視線測定を行う技術が開示されている(非特許文献7を参照)。これは、眼球回転中心座標を、視線測定前に眼球を種々の方向に動かすことにより求めている。そうすることで、指標を提示する必要がなく、あらゆる場所で視線計測が可能であるが、準備に時間が掛かり、頭部移動を許容できないといった問題がある。   In addition, a technique for performing line-of-sight measurement using a line connecting the eyeball rotation center coordinates and the pupil center as the line of sight is disclosed (see Non-Patent Document 7). This is obtained by moving the eyeball in various directions before the eye-gaze measurement. By doing so, it is not necessary to present an index and gaze measurement is possible everywhere, but there is a problem that preparation takes time and head movement cannot be allowed.

さらに、角膜曲率中心(又は角膜球中心)座標と瞳孔中心とを結ぶ線を視線として視線測定を行う技術が開示されている(非特許文献8、特許文献2を参照)。角膜曲率中心(又は角膜球中心)座標は、一点光源とカメラを設置することで、一般的な角膜曲率半径(角膜球半径)値を利用して求めている。しかし、これらの方法は、人の典型的な眼球形状等のモデルを仮定しているため、視線方向推定に少なからず誤差が残り、キャリブレーションにより視線の補正作業をしなければならない。   Furthermore, a technique is disclosed in which line-of-sight measurement is performed using a line connecting the coordinates of the corneal curvature center (or corneal sphere center) and the pupil center as a line of sight (see Non-Patent Document 8 and Patent Document 2). The coordinates of the corneal curvature center (or corneal sphere center) are obtained by using a general corneal curvature radius (corneal sphere radius) value by installing a single point light source and a camera. However, since these methods assume a model such as a typical human eyeball shape, there is a considerable error in the gaze direction estimation, and the gaze must be corrected by calibration.

さらにまた、ステレオカメラ、及び2つの光源を用いることにより両目の視線を同時推定する方法(特許文献3を参照)や2つの光源により利用者の角膜曲率中心を求め、眼球回転中心を推定する方法(非特許文献9を参照)が開示されている。前者は視線方向のみならず両目の視線推定(三次元計測)から得られる視線の先の視点を推定するものであり、視線推定には瞳孔中心と角膜反射中心を用いている。後者は角膜曲率中心を2つのプルキニエ像を用いて推定し、3点の指標を利用者に注視してもらい、眼球回転中心を推定し、これらを結ぶ視線を推定する方法であり、模型眼を用いた実験によって精度を検証している。   Furthermore, a method for simultaneously estimating the eyes of both eyes by using a stereo camera and two light sources (see Patent Document 3), and a method for obtaining the center of corneal curvature of the user by using two light sources and estimating the center of eyeball rotation (See Non-Patent Document 9). The former estimates not only the line-of-sight direction but also the viewpoint ahead of the line of sight obtained from line-of-sight estimation (three-dimensional measurement) of both eyes, and the pupil center and the corneal reflection center are used for line-of-sight estimation. The latter is a method of estimating the center of corneal curvature using two Purkinje images, having the user gaze at the three indices, estimating the center of eyeball rotation, and estimating the line of sight connecting them. The accuracy is verified by the experiment used.

特表2004−504684号公報JP-T-2004-504684 特開2005−253778号公報JP 2005-253778 A 特開2005−198743号公報JP 2005-198743 A

松本吉央, 伊野智行, 小笠原司:“顔と視線情報による電動車椅子の走行支援システム”, 電気学会システム・制御研究会資料, 2001Yoshio Matsumoto, Tomoyuki Ino, Tsukasa Ogasawara: “Electric wheelchair driving support system based on face and line-of-sight information”, IEEJ System and Control Study Group, 2001 K.Abe, S.Ohiamd M.Ohyama: "An Eye-gaze Input Sys-tem based on the Limbus Tracking Method by Image Analysis for Seriously Physically Handicapped People", 7th ERCIMWorkshop"User Interface for All "Adjunct Proc.,185-186,2002.K.Abe, S.Ohiamd M.Ohyama: "An Eye-gaze Input Sys-tem based on the Limbus Tracking Method by Image Analysis for Seriously Physically Handicapped People", 7th ERCIMWorkshop "User Interface for All" Adjunct Proc., 185- 186, 2002. 池田光男、資格の心理物理学、森北出版、1975.Mitsuo Ikeda, qualified psychophysics, Morikita Publishing, 1975. 久野悦章,八木透,藤井一幸,古賀一男,内川嘉樹:“EOGを用いた視線入力インターフェースの開発”,情報処理学会論文誌,39,5, 1455-1462, 1998.Yukiaki Kuno, Toru Yagi, Kazuyuki Fujii, Kazuo Koga, Yoshiki Uchikawa: “Development of eye-gaze input interface using EOG”, Transactions of Information Processing Society of Japan, 39, 5, 1455-1462, 1998. D.A.Robinson: "A method of measuring eye movement using a sclera search coil in a magnetic field",IEEE Trans. on Biomedical Electronics, 10, 137-145, 1963.D.A. Robinson: "A method of measuring eye movement using a sclera search coil in a magnetic field", IEEE Trans. On Biomedical Electronics, 10, 137-145, 1963. http://webvision.med.utah.edu/http://webvision.med.utah.edu/ 松田圭司, 永見武司, 山根茂," 視線位置計測システムの開発"信学技法TL2002-2、2000.Junji Matsuda, Takeshi Nagami, Shigeru Yamane, "Development of Gaze Position Measurement System", IEICE Technical TL2002-2, 2000. 大野健彦, 武川直樹, 吉川厚:“眼球形状モデルに基づく視線推定法”, 第8回画像センシングシンポジウム,pp.307-312、2002.Takehiko Ohno, Naoki Takekawa, Atsushi Yoshikawa: “Gaze estimation method based on eyeball shape model”, 8th Symposium on Image Sensing, pp.307-312, 2002. 田中宏明、疋田真一、笠井健、竹田仰、“二光源を用いた角膜曲率中心位置計測による視線検出法”、信学論誌、108,479、MBE2008-128,117-180,2009.Hiroaki Tanaka, Shinichi Hamada, Ken Kasai, Takashi Takeda, “Gaze detection method by measuring the central position of corneal curvature using two light sources”, IEICE Journal, 108,479, MBE2008-128,117-180,2009.

非特許文献1に示す技術は、顔の動作と視線とに基づいて車椅子を制御する技術であるが、例えばALS(amyotrophic lateral sclerosis:筋萎縮性側索硬化症)患者のように視線を動かすことはできるが、頭部を動かすことができないような人への適用ができないという課題を有する。   The technique shown in Non-Patent Document 1 is a technique for controlling a wheelchair based on facial movement and line of sight, but for example, moving the line of sight as in an ALS (amyotrophic lateral sclerosis) patient. Although it can, it has the subject that it cannot apply to the person who cannot move a head.

特許文献1に示す技術は、頭部姿勢と視線方向を車椅子の操縦に使用することが示唆されているが、具体的な手段が記載されておらず、車椅子の制御に関して不十分な技術であるという課題を有する。また、少なくとも2つの視点から顔、及び頭部の画像を取得する必要があるため、カメラが2台必要になり、装置が大型化してしまう可能性がある。さらに、少なくとも2つの画像に対して画像処理や解析処理を行う必要があるため、処理が低速で複雑になるという課題を有する。   Although it is suggested that the technique shown in Patent Document 1 uses the head posture and the line-of-sight direction for steering a wheelchair, no specific means are described, and the technique is insufficient with respect to wheelchair control. Has the problem. In addition, since it is necessary to acquire images of the face and head from at least two viewpoints, two cameras are required, which may increase the size of the apparatus. Furthermore, since it is necessary to perform image processing and analysis processing on at least two images, there is a problem that processing is slow and complicated.

非特許文献2〜8、及び特許文献2に示す技術については、上述したような問題点を抱えるものである。また、特許文献3に示す技術は、ステレオカメラで両目の視線を推定しているため、装置が大型化してしまうという課題を有する。さらに、頭部の姿勢を推定する必要があるため、頭部が安定しないような車椅子上での制御は困難性を有するものとなってしまう。さらにまた、非特許文献9に示す技術は、3点の指標を利用者に注視してもらう必要があり、利用者に負担を強いることになってしまうという課題を有する。   The techniques shown in Non-Patent Documents 2 to 8 and Patent Document 2 have problems as described above. Moreover, since the technique shown in Patent Document 3 estimates the line of sight of both eyes with a stereo camera, there is a problem that the apparatus becomes large. Furthermore, since it is necessary to estimate the posture of the head, control on a wheelchair that makes the head unstable is difficult. Furthermore, the technique shown in Non-Patent Document 9 has a problem that it is necessary for the user to pay attention to the three indices, which places a burden on the user.

そこで、本発明は視線方向を検出することで制御対象物(例えば、車椅子等)の動作を制御する視線制御装置を提供する。また、提供する視線制御装置は、利用者に強いる負担を取り除き、瞳孔中心と角膜曲率中心とから正確な視線方向を検出することができる。   Therefore, the present invention provides a line-of-sight control device that controls the operation of a control target (for example, a wheelchair) by detecting the line-of-sight direction. In addition, the provided gaze control device can remove a burden imposed on the user and can detect an accurate gaze direction from the pupil center and the corneal curvature center.

(1)本願に開示する視線制御装置は、視線方向に基づいて制御対象物を制御する視線制御装置であって、前記視線方向を検出する視線方向検出手段と、前記視線方向と前記制御対象物の動作指令とを対応付ける対応情報を記憶する対応情報記憶手段と、前記対応情報記憶手段が記憶する対応情報、及び前記視線方向検出手段が検出する視線方向に基づいて、制御対象物の動作指令を解析する動作指令解析手段と、前記動作指令解析手段が解析した結果に基づいて、前記制御対象物を駆動する駆動手段とを備えることを特徴とするものである。   (1) A line-of-sight control device disclosed in the present application is a line-of-sight control device that controls a control object based on a line-of-sight direction, and includes a line-of-sight direction detection unit that detects the line-of-sight direction, the line-of-sight direction, and the control object. A correspondence information storage means for storing correspondence information for associating the motion command, a correspondence information stored in the correspondence information storage means, and a line-of-sight direction detected by the line-of-sight direction detection means. An operation command analysis means for analyzing and a drive means for driving the control object based on the result of analysis by the operation command analysis means are provided.

このように、本願に開示する視線制御装置は、前記検出される視線方向と制御対象物の動作指令との対応情報に基づいて制御対象物を駆動するため、制御対象物を視線入力に基づいて正確に駆動することができ、例えばALS患者のように視線しか動かせない人であっても、利用者が意図する制御対象物の動作を視線のみで実現することができるという効果を奏する。   As described above, the gaze control device disclosed in the present application drives the control object based on the correspondence information between the detected gaze direction and the operation command of the control object. For example, even a person who can move only his / her line of sight, such as an ALS patient, can achieve the effect that the operation of the control target intended by the user can be realized with only his / her line of sight.

(2)本願に開示する視線制御装置は、前記制御対象物が電動車椅子であり、前記対応情報記憶手段が、前記視線方向が下方向の場合に対応する動作指令を前進加速として前記対応情報を記憶することを特徴とするものである。   (2) In the line-of-sight control device disclosed in the present application, the control target is an electric wheelchair, and the correspondence information storage means sets the correspondence information as a forward acceleration as an operation command corresponding to the case where the line-of-sight direction is downward. It is memorized.

このように、本願に開示する視線制御装置は、制御対象物が電動車椅子であるため、肢体が不自由で、例えばALS患者のように視線しか動かせない人であっても、視線のみで電動車椅子を制御し、自分で移動することができるという効果を奏する。また、視線方向が下方向の場合に対応する動作指令が前進加速であるため、前進加速時に特に注意が必要な通路の状態や安全性の確認を下方向の視線で行いながら前進加速することができるため、安全で使いやすい視線制御を実現することができるという効果を奏する。   As described above, the line-of-sight control device disclosed in the present application is an electric wheelchair because the controlled object is an electric wheelchair, and even a person who can move only the line of sight, such as an ALS patient, can move only by the line of sight. The effect is that you can control and move by yourself. In addition, since the motion command corresponding to the case where the line-of-sight direction is downward is forward acceleration, it is possible to accelerate forward while confirming the state of the passage and safety that require special attention during forward acceleration with the line of sight downward. As a result, it is possible to realize safe and easy-to-use line-of-sight control.

(3)本願に開示する視線制御装置は、前記対応情報記憶手段が、前記視線方向が右方向の場合に対応する動作指令を右転回とし、前記視線方向が左方向の場合に対応する動作指令を左転回とし、前記視線方向が正面方向の場合に対応する動作指令を前進とし、前記視線方向がその他の場合に対応する動作指令を停止として、前記対応情報を記憶することを特徴とするものである。   (3) In the line-of-sight control device disclosed in the present application, the correspondence information storage means turns the operation command corresponding to the case where the line-of-sight direction is the right direction and the operation command corresponding to the case where the line-of-sight direction is the left direction. , The operation command corresponding to the case where the line-of-sight direction is the front direction is set to advance, the operation command corresponding to the case where the line-of-sight direction is other is stopped, and the correspondence information is stored. It is.

このように、本願に開示する視線制御装置は、視線方向が右方向の場合に右転回とし、視線方向が左方向の場合に左転回とし、視線方向が正面方向の場合に前進とし、視線方向がその他の場合に停止とするため、進行方向と視線方向が合致して車椅子の制御がし易くなると共に、停止の視線方向を多くの領域で設定することで、安全性を配慮した車椅子の制御を行うことができるという効果を奏する。   Thus, the gaze control device disclosed in the present application turns right when the gaze direction is the right direction, turns left when the gaze direction is the left direction, moves forward when the gaze direction is the front direction, and gaze direction The wheelchair is stopped in other cases, so the direction of movement and the line-of-sight direction match, making it easier to control the wheelchair, and by setting the line-of-sight direction of the stop in many areas, the wheelchair can be controlled in consideration of safety. There is an effect that can be performed.

(4)本願に開示する視線制御装置は、前記制御対象物の少なくとも前方を撮像する撮像手段と、前記撮像手段が撮像した撮像情報に基づいて障害物を検出する障害物検出手段とを備え、前記駆動手段が、前記障害物検出手段が障害物を検出した場合に、前記制御対象物の動きを停止することを特徴とするものである。   (4) The line-of-sight control device disclosed in the present application includes an imaging unit that images at least the front of the controlled object, and an obstacle detection unit that detects an obstacle based on imaging information captured by the imaging unit, The drive means stops movement of the control object when the obstacle detection means detects an obstacle.

このように、本願に開示する視線制御装置は、制御対象物の少なくとも前方を撮像し、撮像情報から障害物を検出した場合に制御対象物の動きを停止するため、障害物と制御対象物との接触を防止し、制御対象物の故障防止や制御対象物を操作する人の安全性を確保することができるという効果を奏する。   In this way, the line-of-sight control device disclosed in the present application images at least the front of the control object, and stops the movement of the control object when the obstacle is detected from the imaging information. It is possible to prevent the contact of the control object, prevent the control object from being broken, and ensure the safety of the person who operates the control object.

(5)本願に開示する視線制御装置は、前記制御対象物の少なくとも前方に超音波を発振して障害物との距離を測定する超音波センサを備え、前記駆動手段が、前記障害物センサが検知した障害物との距離が所定の長さ以下の場合に、前記制御対象物の動きを停止することを特徴とするものである。   (5) The line-of-sight control device disclosed in the present application includes an ultrasonic sensor that oscillates an ultrasonic wave at least in front of the control target and measures a distance from the obstacle, and the driving unit includes the obstacle sensor. When the distance to the detected obstacle is equal to or shorter than a predetermined length, the movement of the controlled object is stopped.

このように、本願に開示する視線制御装置は、制御対象物の少なくとも前方の障害物を超音波センサにより検知して制御対象物の動きを停止するため、例えば障害物が透明であるような場合であっても、確実に障害物を検知して、制御対象物の故障や制御対象物を操作する人の安全性を確保することができるという効果を奏する。   As described above, the line-of-sight control device disclosed in the present application detects at least an obstacle ahead of the controlled object by the ultrasonic sensor and stops the movement of the controlled object. For example, when the obstacle is transparent Even in such a case, there is an effect that the obstacle can be reliably detected, and the safety of the person who operates the control object or the failure of the control object can be ensured.

(6)本願に開示する視線制御装置は、瞳孔の大きさを検出する瞳孔サイズ検出手段と、前記瞳孔サイズ検出手段が検出した瞳孔の大きさに基づいて、瞳孔のサイズの変化を解析する瞳孔変化解析手段とを備え、前記駆動手段が、前記瞳孔変化解析手段が解析した瞳孔のサイズの変化に基づいて、前記制御対象物の動きを停止することを特徴とするものである。   (6) A line-of-sight control device disclosed in the present application includes a pupil size detection unit that detects the size of the pupil, and a pupil that analyzes a change in the size of the pupil based on the pupil size detected by the pupil size detection unit. Change analysis means, and the drive means stops the movement of the control object based on the change in the size of the pupil analyzed by the pupil change analysis means.

このように、本願に開示する視線制御装置は、瞳孔のサイズの変化に基づいて、制御対象物の動きを停止するため、例えば急に障害物が現れて瞳孔が開いたような場合には、その瞳孔の変化から制御対象物を停止して、障害物との接触を防止することができるという効果を奏する。   As described above, the line-of-sight control device disclosed in the present application stops the movement of the control target based on the change in the size of the pupil.For example, when the obstacle suddenly appears and the pupil opens, The control object is stopped from the change in the pupil, and the contact with the obstacle can be prevented.

(7)本願に開示する視線制御装置は、瞳孔の大きさを検出する瞳孔サイズ検出手段と、前記瞳孔サイズ検出手段が検出した瞳孔の大きさに基づいて、瞳孔のサイズの変化を解析する瞳孔変化解析手段とを備え、前記瞳孔変化解析手段が解析した瞳孔のサイズの変化に基づいて、前記対応情報記憶手段が記憶する前記視線方向と制御対象物の動作指令との対応情報を補正する対応情報補正手段を備えることを特徴とするものである。   (7) A gaze control device disclosed in the present application includes a pupil size detection unit that detects the size of a pupil, and a pupil that analyzes a change in the size of the pupil based on the pupil size detected by the pupil size detection unit. Change analysis means, and based on the change in the size of the pupil analyzed by the pupil change analysis means, the correspondence information for correcting the correspondence information between the line-of-sight direction stored in the correspondence information storage means and the operation command of the control object An information correction means is provided.

このように、本願に開示する視線制御装置は、瞳孔のサイズの変化に基づいて、視線方向と制御対象物の動作指令との対応情報を補正するため、例えば瞳孔のサイズの変化から危険度を求め、その危険度に応じて停止の領域を大きくする等の補正を行うことで、環境に応じた対応情報を得ることができるという効果を奏する。   As described above, the gaze control device disclosed in the present application corrects the correspondence information between the gaze direction and the operation command of the controlled object based on the change in the pupil size. By obtaining and performing correction such as increasing the stop area according to the degree of risk, it is possible to obtain correspondence information according to the environment.

(8)本願に開示する視線制御装置は、視線方向検出手段が、少なくとも眼球方向を撮像するカメラと、少なくとも眼球方向に光を照射する複数の光源と、前記光源が照射した光により得られる角膜表面上の複数のプルキニエ像に基づいて、角膜曲率半径を算出する角膜曲率半径算出手段と、前記角膜曲率半径算出手段が算出した角膜曲率半径、前記カメラの位置、及び前記光源の位置に基づいて、角膜曲率中心を算出する角膜曲率中心算出手段と、前記光源が照射した光の反射の有無に基づいて瞳孔領域を抽出し、楕円近似により瞳孔の中心を算出する瞳孔中心算出手段と、前記瞳孔中心算出手段が算出した瞳孔中心、及び前記角膜曲率中心算出手段が算出した角膜曲率中心を通るベクトルを視線方向として決定する視線方向決定手段とを備えることを特徴とするものである。   (8) In the line-of-sight control device disclosed in the present application, the line-of-sight detection means includes a camera that images at least the eyeball direction, a plurality of light sources that emit light at least in the eyeball direction, and a cornea obtained by the light emitted from the light source. Based on a plurality of Purkinje images on the surface, a corneal curvature radius calculation means for calculating a corneal curvature radius, a corneal curvature radius calculated by the corneal curvature radius calculation means, a position of the camera, and a position of the light source A corneal curvature center calculating means for calculating a corneal curvature center, a pupil center calculating means for extracting a pupil region based on the presence or absence of reflection of light irradiated by the light source, and calculating a center of the pupil by elliptic approximation, and the pupil A pupil center calculated by the center calculating means, and a gaze direction determining means for determining a vector passing through the corneal curvature center calculated by the corneal curvature center calculating means as a gaze direction. It is characterized in that to obtain.

このように、本願に開示する視線制御装置は、複数の光源により角膜表面から得られるプルキニエ像を利用して角膜曲率半径を正確に算出し、角膜曲率半径から角膜曲率中心を算出するため、正確な角膜曲率中心を求めることができ、視線方向の検出を従来にはない高精度で行うことができると共に、キャリブレーション等の手間を省いて利用者の負担を軽減した視線検出を行うことができるという効果を奏する。   As described above, the gaze control device disclosed in the present application accurately calculates the corneal curvature radius using the Purkinje image obtained from the corneal surface by a plurality of light sources, and calculates the corneal curvature center from the corneal curvature radius. The center of curvature of the cornea can be obtained, and the detection of the gaze direction can be performed with a high accuracy that is not possible in the past, and the gaze detection can be performed while reducing the burden on the user by eliminating the trouble of calibration and the like. There is an effect.

(9)本願に開示する視線制御装置は、前記光源が少なくとも近赤外線を照射し、前記カメラが少なくとも近赤外線の感度分布を持つカメラであることを特徴とするものである。
このように、本願に開示する視線制御装置は、光源が少なくとも近赤外線を照射し、カメラが少なくとも近赤外線の感度分布を持つカメラであるため、照明環境に関係なくどのような場所であっても、正確に視線方向を検出することができるという効果を奏する。
(9) The line-of-sight control device disclosed in the present application is characterized in that the light source emits at least near-infrared light and the camera has at least near-infrared sensitivity distribution.
Thus, the line-of-sight control device disclosed in the present application is a camera that emits at least near-infrared light and the camera has at least near-infrared sensitivity distribution. There is an effect that the line-of-sight direction can be accurately detected.

(10)本願に開示する視線制御装置は、前記カメラが、前記制御対象物を操作する人の一部に固定されていることを特徴とするものである。
このように、本願に開示する視線制御装置は、カメラが制御対象物を操作する人の一部に固定されているため、車椅子のような移動体で顔の位置が不安定になる場合であっても、安定的に目を捉えて正確な視線方向を検出することができるという効果を奏する。
(10) The line-of-sight control device disclosed in the present application is characterized in that the camera is fixed to a part of a person who operates the control object.
As described above, the gaze control device disclosed in the present application is a case where the position of the face is unstable with a moving body such as a wheelchair because the camera is fixed to a part of the person who operates the control target. However, there is an effect that an accurate line-of-sight direction can be detected by stably capturing the eyes.

(11)本願に開示する視線制御装置は、顔画像から複数の顔特徴を抽出する顔特徴抽出手段と、前記顔特徴抽出手段が抽出した各顔特徴における特徴点を決定する特徴点決定手段と、前記特徴点で形成される平面の法線方向を決定する法線方向決定手段とを備え、前記視線検出手段が検出した視線方向、及び前記法線決定手段が決定した法線方向に基づいて、視線方向を決定することを特徴とするものである。   (11) A line-of-sight control device disclosed in the present application includes a facial feature extraction unit that extracts a plurality of facial features from a facial image, and a feature point determination unit that determines feature points in each facial feature extracted by the facial feature extraction unit. Normal direction determining means for determining a normal direction of a plane formed by the feature points, and based on the line-of-sight direction detected by the line-of-sight detection means and the normal direction determined by the normal line determination means The line-of-sight direction is determined.

このように、本願に開示する視線制御装置は、顔特徴点が形成する平面の法線方向を顔の向きとして頭部姿勢を求め、視線方向と頭部姿勢とに基づいて視線方向を決定するため、カメラと頭部との動きが一体的ではなく、利用者が頭部を動かしたような場合であっても、視線の方向を正確で安定的に検出することができるという効果を奏する。
これまで、本発明を装置として示したが、所謂当業者であれば明らかであるように本発明を方法、及び、プログラムとして捉えることもできる。
As described above, the gaze control device disclosed in the present application obtains the head posture with the normal direction of the plane formed by the facial feature points as the face direction, and determines the gaze direction based on the gaze direction and the head posture. Therefore, even if the movement of the camera and the head is not integrated, and the user moves the head, there is an effect that the direction of the line of sight can be detected accurately and stably.
Although the present invention has been shown as an apparatus so far, as will be apparent to those skilled in the art, the present invention can also be understood as a method and a program.

第1の実施形態に係る視線制御装置のハードウェア構成図である。It is a hardware block diagram of the gaze control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る視線制御装置の機能ブロック図である。It is a functional block diagram of a gaze control device concerning a 1st embodiment. 第1の実施形態に係る視線制御装置における対応情報の一例を示す図である。It is a figure which shows an example of the corresponding information in the gaze control apparatus which concerns on 1st Embodiment. 第1の実施形態に係る視線制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the gaze control apparatus which concerns on 1st Embodiment. 第2の実施形態に係る視線制御装置のハードウェア構成図である。It is a hardware block diagram of the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置の機能ブロック図である。It is a functional block diagram of a gaze control device concerning a 2nd embodiment. 第2の実施形態に係る視線制御装置における光源、カメラ、及び目の幾何学的な関係を示す図である。It is a figure which shows the geometric relationship of the light source, camera, and eyes in the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置において2つの光源に対応するプルキニエ像の一例を示す図である。It is a figure which shows an example of the Purkinje image corresponding to two light sources in the visual line control apparatus which concerns on 2nd Embodiment. 暗瞳孔法、及び明瞳孔法の処理を示す図である。It is a figure which shows the process of a dark pupil method and a bright pupil method. 楕円の特徴パラメータを示す図である。It is a figure which shows the characteristic parameter of an ellipse. 楕円パラメータの定義を示す図である。It is a figure which shows the definition of an ellipse parameter. 第2の実施形態に係る視線制御装置における目のイメージに基づく楕円近似の方法を示す図である。It is a figure which shows the method of the ellipse approximation based on the image of the eye in the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置における光源、目、角膜の位置関係を示す図である。It is a figure which shows the positional relationship of the light source, eyes, and cornea in the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置を用いた実験機材の設置図である。It is an installation drawing of experimental equipment using the line-of-sight control device according to the second embodiment. 第2の実施形態に係る視線制御装置において角膜半径の計測結果を示すグラフである。It is a graph which shows the measurement result of a corneal radius in the visual line control device concerning a 2nd embodiment. 第2の実施形態に係る視線制御装置において眼球角度検出精度確認実験で使用するディスプレイを示す図である。It is a figure which shows the display used in the eyeball angle detection accuracy confirmation experiment in the gaze control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る視線制御装置において実験結果を示す表である。It is a table | surface which shows an experimental result in the gaze control apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る視線制御装置の機能ブロック図である。It is a functional block diagram of a gaze control device concerning a 3rd embodiment. 3次元頭部姿勢モデルを示す図である。It is a figure which shows a three-dimensional head posture model. 3次元頭部姿勢モデルにおける各平面の頭部回転を示す図である。It is a figure which shows head rotation of each plane in a three-dimensional head posture model. 第3の実施形態に係る視線制御装置に用いる鳥瞰図を示す図である。It is a figure which shows the bird's-eye view used for the eyes | visual_axis control apparatus which concerns on 3rd Embodiment. 目の動作モデルを示す図である。It is a figure which shows the motion model of eyes. 第3の実施形態に係る視線制御装置における頭部姿勢を示す座標と視線方向を示す座標との関係を示す図である。It is a figure which shows the relationship between the coordinate which shows the head attitude | position in the gaze control apparatus which concerns on 3rd Embodiment, and the coordinate which shows a gaze direction. 第3の実施形態に係る視線制御装置において目の決定と追跡を示す図である。It is a figure which shows determination and tracking of eyes in the gaze control apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る視線制御装置においてガボールフィルタにより目と口のコーナーの検出を示す図である。It is a figure which shows the detection of the corner of an eye and an opening | mouth with a Gabor filter in the gaze control apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る視線制御装置の実験結果を示す第1の図である。It is a 1st figure which shows the experimental result of the gaze control apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る視線制御装置の実験結果を示す第2の図である。It is a 2nd figure which shows the experimental result of the gaze control apparatus which concerns on 3rd Embodiment.

以下、本発明の実施の形態を説明する。本発明は多くの異なる形態で実施可能である。従って、本実施形態の記載内容のみで本発明を解釈すべきではない。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。   Embodiments of the present invention will be described below. The present invention can be implemented in many different forms. Therefore, the present invention should not be construed based only on the description of this embodiment. Also, the same reference numerals are given to the same elements throughout the present embodiment.

以下の実施の形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明は方法、及び、コンピュータを動作させるためのプログラムとしても実施できる。また、本発明はハードウェア、ソフトウェア、または、ハードウェア及びソフトウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置、または、磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。   In the following embodiments, the apparatus will be mainly described. However, as is apparent to those skilled in the art, the present invention can also be implemented as a method and a program for operating a computer. In addition, the present invention can be implemented in hardware, software, or hardware and software embodiments. The program can be recorded on any computer-readable medium such as a hard disk, CD-ROM, DVD-ROM, optical storage device, or magnetic storage device. Furthermore, the program can be recorded on another computer via a network.

(本発明の第1の実施形態)
本実施形態に係る視線制御装置について、図1ないし図4を用いて説明する。本実施形態に係る視線制御装置は、視線方向を検出し、検出した視線方向で制御対象物を駆動制御するものである。なお、ここでは、電動車椅子を制御対象物として説明するが、これに限らず、移動体(ロボット等の遠隔操作も含む)等の制御であれば実施することができる。
(First embodiment of the present invention)
A line-of-sight control apparatus according to the present embodiment will be described with reference to FIGS. The line-of-sight control device according to the present embodiment detects a line-of-sight direction and drives and controls a control object in the detected line-of-sight direction. In addition, although an electric wheelchair is demonstrated as a control target object here, not only this but control can be implemented if it is control of a mobile body (including remote operation, such as a robot).

図1は、本実施形態に係る視線制御装置のハードウェア構成図である。図1(A)に示すように、視線制御装置1は、少なくとも利用者の片方の目を撮像する第1のカメラ11と、少なくとも電動車椅子17の前方を撮像する第2のカメラ13と、少なくとも電動車椅子17の前方に超音波を照射する超音波センサ14と、視線方向を決定して電動車椅子17の駆動制御信号を、USBインタフェース15を介して車椅子制御装置16に出力するPC10と、車椅子制御装置16の駆動信号に応じて駆動する電動車椅子17とを備える。   FIG. 1 is a hardware configuration diagram of the line-of-sight control device according to the present embodiment. As shown in FIG. 1 (A), the line-of-sight control device 1 includes at least a first camera 11 that images one eye of the user, a second camera 13 that images at least the front of the electric wheelchair 17, and at least An ultrasonic sensor 14 that irradiates an ultrasonic wave in front of the electric wheelchair 17, a PC 10 that determines a line-of-sight direction and outputs a drive control signal of the electric wheelchair 17 to the wheelchair control device 16 via the USB interface 15, and wheelchair control And an electric wheelchair 17 that is driven according to a drive signal of the device 16.

PC10は、視線方向を検出し、検出した視線方向に対応する駆動指令の信号を出力すると共に、第2のカメラ13が撮像した情報、及び超音波センサ14の情報に基づいて障害物を検知し、駆動指令の信号を出力する。視線方向の検出は第1のカメラ11が撮像した撮像情報に基づいて行うが、ここでは、例えば、上記先行技術文献に示す各文献に記載された方法や下記の第2、第3の実施形態に示す方法等、様々な方法を適用することができる。
なお、図1において、点線で示す構成は必要に応じて備えても備えなくてもよい。
The PC 10 detects the line-of-sight direction, outputs a drive command signal corresponding to the detected line-of-sight direction, and detects an obstacle based on the information captured by the second camera 13 and the information of the ultrasonic sensor 14. The drive command signal is output. The detection of the line-of-sight direction is performed based on the imaging information captured by the first camera 11. Here, for example, the methods described in the respective documents shown in the above prior art documents and the following second and third embodiments are used. Various methods such as the method shown in FIG.
In FIG. 1, the configuration indicated by the dotted line may or may not be provided as necessary.

図1(B)は、各ハードウェアの使用態様を示す。第1のカメラ11と第2のカメラ13とは、利用者のメガネに固定されており、互いに相反する方向を撮像しているため、一方は常時安定して利用者の目を固定箇所で撮像することができ、他方は利用者の目線で前方方向を撮像することができる。なお、それぞれのカメラは必ずしもメガネに固定されなくてもよいが、第1のカメラ11は、利用者の頭部の移動に対応して目を安定的に撮像できる箇所、つまり頭部の一部に固定されてもよく、第2のカメラ13は、電動車椅子17の前方を撮像できる位置であればどこでもよい。また、各ハードウェアは、図示しないが接続線、又は無線により通信可能な状態で接続されている。   FIG. 1B shows how each hardware is used. Since the first camera 11 and the second camera 13 are fixed to the user's glasses and capture images in directions opposite to each other, one of the first camera 11 and the second camera 13 always stably captures the user's eyes at a fixed location. The other can image the forward direction from the user's line of sight. Each camera does not necessarily have to be fixed to the glasses, but the first camera 11 is a part where the eyes can be stably imaged corresponding to the movement of the user's head, that is, a part of the head. The second camera 13 may be anywhere as long as the front of the electric wheelchair 17 can be imaged. Further, although not shown, each hardware is connected in a state where it can communicate with a connection line or wirelessly.

図2は、本実施形態に係る視線制御装置の機能ブロック図である。視線制御部40の機能は、図1におけるPC10が備えるCPU、メモリ、ハードディスク、各種インタフェース等により実現される。視線制御部40は、視線検出部30と動作指令解析部31と対応情報部32と駆動部33と障害物検出部34と瞳孔変化解析部35と対応情報補正部36とを備える。   FIG. 2 is a functional block diagram of the visual line control device according to the present embodiment. The function of the line-of-sight control unit 40 is realized by a CPU, a memory, a hard disk, various interfaces, and the like included in the PC 10 in FIG. The line-of-sight control unit 40 includes a line-of-sight detection unit 30, an operation command analysis unit 31, a correspondence information unit 32, a drive unit 33, an obstacle detection unit 34, a pupil change analysis unit 35, and a correspondence information correction unit 36.

視線検出部30は、上述したように、様々な方法により電動車椅子17の利用者の視線方向を検出する。動作指令解析部31は、視線検出部30が検出した視線方向に対応する車椅子の駆動動作を、対応情報部32に基づいて解析する。ここで、対応情報部32に格納される視線方向と制御対象物の動作指令とを対応付けた対応情報について説明する。   As described above, the line-of-sight detection unit 30 detects the line-of-sight direction of the user of the electric wheelchair 17 by various methods. The operation command analysis unit 31 analyzes the wheelchair driving operation corresponding to the gaze direction detected by the gaze detection unit 30 based on the correspondence information unit 32. Here, the correspondence information in which the line-of-sight direction stored in the correspondence information unit 32 is associated with the operation command of the controlled object will be described.

図3は、本実施形態に係る視線制御装置における対応情報の一例を示す図である。図3(A)の視線方向と図3(B)の動作指令コマンドが対応している。ここでは、視線を下方向に向けた場合に前進加速の動作指令が実行される。車椅子において、前進を始める際には、利用者は安全性を確保するためにどうしても下方向(車椅子の足元等)を注視する傾向にあるため、このような対応付けを行うことでスムーズな操作が可能となる。同様に、右方向、左方向はそれぞれ右折、左折に対応し、正面は前進に対応する。また、それ以外の領域の場合は、停止に対応している。停止の領域を多くすることで停止し易い操作となり、安全性を高めることができる。各視線方向に対応する動作指令コマンドの領域には所定の大きさが設定されており、視線方向がその領域内に検出された状態で動作指令の決定指示が入力されると、その動作指令に応じて電動車椅子が駆動する。   FIG. 3 is a diagram illustrating an example of correspondence information in the visual line control device according to the present embodiment. The line-of-sight direction in FIG. 3A corresponds to the operation command command in FIG. Here, a forward acceleration operation command is executed when the line of sight is directed downward. When starting to move forward in a wheelchair, the user inevitably tends to pay attention to the downward direction (such as the feet of the wheelchair) to ensure safety. It becomes possible. Similarly, the right and left directions correspond to right and left turns, respectively, and the front corresponds to forward movement. In the case of other areas, it corresponds to a stop. By increasing the stop area, the operation can be easily stopped and the safety can be improved. A predetermined size is set in the region of the operation command command corresponding to each line-of-sight direction, and when an instruction to determine the operation command is input with the line-of-sight direction detected within the region, The electric wheelchair is driven accordingly.

なお、動作指令の決定は、2つのモードで行うことができる。一方は、その方向を注視することを決定とするモードである。所定時間ある一定の方向を注視している場合に、その視線方向の動作指令が決定される。他方は、瞬きを検知して決定とするモードである。通常、目の乾燥を防止するために自然に行われる瞬きは0.5秒程度である。したがって、意図的に瞬きしたと判断できる0.7秒程度の瞬きを検知した場合に、その視線方向の動作指令が決定される。   Note that the operation command can be determined in two modes. One is a mode in which it is determined to watch the direction. When a certain direction is being watched for a predetermined time, an operation command in the line-of-sight direction is determined. The other is a mode in which blink is detected and determined. Usually, blinking naturally performed to prevent dry eyes is about 0.5 seconds. Therefore, when a blink of about 0.7 seconds that can be determined to blink intentionally is detected, an operation command in the line-of-sight direction is determined.

図2に戻って、駆動部33は、動作指令解析部33が解析した結果に基づいて、その動作指令を実行するための駆動信号を出力する。障害物検出部34は、第2のカメラ13が撮像した撮像情報を解析して、電動車椅子17の進行方向の障害物を検出すると共に、超音波センサ14から送られる信号に基づいて、電動車椅子17の進行方向の障害物を検出する。特に、画像処理により検出されにくい障害物(例えば、ガラスのような透明体)については、超音波センサ14により検出される。具体的には、超音波センサ14からの信号により障害物との距離を測定し、その距離が所定の値以下(ある距離以上近づいた)の場合に、障害物が検出されたと判断することができる。   Returning to FIG. 2, the drive unit 33 outputs a drive signal for executing the operation command based on the result analyzed by the operation command analysis unit 33. The obstacle detection unit 34 analyzes the imaging information captured by the second camera 13 to detect an obstacle in the traveling direction of the electric wheelchair 17, and based on the signal sent from the ultrasonic sensor 14, the electric wheelchair 17 obstacles in the direction of travel are detected. In particular, an obstacle that is difficult to detect by image processing (for example, a transparent body such as glass) is detected by the ultrasonic sensor 14. Specifically, the distance from the obstacle is measured by a signal from the ultrasonic sensor 14, and it is determined that the obstacle is detected when the distance is equal to or less than a predetermined value (approached a certain distance or more). it can.

瞳孔変化解析部35は、第1のカメラ11が撮像した利用者の目における瞳孔の大きさの変化を解析する。例えば、人の目は驚いた場合に瞳孔が大きく変化する。瞳孔変化解析部35はその変化の度合いを解析し、利用者の周囲の状況(例えば、急な障害物の有無等)を推定する。瞳孔変化解析部35の解析結果に基づく対応には2つのモードがあり、1つは、駆動部33に直接停止の駆動信号を出力し電動車椅子17を停止される。もう1つは、対応情報補正部36が対応情報部32に格納されている対応情報を補正する。補正は、例えば図3の対応情報において、各定義された視線方向の領域を小さくし、停止の動作指令を示す領域を大きくする。そうすることで、電動車椅子17が停止しやすい操作となり安全性を確保することができる。   The pupil change analysis unit 35 analyzes the change in the size of the pupil in the user's eye captured by the first camera 11. For example, when the human eye is surprised, the pupil changes greatly. The pupil change analysis unit 35 analyzes the degree of the change and estimates the situation around the user (for example, the presence or absence of a sudden obstacle). There are two modes for the response based on the analysis result of the pupil change analysis unit 35. One mode outputs a stop driving signal directly to the driving unit 33 and the electric wheelchair 17 is stopped. The other is that the correspondence information correction unit 36 corrects the correspondence information stored in the correspondence information unit 32. In the correction, for example, in the correspondence information of FIG. 3, each defined line-of-sight area is reduced and an area indicating a stop operation command is increased. By doing so, the operation becomes easy for the electric wheelchair 17 to stop, and safety can be ensured.

なお、予め上記に示す2つのモードの一方のみを選択するようにしてもよいし、瞳孔変化解析部35が解析した結果に基づいて、モードの設定を行うようにしてもよい。例えば、瞳孔の変化が大きい場合は、驚きの度合いも大きいと判断できるため、無条件に電動車椅子17を停止するが、瞳孔の変化が小さい場合は、少しの驚きであると判断し、無条件に電動車椅子17を停止するのではなく、対応情報を補正して停止しやすい対応情報に変更してもよい。
また、図2において、点線で示す処理部は必要に応じて備えても備えなくてもよい。
Note that only one of the two modes described above may be selected in advance, or the mode may be set based on the result analyzed by the pupil change analysis unit 35. For example, if the change in the pupil is large, it can be determined that the degree of surprise is also large, so the electric wheelchair 17 is unconditionally stopped, but if the change in the pupil is small, it is determined that there is a little surprise and the unconditional Instead of stopping the electric wheelchair 17, the correspondence information may be corrected and changed to correspondence information that is easy to stop.
In FIG. 2, the processing unit indicated by the dotted line may or may not be provided as necessary.

次に、本実施形態に係る視線制御装置の動作について説明する。図4は、本実施形態に係る視線制御装置の動作を示すフローチャートである。まず、第1のカメラ11で撮像された利用者の目の撮像情報を入力し(S41)、視線方向を検出する(S42)。対応情報を参照して、動作指令を解析する(S43)。解析された動作指令に対応する車椅子の駆動信号を出力する(S44)。第2のカメラ13が撮像した撮像情報から異常の有無を判定する(S45)。異常があれば、車椅子の駆動を停止する駆動信号を出力して(S50)、処理を終了する。異常がなければ、超音波センサからの信号により異常の有無を判定する(S46)。異常があれば、車椅子の駆動を停止する駆動信号を出力して(S50)、処理を終了する。異常がなければ、瞳孔の変化があるかどうかを判定する(S47)。瞳孔の変化がなければ処理を終了する。瞳孔の変化があればモードを判定し(S48)、停止モードである場合は、車椅子の駆動を停止する駆動信号を出力して(S50)、処理を終了する。補正モードである場合は、対応情報を車椅子が停止しやすい情報に補正して(S49)、処理を終了する。
なお、上記処理は車椅子の制御中に常時繰り返して実行され、車椅子の制御を辞めた時点で処理を終了するものである。
Next, the operation of the line-of-sight control device according to this embodiment will be described. FIG. 4 is a flowchart showing the operation of the visual line control device according to the present embodiment. First, the imaging information of the user's eyes captured by the first camera 11 is input (S41), and the line-of-sight direction is detected (S42). The operation command is analyzed with reference to the correspondence information (S43). A wheelchair drive signal corresponding to the analyzed operation command is output (S44). The presence / absence of abnormality is determined from the imaging information captured by the second camera 13 (S45). If there is an abnormality, a drive signal for stopping the drive of the wheelchair is output (S50), and the process is terminated. If there is no abnormality, the presence / absence of abnormality is determined by a signal from the ultrasonic sensor (S46). If there is an abnormality, a drive signal for stopping the drive of the wheelchair is output (S50), and the process is terminated. If there is no abnormality, it is determined whether or not there is a pupil change (S47). If there is no pupil change, the process is terminated. If there is a pupil change, the mode is determined (S48). If the pupil mode is the stop mode, a drive signal for stopping the wheelchair is output (S50), and the process is terminated. If it is in the correction mode, the correspondence information is corrected to information that allows the wheelchair to easily stop (S49), and the process is terminated.
In addition, the said process is always performed repeatedly during control of a wheelchair, and a process is complete | finished when it quits control of a wheelchair.

(本発明の第2の実施形態)
前記第1の実施形態における視線検出部30の視線検出処理について、キャリブレーションなしに、正確な視線検出を行う方法について説明する。キャリブレーションが必要である利用として以下の4つが考えられる。(1)眼球及び角膜形状が複雑(耳側ではなだらかに、鼻側で急峻に角膜曲率半径が大きくなる)なため、角膜の曲率径を測定した程度では角膜面を再現できない、(2)カメラ光学系の歪曲収差、(3)角膜表面における屈折、(4)眼球中心に対する中心窩のずれ。本実施形態に係る視線検出処理においては、キャリブレーションなしに、x方向に0.57deg、y方向に0.98deg程度の誤差で視線方向の検出精度が得られた。
(Second embodiment of the present invention)
With respect to the line-of-sight detection process of the line-of-sight detection unit 30 in the first embodiment, a method for performing accurate line-of-sight detection without calibration will be described. There are four possible uses that require calibration: (1) The shape of the eyeball and cornea is complicated (the corneal curvature radius increases gently on the ear side and steeply on the nose side), so that the corneal surface cannot be reproduced only by measuring the curvature diameter of the cornea. (2) Camera Distortion of the optical system, (3) refraction at the corneal surface, (4) deviation of the fovea from the center of the eyeball. In the line-of-sight detection processing according to the present embodiment, the line-of-sight detection accuracy is obtained with an error of about 0.57 deg in the x direction and 0.98 deg in the y direction without calibration.

視線は中心窩、水晶体(レンズ)の節点、対象点を結ぶ直線であるが、これらの位置特定は困難なため、本実施形態においては角膜曲率中心と瞳孔中心を貫く方向を視線方向として定義する。この定義による視線方向は本来の定義である視線方向とは本質的に異なる。その相違は、眼球半径、角膜曲率等の個人差に依存する。本実施形態では、キャリブレーションを行うことなく、パラメータを正確に取得して演算することで個人差に依存しない相対精度の高い視線方向の検出を実現する。   The line of sight is a straight line connecting the fovea, the node of the lens (lens), and the target point, but it is difficult to specify the position of these, so in this embodiment, the direction through the corneal curvature center and the pupil center is defined as the line of sight . The gaze direction according to this definition is essentially different from the gaze direction that is the original definition. The difference depends on individual differences such as eyeball radius and corneal curvature. In this embodiment, it is possible to detect the direction of the line of sight with high relative accuracy without depending on individual differences by accurately obtaining and calculating parameters without performing calibration.

本実施形態に係る視線制御装置における視線検出部の処理について、図5ないし図18を用いて説明する。図5は、本実施形態に係る視線制御装置のハードウェア構成図である。図5(A)に示すように、視線制御装置1は、少なくとも利用者の片方の目を撮像するカメラ11と、複数の光源12と、カメラ11、及び光源12に基づいて視線方向を演算して決定するPC10とを備える。カメラ11と光源12は、図5(B)に示すように一体的であってもよい。図5(B)において、レンズ11aを中心として複数のNIR(Near InfraRed:近赤外)LED11bが備えられており、LED11bの照射光によりプルキニエ像を作り出す。PC10では、プルキニエ像から角膜曲率中心を算出し、算出した角膜曲率中心と瞳孔中心とを結ぶ直線を視線方向として決定する。   Processing of the line-of-sight detection unit in the line-of-sight control device according to the present embodiment will be described with reference to FIGS. FIG. 5 is a hardware configuration diagram of the line-of-sight control device according to the present embodiment. As shown in FIG. 5A, the line-of-sight control device 1 calculates the line-of-sight direction based on at least the camera 11 that captures one eye of the user, the plurality of light sources 12, the camera 11, and the light source 12. PC 10 to be determined. The camera 11 and the light source 12 may be integrated as shown in FIG. In FIG. 5B, a plurality of NIR (Near InfraRed) LEDs 11b are provided centering on a lens 11a, and a Purkinje image is created by the irradiation light of the LEDs 11b. In the PC 10, the corneal curvature center is calculated from the Purkinje image, and a straight line connecting the calculated corneal curvature center and the pupil center is determined as the viewing direction.

なお、ここでは必要最小限の構成のみを記載しているが、例えば前記第1の実施形態に示す電動車椅子の制御に用いる場合には、図1のハードウェア構成に光源12が追加されたものとなる。また、図5に示す視線制御装置1を、視線方向を検出する機能のみを有する視線検出装置として捉えてもよい。   Although only the minimum necessary configuration is described here, for example, when used for controlling the electric wheelchair shown in the first embodiment, the light source 12 is added to the hardware configuration of FIG. It becomes. Further, the line-of-sight control device 1 shown in FIG. 5 may be regarded as a line-of-sight detection device having only a function of detecting the direction of the line of sight.

図6は、本実施形態に係る視線制御装置における視線検出部の機能ブロック図である。視線検出部30の機能は、図5におけるPC10が備えるCPU、メモリ、ハードディスク、各種インタフェース等により実現される。視線検出部30は、入力部21とプルキニエ像取得部22と角膜曲率半径算出部23と角膜曲率中心算出部24と瞳孔中心算出部25と視線方向決定部26とを備える。   FIG. 6 is a functional block diagram of a line-of-sight detection unit in the line-of-sight control device according to the present embodiment. The function of the line-of-sight detection unit 30 is realized by a CPU, a memory, a hard disk, various interfaces, and the like included in the PC 10 in FIG. The line-of-sight detection unit 30 includes an input unit 21, a Purkinje image acquisition unit 22, a corneal curvature radius calculation unit 23, a corneal curvature center calculation unit 24, a pupil center calculation unit 25, and a line-of-sight direction determination unit 26.

入力部21は、カメラ11で撮像された目の画像を入力する。プルキニエ像取得部22は、入力された目の画像からプルキニエ像を取得する。角膜曲率半径算出部23は、取得したプルキニエ像を利用して角膜曲率半径を算出する。ここで、プルキニエ像取得部22、及び角膜曲率半径算出部12の処理について説明する。   The input unit 21 inputs an eye image captured by the camera 11. The Purkinje image acquisition unit 22 acquires a Purkinje image from the input eye image. The corneal curvature radius calculation unit 23 calculates the corneal curvature radius using the acquired Purkinje image. Here, processing of the Purkinje image acquisition unit 22 and the corneal curvature radius calculation unit 12 will be described.

図7は、本実施形態に係る視線制御装置における光源、カメラ、及び目の幾何学的な関係を示す図である。角膜曲率推定に用いるプルキニエ像はそれが現れる場所によって第1から第4まで存在する。第1プルキニエ像は角膜前面における反射であり、以下角膜後面、水晶体前面、水晶体後面における反射を第2から第4プルキニエ像と呼ぶ。これらのうち、最も反射光量の大きいプルキニエ像は第1プルキニエ像である。そこで、本実施形態においては、2つの光源からの2つの最も反射光量の大きな第1プルキニエ像を用いる。図7に示すように2つの光源からの角膜表面における反射像(以下、これを単にプルキニエ像と表記する)は、光源位置、角膜曲率中心、カメラ光学系開口中心のなす角を2等分する直線上の角膜表面に位置する。したがって、次式により角膜曲率半径rEを表すことができる。 FIG. 7 is a diagram illustrating a geometric relationship between the light source, the camera, and the eyes in the visual line control device according to the present embodiment. There are first to fourth Purkinje images used for corneal curvature estimation, depending on where they appear. The first Purkinje image is a reflection on the front surface of the cornea, and the reflection on the rear surface of the cornea, the front surface of the lens, and the rear surface of the lens is hereinafter referred to as second to fourth Purkinje images. Among these, the Purkinje image having the largest amount of reflected light is the first Purkinje image. Therefore, in the present embodiment, two first Purkinje images having the largest amount of reflected light from the two light sources are used. As shown in FIG. 7, a reflection image on the cornea surface from two light sources (hereinafter simply referred to as a Purkinje image) bisects the angle formed by the light source position, the corneal curvature center, and the camera optical system aperture center. Located on a straight corneal surface. Therefore, the corneal curvature radius r E can be expressed by the following equation.

Lは光源間の距離、Hはカメラと眼球間の距離、gは2つの光源に対応するプルキニエ像間の距離である。 L is the distance between the light sources, H is the distance between the camera and the eyeball, and g is the distance between the Purkinje images corresponding to the two light sources.

これら光源間距離、カメラと眼球間の距離は設定値であり、2つのプルキニエ像間の距離はカメラにて取得する眼球周辺画像から計測する。したがって、角膜曲率半径は推定できる。また、L、H、gの設定、及び計測値から角膜曲率中心位置も推定可能である。このとき、L、Hは設定値であり、角膜曲率半径、及び中心位置の推定精度はその設定値からのずれ、及びgの計測誤差に依存する。Lは設定値からのずれが些少であるが、Hは利用者の頭部の前後移動によって変化する可能性が高い。式(1)から利用者の頭部の前後移動に比例して角膜曲率半径が変化することが分かる。   The distance between the light sources and the distance between the camera and the eyeball are set values, and the distance between the two Purkinje images is measured from an eyeball peripheral image acquired by the camera. Therefore, the corneal curvature radius can be estimated. Further, the center position of the corneal curvature can be estimated from the settings of L, H, and g and the measured values. At this time, L and H are set values, and the estimation accuracy of the corneal curvature radius and the center position depends on the deviation from the set values and the measurement error of g. Although L is slightly different from the set value, H is highly likely to change due to the back and forth movement of the user's head. From equation (1), it can be seen that the corneal curvature radius changes in proportion to the back-and-forth movement of the user's head.

次にgの推定誤差要因について検討する。図8は、本実施形態に係る視線制御装置において2つの光源に対応するプルキニエ像の一例を示す図である。プルキニエ像は角膜表面に複数結像するため、これらの中から2つの光源に対応する第1プルキニエ像のみを抽出する。まず、プルキニエ像はその周囲に比較して反射輝度が高いため(図8(A)を参照)、取得画像中の高輝度を示す画素を抽出し、第1プルキニエ像の候補とする(図8(B)を参照)。図8の例では4つの候補が抽出される。第1プルキニエ像は瞳孔付近に存在するので、瞳孔に最も近い位置に存在する2つのプルキニエ候補を抽出し、2つの光源に対応する2つの第1プルキニエ像とする(図8(C)を参照)。当該2つの第1プルキニエ像の画素重心をそれぞれ求め、当該重心間距離をもって2つの第1プルキニエ像間距離gとする(図8(D)を参照)。図8(D)における+印は推定した2つの第1プルキニエ像の重心位置を示す。   Next, the estimation error factor of g is examined. FIG. 8 is a diagram illustrating an example of a Purkinje image corresponding to two light sources in the visual line control device according to the present embodiment. Since a plurality of Purkinje images are formed on the corneal surface, only the first Purkinje images corresponding to two light sources are extracted from these. First, since the Purkinje image has a higher reflection luminance than the surrounding area (see FIG. 8A), pixels indicating high luminance in the acquired image are extracted and set as candidates for the first Purkinje image (FIG. 8). (See (B)). In the example of FIG. 8, four candidates are extracted. Since the first Purkinje image exists in the vicinity of the pupil, two Purkinje candidates existing at the position closest to the pupil are extracted and set as two first Purkinje images corresponding to the two light sources (see FIG. 8C). ). The pixel centroids of the two first Purkinje images are obtained, and the distance between the centroids is set as the distance between the two first Purkinje images g (see FIG. 8D). In FIG. 8D, the + mark indicates the position of the center of gravity of the two estimated first Purkinje images.

図6に戻って、瞳孔中心算出部25は、瞳孔中心を算出する。以下に、その算出方法について説明する。まず、瞳孔は楕円であると仮定する。瞳孔の中心座標を求めるために瞳孔領域を楕円で近似することにより、その楕円の中心を瞳孔の中心座標とする。瞳孔領域を楕円で近似するための手順を以下に示す。
(1)以下に示す暗瞳孔法により、仮の瞳孔領域を抽出する。
(2)仮瞳孔領域に対して、k平均法クラスタリング(宮本定明「クラスター分析入門ファジィクラスタリングの理論と応用」森北出版株式会社、1999を参照)により、余分部分(個体数の少ないクラスタ)を除去する。
(3)余分部分除去後の領域からエッジを抽出する。
(4)当該エッジに対して、楕円の性質を利用した方法により、瞳孔輪郭サンプル点を抽出する。
(5)瞳孔輪郭サンプル点に対して、最小二乗法により楕円近似を行う。
(6)楕円の中心座標を、瞳孔中心座標とする。
Returning to FIG. 6, the pupil center calculation unit 25 calculates the pupil center. The calculation method will be described below. First, assume that the pupil is an ellipse. By approximating the pupil region with an ellipse to obtain the center coordinates of the pupil, the center of the ellipse is set as the center coordinate of the pupil. The procedure for approximating the pupil region with an ellipse is shown below.
(1) A temporary pupil region is extracted by the dark pupil method shown below.
(2) For the temporary pupil region, k-means clustering (Sadaaki Miyamoto, “Theory and Application of Fuzzy Clustering for Cluster Analysis”, Morikita Publishing Co., Ltd., 1999) is used to remove extra parts (clusters with a small number of individuals). Remove.
(3) An edge is extracted from the area after the excess portion is removed.
(4) A pupil contour sample point is extracted from the edge by a method using the property of an ellipse.
(5) Ellipse approximation is performed on the pupil contour sample points by the method of least squares.
(6) The center coordinates of the ellipse are the pupil center coordinates.

ここで暗瞳孔法について説明する。図9は、暗瞳孔法、及び明瞳孔法の処理を示す図である。図9(A)に示す暗瞳孔とは、カメラのレンズ光軸から離れた位置に照明器を設置して眼球を照明すると、照明された眼球の瞳孔部分は光の反射がなくなり、カメラでとらえられた眼球画像の瞳孔部分は暗くなるという性質を利用したもので、画像処理でこの暗い部分を抽出する。逆に図9(B)に示す明瞳孔法とは、カメラのレンズ光軸と照明の光軸を同軸にして眼球を照明すると、網膜上の光の反射により、カメラでとらえた眼球の瞳孔部分は常に明るくなる。これを利用して、画像処理でこの明るい部分を抽出する方法である。本実施形態においては、カメラのレンズ光軸と照明器の位置が離れているので、暗瞳孔法を用いて瞳孔領域を抽出する。   Here, the dark pupil method will be described. FIG. 9 is a diagram illustrating processing of the dark pupil method and the bright pupil method. The dark pupil shown in FIG. 9A means that when an illuminator is installed at a position away from the lens optical axis of the camera to illuminate the eyeball, the pupil part of the illuminated eyeball loses light reflection and is captured by the camera. The pupil part of the obtained eyeball image utilizes the property that it becomes dark, and this dark part is extracted by image processing. Conversely, the bright pupil method shown in FIG. 9B is that when the eyeball is illuminated with the lens optical axis of the camera and the optical axis of the illumination being coaxial, the pupil portion of the eyeball captured by the camera is reflected by reflection of light on the retina. Will always be brighter. This is a method of extracting this bright part by image processing using this. In this embodiment, since the lens optical axis of the camera is away from the position of the illuminator, the pupil region is extracted using the dark pupil method.

暗瞳孔法により得られた瞳孔領域には、瞳孔以外に睫毛、髪、眉毛など余計なものが含まれている。そのため、瞳孔領域以外の余計なものを取り除く必要がある。この方法に抽出領域の膨張・縮小処理を用いる。膨張・縮小処理は、モルフォロジーに基づいた方法を用いる。モルフォロジーは、与えられた2値画像、又は濃淡画像に対して、集合論的操作を加えることにより図形の変形を行い、特徴を抽出することを目的とするものである。処理対象画像と構造要素との間の集合演算で定義されるため、構造要素の選び方により演算結果が変化する。膨張・縮小処理を行うことにより、瞳孔部分を抽出するとともに、余分な部分の削除を行う。   The pupil region obtained by the dark pupil method includes extra items such as eyelashes, hair, and eyebrows in addition to the pupil. Therefore, it is necessary to remove extraneous matters other than the pupil region. This method uses expansion / reduction processing of the extraction region. The expansion / reduction process uses a method based on morphology. The purpose of the morphology is to extract a feature by deforming a figure by applying a set-theoretic operation to a given binary image or grayscale image. Since it is defined by a set operation between the processing target image and the structural element, the operation result changes depending on how the structural element is selected. By performing dilation / reduction processing, the pupil portion is extracted and the extra portion is deleted.

次に、仮瞳孔領域に対してラベリング処理を行う。ラベリングによって抽出された各領域の大きさを比較することができる。一定の大きさ以下の領域を除去することによってノイズを除去する。ラベリング処理とは、連結している各画素に同じラベル(番号)をつけることであり、いくつかのまとまった領域をグループとして分類することである。ここでは、4近傍によるラベリング処理を選択する。画像上でラベルが付加されていない画素(x;y)を見つけ、新しいラベルをつける。次に、該当画素(x;y)の4方向に連結している画素に同じラベルをつける。その後、新たにラベルが付けられた画素に対して同様な処理を行う。これを画像全体で行うことにより、すべての独立領域にラベルが付けられる。
ラベリング処理後の抽出領域の輪郭形状は種々のものがあり、これらの中から次式で定義する円形度により、抽出領域を選別する。
Next, a labeling process is performed on the temporary pupil region. The size of each area extracted by labeling can be compared. Noise is removed by removing regions below a certain size. The labeling process is to attach the same label (number) to each connected pixel, and to classify several groups of areas as a group. Here, a labeling process based on four neighborhoods is selected. Find an unlabeled pixel (x; y) on the image and add a new label. Next, the same label is attached to the pixels connected in the four directions of the corresponding pixel (x; y). Thereafter, similar processing is performed on the newly labeled pixels. By doing this for the entire image, all independent regions are labeled.
There are various contour shapes of the extraction region after the labeling process, and the extraction region is selected from these according to the circularity defined by the following equation.

ここでCは円形度、Aは抽出領域の面積、Lは周囲長である。 Here, C is the circularity, A is the area of the extraction region, and L is the perimeter.

瞳孔は楕円であることを仮定していることから、瞳孔領域は円形度が高い特徴を持つ。そこで、一定の円形度以下の抽出領域を除去する。このようにして瞳孔に相当する領域が残されるようになる(これを仮瞳孔領域と呼ぶ)。当該仮瞳孔領域の楕円サンプル点を次に抽出する。すなわち、抽出瞳孔領域には、照明の映り込みや、瞳孔の上下部分が瞼で隠れ欠損しているため、正確に瞳孔を抽出できていない可能性がある。そのため、仮瞳孔領域からエッジを検出することにより、最小自乗の意味において最適な楕円を近似する。このとき、瞳孔輪郭上の点以外を用いて計算すると正確な楕円輪郭でない点による近似楕円となってしまう。これを回避するため、以下に示す楕円の性質を用いて、瞳孔楕円上に存在する点のみを抽出する。   Since it is assumed that the pupil is an ellipse, the pupil region has a characteristic of high circularity. Therefore, an extraction region having a certain circularity or less is removed. In this way, a region corresponding to the pupil is left (this is called a temporary pupil region). Next, the elliptical sample points of the temporary pupil region are extracted. That is, in the extracted pupil region, there is a possibility that the pupil cannot be extracted accurately because the illumination is reflected or the upper and lower portions of the pupil are hidden and missing. Therefore, an optimum ellipse is approximated in the sense of least squares by detecting an edge from the provisional pupil region. At this time, if calculation is performed using points other than the points on the pupil contour, an approximate ellipse is formed by a point that is not an accurate ellipse contour. In order to avoid this, only the points existing on the pupil ellipse are extracted using the ellipse properties shown below.

図10は、楕円の特徴パラメータを示す図である。直線l、m、nは平行でかつ、l、nはmから等距離に存在する。楕円と直線lとの交点をa、bとし、楕円と直線nとの交点をc、dとする。楕円と直線mの交点の中点をoとする。a、bの中点とc、dの中点を結ぶ線の中点をo’とすると、o’はoと重なるという性質がある。仮瞳孔領域について、その中央に引いた直線mから等距離にあるN個の平行線の組のoi'(i=1/N)に当たる点を求める。求められた点は、直線mの上に分布する。ノイズが十分少ないときは、最も多くの点o’が集まった位置がoの位置に相当する。その位置から離れている点は、楕円の軌跡上にない点を含んでいることになるので、それらを除外する。oに十分近いoi'を持つ点ai; bi; ci; diは、楕円の軌跡上の点なので、それらを用いることにより、正確な瞳孔輪郭の楕円近似を行うことができる。エッジ検出には、Cannyフィルタ(J.Canny: A Computational Approach to Edge Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, .8, 6, .679-698, 1986. を参照)を使用する。   FIG. 10 is a diagram showing the feature parameters of the ellipse. The straight lines l, m, and n are parallel and l and n are equidistant from m. Intersections between the ellipse and the straight line l are a and b, and intersections between the ellipse and the straight line n are c and d. Let o be the midpoint of the intersection of the ellipse and the straight line m. If the middle point of the line connecting the middle points of a and b and the middle points of c and d is defined as o ', o' has a property that it overlaps o. For the temporary pupil region, a point corresponding to oi ′ (i = 1 / N) of a set of N parallel lines equidistant from the straight line m drawn at the center thereof is obtained. The obtained points are distributed on the straight line m. When the noise is sufficiently low, the position where the most points o 'are collected corresponds to the position o. Points that are away from the position include points that are not on the locus of the ellipse, so they are excluded. bi; ci; di are points on the locus of the ellipse, and therefore, using them, an accurate elliptical approximation of the pupil contour can be performed. For the edge detection, a Canny filter (see J. Canny: A Computational Approach to Edge Detection, IEEE Trans. Pattern Analysis and Machine Intelligence, .8, 6, .679-698, 1986.) is used.

瞳孔楕円サンプル点から楕円を近似するため、図11の楕円パラメータを定義する。これらパラメータは下記の式(3)−(7)により定義できる。これらは取得データに観測ノイズが無視できる場合の式であるが、現実にはノイズが重畳している。しかし、多くの観測瞳孔楕円サンプル点データ(Xi,Yi)を用いて最小二乗法を適用することにより瞳孔輪郭を導出する。   In order to approximate an ellipse from pupil ellipse sample points, the ellipse parameters in FIG. 11 are defined. These parameters can be defined by the following equations (3)-(7). These are equations when the observed noise can be ignored in the acquired data, but in reality the noise is superimposed. However, the pupil contour is derived by applying the least square method using a large number of observation pupil ellipse sample point data (Xi, Yi).

ここで、最小二乗法を適用するために、 Here, in order to apply the least squares method,

のように行列形式にて表現し、MoorePenrose一般逆行列(新井康平、応用線形代数、近代科学社、2006.を参照)を適用してA、B、C、D、Eを求める。 A, B, C, D, and E are obtained by applying the Moore Penrose general inverse matrix (see Kohei Arai, Applied Linear Algebra, Modern Science Co., 2006.).

上記一連の処理の流れを図12に示す。図12は、本実施形態に係る視線検出装置における目のイメージに基づく楕円近似の方法を示す図である。図12(A)が取得した目の画像、図12(B)が2値化した画像、図12(C)がノイズを除去した画像、図12(D)がエッジを検出した画像、図12(E)がサンプル点を抽出した画像、図12(F)が近似された楕円面の画像である。   FIG. 12 shows the flow of the above series of processing. FIG. 12 is a diagram illustrating an ellipse approximation method based on an eye image in the visual line detection device according to the present embodiment. 12A is an acquired eye image, FIG. 12B is a binarized image, FIG. 12C is a noise-removed image, FIG. 12D is an edge-detected image, and FIG. (E) is an image obtained by extracting sample points, and FIG. 12 (F) is an image of an approximated ellipsoid.

図6に戻って、角膜曲率中心算出部24は、角膜曲率半径算出部23が算出した角膜曲率半径に基づいて、角膜曲率の中心を算出する。ここで、角膜曲率中心算出部24の処理について説明する。   Returning to FIG. 6, the corneal curvature center calculator 24 calculates the center of the corneal curvature based on the corneal curvature radius calculated by the corneal curvature radius calculator 23. Here, the process of the corneal curvature center calculation unit 24 will be described.

図13は、本実施形態に係る視線検出装置における光源、目、角膜の位置関係を示す図である。角膜曲率半径算出部23で得られた角膜曲率半径を利用して、図13に示す光源、眼球、カメラの位置関係より、角膜曲率中心を求める。角膜曲率中心は、カメラ、プルキニエ像、光源を結ぶ二等分線上に存在することから、次式より求める。本実施形態においては光源を2つ用いているため、プルキニエ像は2つ得ることができる。   FIG. 13 is a diagram illustrating a positional relationship between the light source, the eyes, and the cornea in the visual line detection device according to the present embodiment. Using the corneal curvature radius obtained by the corneal curvature radius calculation unit 23, the corneal curvature center is obtained from the positional relationship of the light source, eyeball, and camera shown in FIG. Since the corneal curvature center exists on the bisector connecting the camera, the Purkinje image, and the light source, it is obtained from the following equation. Since two light sources are used in this embodiment, two Purkinje images can be obtained.

図6に戻って、視線方向決定部26は、角膜曲率中心算出部24が算出した角膜曲率中心と、瞳孔中心算出部25が算出した瞳孔中心に基づいて、視線方向を決定する。この視線方向決定部26の処理について説明する。   Returning to FIG. 6, the gaze direction determination unit 26 determines the gaze direction based on the corneal curvature center calculated by the corneal curvature center calculation unit 24 and the pupil center calculated by the pupil center calculation unit 25. The processing of the line-of-sight direction determination unit 26 will be described.

ここでは、角膜曲率中心と瞳孔中心の2点を通るベクトルを視線ベクトルとし、ディスプレイ上の注視点を算出する。カメラ位置を(0,0,0)とし、カメラにより撮像された画像の中心座標を(0,0,z)とした。視線ベクトルをv=(xv;yv;zv)とすると、今回、カメラ、照明、ディスプレイは固定されており、z軸方向の距離がわかる。眼球とディスプレイの距離をzh とすると、ディスプレイ上の注視点座標t=(xt;yt)は、次式により求めることができる。   Here, a vector passing through two points of the corneal curvature center and the pupil center is set as the line-of-sight vector, and the gaze point on the display is calculated. The camera position is (0, 0, 0), and the center coordinates of the image captured by the camera are (0, 0, z). Assuming that the line-of-sight vector is v = (xv; yv; zv), the camera, illumination, and display are fixed at this time, and the distance in the z-axis direction is known. Assuming that the distance between the eyeball and the display is zh, the gaze point coordinate t = (xt; yt) on the display can be obtained by the following equation.

次に、本実施形態に係る視線制御装置における視線検出部の動作について説明する。図14は、本実施形態に係る視線制御装置における視線検出部の動作を示すフローチャートである。まず、カメラ11で撮像された目の撮像情報を入力し(S141)、プルキニエ像を取得する(S142)。取得したプルキニエ像から角膜曲率半径を算出する(S143)。瞳孔中心を算出し(S144)、角膜曲率半径から角膜曲率中心を算出する(S145)。瞳孔中心と角膜曲率中心から視線方向を算出し(S146)、視線方向から注視点を求めて(S147)、視線検出部の処理を終了する。   Next, the operation of the line-of-sight detection unit in the line-of-sight control device according to the present embodiment will be described. FIG. 14 is a flowchart showing the operation of the line-of-sight detection unit in the line-of-sight control device according to the present embodiment. First, the imaging information of the eyes imaged by the camera 11 is input (S141), and a Purkinje image is acquired (S142). A corneal curvature radius is calculated from the acquired Purkinje image (S143). The center of the pupil is calculated (S144), and the corneal curvature center is calculated from the corneal curvature radius (S145). The line-of-sight direction is calculated from the pupil center and the corneal curvature center (S146), the gaze point is obtained from the line-of-sight direction (S147), and the process of the line-of-sight detection unit is terminated.

以下、本実施形態に係る視線制御装置を用いた実験について説明する。測定機材は以下のものを使用する。
カメラ:130万画素の赤外カメラ
PC:CPU1.6GHz、メモリ1GB
赤外投光機:赤外線LED48個、波長850nm
これらの機材を図15のように設置する。
Hereinafter, an experiment using the visual line control device according to the present embodiment will be described. Use the following measuring equipment.
Camera: 1.3 million pixel infrared camera PC: CPU 1.6 GHz, memory 1 GB
Infrared projector: 48 infrared LEDs, wavelength 850nm
These equipments are installed as shown in FIG.

本実験においては、L=1000mm、HC=670mm、HT=150mm、HD=380mmとした。また、視線計測の際にカメラから取得した画像は、動画保存し、この動画を用いて精度検証を行った。   In this experiment, L = 1000 mm, HC = 670 mm, HT = 150 mm, and HD = 380 mm. Moreover, the image acquired from the camera at the time of gaze measurement was saved as a moving image, and the accuracy was verified using this moving image.

(1)角膜半径計測実験
図16は、本実施形態に係る視線制御装置において角膜半径の計測結果を示すグラフである。図中のスパイクはプルキニエ像の誤検出によるものであり、これらは角膜半径の計測から除外できる。また、図中の2本のラインは、頭部がディスプレイ方向に±1.0cmの移動があった場合に考えられる角膜曲率半径推定値の最大誤差である。このライン間に角膜曲率半径の真値があることを示す。実際の眼球回転角度推定に使う角膜曲率半径の推定値は、エッジ部分を除いた角膜曲率半径推定値の平均を使用する。この結果より、角膜曲率半径の値をR=7.92mmとする。
(1) Corneal Radius Measurement Experiment FIG. 16 is a graph showing a measurement result of the corneal radius in the line-of-sight control device according to the present embodiment. The spikes in the figure are due to false detection of Purkinje images, and these can be excluded from the measurement of the corneal radius. In addition, two lines in the figure are maximum errors in the estimated value of the corneal curvature radius that can be considered when the head moves ± 1.0 cm in the display direction. It shows that there is a true value of the corneal curvature radius between these lines. The average value of the corneal curvature radius excluding the edge portion is used as the estimated value of the corneal curvature radius used for the actual eyeball rotation angle estimation. From this result, the value of the corneal curvature radius is set to R = 7.92 mm.

(2)眼球回転角度測定実験
眼球角度検出精度確認実験では、頭部を簡易に固定した状態で、図17に示すディスプレイ上に表示された5個の指標を順次見ることで、その推定精度の確認を行った。図18(A)は、角膜曲率半径の異なる眼球角度検出に対する推定結果である。このとき、角膜曲率半径をR=7.92mmとした場合、Δxy=1.128である。測定された角膜曲率半径の付近が、最も眼球回転角度検出精度が高い。よって、角膜曲率半径の標準値を使うよりも、測定した角膜曲率半径を使用した方が眼球回転角度検出精度が向上(安定)することが確認できる。
(2) Eyeball rotation angle measurement experiment In the eyeball angle detection accuracy confirmation experiment, the estimated accuracy of the eyeball angle detection accuracy is confirmed by sequentially looking at the five indices displayed on the display shown in FIG. Confirmed. FIG. 18A shows estimation results for eyeball angle detection with different corneal curvature radii. At this time, when the radius of curvature of the cornea is R = 7.92 mm, Δxy = 1.128. Near the measured corneal curvature radius, the eyeball rotation angle detection accuracy is the highest. Therefore, it can be confirmed that the use of the measured corneal curvature radius improves (stabilizes) the eyeball rotation angle detection rather than using the standard value of the corneal curvature radius.

また、頭部平行移動、及び回転による実測の視線推定結果の変化について調べた。図18(B)〜図18(F)にその結果を示す。ここでは、x、y、zの各方向への移動、及び回転(y,z軸周り)をそれぞれ調べた。図18(B)においては、x方向の頭部移動により発生した誤差は、x方向にのみ影響を与えることがわかる。同様に図18(C)及び(D)では、y,z方向の頭部移動により発生した誤差は、y,z方向にのみ影響を与えることが分かる。この原因は、奥行きを定数として与えているためであり、これを解決するには、頭部とカメラ間の距離がリアルタイムで測定できればよい。図18(E)を見ると、ロール方向への頭部回転は推定精度に大きな低下が見られる。また、図18(F)では、ヨー方向への頭部回転は、ある一定の範囲においては、推定精度に頭部回転の影響を見られず、ある範囲を超えると推定精度に大きな低下が見られた。これは、耳側ではなだらかに、鼻側で急峻に角膜曲率半径が大きくなるという人間の角膜形状に起因していると考えられる。角膜曲率半径の測定では、角膜曲率中心部から3.0〜5.0mmの範囲で測定しているため、これを超えた場合に大きな精度低下が発生していると思われる。   In addition, changes in the gaze estimation result of actual measurement due to translation and rotation of the head were examined. FIG. 18B to FIG. 18F show the results. Here, movement in each direction of x, y, and z and rotation (around the y and z axes) were examined. In FIG. 18B, it can be seen that the error caused by the head movement in the x direction affects only the x direction. Similarly, in FIGS. 18C and 18D, it can be seen that an error caused by head movement in the y and z directions affects only the y and z directions. This is because the depth is given as a constant. To solve this, the distance between the head and the camera need only be measured in real time. As shown in FIG. 18E, the head rotation in the roll direction shows a large decrease in estimation accuracy. Further, in FIG. 18F, the head rotation in the yaw direction does not show the effect of the head rotation on the estimation accuracy within a certain range, and if the range exceeds a certain range, the estimation accuracy greatly decreases. It was. This is considered to be due to the human cornea shape in which the radius of curvature of the cornea gradually increases on the nose side and sharply on the nose side. In the measurement of the radius of curvature of the cornea, since measurement is performed within a range of 3.0 to 5.0 mm from the central portion of the cornea curvature, it is considered that a large accuracy drop occurs when the radius exceeds this.

ピッチ方向への頭部回転による推定精度への影響は、頭部の下向きの回転は、睫毛の影響が大きくなるため、瞳孔検出が困難になり(計測不能)、頭部の上向きの回転は、睫毛の影響が少なくなるため、瞳孔検出精度が向上するとの結果が得られている。このことから、測定時のカメラ位置は、頭部を見上げるような形で設置することが望ましい。本実施形態に係る視線検出装置においては、結果として、個人キャリブレーション無しにx方向に0.57deg、y方向に0.98deg程度の誤差で眼球回転角度推定精度が得られた。   The effect of the head rotation in the pitch direction on the estimation accuracy is that the downward rotation of the head increases the effect of eyelashes, making it difficult to detect pupils (measurement is impossible). Since the influence of eyelashes is reduced, the result that the pupil detection accuracy is improved is obtained. For this reason, it is desirable that the camera position at the time of measurement is installed so as to look up at the head. As a result, in the eye gaze detection apparatus according to the present embodiment, the eyeball rotation angle estimation accuracy is obtained with an error of about 0.57 deg in the x direction and 0.98 deg in the y direction without personal calibration.

(本発明の第3の実施形態)
前記第1の実施形態における図1(B)では利用者のメガネにカメラを固定することとしたが、必ずしも利用者の一部(特に頭部)に固定しなくてもよい。その場合、利用者の頭部の動きによる視線方向の検出誤差を防止するために、頭部の姿勢を特定して視線方向の誤差を修正することも可能である。本実施形態においては、利用者の頭部が移動した場合であっても、視線方向を正確に検出する検出方法について説明する。
(Third embodiment of the present invention)
Although the camera is fixed to the user's glasses in FIG. 1B in the first embodiment, it is not always necessary to fix the camera to a part of the user (particularly the head). In this case, in order to prevent a detection error in the gaze direction due to the movement of the user's head, it is possible to specify the posture of the head and correct the gaze direction error. In the present embodiment, a detection method for accurately detecting the gaze direction even when the user's head has moved will be described.

例えば、頭部の形状、目、角膜の位置検出のため、両目の両端、口の両端を取得画像から抽出する。目、及び口の両端から目、及び口の中心位置を決定し、両目、口の中心位置から定義される三角形の法線をもって頭部の姿勢を定義する。このとき、両目中心位置の中点に法線の基点を設定する。頭部の回転中心位置とカメラ位置との関係、及び頭部回転中心と定義した三角形との幾何学的関係から、視線方向の誤差を修正することができる。   For example, both ends of both eyes and both ends of the mouth are extracted from the acquired image in order to detect the shape of the head, the eyes, and the cornea. The center positions of the eyes and the mouth are determined from both ends of the eyes and the mouth, and the posture of the head is defined by the normal of the triangle defined from the center positions of both eyes and the mouth. At this time, the base point of the normal line is set at the midpoint of the center position of both eyes. From the relationship between the rotation center position of the head and the camera position and the geometric relationship between the head rotation center and the defined triangle, it is possible to correct the error in the line-of-sight direction.

本実施形態に係る視線制御装置のハードウェア構成は、図1と同じであるため省略する。ただし、第1のカメラ11の位置は、メガネや頭部に固定する必要がなく、例えば電動車椅子17に固定されてもよい。   The hardware configuration of the visual line control device according to the present embodiment is the same as that in FIG. However, the position of the first camera 11 does not need to be fixed to the glasses or the head, and may be fixed to the electric wheelchair 17, for example.

図19は、本実施形態に係る視線制御装置の機能ブロック図である。図2と異なるのは、頭部姿勢検出部37を新たに備えることである。頭部姿勢検出部37は、第1のカメラ11が撮像した顔画像を用いて、複数の顔特徴の任意の点が形成する平面の法線を求め、その法線方向を頭部姿勢として求める。視線検出部30は、頭部視線検出部37が検出した頭部姿勢を考慮して視線方向の検出を行う。その他の処理部については、図2の場合と同じである。   FIG. 19 is a functional block diagram of the visual line control device according to the present embodiment. The difference from FIG. 2 is that a head posture detection unit 37 is newly provided. The head posture detection unit 37 uses the face image captured by the first camera 11 to obtain a normal line of a plane formed by arbitrary points of a plurality of facial features, and obtains the normal direction as the head posture. . The gaze detection unit 30 detects the gaze direction in consideration of the head posture detected by the head gaze detection unit 37. Other processing units are the same as those in FIG.

本実施形態に係る視線制御装置においては、頭部姿勢を検出するために、3次元頭部姿勢モデルを用いる。3次元頭部姿勢モデルは、2次元の顔特徴から3次元頭部姿勢の変換に使用される。ここでは、目、まゆ、鼻、口のような顔の特徴が利用される。頭部はXY、XZ、YZ平面で作られる。頭部姿勢はそれぞれの平面における回転角度θで定義される。このモデルを使うことで、3次元頭部姿勢を2次元画像のみで表現することができる。   In the visual line control device according to the present embodiment, a three-dimensional head posture model is used to detect the head posture. The three-dimensional head posture model is used to convert a three-dimensional head posture from a two-dimensional face feature. Here, facial features such as eyes, eyebrows, nose and mouth are used. The head is made of XY, XZ and YZ planes. The head posture is defined by the rotation angle θ in each plane. By using this model, the three-dimensional head posture can be expressed only by the two-dimensional image.

頭部姿勢はθ(x,y,z)で表される。図20(A)は、正面から見たXY平面の頭部姿勢を示している。中心軸は口の底部で仮定される。頭の回転に基づいて、顔特徴の位置は中心軸に対して移動する。移動した顔特徴の位置は、顔特徴半径Rと回転角度θで決定される。図20(B)は、側面から見たYZ平面の頭部姿勢を示している。頭部がうなずきの動作のように上下方向に回転した場合、顔特徴は中心軸に対するそれらの回転に基づいて移動する。図20(C)に示すXZ平面についても同様の計算を行う。そして、それぞれに応じて2次元情報が3次元情報に変換される。   The head posture is represented by θ (x, y, z). FIG. 20A shows the head posture on the XY plane viewed from the front. A central axis is assumed at the bottom of the mouth. Based on the rotation of the head, the position of the facial feature moves relative to the central axis. The position of the moved facial feature is determined by the facial feature radius R and the rotation angle θ. FIG. 20B shows the head posture of the YZ plane viewed from the side. When the head rotates up and down like a nodding motion, the facial features move based on their rotation about the central axis. Similar calculations are performed for the XZ plane shown in FIG. And according to each, two-dimensional information is converted into three-dimensional information.

それぞれの平面における頭部回転を図21に示す。一つの顔特徴がP(x,y)に位置し、半径R、初期角度θ0、中心軸O(0,0)とし、P(x,y)が中心軸に対して回転したときの位置P’(x’,y’)は、取得した2次元画像と3次元頭部姿勢モデルから計算される。以下の式(10)の回転角度で位置が計算される。 The head rotation in each plane is shown in FIG. Position when one facial feature is located at P (x, y), radius R, initial angle θ 0 , central axis O (0,0), and P (x, y) rotates with respect to the central axis P ′ (x ′, y ′) is calculated from the acquired two-dimensional image and three-dimensional head posture model. The position is calculated at the rotation angle of the following equation (10).

これは、下記の式(11)、(12)で示すようにYZ平面、XZ平面についても同じである。 This is the same for the YZ plane and the XZ plane as shown by the following formulas (11) and (12).

全ての位置情報は画素座標システムにより定義される。したがって中心軸はO(x,y)座標で表され、顔特徴の位置はPi(x,y)上にマッピングされる。式(11)、(12)で示すように、ピクセル座標から回転角度に変換することができる。   All position information is defined by the pixel coordinate system. Therefore, the central axis is represented by O (x, y) coordinates, and the position of the facial feature is mapped onto Pi (x, y). As shown in equations (11) and (12), the pixel coordinates can be converted into rotation angles.

上記3次元頭部姿勢モデルに、以下に示す鳥瞰図を応用した頭部姿勢検出を組み合わせることで、3次元の頭部姿勢を検出することができる。鳥瞰図はあたかも鳥が観測者であるかのような視点から見た図である。鳥瞰図は、しばしば青写真、フロア設計、マップ等に使用される。これらのビューは、オブジェクトとカメラの距離に依存した異なるサイズの画像を取得できる。この鳥瞰図を頭部姿勢の推定に使用する。   A three-dimensional head posture can be detected by combining the above three-dimensional head posture model with head posture detection using a bird's-eye view shown below. The bird's-eye view is a view as if the bird is an observer. Bird's eye views are often used for blueprints, floor designs, maps, and the like. These views can acquire images of different sizes depending on the distance between the object and the camera. This bird's eye view is used for estimating the head posture.

図22は、頭部姿勢測定の鳥瞰図を示す。この座標は、dxU=dxD、dyR=dyLである。しかしながら、これらの値は頭部姿勢の変化に応じて変わる。図22(A)に示すように、頭部が右方向に回転した場合、dyLがdyRより大きくなる。同様に、図22(B)に示すように、頭部が左方向に回転した場合、dyRがdyLより大きくなる。同様に、頭部姿勢のピッチ方向を計算することができる。3次元頭部姿勢モデルと鳥瞰図とを組み合わせることで、頭部姿勢を容易に推定することができる。   FIG. 22 shows a bird's-eye view of head posture measurement. These coordinates are dxU = dxD and dyR = dyL. However, these values change according to changes in the head posture. As shown in FIG. 22A, when the head rotates to the right, dyL becomes larger than dyR. Similarly, as shown in FIG. 22B, when the head rotates to the left, dyR becomes larger than dyL. Similarly, the pitch direction of the head posture can be calculated. By combining the three-dimensional head posture model and the bird's eye view, the head posture can be easily estimated.

次に、目の動きについて説明する。目の位置を測定するために、いくつかのポイントが参考として必要である。両目の端部、アーチ、強膜、虹彩等が使用される。最もシンプルな方法は、虹彩の中心位置と両目の端部を使用して目の動きを推定することである。トラブルが発生し、もし片方又は両方の目の端部が検出できない場合、バックアップとして他の参照ポイントが必要である。強膜は虹彩の位置推定に使用される。虹彩は角膜の中心に位置しており、強膜の位置を通して推定される。もう一つの問題は利用者の動きである。片目が若干開かれている場合、目の向きは解決される。   Next, eye movement will be described. Several points are needed as a reference to measure eye position. The ends of both eyes, arches, sclera, iris, etc. are used. The simplest method is to estimate eye movement using the center position of the iris and the edges of both eyes. If trouble occurs and the edge of one or both eyes cannot be detected, another reference point is needed as a backup. The sclera is used for iris position estimation. The iris is located in the center of the cornea and is estimated through the position of the sclera. Another problem is user movement. If one eye is slightly open, the eye orientation is resolved.

図23に示す眼球運動モデルに基づいて視線方向が推定される。目の形状は楕円体の半径Rと視線角度αで形成される。目が正面を向いている場合、左右の視線角度αR、αLは同じである。したがって、3次元座標上での目の移動は、視線の推定角度のモデル結果から推定される。上下の視線αU、αDについても同様の方法で推定される。そして、目の動きの出力α(R,L,U,D)が推定される。 The line-of-sight direction is estimated based on the eye movement model shown in FIG. The shape of the eye is formed by an ellipsoid radius R and a viewing angle α. When the eyes are facing the front, the left and right viewing angles α R and α L are the same. Therefore, the movement of the eyes on the three-dimensional coordinates is estimated from the model result of the estimated line-of-sight angle. The upper and lower lines of sight α U and α D are estimated by the same method. Then, an eye movement output α (R, L, U, D) is estimated.

次に、上記で求めた頭部の位置と目の動きから視線方向を推定する。視線推定の座標システムを図24に示す。ベクトルHは頭部姿勢、ベクトルEは目の動きを示す。視線ベクトルは、頭部姿勢と目の動きベクトルの加算で推定される。   Next, the line-of-sight direction is estimated from the head position and the eye movement determined above. FIG. 24 shows a coordinate system for line-of-sight estimation. Vector H indicates the head posture, and vector E indicates the movement of the eyes. The line-of-sight vector is estimated by adding the head posture and the eye motion vector.

画像処理を解析について説明する。利用者の動きを許容するために、頭部の位置と姿勢が推定される。顔特徴である目、目の端部、鼻の頭、口の端部は、取得した画像から検出され、追跡される。顔自体はよく知られているViola−Jones法に基づいて検出することができる。この方法は、比較的高速であり、状況の変化にロバストである。そして、目の位置は、形状ベース、外観ベース、混成ベースのViola−Jones法を基本として推定される。Viola−Jones分類は、目を検出し、またAdaBoostを使用する。Viola−Jones分類システムを適用するために、OpenCVのViola−Jones関数を使用する。この関数を使用する前に、XMLファイルを生成し、顔又は目のイメージが収集される必要がある。それらは、ネガティブサンプルとポジティブサンプルとがあり、ネガティブサンプルはオブジェクトがないイメージに対応し、ポジティブサンプルはオブジェクトがあるイメージに対応する。イメージを取得した後、OpenCVは、顔の中心位置と目の中心位置を探す。   Image processing will be described for analysis. In order to allow the user's movement, the position and posture of the head are estimated. The eyes, the edge of the eye, the head of the nose, and the edge of the mouth, which are facial features, are detected from the acquired image and tracked. The face itself can be detected based on the well-known Viola-Jones method. This method is relatively fast and robust to changing conditions. The eye position is estimated based on the Viola-Jones method of shape base, appearance base, and hybrid base. The Viola-Jones classification detects eyes and uses AdaBoost. To apply the Viola-Jones classification system, the OpenCV Viola-Jones function is used. Before using this function, an XML file must be generated and the face or eye image collected. They have a negative sample and a positive sample, where the negative sample corresponds to an image without an object and the positive sample corresponds to an image with an object. After acquiring the image, OpenCV searches for the center position of the face and the center position of the eyes.

一度、目が検出されると、Viola−Jones法による目の追跡は必要ない。なぜなら、形態フィルタと一緒に使用されるテンプレートマッチングが、同じぐらい高速でロバストとなるからである。目の追跡プロセスでは、虹彩中心と目の端部が使用される。虹彩中心を探すために、テンプレートマッチングにおける相関係数Rcoeffを使用する。 Once the eye is detected, eye tracking by the Viola-Jones method is not necessary. This is because template matching used with morphological filters is as fast and robust. In the eye tracking process, the iris center and the edge of the eye are used. To find the iris center, the correlation coefficient R coeff in template matching is used.

T、Iはxy座標におけるテンプレートとカレントイメージのピクセル位置を示す。相関係数Rcoeffは、照明状態の違いによる補正のために正規化されたテンプレートとカレントイメージの相関係数を示す。図25が、座標システムにマッピングされた虹彩中心である。 T and I indicate pixel positions of the template and the current image in the xy coordinates. The correlation coefficient R coeff indicates a correlation coefficient between a template normalized for correction due to a difference in illumination state and the current image. FIG. 25 is the iris center mapped to the coordinate system.

虹彩中心の検出に比べて、目の端部と口の端部との検出がかなり難しいため、目と口との輪郭を検出するガボールフィルタを採用する。ガボール関数は、ガウスエンベロープで変調された正弦波平面で定義される。このフィルタは指定されたパターンの検出に役立つ。2次元のガボールカーネルは、以下のように表される。   Compared to the detection of the iris center, detection of the edge of the eye and the edge of the mouth is considerably difficult, so a Gabor filter that detects the contour of the eye and the mouth is employed. The Gabor function is defined by a sinusoidal plane modulated with a Gaussian envelope. This filter is useful for detecting specified patterns. A two-dimensional Gabor kernel is represented as follows:

σはガウス関数の変化、λは正弦関数の波長、θはガボール関数のストライプに対する通常の向き、γはガボール関数がサポートする楕円によって指定されたアスペクト比である。 σ is the change in Gaussian function, λ is the wavelength of the sine function, θ is the normal orientation of the Gabor function with respect to the stripe, and γ is the aspect ratio specified by the ellipse supported by the Gabor function.

このフィルタを使う前に、まず分散、波長、方位、空間アスペクト比によってガボールカーネルを作る。ソースとガボールテンプレートイメージとの間の難解なプロセスによって、図26に示すようなガボールイメージを取得できる。このように、ガボールフィルタを採用することで、2次元にエッジを検出することができ、アーク、円弧、楕円等のエッジを検出しやすくなる。   Before using this filter, first create a Gabor kernel with dispersion, wavelength, orientation, and spatial aspect ratio. Through a difficult process between the source and the Gabor template image, a Gabor image as shown in FIG. 26 can be obtained. In this way, by using the Gabor filter, it is possible to detect edges in two dimensions, and it is easy to detect edges such as arcs, arcs, and ellipses.

なお、上述した視線方向の検出処理は、第2の実施形態に示す視線方向の検出処理を用いてもよい。つまり、本実施形態において求めた頭部姿勢と、第2の実施形態において求められる視線方向とから、視線方向を決定してもよい。   Note that the line-of-sight direction detection process described in the second embodiment may be used for the above-described line-of-sight direction detection process. That is, the line-of-sight direction may be determined from the head posture determined in the present embodiment and the line-of-sight direction determined in the second embodiment.

また、第1の実施形態で示すように、第1のカメラ11が利用者の頭部の一部に固定されている場合には、本実施形態における頭部姿勢の検出を行わずに、視線方向の検出のみを行うようにしてもよい。   Further, as shown in the first embodiment, when the first camera 11 is fixed to a part of the user's head, the line of sight is detected without detecting the head posture in the present embodiment. Only direction detection may be performed.

以下、本実施形態に係る視線制御装置を用いた実験について説明する。測定機材のハードウェアは、2.66GHzのCPU、2GBのメモリを有するコンピュータ、640×480ピクセルのIRカメラを使用した。   Hereinafter, an experiment using the visual line control device according to the present embodiment will be described. As hardware of the measurement equipment, a 2.66 GHz CPU, a computer having 2 GB memory, and a 640 × 480 pixel IR camera were used.

図27、及び図28に本実施形態に係る視線制御装置を用いた実験結果を示す。図27(A)は目の検出処理時間を示すグラフである。本実施形態に係る視線制御装置の手法は、上述したように、Viola−Jones法により一旦目を検出し、検出した目をテンプレートとしてテンプレートマッチングを行うことで、他の手法と比較して格段に処理速度が速くなっていることがわかる。その処理時間は8.21msで100%の成功率である。   FIG. 27 and FIG. 28 show experimental results using the visual line control device according to the present embodiment. FIG. 27A is a graph showing the eye detection processing time. As described above, the method of the line-of-sight control device according to the present embodiment detects eyes once by the Viola-Jones method, and performs template matching using the detected eyes as a template, so that it is markedly compared with other methods. It can be seen that the processing speed is increasing. The processing time is 8.21 ms, which is a 100% success rate.

図27(B)は、カーソルの安定性を示すグラフである。カーソルは照明条件、視線の虎視微動、アルゴリズムにより安定しない場合がある。グラフから、図22の鳥瞰図において6点(両目の端部4点と口の端部2点)の場合が最も不安定となっている。これは、点が多いことから自由度が高くなり、複数の面が検出されてしまうためである。一方、2点(目の端部2点)の場合も安定しているが、2点は一意に面を特定することができないため、正確性の面で課題がある。したがって、一意に面を特定することができ、カーソルが安定する4点(両目の端部2点と口の端部2点)又は3点(両目の端部2点と口の中心1点)から鳥瞰図を検出するのがよいことがわかる。   FIG. 27B is a graph showing the stability of the cursor. The cursor may not be stable depending on the lighting conditions, tiger movement of the line of sight, and algorithm. From the graph, in the bird's eye view of FIG. 22, the case of 6 points (4 points at the end of both eyes and 2 points at the end of the mouth) is the most unstable. This is because the number of points increases the degree of freedom and multiple surfaces are detected. On the other hand, the case of two points (two points at the end of the eye) is stable, but the two points have a problem in terms of accuracy because the surface cannot be uniquely identified. Therefore, the surface can be uniquely identified, and the cursor is stable at 4 points (2 points at both eyes and 2 points at the mouth) or 3 points (2 points at both eyes and 1 point at the center of the mouth). It can be seen that it is better to detect a bird's eye view.

図27(C)は、ブリンクモード(瞬きにより選択を決定するモード)とタイマーモード(注視により選択を決定するモード)のそれぞれにおいて、選択キーがヒットするまでの時間を示すグラフである。ここでは、20個の異なるキーから、所定のキーを選択する場合のヒット時間を示している。グラフから、所定のキー数が少ない場合は、ブリンクモードのほうがヒット時間が短く、所定のキー数が多くなるとタイマーモードのほうがヒット時間が短くなっていることがわかる。このことから、利用者の使用状況に応じて、タイマーモードとブリンクモードの設定を変更できることが好ましい。   FIG. 27C is a graph showing the time until the selection key hits in each of the blink mode (mode in which selection is determined by blinking) and timer mode (mode in which selection is determined by gaze). Here, the hit time when a predetermined key is selected from 20 different keys is shown. From the graph, it is understood that when the predetermined number of keys is small, the hit time is shorter in the blink mode, and when the predetermined number of keys is increased, the hit time is shorter in the timer mode. For this reason, it is preferable that the settings of the timer mode and the blink mode can be changed according to the usage status of the user.

図27(D)は、表示画面の一例を示している。画面上には、顔画像、目周辺画像、プログラムのRUN状態を示す画面、キーボード、入力用のソフトが表示されており、利用者がキーボードの任意のキーを注視、又は視線を向けた状態で瞬きをすることにより、選択されたキーが入力され、入力用のソフトに記述される。   FIG. 27D illustrates an example of a display screen. On the screen, a face image, an eye periphery image, a screen showing the RUN status of the program, a keyboard, and input software are displayed, and the user gazes at an arbitrary key on the keyboard or directs the line of sight. By blinking, the selected key is input and described in the input software.

図28は、顔の姿勢角度の許容範囲を示す表である。図28(A)は2点で鳥瞰図を検出した場合、図28(B)が4点で鳥瞰図を検出した場合、図28(C)が6点で鳥瞰図を検出した場合のロール方向、ヨー方向、ピッチ方向のそれぞれの角度の許容範囲とカメラとの距離の許容範囲を示している。ロール方向とヨー方向についてはほぼ左右対称であり、ある程度の姿勢を許容できていることがわかる。ピッチ方向については、上向きの場合はよいが、下向きの場合の許容値が小さくなっている。これは、カメラを画面の上部に取り付けているためであると考えられる。   FIG. 28 is a table showing the allowable range of the face posture angle. FIG. 28A shows a roll direction and a yaw direction when a bird's-eye view is detected at two points, FIG. 28B detects a bird's-eye view at four points, and FIG. 28C detects a bird's-eye view at six points. The permissible range of each angle in the pitch direction and the permissible range of the distance from the camera are shown. It can be seen that the roll direction and the yaw direction are almost bilaterally symmetric, and a certain degree of posture is allowed. Regarding the pitch direction, the upward direction is good, but the allowable value in the downward direction is small. This is probably because the camera is attached to the top of the screen.

したがって、カメラの固定位置を利用者に合わせて調整することで、ピッチ方向についても上下対象の角度を許容値として調整することができ、頭部姿勢の変化に対応することができる。ここで、前記第2の実施形態にも示したように、カメラを下方に設置すると睫毛の影響が大きくなるため、検出ができなくなることもあり、微妙な調整が必要となる。また、距離についても、例えば4点の場合には25cmから54cmまで許容するため、頭部姿勢がかなり変わった場合であっても視線を正確に検出できることがわかる。   Therefore, by adjusting the fixed position of the camera in accordance with the user, the angle of the vertical object can be adjusted as an allowable value in the pitch direction, and it is possible to cope with a change in head posture. Here, as also shown in the second embodiment, if the camera is installed below, the influence of eyelashes becomes large, and detection may not be possible, and fine adjustment is required. As for the distance, for example, in the case of 4 points, 25 cm to 54 cm is allowed, so it can be seen that the line of sight can be accurately detected even when the head posture is considerably changed.

以上の前記各実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、これら各実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。   Although the present invention has been described with the above embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments, and various modifications or improvements can be added to these embodiments. . And embodiment which added such a change or improvement is also contained in the technical scope of the present invention. This is apparent from the claims and the means for solving the problems.

1 視線制御装置
10 PC
11 (第1の)カメラ
11a レンズ
11b LED
12 光源
13 第2のカメラ
14 超音波センサ
15 USBインタフェース
16 車椅子制御装置
17 電動車椅子
21 入力部
22 プルキニエ像取得部
23 角膜曲率半径算出部
24 角膜曲率中心算出部
25 瞳孔中心算出部
26 視線方向決定部
30 視線検出部
31 動作指令解析部
32 対応情報部
33 駆動部
34 障害物検出部
35 瞳孔変化解析部
36 対応情報補正部
40 視線制御部
1 Gaze control device 10 PC
11 (first) camera 11a lens 11b LED
DESCRIPTION OF SYMBOLS 12 Light source 13 2nd camera 14 Ultrasonic sensor 15 USB interface 16 Wheelchair control apparatus 17 Electric wheelchair 21 Input part 22 Purkinje image acquisition part 23 Corneal curvature radius calculation part 24 Corneal curvature center calculation part 25 Pupil center calculation part 26 Gaze direction determination Unit 30 line of sight detection unit 31 operation command analysis unit 32 correspondence information unit 33 drive unit 34 obstacle detection unit 35 pupil change analysis unit 36 correspondence information correction unit 40 line of sight control unit

Claims (13)

視線方向に基づいて制御対象物を制御する視線制御装置であって、
前記視線方向を検出する視線方向検出手段と、
前記視線方向と前記制御対象物の動作指令とを対応付ける対応情報を記憶する対応情報記憶手段と、
前記対応情報記憶手段が記憶する対応情報、及び前記視線方向検出手段が検出する視線方向に基づいて、制御対象物の動作指令を解析する動作指令解析手段と、
前記動作指令解析手段が解析した結果に基づいて、前記制御対象物を駆動する駆動手段とを備えることを特徴とする視線制御装置。
A line-of-sight control device that controls a control object based on a line-of-sight direction,
Gaze direction detecting means for detecting the gaze direction;
Correspondence information storage means for storing correspondence information that associates the line-of-sight direction with the operation command of the control object;
Action command analysis means for analyzing the action command of the control object based on the correspondence information stored in the correspondence information storage means and the line-of-sight direction detected by the line-of-sight direction detection means;
A line-of-sight control device comprising: drive means for driving the control object based on the result of analysis by the operation command analysis means.
請求項1に記載の視線制御装置において、
前記制御対象物が電動車椅子であり、
前記対応情報記憶手段が、前記視線方向が下方向の場合に対応する動作指令を前進加速として前記対応情報を記憶することを特徴とする視線制御装置。
The line-of-sight control device according to claim 1.
The control object is an electric wheelchair;
The line-of-sight control device, wherein the correspondence information storage means stores the correspondence information with an operation command corresponding to a case where the line-of-sight direction is a downward direction as forward acceleration.
請求項2に記載の視線制御装置において、
前記対応情報記憶手段が、前記視線方向が右方向の場合に対応する動作指令を右転回とし、前記視線方向が左方向の場合に対応する動作指令を左転回とし、前記視線方向が正面方向の場合に対応する動作指令を前進とし、前記視線方向がその他の場合に対応する動作指令を停止として、前記対応情報を記憶することを特徴とする視線制御装置。
The line-of-sight control device according to claim 2,
The correspondence information storage means sets the operation command corresponding to the case where the line-of-sight direction is the right direction as a right turn, sets the operation command corresponding to the case where the line-of-sight direction is the left direction, and sets the operation direction corresponding to the left direction. A line-of-sight control apparatus, wherein the movement information corresponding to the case is set as forward, the movement command corresponding to the case where the line-of-sight direction is in other cases is stopped, and the corresponding information is stored.
請求項1ないし3のいずれかに記載の視線制御装置において、
前記制御対象物の少なくとも前方を撮像する撮像手段と、
前記撮像手段が撮像した撮像情報に基づいて障害物を検出する障害物検出手段とを備え、
前記駆動手段が、前記障害物検出手段が障害物を検出した場合に、前記制御対象物の動きを停止することを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 3,
Imaging means for imaging at least the front of the control object;
Obstacle detection means for detecting an obstacle based on imaging information captured by the imaging means,
The line-of-sight control device, wherein the driving unit stops the movement of the control target when the obstacle detecting unit detects an obstacle.
請求項1ないし4のいずれかに記載の視線制御装置において、
前記制御対象物の少なくとも前方に超音波を発振して障害物との距離を測定する超音波センサを備え、
前記駆動手段が、前記障害物センサが検知した障害物との距離が所定の長さ以下の場合に、前記制御対象物の動きを停止することを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 4,
An ultrasonic sensor for measuring a distance from an obstacle by oscillating an ultrasonic wave at least in front of the control object;
The line-of-sight control device, wherein the driving means stops the movement of the control object when the distance from the obstacle detected by the obstacle sensor is equal to or less than a predetermined length.
請求項1ないし5のいずれかに記載の視線制御装置において、
瞳孔の大きさを検出する瞳孔サイズ検出手段と、
前記瞳孔サイズ検出手段が検出した瞳孔の大きさに基づいて、瞳孔のサイズの変化を解析する瞳孔変化解析手段とを備え、
前記駆動手段が、前記瞳孔変化解析手段が解析した瞳孔のサイズの変化に基づいて、前記制御対象物の動きを停止することを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 5,
Pupil size detection means for detecting the size of the pupil;
Based on the size of the pupil detected by the pupil size detecting means, and a pupil change analyzing means for analyzing a change in the size of the pupil,
The line-of-sight control device, wherein the driving unit stops the movement of the control target based on a change in the size of the pupil analyzed by the pupil change analyzing unit.
請求項1ないし5のいずれかに記載の視線制御装置において、
瞳孔の大きさを検出する瞳孔サイズ検出手段と、
前記瞳孔サイズ検出手段が検出した瞳孔の大きさに基づいて、瞳孔のサイズの変化を解析する瞳孔変化解析手段とを備え、
前記瞳孔変化解析手段が解析した瞳孔のサイズの変化に基づいて、前記対応情報記憶手段が記憶する前記視線方向と制御対象物の動作指令との対応情報を補正する対応情報補正手段を備えることを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 5,
Pupil size detection means for detecting the size of the pupil;
Based on the size of the pupil detected by the pupil size detecting means, and a pupil change analyzing means for analyzing a change in the size of the pupil,
Corresponding information correcting means for correcting correspondence information between the line-of-sight direction stored in the correspondence information storing means and the operation command of the control object based on a change in the size of the pupil analyzed by the pupil change analyzing means. A line-of-sight control device.
請求項1ないし7のいずれかに記載の視線制御装置において、
視線方向検出手段が、
少なくとも眼球方向を撮像するカメラと、
少なくとも眼球方向に光を照射する複数の光源と、
前記光源が照射した光により得られる角膜表面上の複数のプルキニエ像に基づいて、角膜曲率半径を算出する角膜曲率半径算出手段と、
前記角膜曲率半径算出手段が算出した角膜曲率半径、前記カメラの位置、及び前記光源の位置に基づいて、角膜曲率中心を算出する角膜曲率中心算出手段と、
前記光源が照射した光の反射の有無に基づいて瞳孔領域を抽出し、楕円近似により瞳孔の中心を算出する瞳孔中心算出手段と、
前記瞳孔中心算出手段が算出した瞳孔中心、及び前記角膜曲率中心算出手段が算出した角膜曲率中心を通るベクトルを視線方向として決定する視線方向決定手段とを備えることを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 7,
The gaze direction detection means
A camera that images at least the direction of the eyeball;
A plurality of light sources that emit light at least in the eyeball direction;
Corneal curvature radius calculating means for calculating a corneal curvature radius based on a plurality of Purkinje images on the corneal surface obtained by the light irradiated by the light source;
A corneal curvature center calculating means for calculating a corneal curvature center based on the corneal curvature radius calculated by the corneal curvature radius calculating means, the position of the camera, and the position of the light source;
Pupil center calculating means for extracting a pupil region based on the presence or absence of reflection of light emitted by the light source and calculating the center of the pupil by elliptic approximation;
A line-of-sight control device comprising: a pupil center calculated by the pupil center calculating unit; and a line-of-sight direction determining unit that determines a vector passing through the corneal curvature center calculated by the corneal curvature center calculating unit as a line-of-sight direction.
請求項8に記載の視線制御装置において、
前記光源が少なくとも近赤外線を照射し、前記カメラが少なくとも近赤外線の感度分布を持つカメラであることを特徴とする視線制御装置。
The line-of-sight control device according to claim 8,
The line-of-sight control apparatus, wherein the light source emits at least near-infrared rays, and the camera has at least near-infrared sensitivity distribution.
請求項1ないし9のいずれかに記載の視線制御装置において、
前記カメラが、前記制御対象物を操作する人の一部に固定されていることを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 9,
The line-of-sight control device, wherein the camera is fixed to a part of a person who operates the control object.
請求項1ないし9のいずれかに記載の視線制御装置において、
顔画像から複数の顔特徴を抽出する顔特徴抽出手段と、
前記顔特徴抽出手段が抽出した各顔特徴における特徴点を決定する特徴点決定手段と、
前記特徴点で形成される平面の法線方向を決定する法線方向決定手段とを備え、
前記視線検出手段が検出した視線方向、及び前記法線決定手段が決定した法線方向に基づいて、視線方向を決定することを特徴とする視線制御装置。
The line-of-sight control device according to any one of claims 1 to 9,
Facial feature extraction means for extracting a plurality of facial features from a facial image;
Feature point determining means for determining a feature point in each face feature extracted by the face feature extracting means;
Normal direction determining means for determining a normal direction of a plane formed by the feature points,
A line-of-sight control apparatus that determines a line-of-sight direction based on a line-of-sight direction detected by the line-of-sight detection unit and a normal direction determined by the normal line determination unit.
コンピュータが、視線方向に基づいて制御対象物を制御する視線制御方法であって、
前記視線方向を検出する視線方向検出ステップと、
前記視線方向と前記制御対象物の動作指令とを対応付ける対応情報を記憶し、当該記憶された対応情報、及び前記視線方向検出ステップが検出する視線方向に基づいて、制御対象物の動作指令を解析する動作指令解析ステップと、
前記動作指令解析ステップが解析した結果に基づいて、前記制御対象物を駆動する駆動ステップとを含むことを特徴とする視線制御方法。
A computer is a visual line control method for controlling an object to be controlled based on a visual line direction,
A gaze direction detecting step for detecting the gaze direction;
Correspondence information that associates the line-of-sight direction with the operation command of the control object is stored, and the operation command of the control object is analyzed based on the stored correspondence information and the line-of-sight direction detected by the line-of-sight direction detection step. Operation command analysis step to perform,
A line-of-sight control method, comprising: a driving step of driving the control object based on a result of the analysis of the motion command analysis step.
視線方向に基づいて制御対象物を制御するようにコンピュータを機能させる視線制御プログラムであって、
前記視線方向を検出する視線方向検出手段、
前記視線方向と前記制御対象物の動作指令とを対応付ける対応情報を記憶する対応情報記憶手段、
前記対応情報記憶手段が記憶する対応情報、及び前記視線方向検出手段が検出する視線方向に基づいて、制御対象物の動作指令を解析する動作指令解析手段、
前記動作指令解析手段が解析した結果に基づいて、前記制御対象物を駆動する駆動手段としてコンピュータを機能させる視線制御プログラム。
A line-of-sight control program that causes a computer to function to control an object to be controlled based on a line-of-sight direction,
Gaze direction detection means for detecting the gaze direction,
Correspondence information storage means for storing correspondence information that associates the line-of-sight direction with the operation command of the control object;
An operation command analysis unit that analyzes an operation command of the control object based on the correspondence information stored in the correspondence information storage unit and the line-of-sight direction detected by the line-of-sight direction detection unit;
A line-of-sight control program for causing a computer to function as drive means for driving the control object based on the result of analysis by the operation command analysis means.
JP2009276686A 2009-12-04 2009-12-04 Gaze control device, gaze control method, and program thereof Expired - Fee Related JP5578603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009276686A JP5578603B2 (en) 2009-12-04 2009-12-04 Gaze control device, gaze control method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009276686A JP5578603B2 (en) 2009-12-04 2009-12-04 Gaze control device, gaze control method, and program thereof

Publications (2)

Publication Number Publication Date
JP2011115460A true JP2011115460A (en) 2011-06-16
JP5578603B2 JP5578603B2 (en) 2014-08-27

Family

ID=44281515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009276686A Expired - Fee Related JP5578603B2 (en) 2009-12-04 2009-12-04 Gaze control device, gaze control method, and program thereof

Country Status (1)

Country Link
JP (1) JP5578603B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2955663A2 (en) 2014-06-09 2015-12-16 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
EP2955693A1 (en) 2014-06-09 2015-12-16 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
US9501689B2 (en) 2014-03-13 2016-11-22 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
WO2017154356A1 (en) * 2016-03-09 2017-09-14 アルプス電気株式会社 Sight line detection device and sight line detection method
JP2018026120A (en) * 2016-07-27 2018-02-15 フォーブ インコーポレーテッド Eye-gaze detection system, displacement detection method, and displacement detection program
WO2019142690A1 (en) * 2018-01-16 2019-07-25 ヤマハ発動機株式会社 Travel control apparatus for one-passenger electric vehicle, travel control system for one-passenger electric vehicle, and one-passenger electric vehicle
WO2020045023A1 (en) * 2018-08-30 2020-03-05 日本電信電話株式会社 Eye information estimation device, eye information estimation method, and program
JP2020527099A (en) * 2017-07-21 2020-09-03 北京集思明智科技有限公司Jasmines Biotech Inc. Brain function test system and its devices
JP2021142211A (en) * 2020-03-13 2021-09-24 オムロン株式会社 Movement support device, movement support method and program
WO2022038815A1 (en) * 2020-08-20 2022-02-24 株式会社Jvcケンウッド Distance calculation device, distance calculation method, and distance calculation program
CN114555026A (en) * 2018-11-14 2022-05-27 欧哈德·帕兹 Reclining/lifting chair
WO2023111365A1 (en) * 2021-12-15 2023-06-22 Neocortex Digital, S.L. Gaze direction tracking system
EP4183322A4 (en) * 2020-08-20 2023-12-20 JVCKenwood Corporation Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
WO2024134972A1 (en) * 2022-12-23 2024-06-27 株式会社Jvcケンウッド Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07159317A (en) * 1993-12-06 1995-06-23 Nissan Motor Co Ltd Line of sight direction detection apparatus for vehicle
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JP2000279435A (en) * 1999-03-29 2000-10-10 Shimadzu Corp Line of sight input type control system for body auxiliary device
JP2002102172A (en) * 2000-07-28 2002-04-09 National Institute Of Advanced Industrial & Technology Method and system for detecting visual axis
JP2002367100A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd Device for detecting driver condition
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
WO2007086222A1 (en) * 2006-01-24 2007-08-02 Honda Motor Co., Ltd. Caution area estimating system and method
JP2007531579A (en) * 2004-04-01 2007-11-08 ウィリアム・シー・トーチ Biosensor, communicator and controller for monitoring eye movement and methods for using them
JP2007319187A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Motion assisting device and control method for the same
JP2008194146A (en) * 2007-02-09 2008-08-28 Toshiba Corp Visual line detecting apparatus and its method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07159317A (en) * 1993-12-06 1995-06-23 Nissan Motor Co Ltd Line of sight direction detection apparatus for vehicle
JPH08238222A (en) * 1995-03-02 1996-09-17 Fuji Xerox Co Ltd Apparatus for recognizing line of gaze
JP2000279435A (en) * 1999-03-29 2000-10-10 Shimadzu Corp Line of sight input type control system for body auxiliary device
JP2002102172A (en) * 2000-07-28 2002-04-09 National Institute Of Advanced Industrial & Technology Method and system for detecting visual axis
JP2002367100A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd Device for detecting driver condition
JP2003079577A (en) * 2001-09-12 2003-03-18 Nippon Telegr & Teleph Corp <Ntt> Visual axis measuring apparatus and method, visual axis measuring program, and recording medium recording the same
JP2007531579A (en) * 2004-04-01 2007-11-08 ウィリアム・シー・トーチ Biosensor, communicator and controller for monitoring eye movement and methods for using them
WO2007086222A1 (en) * 2006-01-24 2007-08-02 Honda Motor Co., Ltd. Caution area estimating system and method
JP2007319187A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Motion assisting device and control method for the same
JP2008194146A (en) * 2007-02-09 2008-08-28 Toshiba Corp Visual line detecting apparatus and its method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
寺島正二郎、他: "「視線を利用した電動車椅子の操作装置の開発」", 日本機械学会バイオフロンティア講演会講演論文集, vol. 17, JPN6013048204, 10 November 2006 (2006-11-10), JP, pages 5 - 6, ISSN: 0002643747 *
松本吉央、他: "「顔と視線情報による電動車椅子の走行支援システム」", 電気学会システム・制御研究会資料, vol. Vol.SC-01 No.20-30, JPN6013048211, 15 October 2001 (2001-10-15), JP, pages 59 - 64, ISSN: 0002643749 *
松本吉央: "「人の移動を支援するビジョン技術−車いすのビジョン−」", 日本ロボット学会誌, vol. 27, no. 6, JPN6013048210, 15 July 2009 (2009-07-15), JP, pages 608 - 612, ISSN: 0002643748 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9501689B2 (en) 2014-03-13 2016-11-22 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
EP2955693A1 (en) 2014-06-09 2015-12-16 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
US9443131B2 (en) 2014-06-09 2016-09-13 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
US9782119B2 (en) 2014-06-09 2017-10-10 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
EP2955663A2 (en) 2014-06-09 2015-12-16 Panasonic Intellectual Property Management Co., Ltd. Wrinkle detection apparatus and wrinkle detection method
WO2017154356A1 (en) * 2016-03-09 2017-09-14 アルプス電気株式会社 Sight line detection device and sight line detection method
JP2018026120A (en) * 2016-07-27 2018-02-15 フォーブ インコーポレーテッド Eye-gaze detection system, displacement detection method, and displacement detection program
JP2020527099A (en) * 2017-07-21 2020-09-03 北京集思明智科技有限公司Jasmines Biotech Inc. Brain function test system and its devices
JPWO2019142690A1 (en) * 2018-01-16 2020-11-19 ヤマハ発動機株式会社 One-seater electric vehicle travel control device, one-seater electric vehicle travel control system and one-seater electric vehicle
WO2019142690A1 (en) * 2018-01-16 2019-07-25 ヤマハ発動機株式会社 Travel control apparatus for one-passenger electric vehicle, travel control system for one-passenger electric vehicle, and one-passenger electric vehicle
WO2020045023A1 (en) * 2018-08-30 2020-03-05 日本電信電話株式会社 Eye information estimation device, eye information estimation method, and program
US20210319583A1 (en) * 2018-08-30 2021-10-14 Nippon Telegraph And Telephone Corporation Eye information estimate apparatus, eye information estimate method, and program
US11941835B2 (en) * 2018-08-30 2024-03-26 Nippon Telegraph And Telephone Corporation Eye information estimate apparatus, eye information estimate method, and program
CN114555026A (en) * 2018-11-14 2022-05-27 欧哈德·帕兹 Reclining/lifting chair
CN114555026B (en) * 2018-11-14 2024-04-26 欧哈德·帕兹 Tilting/lifting chair
JP2021142211A (en) * 2020-03-13 2021-09-24 オムロン株式会社 Movement support device, movement support method and program
JP7456211B2 (en) 2020-03-13 2024-03-27 オムロン株式会社 Mobility support device, mobility support method, and program
WO2022038815A1 (en) * 2020-08-20 2022-02-24 株式会社Jvcケンウッド Distance calculation device, distance calculation method, and distance calculation program
EP4183322A4 (en) * 2020-08-20 2023-12-20 JVCKenwood Corporation Corneal curvature radius calculation device, line-of-sight detection device, corneal curvature radius calculation method, and corneal curvature radius calculation program
WO2023111365A1 (en) * 2021-12-15 2023-06-22 Neocortex Digital, S.L. Gaze direction tracking system
WO2024134972A1 (en) * 2022-12-23 2024-06-27 株式会社Jvcケンウッド Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program

Also Published As

Publication number Publication date
JP5578603B2 (en) 2014-08-27

Similar Documents

Publication Publication Date Title
JP5578603B2 (en) Gaze control device, gaze control method, and program thereof
CN106796449B (en) Sight tracking method and device
JP5016175B2 (en) Face image processing system
Al-Rahayfeh et al. Eye tracking and head movement detection: A state-of-art survey
JP6577454B2 (en) On-axis gaze tracking system and method
Arai et al. Eyes Based Eletric Wheel Chair Control System--I (eye) can control Electric Wheel Chair
JP3673834B2 (en) Gaze input communication method using eye movement
JP4692526B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP7542563B2 (en) Eye tracking latency improvement
Cho et al. Gaze Detection by Wearable Eye‐Tracking and NIR LED‐Based Head‐Tracking Device Based on SVR
KR20120006819A (en) Gaze detection method and system adopting the same
TW202044828A (en) Eye tracking device and a method thereof
JP7030317B2 (en) Pupil detection device and pupil detection method
Yu et al. An easy iris center detection method for eye gaze tracking system
Sun et al. Eye tracking and roi detection within a computer screen using a monocular camera
WO2010010926A1 (en) Feature-point tracking method and feature-point tracking device
Kunka et al. Non-intrusive infrared-free eye tracking method
Khan et al. A new 3D eyeball tracking system to enhance the usability of page scrolling
Heo et al. Object recognition and selection method by gaze tracking and SURF algorithm
Nitschke Image-based eye pose and reflection analysis for advanced interaction techniques and scene understanding
Shilaskar et al. Student eye gaze tracking and attention analysis system using computer vision
CN110858095A (en) Electronic device capable of being controlled by head and operation method thereof
Lin et al. Identification of eye movements from non-frontal face images for eye-controlled systems
Parte et al. A survey on eye tracking and detection
Zhu et al. A novel target tracking method of unmanned drones by gaze prediction combined with YOLO algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140703

R150 Certificate of patent or registration of utility model

Ref document number: 5578603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees