JP6897467B2 - Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method - Google Patents
Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method Download PDFInfo
- Publication number
- JP6897467B2 JP6897467B2 JP2017192602A JP2017192602A JP6897467B2 JP 6897467 B2 JP6897467 B2 JP 6897467B2 JP 2017192602 A JP2017192602 A JP 2017192602A JP 2017192602 A JP2017192602 A JP 2017192602A JP 6897467 B2 JP6897467 B2 JP 6897467B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- observer
- data
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、視線検出装置、視線検出プログラム、及び視線検出方法に関する。 The present invention relates to a line-of-sight detection device, a line-of-sight detection program, and a line-of-sight detection method.
視線検出技術は、対象物を観察する観察者が見ている場所を特定する技術であり、様々な場面において利用されている。例えば、パーソナルコンピュータ(PC)の画面、店舗における商品の陳列棚等が、観察される対象物となり得る。 The line-of-sight detection technique is a technique for identifying a place where an observer observing an object is looking, and is used in various situations. For example, a personal computer (PC) screen, a product display shelf in a store, or the like can be an object to be observed.
ディスプレイ上のユーザの注視点に対応させてカーソル表示させる視線入力によるポインティングデバイス、及び両眼眼球運動測定センサの出力からサッカード成分を除去する技術も知られている(例えば、特許文献1及び特許文献2を参照)。固視微動に基づき視覚疲労を評価する方法も知られている(例えば、非特許文献1を参照)。 A pointing device based on a line-of-sight input that displays a cursor corresponding to the user's gaze point on a display, and a technique for removing a saccade component from the output of a binocular eye movement measurement sensor are also known (for example, Patent Document 1 and Patent). See Reference 2). A method for evaluating visual fatigue based on fixation tremor is also known (see, for example, Non-Patent Document 1).
特許文献1の技術を用いてユーザの視線に対する停留判定を行う場合、必ずしも正しい判定結果が得られるとは限らない。 When the stay determination with respect to the line of sight of the user is performed using the technique of Patent Document 1, the correct determination result is not always obtained.
なお、かかる問題は、PC画面を見ているユーザの視線に限らず、他の対象物を観察している観察者の視線を検出する場合においても生ずるものである。 It should be noted that such a problem occurs not only in the line of sight of the user who is looking at the PC screen but also in the case of detecting the line of sight of the observer who is observing another object.
1つの側面において、本発明は、対象物を観察する観察者の視線を精度良く検出することを目的とする。 In one aspect, the present invention aims to accurately detect the line of sight of an observer observing an object.
1つの案では、プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、対象物を観察する観察者の左目の視線データと観察者の右目の視線データとの差分に基づいて、観察者の視線のばらつきを示す指標を求める。
(2)コンピュータは、ばらつきを示す指標に基づいて、観察者の視線に対する停留判定を行う。
(3)コンピュータは、停留判定の判定結果に基づいて、観察者の視線位置を決定する。
In one idea, the program causes the computer to perform the following processes:
(1) The computer obtains an index showing the variation of the observer's line of sight based on the difference between the line-of-sight data of the observer's left eye observing the object and the line-of-sight data of the observer's right eye.
(2) The computer makes a stop determination with respect to the line of sight of the observer based on the index indicating the variation.
(3) The computer determines the line-of-sight position of the observer based on the determination result of the stop determination.
実施形態によれば、対象物を観察する観察者の視線を精度良く検出することができる。 According to the embodiment, the line of sight of the observer observing the object can be detected with high accuracy.
以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、PC画面を観察しているユーザの視線を検出する視線センサの例を示している。表示装置101の画面102上には画像111〜画像113が表示されており、画面102の下部には、視線センサ103が設けられている。視線センサ103は、Light Emitting Diode(LED)121及びカメラ122を含む。このとき、画面102上におけるユーザの視線位置は、画像111〜画像113の間を移動することがある。
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 1 shows an example of a line-of-sight sensor that detects the line of sight of a user observing a PC screen.
LED121は、画面102を見ているユーザの顔に対して赤外線を照射し、カメラ122は、ユーザの顔を撮影する。視線センサ103に接続されているPCは、カメラ122が撮影したユーザの目の画像から、視線位置を示す視線データを生成する。目の画像から生成される視線データが示す状態には、サッケードと呼ばれる大きな視線の動きと、視線が1つの場所に留まる停留と、固視微動と呼ばれる視線のばらつきとが含まれている。
The
図2は、画面102上の視線位置を示す視線データの例を示している。画面102の水平方向の座標をx座標とし、垂直方向の座標をy座標とすると、視線データは、時系列に変化するユーザの視線位置の座標(x,y)によって表すことができる。図2のグラフの横軸は、カメラ122によって撮影される映像のフレーム数を表し、縦軸は、視線位置のx座標を表す。
FIG. 2 shows an example of line-of-sight data indicating the line-of-sight position on the
画面102上でユーザが注視する注視位置201〜注視位置203それぞれの周囲では視線が停留し、2つの注視位置の間では視線が急激に移動するサッケードが発生する。そして、視線が停留している間は、視線位置がばらつく固視微動が観測される。ユーザは、視線が停留している間に対象物を認識する。
A saccade occurs in which the line of sight stays around each of the
例えば、注視位置201と注視位置202の間のサッケードは、x座標の急激な増加を示す視線データ211として現れ、注視位置203における固視微動は、x座標の小刻みな増減を示す視線データ212として現れる。
For example, the saccade between the
図3は、注視位置の周囲における視線位置の検出結果の例を示している。ユーザが注視位置301を注視している場合、視線位置の検出結果302は、注視位置301を中心として周囲にばらつく傾向が見られる。このようなばらつきが発生する原因としては、細かな眼球の揺れ、固視微動、画像処理による検出誤差等が考えられる。
FIG. 3 shows an example of the detection result of the line-of-sight position around the gaze position. When the user is gazing at the
このうち、固視微動による視線角度のばらつきの振幅は、最大で約0.8度、平均で約0.3度であると考えられる。例えば、非特許文献1では、固視微動に含まれるフリックの振幅の検出範囲が3.0´〜50.0´であり、平均振幅が17.7´であることが報告されている。一方、ユーザとカメラ122との距離又は画像の解像度によっては、視線角度が数度以上ばらつくこともある。
Of these, the amplitude of the variation in the line-of-sight angle due to the fixation tremor is considered to be about 0.8 degrees at the maximum and about 0.3 degrees on the average. For example, Non-Patent Document 1 reports that the detection range of the amplitude of a flick included in fixation tremor is 3.0'to 50.0', and the average amplitude is 17.7'. On the other hand, the line-of-sight angle may vary by several degrees or more depending on the distance between the user and the
特許文献1の眼球運動検出装置は、直近の所定数の視線位置を包含する最小面積の包含円(最小包含円)を計算し、次に検出された視線位置が最小包含円に包含される場合に、ユーザの眼球が停止していると判断する。これにより、最小包含円内で視線位置が微動する場合、又は視線角度の検出誤差が存在する場合であっても、ユーザが意図して一点を注視していることを判別することができる。 The eye movement detection device of Patent Document 1 calculates the inclusion circle (minimum inclusion circle) of the minimum area including the most recent predetermined number of line-of-sight positions, and the case where the next detected line-of-sight position is included in the minimum inclusion circle. In addition, it is determined that the user's eyeball is stopped. Thereby, even when the line-of-sight position slightly moves within the minimum inclusion circle or there is a detection error of the line-of-sight angle, it can be determined that the user intentionally gazes at one point.
しかしながら、上述したように、視線データには、固視微動だけではなく、大きな視線の動きも混在しており、大きな視線の動きによっても視線位置が変化するため、常に直近の最小包含円を設定できるとは限らない。 However, as described above, the line-of-sight data includes not only fixed-eye tremors but also large line-of-sight movements, and the line-of-sight position changes depending on the large line-of-sight movements. Not always possible.
図4は、PC画面上における視線位置の変化の例を示している。横軸及び縦軸は、画面のx座標及びy座標をそれぞれ表す。PCを用いた実際の作業では、視線データに大きな視線の動きが多く含まれており、視線の停留中のばらつきが不明瞭なため、適切な最小包含円を設定することが困難である。不適切な最小包含円に基づいて視線の停留判定を行うと、判定結果の精度が低下する。 FIG. 4 shows an example of a change in the line-of-sight position on the PC screen. The horizontal axis and the vertical axis represent the x-coordinate and the y-coordinate of the screen, respectively. In actual work using a PC, it is difficult to set an appropriate minimum inclusion circle because the line-of-sight data contains many large line-of-sight movements and the variation during the line-of-sight stay is unclear. If the line-of-sight stop determination is made based on an inappropriate minimum inclusion circle, the accuracy of the determination result is reduced.
また、商品棚に設置される組み込み機器のような環境では、カメラ122の映像のフレームレートが比較的低レートであるため、視線位置のサンプル数が少なく、統計的にばらつき量を決定することが困難である。
Further, in an environment such as an embedded device installed on a product shelf, the frame rate of the image of the
図5は、低レートの映像から生成される視線データの例を示している。横軸は、時間を表し、縦軸は、視線位置のx座標を表す。映像のフレームレートは100ms/フレームであり、視線データ501〜視線データ503は、停留している視線の視線位置を表している。
FIG. 5 shows an example of line-of-sight data generated from a low-rate video. The horizontal axis represents time, and the vertical axis represents the x-coordinate of the line-of-sight position. The frame rate of the video is 100 ms / frame, and the line-of-
人間の平均的な注視時間は数百ms程度であるため、100ms/フレームの場合、1箇所の停留場所に対して数個程度の視線位置が生成されるに過ぎない。この場合、10個程度の視線位置を用いてばらつき量を決定すると、大きな視線の動きが混入してしまい、ばらつき量の精度が低下する。図5の例では、視線データ501〜視線データ503の全部を用いてばらつき量を決定すると、大きな視線の動きが混入する。
Since the average gaze time of a human is about several hundred ms, in the case of 100 ms / frame, only a few gaze positions are generated for one stop location. In this case, if the amount of variation is determined using about 10 line-of-sight positions, a large movement of the line of sight is mixed in, and the accuracy of the amount of variation is lowered. In the example of FIG. 5, when the variation amount is determined by using all of the line-of-
そこで、視線位置のばらつきの範囲511を事前に決定しておき、視線データが範囲511内に含まれる場合に、視線が停留していると判定する方法が考えられる。しかし、実際のばらつきは、ユーザとカメラとの距離又はユーザの眼球の個人差等の条件に応じて変動するため、事前に決定した範囲511に基づいて停留判定を行うと、必ずしも正しい判定結果が得られるとは限らない。
Therefore, a method is conceivable in which the
図6は、視線位置のサンプル数と最小包含円との関係の例を示している。図6(a)の検出結果では、サンプル数が多いため、注視位置601に対する最小包含円611と、注視位置602に対する最小包含円612とを明瞭に区別することができる。したがって、最小包含円611及び最小包含円612に基づいて、視線に対する停留判定を精度良く行うことが可能である。
FIG. 6 shows an example of the relationship between the number of samples at the line-of-sight position and the minimum inclusion circle. In the detection result of FIG. 6A, since the number of samples is large, the
一方、図6(b)検出結果では、サンプル数が少ないため、注視位置603に対する最小包含円613の中に、別の注視位置を見ているときの視線位置614が混在している。このため、最小包含円613を用いて停留判定を行うことが難しく、停留判定の精度が低下する。
On the other hand, in the detection result of FIG. 6B, since the number of samples is small, the line-of-
図7は、実施形態の視線検出装置の機能的構成例を示している。図7の視線検出装置701は、記憶部711、計算部712、及び判定部713を含む。記憶部711は、対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとを記憶する。計算部712及び判定部713は、記憶部711が記憶する視線データを用いて視線検出処理を行う。
FIG. 7 shows a functional configuration example of the line-of-sight detection device of the embodiment. The line-of-
図8は、図7の視線検出装置701が行う視線検出処理の例を示すフローチャートである。まず、計算部712は、左目の視線データと右目の視線データとの差分に基づいて、観察者の視線のばらつきを示す指標を求める(ステップ801)。次に、判定部713は、計算部712が計算した指標に基づいて、観察者の視線に対する停留判定を行い(ステップ802)、停留判定の判定結果に基づいて、観察者の視線位置を決定する(ステップ803)。
FIG. 8 is a flowchart showing an example of the line-of-sight detection process performed by the line-of-
図7の視線検出装置701によれば、対象物を観察する観察者の視線を精度良く検出することができる。
According to the line-of-
図9は、図7の視線検出装置701の具体例を示している。図9の視線検出装置701は、記憶部711、計算部712、判定部713、検出部911、及び出力部912を含む。カメラ901は、例えば、図1のカメラ122に対応し、観察者の顔を撮影して、映像を視線検出装置701へ出力する。検出部911は、カメラ122が出力する映像に含まれる複数の時刻の画像それぞれから、観察者の左目及び右目の視線データ921を検出して、記憶部711に格納する。各時刻の画像は、フレームと呼ばれることもある。
FIG. 9 shows a specific example of the line-of-
例えば、視線データ921は、観察者の顔と対向する平面内における左目及び右目の視線位置を示す。図1の表示装置101の場合、画面102が観察者の顔と対向する平面に対応する。また、カメラ901が商品棚に設置されている場合、商品棚の前面をカバーする仮想的な平面が、観察者の顔と対向する平面に対応する。
For example, the line-of-
図10は、図1の視線センサ103による視線検出の例を示している。LED121は、画面102を見ている観察者の顔1001に対して赤外線1002を照射し、カメラ122は、顔1001を撮影する。この場合、検出部911は、角膜反射法によって、画像に写った瞳孔の座標と角膜反射の座標との位置関係に基づき、観察者の視線位置を計算する。
FIG. 10 shows an example of line-of-sight detection by the line-of-
観察者が視線センサ103を見ている場合、瞳孔の座標(PupX,PupY)と角膜反射の座標(PrkX,PrkY)との差分は0になり、視線センサ103から離れた位置を見ている場合、それらの座標の差分が発生する。そこで、角膜反射法では、座標(PupX,PupY)と座標(PrkX,PrkY)との差分から、視線の方向が検出される。i番目のフレームから角膜反射法によって検出される片目の視線位置は、画面102上の座標(Xi,Yi)によって表され、次式により求めることができる。
When the observer is looking at the line-of-
Xi=A*(PupX−PrkX)+W/2 (1)
Yi=H+B*(PupY−PrkY) (2)
Xi = A * (PupX-PrkX) + W / 2 (1)
Yi = H + B * (PupY-PrkY) (2)
式(1)のWは、画面102の水平方向の画素数を表し、式(2)のHは、画面102の垂直方向の画素数を表す。係数A及び係数Bは、キャリブレーションによって事前に求められる。なお、視線位置(Xi,Yi)は、視線ベクトルから計算することもできる。
W in the formula (1) represents the number of pixels in the horizontal direction of the
計算部712は、左目の視線データ921と右目の視線データ921との差分に基づいて、視線のばらつきを示す指標923を計算し、記憶部711に格納する。判定部713は、指標923に基づいて停留判定の閾値924を計算し、記憶部711に格納する。また、判定部713は、所定期間内の複数の時刻それぞれにおいて検出された左目及び右目の視線データ921から、それぞれの時刻における視線データのばらつき922を計算し、記憶部711に格納する。
The
次に、判定部713は、ばらつき922に対する停留判定を行い、所定期間内の各時刻におけるばらつき922が閾値924よりも小さい場合、観察者の視線が停留していると判定する。そして、判定部713は、停留判定の判定結果に基づいて、観察者の視線位置925を決定し、出力部912は、視線位置925を出力する。
Next, the
左目の視線データ921と右目の視線データ921との差分を計算することで、それぞれの目の視線データ921に含まれるサッケードがキャンセルされ、固視微動を表すばらつきを抽出することが可能になる。観察者が画面102等の対象物を見ているとき、両目ともに同じ位置を注視しているため、両目の注視位置は、ばらつきの差を除いて同じになると考えられる。このとき、両目の視線データ921の左右方向(水平方向)の差分は、輻輳による影響を受けるが、垂直方向の差分は輻輳による影響を受けない。
By calculating the difference between the line-of-
図11は、輻輳の例を示している。輻輳とは、観察者が対象物を注視するときに、両目が同時に内側を向く眼球の動きを表す。対象物が前後に動くと、対象物に対するピント調節に伴って輻輳が発生する。輻輳によって眼球は左右方向に動くが、上下方向には動かないため、視線データ921の垂直方向の差分は輻輳による影響を受けない。
FIG. 11 shows an example of congestion. Congestion refers to the movement of the eyeball with both eyes facing inward at the same time when the observer gazes at the object. When the object moves back and forth, congestion occurs as the focus is adjusted to the object. Although the eyeball moves in the left-right direction due to the congestion, it does not move in the up-down direction, so that the difference in the vertical direction of the line-of-
図12は、両目の視線データ921の水平方向の差分の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のx座標を表す。グラフ1201は、左目の視線位置のx座標の変化を示し、グラフ1202は、右目の視線位置のx座標の変化を示し、グラフ1203は、グラフ1201とグラフ1202との差分を示す。グラフ1203から、視線位置の水平方向の差分は、輻輳によって大きく変化することが分かる。
FIG. 12 shows an example of the difference in the horizontal direction of the line-of-
図13は、両目の視線データ921の垂直方向の差分の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のy座標を表す。グラフ1301は、左目の視線位置のy座標の変化を示し、グラフ1302は、右目の視線位置のy座標の変化を示し、グラフ1303は、グラフ1301とグラフ1302との差分を示す。グラフ1303から、視線位置の垂直方向の差分の変化は、水平方向の差分の変化よりも小さく、輻輳による影響を受けていないことが分かる。
FIG. 13 shows an example of the difference in the vertical direction of the line-of-
そこで、計算部712は、左目の視線データ921が示す垂直方向の視線位置と、右目の視線データ921が示す垂直方向の視線位置との差分を計算し、その差分に基づいて指標923を計算する。例えば、左目の視線位置の垂直方向の変化ΔLyと、右目の視線位置の垂直方向の変化ΔRyは、次式により表される。
Therefore, the
ΔLy=ΔSLy+ΔVLy (3)
ΔRy=ΔSRy+ΔVRy (4)
ΔLy = ΔSLy + ΔVLy (3)
ΔRy = ΔSRy + ΔVRy (4)
式(3)のΔSLyは、左目のサッケードによる垂直方向の大きな動きを表し、ΔVLyは、左目の視線位置の垂直方向のばらつきを表す。式(4)のΔSRyは、右目のサッケードによる垂直方向の大きな動きを表し、ΔVRyは、右目の視線位置の垂直方向のばらつきを表す。左目及び右目は同じ高さの位置を見ているため、ΔSLyとΔSRyはほぼ同じ値とみなすことができる。したがって、ΔLyとΔRyの差分は、次式のようになる。 ΔSLy in the formula (3) represents a large vertical movement due to the saccade of the left eye, and ΔVLy represents a vertical variation in the line-of-sight position of the left eye. ΔSRy in the equation (4) represents a large vertical movement due to the saccade of the right eye, and ΔVRy represents a vertical variation in the line-of-sight position of the right eye. Since the left eye and the right eye are looking at the same height position, ΔSLy and ΔSRy can be regarded as substantially the same value. Therefore, the difference between ΔLy and ΔRy is as follows.
ΔLy−ΔRy=(ΔSLy+ΔVLy)−(ΔSRy+ΔVRy)
=ΔVLy−ΔVRy (5)
ΔLy−ΔRy = (ΔSLy + ΔVLy) − (ΔSRy + ΔVRy)
= ΔVLy−ΔVRy (5)
式(5)より、左目の視線位置のy座標Lyと右目の視線位置のy座標Ryとの差分Ly−Ryの分散は、Lyのばらつきに伴う分散とRyのばらつきに伴う分散との和で表されることが分かる。また、Lyのばらつきに伴う分散とRyのばらつきに伴う分散は、ほぼ同じ値とみなすことができる。したがって、Ly−Ryの分散の半分を、Lyのばらつきに伴う分散又はRyのばらつきに伴う分散として用いることが可能である。さらに、視線位置の水平方向のばらつきの分散も、視線位置の垂直方向のばらつきの分散とほぼ同じ値とみなすことができる。 From equation (5), the variance of the difference Ly-Ry between the y-coordinate Ly of the line-of-sight position of the left eye and the y-coordinate Ry of the line-of-sight position of the right eye is the sum of the variance due to the variation in Ly and the variance due to the variation in Ry. You can see that it is represented. Further, the variance due to the variation in Ly and the variance due to the variation in Ry can be regarded as substantially the same value. Therefore, half of the dispersion of Ly-Ry can be used as the dispersion due to the variation in Ly or the dispersion due to the variation in Ry. Further, the dispersion of the horizontal variation of the line-of-sight position can be regarded as substantially the same value as the dispersion of the vertical variation of the line-of-sight position.
図14は、両目の視線位置の変化の例を示している。画面102を見ている観察者の左目の視線位置1401及び右目の視線位置1402は、注視する画像の位置に応じて画面102上で移動する。
FIG. 14 shows an example of a change in the line-of-sight positions of both eyes. The line-of-
図15は、図14の視線位置の変化に対応する視線データ921の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のy座標を表す。グラフ1501は、左目の視線位置のy座標の変化を示し、グラフ1502は、右目の視線位置のy座標の変化を示し、グラフ1503は、グラフ1501とグラフ1502との差分を示す。
FIG. 15 shows an example of the line-of-
一定期間における視線位置1401及び視線位置1402のログを採取し、それらの視線位置のy座標の差分を計算することで、視線が頻繁に移動する場合であっても、常に視線位置のばらつき量を把握することが可能になる。これにより、視線位置のばらつき量に基づいて停留判定の適切な閾値を決定することができ、停留判定の精度が向上する。視線のばらつきを示す指標923としては、例えば、一定期間において検出された視線位置のy座標の差分の分散又は標準偏差を用いることができる。
By collecting logs of the line-of-
なお、左目の視線データ921と右目の視線データ921との差分は、必ずしも視線位置の垂直方向の差分である必要はなく、水平方向と交差する所定方向における視線位置の差分であっても構わない。例えば、左目の眼球と右目の眼球とを結ぶ左右方向の直線が、画面102上のx軸と平行ではない場合、画面102上のy軸は、左右方向の直線と垂直ではなく、所定の角度で交差している。この場合、両目の視線位置のy座標の差分は、左右方向と交差する所定方向における視線位置の差分を表す。
The difference between the line-of-
図16は、図9の視線検出装置701が行う視線検出処理の具体例を示すフローチャートである。まず、検出部911は、カメラ122が出力する画像から、観察者の左目及び右目の視線データ921を検出する(ステップ1601)。
FIG. 16 is a flowchart showing a specific example of the line-of-sight detection process performed by the line-of-
例えば、i番目のフレームの画像からは、左目の視線位置のx座標LXi、左目の視線位置のy座標LYi、右目の視線位置のx座標RXi、及び右目の視線位置のy座標RYiが検出される。LXi、LYi、RXi、及びRYiは、図1の画面102上における視線位置の座標であってもよく、商品等の対象物が存在する位置に設定された仮想的な平面上における視線位置の座標であってもよい。
For example, from the image of the i-th frame, the x-coordinate LXi of the line-of-sight position of the left eye, the y-coordinate LYi of the line-of-sight position of the left eye, the x-coordinate RXi of the line-of-sight position of the right eye, and the y-coordinate RYi of the line-of-sight position of the right eye are detected. To. LXi, LYi, RXi, and RYi may be the coordinates of the line-of-sight position on the
次に、検出部911は、監視対象の観察者が別の観察者に切り替わったか否かをチェックする(ステップ1602)。例えば、検出部911は、映像から観察者が消えた後に新たな観察者が現れた場合に、観察者が切り替わったと判定することができる。
Next, the
観察者が切り替わった場合(ステップ1602,YES)、検出部911は、記憶部711に蓄積された視線データ921を消去することで、検出処理をリセットする(ステップ1603)。そして、検出部911は、直近のN個(Nは2以上の整数)のフレームの視線データ921が記憶部711に蓄積されたか否かをチェックする(ステップ1604)。
When the observer is switched (
直近のN個のフレームの視線データ921が蓄積されていない場合(ステップ1604,NO)、判定部713は、停留判定の閾値THとしてデフォルト閾値を利用する(ステップ1606)。
When the line-of-
次に、判定部713は、所定期間内の複数の時刻それぞれにおいて検出された左目及び右目の視線データ921から、それぞれの時刻における視線データのばらつき922を計算し、ばらつき922に対する停留判定を行う(ステップ1607)。
Next, the
例えば、i番目のフレームから検出された視線データ921のばらつき922として視線位置の座標の分散を用い、所定期間として直近のM個(Mは2以上の整数)のフレームを用いた場合、判定部713は、ばらつき922を表すViを次式により計算することができる。
For example, when the variance of the line-of-sight position coordinates is used as the
Vi=((LXi+RXi)/2−Avex)2
+((LYi+RYi)/2−Avey)2 (6)
Vi = ((LXi + RXi) / 2-Avex) 2
+ ((LYi + RYi) / 2-Avey) 2 (6)
ただし、M<N、i≧Mであるものとする。例えば、フレームレートが100ms/フレームである場合、Nとして5〜20程度の値を用いてもよく、Mとして2以上N未満の値を用いてもよい。 However, it is assumed that M <N and i ≧ M. For example, when the frame rate is 100 ms / frame, a value of about 5 to 20 may be used as N, and a value of 2 or more and less than N may be used as M.
式(6)の(LXi+RXi)/2は、LXi及びRXiの平均値を表し、(LYi+RYi)/2は、LYi及びRYiの平均値を表す。式(7)のAvexは、LXj及びRXjの平均値を、j=i−M+1〜iの範囲のM個のフレームに渡って平均した値を表す。また、式(8)のAveyは、LYj及びRYjの平均値を同じM個のフレームに渡って平均した値を表す。 (LXi + RXi) / 2 in the formula (6) represents the average value of LXi and RXi, and (LYi + RYi) / 2 represents the average value of LYi and RYi. Avex of the formula (7) represents a value obtained by averaging the average values of LXj and RXj over M frames in the range of j = i-M + 1 to i. Further, Avey in the formula (8) represents a value obtained by averaging the average values of LYj and RYj over the same M frames.
停留判定において、判定部713は、j=i−M+1〜iの範囲のM個のばらつきVjを閾値THと比較し、すべてのjについてVj≦THである場合(ステップ1607,YES)、視線が停留していると判定する(ステップ1608)。この場合、判定部713は、M個のフレームの視線位置の座標から視線位置925を計算する。視線位置925としては、M個の座標の平均値、中央値等の統計値を用いることができる。そして、視線検出装置701は、i=i+1によりiを更新し、次のフレームの画像についてステップ1601以降の処理を繰り返す。
In the stop determination, the
一方、1つ以上のjについてVj>THである場合(ステップ1607,NO)、判定部713は、視線が停留していないと判定し、視線検出装置701は、次のフレームの画像についてステップ1601以降の処理を繰り返す。
On the other hand, when Vj> TH for one or more js (
なお、ステップ1607においてi<Mである場合、判定部713は、停留判定を省略してステップ1601以降の処理を繰り返す。ステップ1602において観察者が切り替わっていない場合(ステップ1602,NO)、検出部911は、ステップ1604の処理を行う。
If i <M in
直近のN個のフレームの視線データ921が蓄積されている場合(ステップ1604,YES)、計算部712は、蓄積された視線データ921を用いて指標923を計算し、判定部713は、指標923から閾値924を計算する(ステップ1605)。
When the line-of-
例えば、計算部712は、N個のフレームにおけるLYiとRYiの差分の分散の移動平均を、指標923として用いることができる。この場合、計算部712は、指標923を表すdivを次式により計算する。
For example, the
式(10)のaveは、j=i−N+1〜iの範囲のN個のフレームにおけるRYi−LYiの平均値を表し、式(9)のdivは、同じN個のフレームにおけるRYi−LYiの分散を表す。この場合、判定部713は、正の実数Kを用いて、閾値924を表すTHを次式により計算することができる。
The ave in the formula (10) represents the average value of RYi-LYi in N frames in the range of j = i-N + 1 to i, and the div in the formula (9) is the RYi-LYi in the same N frames. Represents variance. In this case, the
TH=K*(div/2) (11)
TH = K * (div / 2) (11)
そして、判定部713は、式(11)の閾値THを用いて、ステップ1607以降の処理を行う。ステップ1604において、一旦、N個のフレームの視線データ921が蓄積された後は、観察者が切り替わらない限り、ステップ1605で計算された閾値THが用いられる。
Then, the
このような視線検出処理によれば、映像のフレームレートが低レートである場合であっても、両目の視線データ921の差分に基づいて停留判定の適切な閾値を決定することができ、停留判定の精度が向上する。
According to such a line-of-sight detection process, even when the frame rate of the image is low, an appropriate threshold value for the stop determination can be determined based on the difference between the line-of-
ところで、図16の視線検出処理では、LYiとRYiの差分の分散の移動平均を指標923として用いているため、視線データ921を蓄積する蓄積期間として、直近のN個のフレームの期間が用いられる。M<Nである場合、ばらつきViの計算に用いる直近のM個のフレームの期間は、蓄積期間に含まれている。しかし、蓄積期間は、必ずしもM個のフレームの期間を含んでいる必要はなく、それよりも前の期間であってもよい。
By the way, in the line-of-sight detection process of FIG. 16, since the moving average of the variance of the difference between LYi and RYi is used as the index 923, the period of the latest N frames is used as the accumulation period for accumulating the line-of-
また、判定部713は、ばらつき922として、視線位置の座標の分散の代わりに標準偏差を用いることもできる。この場合、計算部712は、N個のフレームにおけるLYiとRYiの差分の分散の代わりに標準偏差を用いて、指標923を計算する。
Further, the
図7及び図9の視線検出装置701の構成は一例に過ぎず、視線検出装置701の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図9の視線検出装置701において、視線データ921が外部の装置によって検出される場合は、検出部911を省略することができる。
The configuration of the line-of-
図8及び図16に示したフローチャートは一例に過ぎず、視線検出装置701の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図16の視線検出処理において、観察者が切り替わることがない場合は、ステップ1602及びステップ1603の処理を省略することができる。
The flowcharts shown in FIGS. 8 and 16 are merely examples, and some processes may be omitted or changed depending on the configuration or conditions of the line-of-
図1の視線センサ103と図10に示した視線検出は一例に過ぎず、視線センサ103の構成及び位置は、視線検出装置701の用途又は条件に応じて変化する。カメラ122が可視光を用いて観察者を撮影する場合は、LED121を省略することができる。
The line-of-
図2〜図6及び図12〜図15に示した視線データ及び視線位置は一例に過ぎず、視線データ及び視線位置は、撮影される映像に応じて変化する。図11に示した輻輳は一例に過ぎず、輻輳の度合いは、観察者に応じて変化する。 The line-of-sight data and the line-of-sight position shown in FIGS. 2 to 6 and 12 to 15 are merely examples, and the line-of-sight data and the line-of-sight position change according to the captured image. The congestion shown in FIG. 11 is only an example, and the degree of congestion varies depending on the observer.
式(1)〜式(10)は一例に過ぎず、視線検出装置701は、別の計算式を用いて視線検出処理を行ってもよい。
Equations (1) to (10) are merely examples, and the line-of-
図17は、図7及び図9の視線検出装置701として用いられる情報処理装置(コンピュータ)の構成例を示している。図17の情報処理装置は、Central Processing Unit(CPU)1701、メモリ1702、入力装置1703、出力装置1704、補助記憶装置1705、媒体駆動装置1706、及びネットワーク接続装置1707を含む。これらの構成要素はバス1708によって互いに接続されている。図9のカメラ901は、バス1708に接続されていてもよい。
FIG. 17 shows a configuration example of an information processing device (computer) used as the line-of-
メモリ1702は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを記憶する。メモリ1702は、図7及び図9の記憶部711として用いることができる。
The
CPU1701(プロセッサ)は、例えば、メモリ1702を利用してプログラムを実行することにより、図7及び図9の計算部712及び判定部713として動作する。CPU1701は、メモリ1702を利用してプログラムを実行することにより、図9の検出部911としても動作する。
The CPU 1701 (processor) operates as the
入力装置1703は、例えば、タッチパネル、キーボード、ポインティングデバイス等であり、ユーザ又はオペレータからの指示や情報の入力に用いられる。出力装置1704は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザ又はオペレータへの問い合わせ及び処理結果の出力に用いられる。出力装置1704は、図9の出力部912として用いることができる。
The
補助記憶装置1705は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1705は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1705にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。補助記憶装置1705は、図7及び図9の記憶部711として用いることができる。
The
媒体駆動装置1706は、可搬型記録媒体1709を駆動し、その記録内容にアクセスする。可搬型記録媒体1709は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1709は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、又はUniversal Serial Bus(USB)メモリであってもよい。ユーザ又はオペレータは、この可搬型記録媒体1709にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。
The
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ1702、補助記憶装置1705、及び可搬型記録媒体1709のような、物理的な(非一時的な)記録媒体が含まれる。
In this way, computer-readable recording media that store programs and data used for processing include physical (non-temporary) recording media such as
ネットワーク接続装置1707は、Local Area Network(LAN)、インターネット等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1707を介して受信し、それらをメモリ1702にロードして使用することができる。ネットワーク接続装置1707は、図9の出力部912として用いることができる。
The
なお、情報処理装置が図17のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、ユーザ又はオペレータとのインタフェースが不要である場合は、入力装置1703及び出力装置1704を省略してもよい。また、情報処理装置が可搬型記録媒体1709又は通信ネットワークを利用しない場合は、媒体駆動装置1706又はネットワーク接続装置1707を省略してもよい。
It is not necessary for the information processing apparatus to include all the components shown in FIG. 17, and some components may be omitted depending on the application or conditions. For example, if the interface with the user or operator is unnecessary, the
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。 Having described in detail the embodiments of the disclosure and its advantages, those skilled in the art will be able to make various changes, additions and omissions without departing from the scope of the invention as expressly stated in the claims. Let's do it.
図1乃至図17を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
処理をコンピュータに実行させるための視線検出プログラム。
(付記2)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記1記載の視線検出プログラム。
(付記3)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記2記載の視線検出プログラム。
(付記4)
前記コンピュータは、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記1乃至3のいずれか1項に記載の視線検出プログラム。
(付記5)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記4記載の視線検出プログラム。
(付記6)
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとを記憶する記憶部と、
前記左目の視線データと前記右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求める計算部と、
前記指標に基づいて前記観察者の視線に対する停留判定を行い、前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する判定部と、
を備えることを特徴とする視線検出装置。
(付記7)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記6記載の視線検出装置。
(付記8)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記7記載の視線検出装置。
(付記9)
前記判定部は、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記6乃至8のいずれか1項に記載の視線検出装置。
(付記10)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記9記載の視線検出装置。
(付記11)
コンピュータが、
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
ことを特徴とする視線検出方法。
(付記12)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記11記載の視線検出方法。
(付記13)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記12記載の視線検出方法。
(付記14)
前記コンピュータは、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記11乃至13のいずれか1項に記載の視線検出方法。
(付記15)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記14記載の視線検出方法。
The following additional notes will be further disclosed with respect to the embodiments described with reference to FIGS. 1 to 17.
(Appendix 1)
Based on the difference between the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer, an index showing the variation of the line-of-sight of the observer is obtained.
Based on the index, the occupancy determination with respect to the line of sight of the observer is performed.
The line-of-sight position of the observer is determined based on the determination result of the stop determination.
A line-of-sight detection program that allows a computer to perform processing.
(Appendix 2)
The line-of-sight according to Appendix 1, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting the left-right direction in a plane facing the observer's face. Detection program.
(Appendix 3)
The line-of-sight detection program according to Appendix 2, wherein the predetermined direction is a direction perpendicular to the left-right direction.
(Appendix 4)
The computer calculates the threshold of the occupancy determination based on the index, and from the line-of-sight data of the left eye and the right eye detected at each of the plurality of times within a predetermined period, the variation of the line-of-sight data at each of the plurality of times. Is calculated, and when the variation of the line-of-sight data at each of the plurality of times is smaller than the threshold value, it is determined that the line-of-sight of the observer is stationary. The line-of-sight detection program described.
(Appendix 5)
The
(Appendix 6)
A storage unit that stores the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer.
A calculation unit that obtains an index indicating variation in the line of sight of the observer based on the difference between the line of sight data of the left eye and the line of sight data of the right eye.
A determination unit that makes a stop determination for the observer's line of sight based on the index and determines the line-of-sight position of the observer based on the determination result of the stop determination.
A line-of-sight detection device comprising.
(Appendix 7)
The line of sight according to Appendix 6, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting the left-right direction in a plane facing the observer's face. Detection device.
(Appendix 8)
The line-of-sight detection device according to Appendix 7, wherein the predetermined direction is a direction perpendicular to the left-right direction.
(Appendix 9)
The determination unit calculates the threshold value of the retention determination based on the index, and from the line-of-sight data of the left eye and the right eye detected at each of the plurality of times within a predetermined period, the line-of-sight data at each of the plurality of times Item 1 of Appendix 6 to 8, wherein the variation is calculated, and when the variation of the line-of-sight data at each of the plurality of times is smaller than the threshold value, it is determined that the line-of-sight of the observer is stationary. The line-of-sight detection device according to.
(Appendix 10)
The appendix 9 is characterized in that the index represents the variance or standard deviation of the difference detected at each of a plurality of times within the first period including the predetermined period or the second period prior to the predetermined period. Line-of-sight detector.
(Appendix 11)
The computer
Based on the difference between the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer, an index showing the variation of the line-of-sight of the observer is obtained.
Based on the index, the occupancy determination with respect to the line of sight of the observer is performed.
The line-of-sight position of the observer is determined based on the determination result of the stop determination.
A line-of-sight detection method characterized by this.
(Appendix 12)
The line-of-sight according to Appendix 11, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting the left-right direction in a plane facing the observer's face. Detection method.
(Appendix 13)
The line-of-sight detection method according to Appendix 12, wherein the predetermined direction is a direction perpendicular to the left-right direction.
(Appendix 14)
The computer calculates the threshold of the occupancy determination based on the index, and from the line-of-sight data of the left eye and the right eye detected at each of the plurality of times within a predetermined period, the variation of the line-of-sight data at each of the plurality of times. Is calculated, and when the variation of the line-of-sight data at each of the plurality of times is smaller than the threshold value, it is determined that the line-of-sight of the observer is stationary. The line-of-sight detection method described.
(Appendix 15)
The appendix 14 is characterized in that the index represents the variance or standard deviation of the difference detected at each of a plurality of times within the first period including the predetermined period or the second period prior to the predetermined period. Line-of-sight detection method.
101 表示装置
102 画面
103 視線センサ
111〜113 画像
121 LED
122、901 カメラ
201〜203、301、601〜603 注視位置
211、212、501〜503、921 視線データ
302 検出結果
511 範囲
611〜613 最小包含円
614、925、1401、1402 視線位置
701 視線検出装置
711 記憶部
712 計算部
713 判定部
911 検出部
912 出力部
922 ばらつき
923 指標
924 閾値
1001 顔
1002 赤外線
1201〜1203、1301〜1303、1501〜1503 グラフ
1701 CPU
1702 メモリ
1703 入力装置
1704 出力装置
1705 補助記憶装置
1706 媒体駆動装置
1707 ネットワーク接続装置
1708 バス
1709 可搬型記録媒体
101
122, 901 Cameras 201-203, 301, 601-603
1702
Claims (7)
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
処理をコンピュータに実行させるための視線検出プログラム。 Based on the difference between the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer, an index showing the variation of the line-of-sight of the observer is obtained.
Based on the index, a stop determination is made with respect to the line of sight of the observer,
The line-of-sight position of the observer is determined based on the determination result of the stop determination.
A line-of-sight detection program that allows a computer to perform processing.
前記左目の視線データと前記右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求める計算部と、
前記指標に基づいて前記観察者の視線に対する停留判定を行い、前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する判定部と、
を備えることを特徴とする視線検出装置。 A storage unit that stores the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer.
A calculation unit that obtains an index indicating variation in the line of sight of the observer based on the difference between the line of sight data of the left eye and the line of sight data of the right eye.
A determination unit that makes a stop determination for the observer's line of sight based on the index and determines the line-of-sight position of the observer based on the determination result of the stop determination.
A line-of-sight detection device comprising.
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
ことを特徴とする視線検出方法。
The computer
Based on the difference between the line-of-sight data of the left eye of the observer observing the object and the line-of-sight data of the right eye of the observer, an index showing the variation of the line-of-sight of the observer is obtained.
Based on the index, a stop determination is made with respect to the line of sight of the observer,
The line-of-sight position of the observer is determined based on the determination result of the stop determination.
A line-of-sight detection method characterized by this.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017192602A JP6897467B2 (en) | 2017-10-02 | 2017-10-02 | Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method |
US16/145,728 US10726575B2 (en) | 2017-10-02 | 2018-09-28 | Information processing apparatus, recording medium recording line-of-sight detection program, and line-of-sight detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017192602A JP6897467B2 (en) | 2017-10-02 | 2017-10-02 | Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019063310A JP2019063310A (en) | 2019-04-25 |
JP6897467B2 true JP6897467B2 (en) | 2021-06-30 |
Family
ID=65896780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017192602A Active JP6897467B2 (en) | 2017-10-02 | 2017-10-02 | Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method |
Country Status (2)
Country | Link |
---|---|
US (1) | US10726575B2 (en) |
JP (1) | JP6897467B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10827918B1 (en) | 2019-12-25 | 2020-11-10 | Shamir Optical Industry Ltd. | System and method for automatically evaluating a vision of a user |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3460302B2 (en) | 1994-05-18 | 2003-10-27 | 松下電器産業株式会社 | Depth perception measurement device |
JP3760960B2 (en) | 1997-04-03 | 2006-03-29 | ソニー株式会社 | Gaze position detector |
US8717292B2 (en) | 2007-08-07 | 2014-05-06 | Osaka Electro-Communication University | Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium |
KR101697181B1 (en) * | 2010-09-07 | 2017-01-17 | 삼성전자주식회사 | Image processing apparatus and method using eye tracking of user |
WO2014130584A1 (en) * | 2013-02-19 | 2014-08-28 | Reald Inc. | Binocular fixation imaging method and apparatus |
WO2016103259A1 (en) * | 2014-12-22 | 2016-06-30 | Improved Vision Systems (I.V.S.) Ltd. | System and method for improved display |
WO2017090203A1 (en) * | 2015-11-27 | 2017-06-01 | フォーブ インコーポレーテッド | Line-of-sight detection system, gaze point identification method, and gaze point identification program |
KR102706397B1 (en) * | 2016-08-31 | 2024-09-12 | 엘지디스플레이 주식회사 | Display device for personal immersion apparatus and driving method thereof |
ES2734285T3 (en) * | 2016-09-15 | 2019-12-05 | Zeiss Carl Vision Int Gmbh | Apparatus to help establish a correction to correct heterotropy or heteroforia and procedure to operate a computer to help establish a correction to correct heterotropy or heteroforia |
KR102450236B1 (en) * | 2017-09-06 | 2022-10-04 | 삼성전자주식회사 | Electronic apparatus, method for controlling thereof and the computer readable recording medium |
US9940518B1 (en) * | 2017-09-11 | 2018-04-10 | Tobii Ab | Reliability of gaze tracking data for left and right eye |
-
2017
- 2017-10-02 JP JP2017192602A patent/JP6897467B2/en active Active
-
2018
- 2018-09-28 US US16/145,728 patent/US10726575B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2019063310A (en) | 2019-04-25 |
US20190102904A1 (en) | 2019-04-04 |
US10726575B2 (en) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9727135B2 (en) | Gaze calibration | |
EP2065795A1 (en) | Auto zoom display system and method | |
JP6265348B2 (en) | Eye-gaze measuring device, eye-gaze measuring method, and eye-gaze measuring program | |
US20170308172A1 (en) | Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium | |
KR101769177B1 (en) | Apparatus and method for eye tracking | |
JP6123694B2 (en) | Information processing apparatus, information processing method, and program | |
WO2012137801A1 (en) | Input device, input method, and computer program | |
US20160232399A1 (en) | System and method of detecting a gaze of a viewer | |
KR101272811B1 (en) | System and method for interface | |
JP6881755B2 (en) | Line-of-sight detection calibration methods, systems, and computer programs | |
JP2013135341A5 (en) | ||
JP5719216B2 (en) | Gaze measurement apparatus and gaze measurement program | |
JP6897467B2 (en) | Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method | |
JP2015046111A (en) | Viewpoint detection device and viewpoint detection method | |
JP2011172853A (en) | Device, method and program for measuring visual axis | |
JP2018054747A (en) | Image display device, image formation apparatus and program | |
JP2005323905A (en) | Instrument and program for measuring eyeball movement | |
KR102224209B1 (en) | Apparatus and method for measuring angle of strabismus | |
JP6260399B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP6468078B2 (en) | Gaze calibration program, gaze calibration apparatus, and gaze calibration method | |
Fujiyoshi et al. | Inside-out camera for acquiring 3D gaze points | |
US11973927B2 (en) | Detecting eye tracking calibration errors | |
KR101643744B1 (en) | Device and method for detecting user fixation pupillary response | |
JP6873326B2 (en) | Eye 3D coordinate acquisition device and gesture operation device | |
EP4177712A1 (en) | Method and system for characterizing eye movements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200709 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210423 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6897467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |