JP2016173313A - Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program - Google Patents
Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program Download PDFInfo
- Publication number
- JP2016173313A JP2016173313A JP2015053745A JP2015053745A JP2016173313A JP 2016173313 A JP2016173313 A JP 2016173313A JP 2015053745 A JP2015053745 A JP 2015053745A JP 2015053745 A JP2015053745 A JP 2015053745A JP 2016173313 A JP2016173313 A JP 2016173313A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- subject
- camera
- iris
- direction estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、視線方向推定システム、視線方向推定方法及び視線方向推定プログラムに関する。 The present invention relates to a gaze direction estimation system, a gaze direction estimation method, and a gaze direction estimation program.
人間の視線方向を推定することは、例えば、車の運転手の行動解析、セキュリティモニタリング、人間の行動研究及び人間とコンピュータとのインターフェース等において重要である。視線方向推定の従来技術として、近年、撮影対象の2次元画像と、撮影対象までの距離情報を含む距離画像とを取得可能なRGB−Dカメラが利用されてきている。RGB−Dカメラの例はマイクロソフト社製のKinect(登録商標)である。例えば、被特許文献1では、Kinectからの撮影画像情報と、眼球モデルとを利用して視線方向を推定している。そして、特許文献1では、視線方向の推定誤差が平均約10°程度と報告されている。更に、特許文献2では、Kinectからの撮影画像情報及び眼球モデルの組み合わせに、更に学習プロセスを組み合わせることによって、視線方向の推定誤差が平均約3.4°程度と報告されている。 Estimating the human gaze direction is important in, for example, behavior analysis of car drivers, security monitoring, human behavior research, and human-computer interfaces. In recent years, an RGB-D camera capable of acquiring a two-dimensional image to be imaged and a distance image including distance information to the imaged object has been used as a conventional technique for estimating the gaze direction. An example of the RGB-D camera is Kinect (registered trademark) manufactured by Microsoft Corporation. For example, in Patent Document 1, the line-of-sight direction is estimated using captured image information from Kinect and an eyeball model. And in patent document 1, it is reported that the estimation error of a gaze direction averages about 10 degrees. Further, in Patent Document 2, it is reported that the estimation error of the gaze direction averages about 3.4 ° by further combining a learning process with the combination of photographed image information and eyeball model from Kinect.
しかしながら、例えば、非特許文献2記載の技術では、学習プロセスを含むため演算処理が多くなり、演算処理の負荷が大きくなると考えられる。 However, for example, in the technique described in Non-Patent Document 2, it is considered that the calculation process increases because the learning process is included, and the load of the calculation process increases.
そこで、本発明は、視線方向の推定に要する演算処理の負荷を低減可能な手段を提供することを目的とする。 Therefore, an object of the present invention is to provide means capable of reducing the processing load required to estimate the line-of-sight direction.
本発明に係る視線方向推定システムは、被撮影対象者の視線方向を推定する視線方向推定システムであって、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラと、カメラで撮影された被撮影対象者の顔の2次元画像及び距離画像に基づいて、被撮影対象者の視線方向を推定する視線方向推定装置と、を備える。視線方向推定装置は、顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系の原点を原点とし、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定部と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定部と、を有する。 A gaze direction estimation system according to the present invention is a gaze direction estimation system that estimates a gaze direction of a subject to be photographed, and a camera that acquires a distance image including a two-dimensional image of the photographing target and distance information to the photographing target; And a gaze direction estimation device that estimates the gaze direction of the subject to be photographed based on the two-dimensional image and the distance image of the face of the subject to be photographed by the camera. The gaze direction estimation device calculates posture information of the subject's head relative to the first coordinate system of the camera from the two-dimensional image of the face and the distance image, sets the second coordinate system, and sets the second coordinate system. A third coordinate system of the eyeball whose origin is the center of the eyeball of the subject to be imaged expressed by translational movement of the coordinate system, the origin of the third coordinate system is the origin, and the horizontal direction relative to the third coordinate system A coordinate system setting unit that sets a fourth coordinate system of the subject's iris represented by a first rotation angle that is a rotation angle and a second rotation angle that is a rotation angle in the vertical direction; When the three-dimensional contour of the iris in the fourth coordinate system is projected onto the image plane in the first coordinate system via the camera, the contour of the iris is obtained from the two-dimensional image of the face of the subject. First and second rotation angles by fitting to the extracted iris contour The subject is imaged based on the optical axis calculated from the pupil center of the subject to be imaged determined based on the calculated first and second rotation angles and the eyeball model, and the origin of the third coordinate system. And a gaze direction estimation unit that estimates the gaze direction of the subject.
上記構成では、撮影対象としての被撮影対象者の顔をカメラで撮影することにより、被撮影対象者の顔の2次元画像及び顔までの距離画像を得ることができる。そのようにして取得された2次元画像及び距離画像を利用して撮影対象者の頭部の姿勢情報を算出できることから、座標系設定部は、第1の座標系に対して第2の座標系を設定できる。この第2の座標系が設定されると、それを並進移動させた座標系として第3の座標系を設定できる。第3の座標系は、第2の座標系に対して固定されているので、被撮影対象者に対して第2及び第3の座標系の変換を示す並進ベクトルを規定しておけば、第1〜第3の座標系を相互に変換できる。更に、眼の虹彩に対する座標系である第4の座標系は、眼の構造上、第3の座標系に対して上記第1及び第2回転角で表される。視線方向が移動する際、虹彩も移動しているので、第1及び第2回転角は、視線方向を推定する際のパラメータとなるものである。 In the above configuration, by capturing the face of the subject to be photographed as a subject to be photographed with a camera, a two-dimensional image of the face of the subject and the distance image to the face can be obtained. Since the posture information of the head of the person to be photographed can be calculated using the two-dimensional image and the distance image acquired as described above, the coordinate system setting unit has the second coordinate system relative to the first coordinate system. Can be set. When this second coordinate system is set, the third coordinate system can be set as a coordinate system obtained by translating the second coordinate system. Since the third coordinate system is fixed with respect to the second coordinate system, if a translation vector indicating the transformation of the second and third coordinate systems is defined for the subject, The first to third coordinate systems can be mutually converted. Furthermore, the fourth coordinate system, which is a coordinate system for the iris of the eye, is represented by the first and second rotation angles with respect to the third coordinate system due to the structure of the eye. When the line-of-sight direction moves, the iris also moves, so the first and second rotation angles are parameters for estimating the line-of-sight direction.
座標系設定部が上記第1〜第4の座標系を設定すれば、視線方向推定部は、第1〜第4の座標系及び眼球モデルを利用して視線方向を推定する。具体的には、設定された第1〜第4の座標系及び眼球モデルを利用することで、眼球モデルにおける虹彩の輪郭を、カメラの座標系である第1のカメラ座標系での画像平面に投影できる。この投影された輪郭を、実際に撮影された2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出できる。これにより、第3の座標系に対して第4の座標系が決定され、眼球モデルにおける虹彩の位置がわかるので、瞳孔中心の位置を算出できる。瞳孔中心と、眼球の中心、すなわち、第3の座標系の原点とを繋ぐ直線で示される軸は、光学軸として知られている。従って、瞳孔中心が上記のように算出されると、瞳孔中心と、第3の座標系の原点とから光学軸を算出できる。視線方向は光学軸に対して所定角度傾いた方向として知られているので、光学軸が算出されることで、視線方向を推定できる。 If the coordinate system setting unit sets the first to fourth coordinate systems, the gaze direction estimation unit estimates the gaze direction using the first to fourth coordinate systems and the eyeball model. Specifically, by using the first to fourth coordinate systems and the eyeball model that have been set, the contour of the iris in the eyeball model is converted into an image plane in the first camera coordinate system that is the camera coordinate system. Can project. The first and second rotation angles can be calculated by fitting the projected contour to the contour of the iris extracted from the actually captured two-dimensional image. Thereby, the fourth coordinate system is determined with respect to the third coordinate system, and the position of the iris in the eyeball model is known, so that the position of the pupil center can be calculated. An axis indicated by a straight line connecting the center of the pupil and the center of the eyeball, that is, the origin of the third coordinate system is known as an optical axis. Therefore, when the pupil center is calculated as described above, the optical axis can be calculated from the pupil center and the origin of the third coordinate system. Since the line-of-sight direction is known as a direction inclined by a predetermined angle with respect to the optical axis, the line-of-sight direction can be estimated by calculating the optical axis.
この場合、被撮影対象者の顔の2次元画像及び顔までの距離画像並びに眼球モデルを利用することで、視線方向を推定するための未知のパラメータは、第1及び第2回転角の2つのみである。そのため、上記視線方向推定システムによれば、演算処理の負荷を低減できる。 In this case, two parameters of the first and second rotation angles are used as the unknown parameters for estimating the gaze direction by using the two-dimensional image of the face of the person to be imaged, the distance image to the face, and the eyeball model. Only. Therefore, according to the said gaze direction estimation system, the load of arithmetic processing can be reduced.
上記視線方向推定部は、フィティングにより対応付けられた、第4の座標系における虹彩の3次元的な輪郭を画像平面に投影した際の各エッジ点と、2次元画像における虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、第1及び第2回転角を算出し得る。 The line-of-sight direction estimation unit is associated with each edge point when the three-dimensional contour of the iris in the fourth coordinate system, which is associated by fitting, is projected onto the image plane, and in the contour of the iris in the two-dimensional image. The first and second rotation angles can be calculated by solving the objective function that indicates the corresponding relationship with the corresponding edge point and includes the first and second rotation angles as unknown parameters.
一実施形態において、被撮影対象者がカメラの方を向き且つカメラを注視している状態で撮影された被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正部を更に備えてもよい。このように、第3の座標系の原点を校正することで、被撮影対象者に応じた眼球位置がわかるので、視線方向をより正確に推定できる。 In one embodiment, the third coordinate system is based on a two-dimensional image and a distance image of the face of the subject to be photographed while the subject is facing the camera and gazing at the camera. You may further provide the calibration part which calibrates an origin. In this way, by calibrating the origin of the third coordinate system, the eyeball position corresponding to the person to be imaged can be known, so that the line-of-sight direction can be estimated more accurately.
本発明の他の側面に係る視線方向推定方法は、被撮影対象者の視線方向を推定する視線方向推定方法であって、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、被撮影対象者の顔を撮影する撮影工程と、撮影工程で得られた顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系の原点を原点とし、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定工程と、を備える。 A gaze direction estimation method according to another aspect of the present invention is a gaze direction estimation method for estimating a gaze direction of a subject to be photographed, and includes a two-dimensional image of a photographing target and a distance image including distance information to the photographing target. A photographing process for photographing the face of the subject to be photographed using the camera to be obtained, and the head of the subject to be photographed with respect to the first coordinate system of the camera from the two-dimensional image and the distance image of the face obtained in the photographing step A third coordinate system of the eyeball with the origin of the center of the eyeball of the subject to be imaged expressed by translationally moving the second coordinate system, The iris of the subject to be imaged represented by the first rotation angle that is the horizontal rotation angle with respect to the third coordinate system and the second rotation angle that is the vertical rotation angle with respect to the third coordinate system. A coordinate system setting step for setting the fourth coordinate system of the Extracting the iris contour from the two-dimensional image of the face of the subject to be photographed when the three-dimensional contour of the iris in the fourth coordinate system is projected onto the image plane in the first coordinate system via the camera The first and second rotation angles are calculated by fitting to the contour of the iris to be determined, and the pupil center of the subject to be imaged is determined based on the calculated first and second rotation angles and the eyeball model. And a gaze direction estimation step of estimating the gaze direction of the subject to be photographed based on the optical axis calculated from the origin of the third coordinate system.
本発明の更に他の側面に係る視線方向推定プログラムは、被撮影対象者の視線方向を推定する視線方向推定プログラムであって、コンピュータに、撮影対象の2次元画像及び撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、被撮影対象者の顔を撮影して得られた、顔の2次元画像及び距離画像からカメラの第1の座標系に対する被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、第2の座標系を並進移動して表される被撮影対象者の眼球の中心を原点とする眼球の第3の座標系、第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、眼球モデルに基づいた、カメラを介して第4の座標系における虹彩の3次元的な輪郭を第1の座標系における画像平面に投影したとした場合の虹彩の輪郭を、被撮影対象者の顔の2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出し、算出された第1及び第2回転角並びに眼球モデルに基づいて決定される被撮影対象者の瞳孔中心と、第3の座標系の原点とから算出される光学軸に基づいて被撮影対象者の視線方向を推定する視線方向推定工程と、を実行せしめる。 A line-of-sight direction estimation program according to still another aspect of the present invention is a line-of-sight direction estimation program for estimating a line-of-sight direction of a subject to be photographed, and a computer is provided with a two-dimensional image of the photographing target and distance information to the photographing target The head of the subject to be photographed with respect to the first coordinate system of the camera from the two-dimensional image of the face and the distance image obtained by photographing the face of the subject to be photographed using a camera that acquires a distance image including A third coordinate system of an eyeball having an origin at the center of the eyeball of the subject to be imaged expressed by translational movement of the second coordinate system and calculating the posture information and setting the second coordinate system; A coordinate system setting for setting a fourth coordinate system of the subject's iris represented by a first rotation angle that is a horizontal rotation angle and a second rotation angle that is a vertical rotation angle with respect to the three coordinate systems. The process and the first through the camera, based on the eyeball model The iris contour when the three-dimensional contour of the iris in the first coordinate system is projected onto the image plane in the first coordinate system is used as the iris contour extracted from the two-dimensional image of the face of the subject. The first and second rotation angles are calculated by fitting, the pupil center of the subject to be imaged determined based on the calculated first and second rotation angles and the eyeball model, and the third coordinate system And a line-of-sight direction estimating step of estimating the line-of-sight direction of the subject to be imaged based on the optical axis calculated from the origin.
上記カメラで撮影して得られた被撮影対象者の顔の2次元画像及び顔までの距離画像を利用すれば、撮影対象者の頭部の姿勢情報を算出でできる。上記視線方向推定方法及び視線方向推定プログラムでは、被撮影対象者の顔の2次元画像及び顔までの距離画像から算出される上記姿勢情報を利用して、第1の座標系に対する第2の座標系を設定し、第2の座標系に対して一定の関係を有する第3及び第4の座標系を設定する。 By using the two-dimensional image of the face of the subject to be photographed and the distance image to the face obtained by photographing with the camera, the posture information of the head of the subject can be calculated. In the gaze direction estimation method and the gaze direction estimation program, the second coordinate with respect to the first coordinate system is obtained using the posture information calculated from the two-dimensional image of the face of the subject and the distance image to the face. A system is set, and third and fourth coordinate systems having a certain relationship with the second coordinate system are set.
これらの第1〜第4の座標系は相互に変換可能であることから、設定された第1〜第4の座標系及び眼球モデルを利用することで、虹彩の輪郭を、カメラの座標系である第1のカメラ座標系での画像平面に投影できる。この投影された輪郭を、実際に撮影された2次元画像から抽出される虹彩の輪郭にフィティングすることによって、第1及び第2回転角を算出できる。これにより、第3の座標系に対して第4の座標系が決定され、眼球モデルにおける虹彩の位置がわかるので、瞳孔中心の位置を算出できる。瞳孔中心と、眼球の中心、すなわち、第3の座標系の原点とを繋ぐ直線で示される軸は、光学軸として知られている。従って、瞳孔中心が上記のように算出されると、瞳孔中心と、第3の座標系の原点とから光学軸を算出できる。視線方向は光学軸に対して所定角度傾いた方向として知られているので、光学軸が算出されることで、視線方向を推定できる。 Since these first to fourth coordinate systems can be converted to each other, by using the set first to fourth coordinate systems and the eyeball model, the contour of the iris can be expressed in the camera coordinate system. Projection can be performed on an image plane in a certain first camera coordinate system. The first and second rotation angles can be calculated by fitting the projected contour to the contour of the iris extracted from the actually captured two-dimensional image. Thereby, the fourth coordinate system is determined with respect to the third coordinate system, and the position of the iris in the eyeball model is known, so that the position of the pupil center can be calculated. An axis indicated by a straight line connecting the center of the pupil and the center of the eyeball, that is, the origin of the third coordinate system is known as an optical axis. Therefore, when the pupil center is calculated as described above, the optical axis can be calculated from the pupil center and the origin of the third coordinate system. Since the line-of-sight direction is known as a direction inclined by a predetermined angle with respect to the optical axis, the line-of-sight direction can be estimated by calculating the optical axis.
この場合、被撮影対象者の顔2次元画像及び顔までの距離画像並びに眼球モデルを利用することで、視線方向を推定するための未知のパラメータは、第1及び第2回転角の2つのみである。そのため、上記視線方向推定方法及び視線方向推定プログラムによれば、演算処理の負荷を低減できる。 In this case, only two parameters, the first and second rotation angles, are used to estimate the line-of-sight direction by using the two-dimensional image of the subject to be imaged, the distance image to the face, and the eyeball model. It is. Therefore, according to the said gaze direction estimation method and gaze direction estimation program, the load of calculation processing can be reduced.
上記視線方向推定工程では、フィティングにより対応付けられた、第4の座標系における虹彩の3次元的な輪郭を画像平面に投影した際の各エッジ点と、2次元画像における虹彩の輪郭中の対応するエッジ点との対応関係を示すと共に第1及び第2回転角を未知パラメータとして含む目的関数を解くことによって、第1及び第2回転角を算出し得る。 In the line-of-sight direction estimation step, each edge point when the three-dimensional contour of the iris in the fourth coordinate system associated with the fitting is projected onto the image plane and the contour of the iris in the two-dimensional image The first and second rotation angles can be calculated by solving the objective function that indicates the corresponding relationship with the corresponding edge point and includes the first and second rotation angles as unknown parameters.
一実施形態に係る視線方向推定方法では、被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正工程を更に備え、校正工程を実施する場合、撮影工程では、被撮影対象者がカメラの方を向いて且つカメラを注視している状態で前記被撮影対象者を撮影してもよい。 The gaze direction estimation method according to an embodiment further includes a calibration step of calibrating the origin of the third coordinate system based on the two-dimensional image and the distance image of the face of the subject to be imaged, and the calibration step is performed. In the photographing step, the subject person may be photographed while the subject person is facing the camera and gazing at the camera.
同様に、一実施形態に係る視線方向推定プログラムでは、コンピュータに、被撮影対象者がカメラの方を向いて且つカメラを注視している状態で被撮影対象者を撮影することによって取得された被撮影対象者の顔の2次元画像及び距離画像に基づいて、第3の座標系の原点を校正する校正工程を更に実行せしめてもよい。 Similarly, in the gaze direction estimation program according to one embodiment, the computer captures the subject to be photographed while the subject is facing the camera and gazing at the camera. A calibration step for calibrating the origin of the third coordinate system may be further executed based on the two-dimensional image and the distance image of the face of the person to be photographed.
このように、校正工程を行う又はコンピュータに実行させることで、被撮影対象者に応じた眼球位置がわかるので、視線方向をより正確に推定できる。 In this way, by performing the calibration process or causing the computer to execute the eyeball position corresponding to the subject to be imaged, the line-of-sight direction can be estimated more accurately.
本発明によれば、視線方向推定の精度を維持しながら、視線方向の推定に要する処理時間を短縮可能な手段を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the means which can shorten the processing time required for estimation of a gaze direction can be provided, maintaining the precision of gaze direction estimation.
以下、図面を参照して本発明の実施形態について説明する。以下の説明においては、同一の要素には同一の符号を用いると共に、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are used for the same elements, and redundant descriptions are omitted.
一実施形態に係る視線方向推定システムは、カメラで被撮影対象者を撮影し、撮影された画像及び眼球モデル20を利用して被撮影対象者の視線方向を推定するためのものである。視線方向推定システムは、人間の視線方向を推定するシステムであり、例えば、運転手の行動解析、セキュリティモニタリング、人間の行動研究及び人間とコンピュータとのインターフェースなどに適用され得る。 The gaze direction estimation system according to an embodiment is for photographing a subject to be photographed with a camera, and estimating the gaze direction of the subject to be photographed using the photographed image and the eyeball model 20. The gaze direction estimation system is a system that estimates a human gaze direction, and can be applied to, for example, driver behavior analysis, security monitoring, human behavior research, and a human-computer interface.
視線方向推定システムは、図1に模試的に示したカメラ10を利用する。カメラ10は、撮影対象のRGB画像(2次元画像)と共に、撮影対象までの距離情報を含む距離画像を取得可能な、いわゆるRGG―Dカメラである。カメラ10の例は、マイクロソフト社製のKinect(登録商標)である。 The gaze direction estimation system uses the camera 10 schematically shown in FIG. The camera 10 is a so-called RGG-D camera that can acquire a distance image including distance information to the shooting target together with an RGB image (two-dimensional image) of the shooting target. An example of the camera 10 is Microsoft's Kinect (registered trademark).
カメラ10は、RGBカメラ11と、距離画像取得部12とを有する。RGBカメラ11は、撮影対象の2次元カラー画像を取得する2次元画像取得部である。距離画像取得部12は、赤外線(IR)カメラ12Aと、所定のパターンを赤外線で投影するIRプロジェクタ12Bとを有する。 The camera 10 includes an RGB camera 11 and a distance image acquisition unit 12. The RGB camera 11 is a two-dimensional image acquisition unit that acquires a two-dimensional color image to be photographed. The distance image acquisition unit 12 includes an infrared (IR) camera 12A and an IR projector 12B that projects a predetermined pattern with infrared rays.
カメラ10では、RGBカメラ11によって、RGB画像を取得する。また、IRプロジェクタ12BによってIR(赤外線)を使用して投影された所定のパターンをIRカメラ12Aが撮影することによって、所定パターンの歪み状態などに基づいて距離画像を取得する。 In the camera 10, an RGB image is acquired by the RGB camera 11. Further, the IR camera 12A captures a predetermined pattern projected using IR (infrared rays) by the IR projector 12B, thereby acquiring a distance image based on the distortion state of the predetermined pattern.
図2を利用して視線方向推定システムで利用する眼球モデル20について説明する。図2には、説明の都合上、カメラ10を模式的に示している。眼球モデル20は、大きさの異なる2つの球21,22によって人間の眼の構造をモデル化したものである。図2において、球21が眼球であり、いわゆる白目に対応する部分である。球22は、球21の表面近傍に位置しており、いわゆる角膜のモデルであって、黒目に相当する部分である。虹彩及び瞳孔は角膜内にある。 The eyeball model 20 used in the gaze direction estimation system will be described with reference to FIG. In FIG. 2, the camera 10 is schematically shown for convenience of explanation. The eyeball model 20 is obtained by modeling the structure of the human eye with two spheres 21 and 22 having different sizes. In FIG. 2, a sphere 21 is an eyeball, which corresponds to a so-called white eye. The sphere 22 is located in the vicinity of the surface of the sphere 21 and is a so-called corneal model, which corresponds to the black eye. The iris and pupil are in the cornea.
球21の中心Cと、瞳孔(或いは虹彩)中心Pfとを繋いだ仮想線が光学軸SOに対応する。以下では、中心Cを眼球中心Cとも称す。球22の中心CPは光学軸SO上に位置する。本明細書で視線方向DGとは、視軸の方向を意味しており、角膜のモデルである球22の中心CPと、注視点Gとを結ぶ仮想的な直線の方向である。視線方向DGは、光学軸SOと、所定角度θを為している。所定角度θは、個人差はあるが、ほぼ一定の角度と見なせる。以下の説明では、特に断らない限り、角度θは、視線方向DGが推定される被撮影対象者によらず一定とする。 And the center C of the sphere 21, the pupil (or iris) virtual line that connects the center P f corresponds to the optical axis S O. Hereinafter, the center C is also referred to as an eyeball center C. Center C P of the sphere 22 is located on the optical axis S O. The viewing direction D G herein means a direction of the visual axis, and the center C P of the sphere 22 is a model of the cornea, which is the direction of a virtual line connecting the gaze point G. Viewing direction D G includes an optical axis S O, which form a predetermined angle theta. The predetermined angle θ can be regarded as a substantially constant angle although there are individual differences. In the following description, unless otherwise specified, the angle θ is constant regardless of the subject to be imaged in which the line-of-sight direction DG is estimated.
前述したように、虹彩及び瞳孔は角膜の内側に位置するが、カメラ10では、角膜表面が撮影されることになるので、図2では、光学軸SOと球22との交点を瞳孔中心Pfと図示している。カメラ10で被撮影対象者が撮影された場合、図2に示した点PfがRGB画像上に現れる。球22と球21とが交わって形成される曲線Aを虹彩の輪郭とする。以下では、曲線Aを輪郭Aとも称す。 As described above, the iris and pupil are located inside the cornea, but the camera 10 images the corneal surface. In FIG. 2, the intersection of the optical axis SO and the sphere 22 is defined as the pupil center P. Illustrated as f . If the imaging subject is photographed by the camera 10, P f point indicated in FIG. 2 appears on the RGB image. A curve A formed by the intersection of the sphere 22 and the sphere 21 is defined as the outline of the iris. Hereinafter, the curve A is also referred to as a contour A.
眼球モデル20において、球21の中心Cと球22の中心Cpとの間の距離をK0とし、中心Cと、瞳孔中心Pfとの間の距離をKとする。K0及びKは眼球モデル20で設定される定数である。K0及びKは、実際には個人差はあるが、個人差はほぼ無視できるとして一般的な人間の眼球の多さに基づいた値を設定しておけばよい。例えば、K=13.1mmであり、K0=5.3mmである。 In the eyeball model 20, the distance between the center C p of the center C and the sphere 22 of the sphere 21 and K 0, and the center C, the distance between the pupil center P f and K. K 0 and K are constants set in the eyeball model 20. Although K 0 and K are actually different among individuals, it is sufficient to set values based on the general number of human eyeballs, assuming that individual differences are almost negligible. For example, K = 13.1 mm and K 0 = 5.3 mm.
次に、図3を利用して視線方向推定システムで使用する座標系について説明する。被撮影対象者の視線方向DGを推定するために、図3に示すように、4つの座標系、すなわち、カメラ座標系(第1の座標系)SC、頭部座標系(第2の座標系)SH、眼球座標系(第3の座標系)Se及び虹彩(アイリス)座標系(第4の座標系)Spを使用する。座標系は、右手系及び左手系でもよいが、以下では特に断らない限り、4つの座標系は全て右手系の座標系である。図3に示した眼球モデル20において、球22は省略し、球21のみを図示している。ただし、説明の都合上、虹彩の輪郭Aを示している。図3において、ハッチングで示す平面Qは、輪郭Aを含む面であり、点qは、平面QとZp軸との交点である。 Next, a coordinate system used in the gaze direction estimation system will be described with reference to FIG. To estimate the gaze direction D G of the imaging subject, as shown in FIG. 3, four coordinate system, i.e., the camera coordinate system (first coordinate system) S C, head coordinate system (second coordinate system) S H, eyeball coordinate system (third coordinate system) S e and iris (iris) coordinate system (fourth coordinate system) using the S p. The coordinate system may be a right-handed system or a left-handed system, but in the following, all four coordinate systems are right-handed coordinate systems unless otherwise specified. In the eyeball model 20 shown in FIG. 3, the sphere 22 is omitted and only the sphere 21 is shown. However, for convenience of explanation, the outline A of the iris is shown. 3, the plane Q indicated by hatching is a plane containing the contour A, the point q is the intersection of the plane Q and Z p axis.
カメラ座標系SCは、カメラ10に設定される3次元座標系(OC―XCYCZC)である。本明細書において、カメラ座標系SCのZC軸は、被撮影対象者側に向いており、YC軸は、鉛直方向を向いている。以下では、特に断らない限り、カメラ座標系SCは、RGBカメラ11の座標系である。一実施形態において、カメラ座標系SCの原点OCはRGBカメラ11の光学中心として設定できる。ただし、RGBカメラ11の座標系とIRカメラ12Aの座標系は相互に変換できるため、IRカメラ12Aの座標系をカメラ座標系SCと設定していてもよい。 The camera coordinate system S C is a three-dimensional coordinate system (O C —X C Y C Z C ) set for the camera 10. In the present specification, Z C axis of the camera coordinate system S C is oriented in the imaging subject side, Y C axis is oriented vertically. In the following, unless otherwise specified, the camera coordinate system S C is the coordinate system of the RGB camera 11. In one embodiment, the origin O C of the camera coordinate system S C can be set as the optical center of the RGB camera 11. However, since the coordinate system and the coordinate system of the IR camera 12A of the RGB camera 11 can be converted to each other, it may be set in the coordinate system of the IR camera 12A and camera coordinate system S C.
頭部座標系SHは、被撮影対象者の頭部に対して設定される3次元座標系(OH―XHYHZH)である。本実施形態では、座標系間の変換を容易にする観点から、カメラ座標系SCに対応させて鉛直方向をYH軸方向とする。また、ZH軸は、後頭部に向いているとする。頭部座標系SHとカメラ座標系SCは相互に変換可能であり、その座標変換は、並進ベクトルT及び回転行列Rで表される。並進ベクトルT及び回転行列Rは、頭部のカメラ10に対する姿勢情報でもある。 Head coordinate system S H is a three-dimensional coordinate system set with respect to the imaging subject's head (O H -X H Y H Z H). In the present embodiment, from the viewpoint of facilitating the conversion between the coordinate system, the vertical direction in correspondence to the camera coordinate system S C and Y H axis direction. Further, Z H axis, and facing the back of the head. Head coordinate system S H and the camera coordinate system S C is interconvertible, the coordinate transformation is represented by translation vector T and the rotation matrix R. The translation vector T and the rotation matrix R are also posture information with respect to the camera 10 of the head.
眼球座標系Seは、被撮影対象者の眼球に対して設定される3次元座標系(Oe−XeYeZe)であり、図1に示した眼球モデル20において、球21に対して設定される座標系である。よって、原点Oeは、球21の中心Cに対応する。人間の構造上、眼球座標系Seは、頭部座標系SHを並進移動させたものとして設定できる。従って、眼球座標系Seと頭部座標系SHとは相互に変換でき、その座標変換は、並進ベクトルTeで表される。そのため、眼球座標系SeのYe軸方向は鉛直方向であり、Ze軸は、後頭部に向いている。 Eyeball coordinate system S e is a 3-dimensional coordinate system set with respect to the eye of the imaging subject (O e -X e Y e Z e), the eye model 20 shown in FIG. 1, the sphere 21 This is a coordinate system set for the user. Therefore, the origin O e corresponds to the center C of the sphere 21. Human structural, ocular coordinate system S e can be set the head coordinate system S H as obtained by translation. Therefore, the eye coordinate system S e and the head coordinate system S H can be converted to each other, the coordinate transformation is represented by translation vector T e. Therefore, Y e axis of the eyeball coordinate system S e is the vertical direction, Z e axis is oriented to the back of the head.
虹彩座標系Spは、被撮影対象者の虹彩に対して設定される3次元座標系(Op−XpYpZp)である。虹彩座標系Spの原点Opは、眼球座標系Seの原点Oeと同じとし、Zp軸は、瞳孔中心Pfを通り、虹彩平面に直交する軸として設定する。虹彩座標系Sp及び眼球座標系Seの原点は同じであることから、虹彩座標系Spと眼球座標系Seとの間は、ロールα、ヨー(第1回転角)β及びピッチ(第2回転角)γの各回転角を利用して相互変換できる。 Iris coordinate system S p is a three-dimensional coordinate system set with respect to the iris of the imaging subject (O p -X p Y p Z p). The origin O p of the iris coordinate system S p is the same as the origin O e of the eyeball coordinate system S e , and the Z p axis is set as an axis that passes through the pupil center P f and is orthogonal to the iris plane. Since the origin of the iris coordinate system S p and eye coordinate system S e is the same, between the iris coordinate system S p and the eyeball coordinate system S e is roll alpha, yaw (first rotation angle) beta and pitch ( Mutual conversion is possible using each rotation angle of (second rotation angle) γ.
ただし、虹彩が眼球上で移動する際、人間の構造上、虹彩は、鉛直方向周りの回転(すなわち、水平方向の動き)と、水平方向周りの回転(すなわち、鉛直方向の動き)だけである。従って、虹彩座標系Spは、ロールαを0とすることができる。そのため、虹彩座標系Sp及び眼球座標系Se間の変換は2つの回転角度であるヨーβ及びピッチγのみで表される。なお、ヨーβは、眼球座標系SeのXe軸周りに回転角であり、被撮影対象者の顔を見た場合に左右方向の動きを示している。ピッチγは、Ye軸周りの回転角を示しており、被撮影対象者の顔を見た場合に上下方向の動きを示している。 However, when the iris moves on the eyeball, due to the human structure, the iris is only rotated around the vertical direction (ie, horizontal movement) and rotated around the horizontal direction (ie, vertical movement). . Therefore, the iris coordinate system Sp can set the roll α to 0. Therefore, the conversion between the iris coordinate system S p and eye coordinate system S e is expressed by only the yaw β and pitch γ is a two rotation angles. Note that the yaw beta, the rotation angle around the X e axis of the eyeball coordinate system S e, shows a lateral movement when viewed face of the imaging subject. The pitch γ indicates a rotation angle around the Y e axis, and indicates a vertical movement when the face of the person to be imaged is viewed.
以上説明したカメラ10、眼球モデル20及び4つの座標系を利用して視線方向DGを推定する視線方向推定システム1は、図4に示したブロック図のように、カメラ10と、視線方向推定装置30とを備える。図4は、カメラ10及び視線方向推定装置30の主な機能を示す機能ブロック図である。カメラ10については、前述したので説明は省略するが、以下ではカメラ10は、Kinectとする。 Camera 10 has been described above, the line-of-sight direction estimation system 1 for estimating a gaze direction D G by using eye model 20 and the four coordinate system, as the block diagram shown in FIG. 4, the camera 10, the line-of-sight direction estimation Device 30. FIG. 4 is a functional block diagram illustrating the main functions of the camera 10 and the line-of-sight direction estimation device 30. The description of the camera 10 is omitted since it has been described above, but in the following, the camera 10 is referred to as Kinect.
視線方向推定装置30は、カメラ10と配線を介して電気的に接続されており、カメラ10で取得された画像(具体的には画像データ)は配線を介して視線方向推定装置30に入力される。カメラ10からの画像、例えば、無線通信を利用して、視線方向推定装置30に入力されてもよい。 The line-of-sight direction estimation device 30 is electrically connected to the camera 10 via wiring, and an image (specifically, image data) acquired by the camera 10 is input to the line-of-sight direction estimation device 30 via wiring. The The image from the camera 10, for example, may be input to the gaze direction estimation device 30 using wireless communication.
視線方向推定装置30は、図2に示した4つの座標系を設定する座標系設定部31と、視線方向DGを推定する視線方向推定部32と、眼球座標系Seの原点Oe、すなわち、眼球中心の位置を校正する校正部33と、視線方向推定プログラムを含む各種プログラム及びデータを格納する記憶部34と、を有する。 Gaze direction estimation unit 30, a coordinate system setting unit 31 for setting a four coordinate system shown in FIG. 2, the line-of-sight direction estimation unit 32 for estimating a gaze direction D G, the origin O e of the eyeball coordinate system S e, That is, it has the calibration part 33 which calibrates the position of the eyeball center, and the memory | storage part 34 which stores the various programs and data containing a gaze direction estimation program.
視線方向推定装置30は、CPUを含む情報処理装置(コンピュータ装置)であって、記憶部34に格納された相対姿勢情報作成プログラムをCPUが実行することで上記情報処理装置が視線方向推定装置30として機能する。 The line-of-sight direction estimation apparatus 30 is an information processing apparatus (computer apparatus) that includes a CPU, and the information processing apparatus executes the relative orientation information creation program stored in the storage unit 34 so that the information processing apparatus can detect the line-of-sight direction estimation apparatus 30. Function as.
視線方向推定装置30が有する各構成要素(座標系設定部31、視線方向推定部32及び校正部33など)は、バスなどによって接続されて、データなどを通信可能である。視線方向推定装置30は、記憶部34に格納された視線方向推定プログラムを実行することによって、座標系設定部31、視線方向推定部32及び校正部33の機能が実現される。視線方向推定装置30は、通常の情報処理装置が有する他の構成要素、すなわち、データ及び指示(例えばユーザの指示)の入力を受け付ける入力部及びデータを出力するための出力部等を含むが、以下では、視線方向推定装置30の特徴部分を中心にして説明する。 Each component (such as the coordinate system setting unit 31, the line-of-sight direction estimation unit 32, and the calibration unit 33) included in the line-of-sight direction estimation device 30 is connected by a bus or the like, and can communicate data and the like. The gaze direction estimation device 30 executes the gaze direction estimation program stored in the storage unit 34, thereby realizing the functions of the coordinate system setting unit 31, the gaze direction estimation unit 32, and the calibration unit 33. The line-of-sight direction estimation device 30 includes other components included in a normal information processing device, that is, an input unit that receives input of data and instructions (for example, user instructions), an output unit that outputs data, and the like. Below, it demonstrates focusing on the characteristic part of the gaze direction estimation apparatus 30. FIG.
座標系設定部31は、カメラ10のRGBカメラ11及び距離画像取得部12で撮影された被撮影対象者の顔のRGB画像(2次元画像)及び距離画像に基づいて、図3に示した4つの座標系を設定する。 The coordinate system setting unit 31 is based on the RGB image (two-dimensional image) and the distance image of the face of the person to be imaged captured by the RGB camera 11 and the distance image acquisition unit 12 of the camera 10 as shown in FIG. Set one coordinate system.
具体的には、カメラ10から入力された被撮影対象者の顔のRGB画像及び距離画像に基づいて、被撮影対象者の頭部の姿勢情報、すなわち、回転行列R及び並進ベクトルTを算出する。これは例えば頭部が動いた時の画像の変化に基づいて公知の技術で算出され得る。そして、カメラ10がKinectである場合、Kinectの機能により自動的に算出される。 Specifically, based on the RGB image and the distance image of the face of the subject to be photographed input from the camera 10, the posture information of the head of the subject, ie, the rotation matrix R and the translation vector T are calculated. . This can be calculated by a known technique based on, for example, a change in the image when the head moves. When the camera 10 is Kinect, it is automatically calculated by the Kinect function.
算出されたR及びTを利用して、カメラ座標系SCに対する頭部座標系SHを設定する。頭部座標系SHと、並進ベクトルTeに基づいて眼球座標系Seを設定する。更に、眼球座標系Seに対して、ヨーβ及びピッチγで表される虹彩座標系Spを設定する。 Using the calculated R and T, it sets the head coordinate system S H relative to the camera coordinate system S C. A head coordinate system S H, to set the eye coordinate system S e on the basis of the translation vector T e. Furthermore, with respect to the eyeball coordinate system S e, to set the iris coordinate system S p represented by the yaw β and pitch gamma.
校正部33は、被撮影対象者がRGBカメラ11を注視している場合のRGB画像及び距離画像に基づいて、眼球中心Cを校正する。具体的には、頭部座標系SHと眼球座標系Seとを変換するための並進ベクトルTeを校正する。校正方法は、被撮影対象者がRGBカメラ11の方向を向いて注視している点以外は、非特許文献1と同様の方法である。 The calibration unit 33 calibrates the eyeball center C based on the RGB image and the distance image when the subject is gazing at the RGB camera 11. Specifically, for calibrating the translation vector T e to convert a head coordinate system S H and the eyeball coordinate system S e. The calibration method is the same method as that of Non-Patent Document 1, except that the person to be imaged is gazing at the direction of the RGB camera 11.
具体的には、図1において、被撮影対象者がRGBカメラ11を注視している場合、図1における注視点Gは、カメラ座標系SCの原点OCに対応する。カメラ座標系SCにそれぞれ変換された眼球中心C(球21の中心)の位置ベクトルをCCとし、球22の中心Cpの位置ベクトルをCpCとし、瞳孔中心Pfの位置ベクトルをPfCとする。 Specifically, in FIG. 1, when the imaging subject is gazing the RGB camera 11, the gaze point G in FIG. 1 correspond to the origin O C of the camera coordinate system S C. The position vector of each of the camera coordinate system S C transformed eyeball center C (center of the sphere 21) and C C, the position vector of the center Cp of the sphere 22 and C pC, the position vector of the pupil center P f P fC And
そして、ベクトル[CpCOC]とベクトル[CpCPfC]とのなす角度がθであるという関係から以下の式(1)が成立する。なお、[CpCOC]は、位置ベクトルCpCから位置ベクトルOCに向かうベクトルを示しており、[CpCPfC]は、位置ベクトルCpCから位置ベクトルPfCに向かうベクトルを示している。
ここで、位置ベクトルCpC、位置ベクトルCC及び位置ベクトルPfCの間には、下記式(2)が成立する。
式(2)において、K及びK0は定数である。また、Pfcは、非撮影対象者がRGBカメラ11の方向を向いて注視している場合に撮影されたRGB画像に基づいて算出され得る。具体的には、以下の参考文献において、Febian Timm and Erhardt Barthらが提案しているように、RGB画像から抽出される虹彩のエッジ点の勾配を利用して瞳孔中心としてのPfcが算出される。
参考文献:F. Timm, E. Barth. Accurate eye center localization by means of gradients.In Proceedings of the International Conference on Computer Theory andApplications, volume 1, pp. 125-130, 2011.
The following equation (1) is established from the relationship that the angle formed by the vector [C pC O C ] and the vector [C pC P fC ] is θ. Incidentally, [C pC O C] shows a vector directed to the position vector O C from the position vector C pC, shows a vector directed to [C pC P fC], the position vector P fC from position vector C pC Yes.
The position vector C pC, between the position vector C C and the position vector P fC, the following formula (2) is satisfied.
In the formula (2), K and K 0 is a constant. Further, P fc can be calculated based on an RGB image that is captured when a non-photographing subject is gazing at the direction of the RGB camera 11. Specifically, in the following reference, as proposed by Febian Timm and Erhardt Barth et al., P fc as the pupil center is calculated using the gradient of the edge point of the iris extracted from the RGB image. The
Reference: F. Timm, E. Barth. Accurate eye center localization by means of gradients. In Proceedings of the International Conference on Computer Theory and Applications, volume 1, pp. 125-130, 2011.
従って、被撮影対象者の頭部の位置を複数回変えながら撮影された画像に基づいて得られたPfcを利用しながら、式(1)に示した非線形方程式を、例えば、Levenberg-Marquardt Algorithm(LMA)を利用して解くことにより、眼球中心Cを校正できる。これにより、校正された並進ベクトルTeが得られる。なお、眼球中心Cは、3次元座標で表されるため、3つのパラメータを有する。従って、被撮影対象者の頭部の位置は少なくとも3回変えておけばよい。 Accordingly, the nonlinear equation shown in the equation (1) can be expressed by, for example, the Levenberg-Marquardt Algorithm while using P fc obtained based on the image taken while changing the position of the head of the subject to be photographed a plurality of times. The eyeball center C can be calibrated by solving using (LMA). As a result, a calibrated translation vector Te is obtained. Since the eyeball center C is represented by three-dimensional coordinates, it has three parameters. Therefore, the position of the head of the subject to be imaged may be changed at least three times.
視線方向推定部32は、RGBカメラ11を介して、眼球モデル20に基づいた虹彩座標系Spにおける虹彩の3次元的な輪郭をカメラ座標系SCにおける画像平面に投影する。そして、視線方向推定部32は、その投影された虹彩の輪郭を、被撮影対象者の顔のRGB画像から抽出される虹彩の輪郭にフィティングすることによって、被撮影対象者の瞳孔中心を算出する。視線方向推定部32は、この算出された瞳孔中心と眼球座標系Seの原点Oeとから光学軸SOを算出し、視線方向DGは光学軸SOに対して所定角度θの方向であるというであるという視線方向DGと光学軸SOとの関係に基づいて被撮影対象者の視線方向DGを推定する。 Gaze direction estimation unit 32, via the RGB camera 11, projecting a 3-dimensional contour of the iris in the iris coordinate system S p based on the eyeball model 20 the image plane in the camera coordinate system S C. Then, the line-of-sight direction estimation unit 32 calculates the pupil center of the subject to be photographed by fitting the projected iris contour to the iris contour extracted from the RGB image of the face of the subject. To do. Gaze direction estimation unit 32, the direction of this from the calculated pupil center and the origin O e of the eyeball coordinate system S e to calculate the optical axis S O, viewing direction D G is a predetermined angle θ relative to the optical axis S O estimating the line of sight direction D G of the imaging subject based on the relationship between the viewing direction D G and the optical axis S O that is say it.
視線方向推定部32における視線推定の原理についてより具体的に説明する。 The principle of the gaze estimation in the gaze direction estimation unit 32 will be described more specifically.
<瞳孔中心の初期値算出>
RGB画像を利用して、上述した参考文献記載の方法により、瞳孔中心を算出する。具体的には、RGB画像の特徴点に基づいて、RGB画像上の眼を抽出する。この眼の抽出は、例えば、カメラ10がKinectである場合、KinectのSDKライブラリを利用することで抽出できる。更に、抽出した眼の領域から特徴点に基づいて虹彩を抽出する。この抽出は公知の方向で為されればよい。次に、虹彩の輪郭上のエッジ点の勾配に基づいて虹彩の中心、すなわち、瞳孔中心の位置を算出する。この瞳孔中心の位置を虹彩中心の初期値(或いは、初期位置)とする。
<Calculating the initial value of the pupil center>
Using the RGB image, the pupil center is calculated by the method described in the above-mentioned reference. Specifically, the eyes on the RGB image are extracted based on the feature points of the RGB image. For example, when the camera 10 is Kinect, the eye can be extracted by using Kinect's SDK library. Further, an iris is extracted from the extracted eye region based on the feature points. This extraction may be performed in a known direction. Next, based on the gradient of the edge point on the iris outline, the position of the iris center, that is, the pupil center is calculated. The position of the pupil center is taken as the initial value (or initial position) of the iris center.
<虹彩フィティング>
虹彩は、人間の眼の構造上、その法線方向(図2の光学軸S0又は図3のZp軸方向)から見た場合の形状は円形であるが、通常画像上では楕円で表される。そこで、3次元空間における虹彩の輪郭を、虹彩の法線方向からみた場合の形状を楕円と近似し、虹彩の輪郭上の点(エッジ点)Ppiの虹彩座標系Spにおける座標を、図3に示したように、(a・cos(ti)、b・sin(ti),L)と表す(iは、1以上の任意の整数であり、エッジ点を区別するためのものである)。
<Iris Fitting>
Iris, the structure of the human eye, the shape when viewed from the normal direction (Z p-axis direction of the optical axis S 0 or diagram of Fig. 2 3) is circular, the table in ellipse on normal image Is done. Therefore, the contour of the iris in three-dimensional space, the shape when viewed from the normal direction of the iris approximate ellipse, the coordinates in the iris coordinate system S p of the point (edge point) P pi on the iris outline, Figure As shown in FIG. 3, (a · cos (t i ), b · sin (t i ), L) is expressed as (i is an arbitrary integer of 1 or more, and is used to distinguish edge points. is there).
ここで、図3及び図5を利用して点Ppiの座標表示に用いたL,a,b及びtiについて説明する。図3に示すように、平面QとZp軸との交点を点qとする。Lは、点qと原点Opとの間の距離であり、眼球モデル20において設定されるものである。Lは、個人差はあるものの、ほぼ一定の値をみなせ、Lの値は例えば10.5mmである。輪郭Aは、平面Qに含まれており、Zp軸と平面Qとは直交するため、輪郭A上の点の虹彩座標系SpにおけるZp座標の値は、Lとなる。 Here, L, a, the b and t i is described using the coordinate display of the point P pi using 3 and 5. As shown in FIG. 3, the intersection point between the plane Q and the Zp axis is defined as a point q. L is the distance between the point q and the origin O p, and is set in the eyeball model 20. Although L has individual differences, it can be regarded as a substantially constant value, and the value of L is, for example, 10.5 mm. Contour A is included in a plane Q, to perpendicular to the Z p axis and the plane Q, the value of Z p coordinates in the iris coordinate system S p of points on the contour A becomes L.
図5は、Zp軸方向から見た輪郭Aの模式図である。図5では、輪郭Aを楕円として表している。説明のために、点qを通りXp軸に平行な軸をxp軸とし、Yp軸に平行な軸をyp軸とする。上記aは、xp軸方向における輪郭A(楕円)の長さの半分であり、輪郭Aを、Zp軸方向から見た場合の楕円の横方向半径に対応する。一方、bは、yp軸方向における輪郭A(楕円)の長さの半分であり、輪郭Aを、Zp軸方向から見た場合の楕円の縦方向半径に対応する。tiは、点qと点Ppiとを結んだ直線とのなす角度を示す媒介変数(パラメータ)である。a=bの場合、輪郭Aは円形である。この場合、点PpiのXpi(xpi)座標及びYpi(ypi)座標それぞれは、円の半径をrとした場合、r・cos(ti)及びr・sin(ti)と表される。図3及び図5では、輪郭Aを楕円で近似しているため、Xpi(xpi)座標を表す際、rに変えてaを使用し、Ypi(ypi)座標を表す際に、rに変えてbを使用していることになる。 FIG. 5 is a schematic diagram of the contour A viewed from the Zp-axis direction. In FIG. 5, the contour A is represented as an ellipse. For illustration, the axis parallel to the street X p axis point q and x p axis, and y p axis parallel to the Y p axis. It said a is the half of the length of the contour A (ellipse) in x p axis, the contour A, corresponding to the transverse radius of the ellipse when viewed from the Zp-axis direction. Meanwhile, b is half the length of the contour A (ellipse) in y p direction, a contour A, corresponding to the longitudinal radius of the ellipse when viewed from the Zp-axis direction. t i is a parameter (parameter) indicating an angle formed by the straight line connecting the point q and the point P pi . When a = b, the contour A is circular. In this case, the X pi (x pi ) coordinates and the Y pi (y pi ) coordinates of the point P pi are r · cos (t i ) and r · sin (t i ), respectively, where r is the radius of the circle. expressed. 3 and 5, since the contour A is approximated by an ellipse, when representing X pi (x pi ) coordinates, a is used instead of r, and when representing Y pi (y pi ) coordinates, That is, b is used instead of r.
点Ppiの位置ベクトルPpiは、次式により、眼球座標系Se上の位置ベクトルPeiに変換され得る。
RPは、虹彩座標系Spを眼球座標系Seに変化するための変換行列であり、ロール(roll)α、ヨーβ及びピッチγで表されるが、前述したように、ロールαは0である。式(3)中の“・”は内積を示している。 R P is the iris coordinate system S p is a transformation matrix for varying the eye coordinate system S e, roll (roll) alpha, is represented by the yaw β and pitch gamma, as described above, the roll alpha is 0. “·” In the equation (3) indicates an inner product.
次に、眼球座標系Seにおける位置ベクトルPeiを頭部座標系SHの位置ベクトルPhiに変換する。眼球座標系Seは、頭部座標系SHに対して並進移動したものに対応することから、位置ベクトルPhiは、次のように表される。
続いて、位置ベクトルPhiを、カメラ座標系SCの位置ベクトルPciに変換する。この変換は、次式で表される。式(5)中の“・”は内積を示している。
位置ベクトルPeiは、カメラ座標系SCにおける虹彩の輪郭上のエッジ点の3次元位置を表す。Pciを(xci,yci、zci)と表し、位置ベクトルPciが、RGBカメラ11で投影された画像平面における像点の位置ベクトルをIPi(ui,vi)とすると、IPiは、次のように表される。
ここで、Mは、カメラ10(二次元画像部)の内部パラメータを含む投影行列である。これまでの式から、ui及びviは、関数f,gを用いて次のように表される。
上記の式(7a)及び式(7b)より、以下の式が導かれる。
式(8a)及び式(8b)において、関数h及びkは、式(7a)及び式(7b)を解いて得られる関数である。
Position vector P ei represents the three-dimensional position of the edge points on the contour of the iris in the camera coordinate system S C. If P ci is represented as (x ci , y ci , z ci ), and the position vector P ci is the position vector of the image point on the image plane projected by the RGB camera 11, I Pi (u i , v i ) I Pi is expressed as follows.
Here, M is a projection matrix including internal parameters of the camera 10 (two-dimensional image unit). From the above equations, u i and v i are expressed as follows using the functions f and g.
From the above equations (7a) and (7b), the following equations are derived.
In Expression (8a) and Expression (8b), functions h and k are functions obtained by solving Expression (7a) and Expression (7b).
sin2(ti)+cos2(ti)=1という関係を利用すれば、目的関数Ψは、式(9)で表される。目的関数Ψは、眼球モデル20に基づいて画像平面に投影された虹彩の輪郭上の点Ppと対応するRGB画像上の虹彩の輪郭のエッジ点との対応関係を示す関数である。
式(9)において、R及びTは、カメラ10で取得されたRGB画像及び距離画像から得られている。Mはカメラ10固有の投影行列であるため既知である。L,a,b,Te,ui,viは眼球モデル20において設定するものであるため、既知である。従って、式(9)においては、β及びγの2つが未知パラメータである。
If the relationship of sin 2 (t i ) + cos 2 (t i ) = 1 is used, the objective function Ψ is expressed by equation (9). The objective function Ψ is a function that indicates a correspondence relationship between the point P p on the iris outline projected on the image plane based on the eyeball model 20 and the edge point of the iris outline on the corresponding RGB image.
In Expression (9), R and T are obtained from the RGB image and the distance image acquired by the camera 10. M is known because it is a projection matrix unique to the camera 10. Since L, a, b, T e , u i , and v i are set in the eyeball model 20, they are known. Therefore, in Equation (9), two parameters β and γ are unknown parameters.
一つのRGB画像からは一つのエッジ点群が得られる。更に、<瞳孔中心の初期値算出>で述べた方法により瞳孔中心の初期値は得られる。よって、初期のβ及びγがわかっていることになる。この状態では、Levenberg-Marquardt Algorithm(LMA)を使用して、式(9)を解くことができる。具体的には、エッジ点群を構成する各エッジ点に対して式(9)が得られるので、上記エッジ点群に対して得られた複数の式(9)において誤差を最小にする最適なβ及びγが算出される。 One edge point group is obtained from one RGB image. Furthermore, the initial value of the pupil center can be obtained by the method described in <Calculation of initial value of pupil center>. Therefore, the initial β and γ are known. In this state, Equation (9) can be solved using the Levenberg-Marquardt Algorithm (LMA). Specifically, since the equation (9) is obtained for each edge point constituting the edge point group, it is optimal to minimize the error in the plurality of equations (9) obtained for the edge point group. β and γ are calculated.
β及びγが算出されると、カメラ座標系SCにおける瞳孔中心の位置ベクトルPfcは、式(3),(4)及び式(5)と同様の変換を利用して虹彩座標系Spにおける位置ベクトル(0,0,K)から算出される。なお、瞳孔中心Pfと、眼球中心Cとの間の距離Kは、定数と仮定している。 When β and γ are calculated, the position vector P fc of pupil center in the camera coordinate system S C has the formula (3), (4) and iris coordinate system by utilizing the same conversion as the formula (5) S p Is calculated from the position vector (0, 0, K). It is assumed that the distance K between the pupil center Pf and the eyeball center C is a constant.
<視線推定>
上記の様に瞳孔中心Pfが算出されれば、眼球モデル20における眼球中心Cと、瞳孔中心Pfとから図1に示した光学軸SOが算出されるので、所定角度θを用いて視線方向DGが算出される。
<Gaze estimation>
If the calculated pupil center P f as described above, and the eyeball center C in the eyeball model 20, since the optical axis S O shown in FIG. 1 from the pupil center P f is calculated using a predetermined angle θ A line-of-sight direction DG is calculated.
視線方向推定部32は、上記原理に基づいて、式(9)を利用してβ及びγを算出することで、光学軸SOを特定し、視線方向DGを推定する。カメラ座標系SCにおいて、視線方向DGを、XCZC平面に投影した際の投影線と、ZC軸とのなす角度をδとし、上記投影線と視線方向DGとのなす角度(換言すれば、視線方向DGとXCZC平面とのなす角度)をψとする。 Gaze direction estimation unit 32, based on the above principle, by calculating the β and γ using the equation (9), to identify the optical axis S O, estimates the viewing direction D G. In the camera coordinate system S C, the viewing direction D G, X C Z and projection line when projected onto the C plane, the angle between the Z C-axis and [delta], the angle between the projection line and the line-of-sight direction D G (in other words, the angle between a sight line direction D G and X C Z C plane) is defined as [psi.
次に視線方向推定システム1を利用した被撮影対象者の視線推定方法について説明する。まず、眼球中心Cが校正されている状態での視線推定方法について説明する。 Next, a gaze estimation method for the person to be imaged using the gaze direction estimation system 1 will be described. First, a gaze estimation method in a state where the eyeball center C is calibrated will be described.
カメラ10で被撮影対象者の顔を撮影し、顔のRGB画像及び距離画像を取得する(撮影工程)。この際、被撮影対象者の頭部を顔が写るように撮影されていればよい。そのため、被撮影対象者の上半身が撮影されてもよいし、被撮影対象者の全身が撮影されていてもよい。 The camera 10 captures the face of the person to be imaged, and acquires an RGB image and a distance image of the face (imaging process). At this time, it is only necessary that the head of the person to be imaged is photographed so that the face is captured. Therefore, the upper body of the subject person may be photographed, or the whole body of the subject person may be photographed.
カメラ10で撮影された画像を視線方向推定装置30が受け取ると、視線方向推定装置30の座標系設定部31が、図2に示した4つの座標系を設定する(座標系設定工程)。 When the line-of-sight direction estimation device 30 receives an image captured by the camera 10, the coordinate system setting unit 31 of the line-of-sight direction estimation device 30 sets the four coordinate systems shown in FIG. 2 (coordinate system setting step).
次に、視線方向推定部32が、カメラ10からのRGB画像及び距離画像を利用して、前述した方法で被撮影対象者の視線方向DGを推定する(視線方向推定工程)。 Next, line-of-sight direction estimation unit 32, by using the RGB image and the distance image from the camera 10, estimates the viewing direction D G of the imaging subject in the above-described method (line-of-sight direction estimation step).
具体的には、まず、RGB画像上の眼に含まれる虹彩の輪郭上のエッジ点を特定し、瞳孔中心Pfの初期値を算出する(初期値算出工程)。 Specifically, first, to identify the edge points on the contour of the iris included in the eye of the RGB image, and calculates the initial value of the pupil center P f (initial value calculating step).
次に、眼球モデル20における虹彩の輪郭をRGBカメラ11の画像平面で表されるRGB画像上に投影したとした場合において、投影された輪郭と、実際に取得されたRGB画像における虹彩の輪郭に対してフィティングし、虹彩座標系Spの眼球座標系Seに対する回転角であるヨーβ及びピッチγを算出する。具体的には、式(9)及び初期値算出工程で算出された初期値を利用してヨーβ及びピッチγを算出する(フィティング工程(又は回転角度算出工程))。 Next, when the iris contour in the eyeball model 20 is projected on the RGB image represented by the image plane of the RGB camera 11, the projected contour and the iris contour in the actually acquired RGB image are used. Fi and coating for, calculates a yaw β and pitch γ is the rotation angle with respect to the eyeball coordinate system S e iris coordinate system S p. Specifically, yaw β and pitch γ are calculated using equation (9) and the initial value calculated in the initial value calculation step (fitting step (or rotation angle calculation step)).
算出されたヨーβ及びピッチγ及び眼球モデル20に基づいて光学軸SOを決定し、光学軸SOに所定角度θを演算することで、視線方向DGを算出する(視線方向算出工程)。 Based on the calculated yaw β and pitch γ and eye model 20 determines the optical axis S O, by calculating a predetermined angle θ to the optical axis S O, it calculates the viewing direction D G (gaze direction calculating step) .
次に、眼球中心Cの校正工程を含む場合について説明する。 Next, the case where the calibration process of the eyeball center C is included will be described.
眼球中心Cを校正する場合、上記撮影工程において、被撮影対象者がカメラ10の方を向いており、且つ、カメラ10を注視している状態で、被撮影対象者の顔を撮影する。本実施形態では、RGBカメラ11のカメラ座標系を、カメラ10のカメラ座標系SCと設定しているため、被撮影対象者は、RGBカメラ11の方を向き且つRGBカメラ11を注視していることが好ましい。 When the eyeball center C is calibrated, in the photographing step, the face of the subject is photographed while the subject is facing the camera 10 and the camera 10 is being watched. In the present embodiment, the camera coordinate system of the RGB camera 11, since the set to the camera coordinate system S C of the camera 10, the imaging subject is gazing at the orientation and RGB camera 11 toward the RGB camera 11 Preferably it is.
校正用の画像が視線方向推定装置30に入力されると、前述したように、座標系設定工程を実施する。その後、校正部33が、前述した方法によって、眼球中心Cの位置を校正する。具体的には、並進ベクトルTeを算出する。算出された並進ベクトルTeは、例えば、記憶部34に保存される。 When the calibration image is input to the line-of-sight direction estimation device 30, the coordinate system setting process is performed as described above. Thereafter, the calibration unit 33 calibrates the position of the eyeball center C by the method described above. Specifically, the translation vector Te is calculated. The calculated translation vector Te is stored in the storage unit 34, for example.
なお、眼球中心Cの校正は、同じ被撮影対象者に対しては一度行っておけばよい。そして、校正工程を実施した後の、視線方向推定では、校正工程で校正された眼球中心Cの位置、換言すれば、並進ベクトルTeを使用すればよい。視線方向推定装置30が校正工程を実施するか否かは、例えば、視線方向推定装置30が有する入力部を介して、校正を実施するモードか否かのモードの切り替えの入力の有無で判断すればよい。また、例えば、視線方向推定装置30を車の運転支援システムで使用する際、運転手毎に一度校正工程を実施しておけば、その後は、運転手がそれぞれ入力部を介して各自の校正データを使用するように選択すればよい。 The calibration of the eyeball center C may be performed once for the same subject. Then, after performing the calibration process, the line-of-sight direction estimation, calibrated position of the eyeball center C in the calibration step, in other words, may be used to translation vector T e. Whether or not the line-of-sight direction estimation device 30 performs the calibration process is determined, for example, by the presence or absence of a mode switching input whether or not the calibration is performed via the input unit of the line-of-sight direction estimation device 30. That's fine. Further, for example, when the gaze direction estimation device 30 is used in a driving support system for a car, if the calibration process is performed once for each driver, then each driver can calibrate his / her own calibration data via the input unit. Can be selected to use.
上記視線方向推定システム1(視線方向推定プログラム)及び視線方向推定方法では、眼球モデル20を使用することで、虹彩の輪郭を2つの未知のパラメータβ及びγで表している。通常、楕円を示すパラメータは5つ(長軸を示すパラメータ、短軸を示すパラメータ、傾きを示すパラメータ、楕円の中心を示す2つのパラメータ)であるのに対してパラメータ数が減っているため、視線推定に要する演算処理の負荷が低減している。その結果、スピードを向上できるので、演算処理時間も短縮可能である。 In the gaze direction estimation system 1 (gaze direction estimation program) and the gaze direction estimation method, the iris contour is represented by two unknown parameters β and γ by using the eyeball model 20. Normally, there are 5 parameters indicating an ellipse (a parameter indicating the long axis, a parameter indicating the short axis, a parameter indicating the inclination, and two parameters indicating the center of the ellipse), but the number of parameters is reduced. The processing load required for line-of-sight estimation is reduced. As a result, the speed can be improved, and the calculation processing time can be shortened.
また、被撮影対象者の眼の向き又は瞼の閉じ具合などから虹彩の一部しかRGB画像上に写っていないこともある。そのため、RGB画像上から抽出された虹彩にのみ基づいて瞳孔中心Pfを算出した場合には瞳孔中心Pfの算出誤差が大きくなる。これに対して、本実施形態では、眼球モデル20に基づいた虹彩をRGB画像上の虹彩にフィティングすることによって、瞳孔中心Pfを算出している。そのため、瞳孔中心Pfをより正確に求めることができる。従って、視線方向DGを更に正確に算出可能である。 Further, only a part of the iris may be reflected on the RGB image due to the direction of the eye of the subject to be photographed or the closed state of the eyelid. Therefore, the calculation error of the pupil center P f becomes large when calculating the pupil center P f on the basis of only the iris extracted from the RGB image. On the other hand, in this embodiment, the pupil center Pf is calculated by fitting the iris based on the eyeball model 20 to the iris on the RGB image. Therefore, it is possible to obtain the pupil center P f more accurately. Therefore, it is possible more accurately calculate the viewing direction D G.
また、校正部33において、眼球中心Cを校正していることから、視線方向DGを更に正確に推定できる。校正部33で眼球中心Cを校正する場合、被撮影対象者がカメラ10を向き且つカメラ10を注視している状態で撮影された画像を使用している。そのため、例えば、従来のように、被撮影対象者がカメラ10とは異なるターゲットを見ている場合のように、ターゲットがカメラ10と被撮影対象者との間に位置して校正できないということがない。従って、より確実且つ正確に眼球中心Cを校正できる。 Further, in the calibration unit 33, since it is calibrated eye center C, it can be more accurately estimate the gaze direction D G. When the eyeball center C is calibrated by the calibration unit 33, an image photographed while the subject is facing the camera 10 and gazing at the camera 10 is used. For this reason, for example, the target is positioned between the camera 10 and the person to be imaged and cannot be calibrated as in the conventional case where the object person is looking at a target different from the camera 10. Absent. Therefore, the eyeball center C can be calibrated more reliably and accurately.
次に実験結果について説明する。以下の実験1,2では、図2に示すK、K0及びLをそれぞれ、K=13.1mm、K0=5.3mm、L=10.5mmとした。また、カメラ10はKinectを使用した。Kinectで得られるRGB画像の画素数は、1280×960画素であり、距離画像の画素数は、640×480画素であった。また、被撮影対象者とカメラ10との間の距離は、約70cm(0.7m)とした。 Next, experimental results will be described. In the following experiments 1 and 2, K, K 0 and L shown in FIG. 2 were set to K = 13.1 mm, K 0 = 5.3 mm, and L = 10.5 mm, respectively. The camera 10 used Kinect. The number of pixels of the RGB image obtained by Kinect was 1280 × 960 pixels, and the number of pixels of the distance image was 640 × 480 pixels. The distance between the subject and the camera 10 was about 70 cm (0.7 m).
<実験1>
実験1では、被撮影対象者の頭部を固定し、眼を種々の方向に向けた状態をカメラ10で種々撮影し、得られた各RGB画像及び距離画像に基づいて、図4に示した視線方向推定装置30の視線方向推定部32でヨーβ及びピッチγを算出した。カメラ10には、Kinectを使用した。そして、算出されたヨーβ及びピッチγに基づいて虹彩座標系Spで表される虹彩の輪郭及び瞳孔中心Pfを各RGB画像上に投影した。
<Experiment 1>
In Experiment 1, the head of the person to be imaged was fixed, and various images were taken with the camera 10 with the eyes directed in various directions, and the results shown in FIG. 4 are based on the obtained RGB images and distance images. The line-of-sight direction estimation unit 32 of the line-of-sight direction estimation apparatus 30 calculates the yaw β and the pitch γ. For the camera 10, Kinect was used. Then, by projecting the contour and pupil center P f of the iris represented by iris coordinate system S p on the basis of the yaw β and pitch γ calculated on each RGB image.
図6は虹彩のフィッティング結果を示す図面である。図6の(a)は、被撮影対象者がカメラ10の方を向き且つカメラ10を注視している場合の画像を示す図面であり、図6の(b)〜図6の(e)のそれぞれは、図6の(a)の状態から眼が上側、下側、右側(被撮影対象者から見て)及び左側(被撮影対象者から見て)を見ている場合の画像を示す図面である。 FIG. 6 is a diagram showing the result of iris fitting. 6A is a diagram illustrating an image when the subject is facing the camera 10 and is gazing at the camera 10, and is illustrated in FIGS. 6B to 6E. 6A and 6B show images when the eyes are looking at the upper side, the lower side, the right side (viewed from the subject) and the left side (viewed from the subject) from the state of FIG. It is.
図6の(a)〜図6の(e)において、白丸は、視線方向推定部32において眼球モデル20で算出した瞳孔中心であり、×印は、RGB画像にのみ基づいた瞳孔中心であり、前述した説明の初期値である。更に、△印は、RGB画像から抽出した虹彩のエッジ点を示している。一方、白い円は、視線方向推定部32で算出したヨーβ及びピッチγに基づいた虹彩のフィッティング結果である。 In FIG. 6A to FIG. 6E, the white circle is the pupil center calculated by the eyeball model 20 in the gaze direction estimation unit 32, and the x mark is the pupil center based only on the RGB image, This is the initial value of the above description. Further, Δ marks indicate the edge points of the iris extracted from the RGB image. On the other hand, the white circle is an iris fitting result based on the yaw β and the pitch γ calculated by the line-of-sight direction estimation unit 32.
図6の(a)は、被撮影対象者がカメラ10の方を向き且つカメラ10を注視している場合であるため、虹彩の全体がほぼ画像に表れている。そのため、瞳孔中心Pfの位置は、前述した<瞳孔中心の初期値算出>において説明した方法で算出した初期値と、式(9)を解いた結果を利用した場合とでほぼ一致している。また、RGB画像から抽出した虹彩のエッジ点も、フィッティング結果とほぼ同じである。なお、前述した、眼球中心Cの校正用の画像を撮影する場合は、図6の(a)の状態で撮影することが好ましい。 FIG. 6A shows a case where the subject is facing the camera 10 and is gazing at the camera 10, so that the entire iris appears in the image. Therefore, the position of the pupil centers P f is substantially coincident with the case of using the result of solving the initial value calculated in the method described in <Initial value calculation of pupil center> described above, equation (9) . Also, the iris edge points extracted from the RGB image are almost the same as the fitting results. When the above-described calibration image of the eyeball center C is captured, it is preferable to capture in the state of FIG.
図6の(b)〜図6の(e)では、RGB画像から抽出した虹彩のエッジ点は、フィッティング結果とほぼ同じである一方、眼が正面を向いておらず、更に瞼などで一部が隠れているため、瞳孔中心Pfを式(9)で計算したβ及びγを利用して計算した場合と、初期値との間に差が生じている。 In FIG. 6B to FIG. 6E, the iris edge points extracted from the RGB image are almost the same as the fitting result, but the eyes are not facing the front, and partly with eyelids or the like. Therefore, there is a difference between the case where the pupil center P f is calculated using β and γ calculated by the equation (9) and the initial value.
従って、図4に示した視線方向推定装置30を利用して瞳孔中心Pfを算出すれば、例えば、虹彩が瞼などで隠れていて一部しか画像に表れていなくても、正確に瞳孔中心Pfを算出できる。その結果、視線方向DGもより正確に推定できることがわかる。 Therefore, if the pupil center Pf is calculated using the gaze direction estimation device 30 shown in FIG. 4, for example, even if the iris is hidden by a cocoon or the like and only a part of it appears in the image, the pupil center is accurately determined. P f can be calculated. As a result, it is understood that more accurately estimated even viewing direction D G.
<実験2>
次に、被撮影対象者がカメラ10のRGBカメラ11を常に注視しながらカメラ10に対して頭部を動かしている状態で被撮影対象者をカメラ10で複数回撮影し、各撮影に基づいて被撮影対象者の視線方向DGを、前述した視線方向DG推定方法で推定した。具体的には、(δ,ψ)を算出した。カメラ10は、Kinectを使用した。また、撮影回数は、48回とした。
<Experiment 2>
Next, the subject to be photographed is photographed a plurality of times by the camera 10 while the head is moving with respect to the camera 10 while constantly gazing at the RGB camera 11 of the camera 10, and based on each photographing. the viewing direction D G of the imaging subject was estimated by eye direction DG estimation method described above. Specifically, (δ, ψ) was calculated. The camera 10 used Kinect. In addition, the number of times of photographing was 48.
図7は、視線方向推定結果を示す図面である。具体的には、図7の(a)は、被撮影対象者の左眼に対する実験結果であり、図7の(b)は、被撮影対象者の右眼に対する実験結果である。図7の(a)及び(b)において、横軸は、撮影回数であり、縦軸は、角度である。図7の(a)及び(b)には、推定値としてのδ及びψを示している。 FIG. 7 is a diagram illustrating a gaze direction estimation result. Specifically, (a) in FIG. 7 is an experimental result for the left eye of the subject, and (b) in FIG. 7 is an experimental result for the right eye of the subject. In FIGS. 7A and 7B, the horizontal axis represents the number of times of photographing, and the vertical axis represents the angle. 7A and 7B show δ and ψ as estimated values.
また、実験中において、被撮影対象者は、常にRGBカメラ11を注視しているため、各撮影ポイントでの、被撮影対象者の眼の位置と、RGBカメラ11とをつなぐ仮想的な直線方向をその撮影ポイントでの視線方向DGの真値とした。図7の(a)及び(b)には、この真値としてのδ及びψも比較のために図示している。 In addition, during the experiment, since the subject to be photographed is always gazing at the RGB camera 11, a virtual linear direction that connects the position of the subject's eye at each photographing point and the RGB camera 11. Is the true value of the line-of-sight direction DG at the photographing point. In FIGS. 7A and 7B, δ and ψ as true values are also shown for comparison.
図7の(a)及び(b)から、若干のブレはあるものの真値に近い視線方向DGが算出できていることがわかる。 7 from (a) and (b), a slight blur viewing direction D G close to the true value of what is it can be seen that can be calculated.
上記実験2を異なる被撮影対象者H1,H2,H3に対して行った。その結果において、左眼及び右眼の視線方向推定結果におけるδ及びψの誤差の平均を算出した。算出結果を図8に示す。図8において、被撮影対象者H1,H2,H3それぞれの左眼及び右眼の誤差の平均を更に3人で平均した結果は、3.25°であった。 The experiment 2 was performed on different subjects H1, H2, and H3. As a result, an average of errors of δ and ψ in the eye direction estimation results of the left eye and the right eye was calculated. The calculation results are shown in FIG. In FIG. 8, the average of the error of the left eye and the right eye of each of the subjects H1, H2, and H3 was averaged by three persons was 3.25 °.
実験条件などが異なるため一概に比較できないが、非特許文献2では視線方向の推定誤差の平均は3.4°と報告されていることから、本実施形態で説明した方法では、非特許文献2とほぼ同等の正確さで視線方向を推定できていることになる。一方、本実施形態では前述したように、演算処理が軽減されているので、精度の向上を図りながらより早く視線方向を推定できている。 Although the experimental conditions and the like are different, they cannot be generally compared. However, in Non-Patent Document 2, since the average estimation error in the line-of-sight direction is reported to be 3.4 °, the method described in this embodiment uses Non-Patent Document 2. That is, the gaze direction can be estimated with almost the same accuracy. On the other hand, in the present embodiment, as described above, since the arithmetic processing is reduced, the line-of-sight direction can be estimated more quickly while improving accuracy.
以上、本発明の種々の実施形態及び実験例等について説明したが、本発明は、上述した種々の実施形態及び実験例等に限定されない。例えば、校正部(校正工程)は、必ずしも備えていなくてもよい。例えば、人間(成人)の一般的な平均値としての眼球中心C、すなわち、並進ベクトルTeを使用しても良い。なお、校正部33を視線方向推定装置30が有する形態では、被撮影対象者が同じである場合には校正部33による校正工程は、一番初めに一度行っていればよい。また、虹彩の初期値は、視線方向推定部32が算出するとして説明したが、例えば、虹彩の初期値算出部を別途有していても良い。更に、例示した種々の実施形態などは、本発明の趣旨を逸脱しない範囲で適宜組み合わせられ得る。 Although various embodiments and experimental examples of the present invention have been described above, the present invention is not limited to the above-described various embodiments and experimental examples. For example, the calibration unit (calibration process) is not necessarily provided. For example, the eyeball center C as a general average value of a human (adult), that is, the translation vector Te may be used. In the form in which the line-of-sight direction estimation device 30 includes the calibration unit 33, when the subject is the same, the calibration process by the calibration unit 33 may be performed once at the beginning. Moreover, although the initial value of the iris has been described as being calculated by the gaze direction estimation unit 32, for example, an initial value calculation unit of the iris may be provided separately. Furthermore, various illustrated embodiments and the like can be appropriately combined without departing from the spirit of the present invention.
1…視線方向推定システム、10…カメラ、11…RGBカメラ(2次元画像取得部)、12…距離画像取得部、30…視線方向推定装置、31…座標系設定部、32…視線方向推定部、33…校正部。
DESCRIPTION OF SYMBOLS 1 ... Gaze direction estimation system, 10 ... Camera, 11 ... RGB camera (two-dimensional image acquisition part), 12 ... Distance image acquisition part, 30 ... Gaze direction estimation apparatus, 31 ... Coordinate system setting part, 32 ... Gaze direction estimation part 33 ... proofreading part.
Claims (9)
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラと、
前記カメラで撮影された前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記被撮影対象者の視線方向を推定する視線方向推定装置と、
を備え、
前記視線方向推定装置は、
前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系の原点を原点とし、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定部と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定部と、
を有する、
視線方向推定システム。 A gaze direction estimation system that estimates a gaze direction of a subject to be photographed,
A camera that acquires a distance image including a two-dimensional image to be imaged and distance information to the imaged object;
A gaze direction estimation device that estimates the gaze direction of the subject to be photographed based on the two-dimensional image and the distance image of the face of the subject to be photographed by the camera;
With
The gaze direction estimating device is:
From the two-dimensional image of the face and the distance image, posture information of the head of the subject to be imaged with respect to the first coordinate system of the camera is calculated to set a second coordinate system, and the second coordinate system A third coordinate system of the eyeball, whose origin is the center of the eyeball of the subject to be photographed expressed in translation, and the origin of the third coordinate system is the origin, and the third coordinate system A coordinate system setting unit for setting a fourth coordinate system of the iris of the subject to be imaged represented by a first rotation angle that is a horizontal rotation angle with respect to and a second rotation angle that is a vertical rotation angle;
Based on the eyeball model, the iris contour when the three-dimensional contour of the iris in the fourth coordinate system is projected onto the image plane in the first coordinate system via the camera, The first and second rotation angles are calculated by fitting the outline of the iris extracted from the two-dimensional image of the face of the subject to be imaged, and the calculated first and second rotation angles And a line of sight that estimates the line-of-sight direction of the subject based on an optical axis calculated from the pupil center of the subject to be photographed determined based on the eyeball model and the origin of the third coordinate system A direction estimator;
Having
Gaze direction estimation system.
請求項1に記載の視線方向推定システム。 The line-of-sight direction estimator associates each edge point when the three-dimensional contour of the iris in the fourth coordinate system associated with the fitting is projected onto the image plane, and the two-dimensional image Calculating the first and second rotation angles by solving an objective function that indicates a corresponding relationship with a corresponding edge point in the contour of the iris and includes the first and second rotation angles as unknown parameters;
The gaze direction estimation system according to claim 1.
請求項1又は2に記載の視線方向推定システム。 Based on the two-dimensional image and the distance image of the face of the subject to be photographed while the subject is facing the camera and gazing at the camera, the third coordinates A calibration unit for calibrating the origin of the system;
The gaze direction estimation system according to claim 1 or 2.
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、前記被撮影対象者の顔を撮影する撮影工程と、
前記撮影工程で得られた前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系の原点を原点とし、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定工程と、
を備える、
視線方向推定方法。 A gaze direction estimation method for estimating a gaze direction of a subject to be photographed,
A photographing step of photographing the face of the subject to be photographed using a camera that obtains a two-dimensional image of the subject and a distance image including distance information to the subject;
The posture information of the head of the subject to be photographed with respect to the first coordinate system of the camera is calculated from the two-dimensional image and the distance image of the face obtained in the photographing step to set a second coordinate system In addition, the third coordinate system of the eyeball, whose origin is the center of the eyeball of the subject to be photographed, which is represented by translational movement of the second coordinate system, and the origin of the third coordinate system is the origin. And setting a fourth coordinate system of the subject's subject iris represented by a first rotation angle that is a horizontal rotation angle with respect to the third coordinate system and a second rotation angle that is a vertical rotation angle. A coordinate system setting process,
Based on the eyeball model, the iris contour when the three-dimensional contour of the iris in the fourth coordinate system is projected onto the image plane in the first coordinate system via the camera, The first and second rotation angles are calculated by fitting the outline of the iris extracted from the two-dimensional image of the face of the subject to be imaged, and the calculated first and second rotation angles And a line of sight that estimates the line-of-sight direction of the subject based on an optical axis calculated from the pupil center of the subject to be photographed determined based on the eyeball model and the origin of the third coordinate system A direction estimation step;
Comprising
Gaze direction estimation method.
請求項4に記載の視線方向推定方法。 In the line-of-sight direction estimation step, each edge point when the three-dimensional outline of the iris in the fourth coordinate system associated with the fitting is projected onto the image plane, and the two-dimensional image Calculating the first and second rotation angles by solving an objective function that indicates a corresponding relationship with a corresponding edge point in the contour of the iris and includes the first and second rotation angles as unknown parameters;
The gaze direction estimation method according to claim 4.
前記校正工程を実施する場合、前記撮影工程では、前記被撮影対象者が前記カメラの方を向いて且つ前記カメラを注視している状態で前記被撮影対象者を撮影する、
請求項4又は5に記載の視線方向推定方法。 A calibration step of calibrating the origin of the third coordinate system based on the two-dimensional image of the face of the subject and the distance image;
When performing the calibration step, in the photographing step, the subject to be photographed is photographed while the subject is facing the camera and gazing at the camera.
The gaze direction estimation method according to claim 4 or 5.
コンピュータに、
撮影対象の2次元画像及び前記撮影対象までの距離情報を含む距離画像を取得するカメラを用いて、前記被撮影対象者の顔を撮影して得られた、前記顔の前記2次元画像及び前記距離画像から前記カメラの第1の座標系に対する前記被撮影対象者の頭部の姿勢情報を算出して第2の座標系を設定すると共に、前記第2の座標系を並進移動して表される前記被撮影対象者の眼球の中心を原点とする前記眼球の第3の座標系、前記第3の座標系に対する水平方向の回転角である第1回転角及び鉛直方向の回転角である第2回転角で表される前記被撮影対象者の虹彩の第4の座標系を設定する座標系設定工程と、
眼球モデルに基づいた、前記カメラを介して前記第4の座標系における前記虹彩の3次元的な輪郭を前記第1の座標系における画像平面に投影したとした場合の前記虹彩の輪郭を、前記被撮影対象者の前記顔の前記2次元画像から抽出される前記虹彩の輪郭にフィティングすることによって、前記第1及び第2回転角を算出し、算出された前記第1及び第2回転角並びに前記眼球モデルに基づいて決定される前記被撮影対象者の瞳孔中心と、前記第3の座標系の原点とから算出される光学軸に基づいて前記被撮影対象者の視線方向を推定する視線方向推定工程と、
実行せしめる、視線方向推定プログラム。 A gaze direction estimation program for estimating a gaze direction of a subject to be photographed,
On the computer,
The two-dimensional image of the face obtained by photographing the face of the subject to be photographed using a camera that obtains a two-dimensional image of the subject and a distance image including distance information to the subject. Expressed from the distance image is the posture information of the head of the subject to be photographed with respect to the first coordinate system of the camera to set the second coordinate system, and the second coordinate system is translated and moved. A third coordinate system of the eyeball whose origin is the center of the eyeball of the subject to be imaged, a first rotation angle that is a horizontal rotation angle with respect to the third coordinate system, and a first rotation angle that is a vertical rotation angle. A coordinate system setting step of setting a fourth coordinate system of the iris of the subject to be imaged represented by two rotation angles;
Based on the eyeball model, the iris contour when the three-dimensional contour of the iris in the fourth coordinate system is projected onto the image plane in the first coordinate system via the camera, The first and second rotation angles are calculated by fitting the outline of the iris extracted from the two-dimensional image of the face of the subject to be imaged, and the calculated first and second rotation angles And a line of sight that estimates the line-of-sight direction of the subject based on an optical axis calculated from the pupil center of the subject to be photographed determined based on the eyeball model and the origin of the third coordinate system A direction estimation step;
A gaze direction estimation program to be executed.
請求項7に記載の視線方向推定プログラム。 In the line-of-sight direction estimation step, each edge point when the three-dimensional outline of the iris in the fourth coordinate system associated with the fitting is projected onto the image plane, and the two-dimensional image Calculating the first and second rotation angles by solving an objective function that indicates a corresponding relationship with a corresponding edge point in the contour of the iris and includes the first and second rotation angles as unknown parameters;
The gaze direction estimation program according to claim 7.
前記被撮影対象者が前記カメラの方を向いて且つ前記カメラを注視している状態で前記被撮影対象者を撮影することによって取得された前記被撮影対象者の顔の前記2次元画像及び前記距離画像に基づいて、前記第3の座標系の原点を校正する校正工程を更に実行せしめる、
請求項7又は8に記載の視線方向推定プログラム。 In the computer,
The two-dimensional image of the face of the subject to be photographed obtained by photographing the subject to be photographed while the subject is facing the camera and gazing at the camera; Further executing a calibration step of calibrating the origin of the third coordinate system based on the distance image;
The gaze direction estimation program according to claim 7 or 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053745A JP2016173313A (en) | 2015-03-17 | 2015-03-17 | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053745A JP2016173313A (en) | 2015-03-17 | 2015-03-17 | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016173313A true JP2016173313A (en) | 2016-09-29 |
Family
ID=57009588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053745A Pending JP2016173313A (en) | 2015-03-17 | 2015-03-17 | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016173313A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101211A (en) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | On-vehicle device |
CN108921000A (en) * | 2018-04-16 | 2018-11-30 | 深圳市深网视界科技有限公司 | Head angle mark, prediction model training, prediction technique, equipment and medium |
CN109446892A (en) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | Human eye notice positioning method and system based on deep neural network |
CN110310321A (en) * | 2018-03-23 | 2019-10-08 | 爱信精机株式会社 | Direction of visual lines estimates device, direction of visual lines evaluation method and direction of visual lines estimation program |
CN110794963A (en) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | Depth camera-based eye control auxiliary input method |
JP2020508621A (en) * | 2017-02-27 | 2020-03-19 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Virtual reality head mounted device |
CN111353461A (en) * | 2020-03-11 | 2020-06-30 | 京东数字科技控股有限公司 | Method, device and system for detecting attention of advertising screen and storage medium |
CN111767821A (en) * | 2020-06-23 | 2020-10-13 | 京东数字科技控股有限公司 | Method, device, equipment and storage medium for identifying object concerned |
CN112416126A (en) * | 2020-11-18 | 2021-02-26 | 青岛海尔科技有限公司 | Page rolling control method and device, storage medium and electronic equipment |
CN112633217A (en) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | Human face recognition living body detection method for calculating sight direction based on three-dimensional eyeball model |
CN113139892A (en) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | Sight line track calculation method and device and computer readable storage medium |
CN113421239A (en) * | 2021-06-23 | 2021-09-21 | 深圳中科飞测科技股份有限公司 | Recognition method, recognition device, semiconductor processing apparatus, and readable storage medium |
CN113610051A (en) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | Face ranging method, device and computer readable medium based on face registration |
CN113627267A (en) * | 2021-07-15 | 2021-11-09 | 中汽创智科技有限公司 | Sight line detection method, device, equipment and medium |
CN113903079A (en) * | 2020-07-06 | 2022-01-07 | 北京理工大学 | Sight estimation method based on integrated micro-miniature head-mounted system |
CN114004889A (en) * | 2021-11-02 | 2022-02-01 | 辽宁大学 | Three-dimensional eyeball movement direction judgment method fusing head postures |
CN114067420A (en) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | Sight line measuring method and device based on monocular camera |
CN116824036A (en) * | 2023-04-19 | 2023-09-29 | 南京医科大学 | Eyeball three-dimensional modeling method and system based on three-dimensional imaging |
-
2015
- 2015-03-17 JP JP2015053745A patent/JP2016173313A/en active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018101211A (en) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | On-vehicle device |
US11016293B2 (en) | 2017-02-27 | 2021-05-25 | Advanced New Technologies Co., Ltd. | Virtual reality head-mounted apparatus |
JP2020508621A (en) * | 2017-02-27 | 2020-03-19 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Virtual reality head mounted device |
JP2022022421A (en) * | 2017-02-27 | 2022-02-03 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | Virtual reality head mount device |
JP7369173B2 (en) | 2017-02-27 | 2023-10-25 | アドバンスド ニュー テクノロジーズ カンパニー リミテッド | virtual reality head mounted device |
CN110310321A (en) * | 2018-03-23 | 2019-10-08 | 爱信精机株式会社 | Direction of visual lines estimates device, direction of visual lines evaluation method and direction of visual lines estimation program |
CN108921000A (en) * | 2018-04-16 | 2018-11-30 | 深圳市深网视界科技有限公司 | Head angle mark, prediction model training, prediction technique, equipment and medium |
CN108921000B (en) * | 2018-04-16 | 2024-02-06 | 深圳市深网视界科技有限公司 | Head angle labeling, prediction model training, prediction method, device and medium |
CN109446892A (en) * | 2018-09-14 | 2019-03-08 | 杭州宇泛智能科技有限公司 | Human eye notice positioning method and system based on deep neural network |
CN109446892B (en) * | 2018-09-14 | 2023-03-24 | 杭州宇泛智能科技有限公司 | Human eye attention positioning method and system based on deep neural network |
CN110794963A (en) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | Depth camera-based eye control auxiliary input method |
CN113139892A (en) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | Sight line track calculation method and device and computer readable storage medium |
CN111353461B (en) * | 2020-03-11 | 2024-01-16 | 京东科技控股股份有限公司 | Attention detection method, device and system of advertising screen and storage medium |
CN111353461A (en) * | 2020-03-11 | 2020-06-30 | 京东数字科技控股有限公司 | Method, device and system for detecting attention of advertising screen and storage medium |
CN111767821A (en) * | 2020-06-23 | 2020-10-13 | 京东数字科技控股有限公司 | Method, device, equipment and storage medium for identifying object concerned |
CN113903079A (en) * | 2020-07-06 | 2022-01-07 | 北京理工大学 | Sight estimation method based on integrated micro-miniature head-mounted system |
CN112416126A (en) * | 2020-11-18 | 2021-02-26 | 青岛海尔科技有限公司 | Page rolling control method and device, storage medium and electronic equipment |
CN112633217A (en) * | 2020-12-30 | 2021-04-09 | 苏州金瑞阳信息科技有限责任公司 | Human face recognition living body detection method for calculating sight direction based on three-dimensional eyeball model |
CN113421239A (en) * | 2021-06-23 | 2021-09-21 | 深圳中科飞测科技股份有限公司 | Recognition method, recognition device, semiconductor processing apparatus, and readable storage medium |
CN113627267A (en) * | 2021-07-15 | 2021-11-09 | 中汽创智科技有限公司 | Sight line detection method, device, equipment and medium |
CN113610051B (en) * | 2021-08-26 | 2023-11-17 | 合众新能源汽车股份有限公司 | Face ranging method, equipment and computer readable medium based on face registration |
CN113610051A (en) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | Face ranging method, device and computer readable medium based on face registration |
CN114004889A (en) * | 2021-11-02 | 2022-02-01 | 辽宁大学 | Three-dimensional eyeball movement direction judgment method fusing head postures |
CN114067420B (en) * | 2022-01-07 | 2023-02-03 | 深圳佑驾创新科技有限公司 | Sight line measuring method and device based on monocular camera |
CN114067420A (en) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | Sight line measuring method and device based on monocular camera |
CN116824036A (en) * | 2023-04-19 | 2023-09-29 | 南京医科大学 | Eyeball three-dimensional modeling method and system based on three-dimensional imaging |
CN116824036B (en) * | 2023-04-19 | 2024-05-17 | 南京医科大学 | Eyeball three-dimensional modeling method and system based on three-dimensional imaging |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
US11741624B2 (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale | |
CN110913751B (en) | Wearable eye tracking system with slip detection and correction functions | |
US9864430B2 (en) | Gaze tracking via eye gaze model | |
CN109804220B (en) | Apparatus and method for tracking head movement | |
JP6800091B2 (en) | Line-of-sight measuring device and program | |
JP2020034919A (en) | Eye tracking using structured light | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
EP4383193A1 (en) | Line-of-sight direction tracking method and apparatus | |
CN109690553A (en) | The system and method for executing eye gaze tracking | |
JPWO2008007781A1 (en) | Gaze direction detection device and gaze direction detection method | |
JP6840697B2 (en) | Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
CN111854620B (en) | Monocular camera-based actual pupil distance measuring method, device and equipment | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
JP2019215688A (en) | Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
CN106843492B (en) | Multi-user viewpoint calibration system and method | |
JP6288770B2 (en) | Face detection method, face detection system, and face detection program | |
JP2005261728A (en) | Line-of-sight direction recognition apparatus and line-of-sight direction recognition program | |
JP2018101211A (en) | On-vehicle device | |
JP2018101212A (en) | On-vehicle device and method for calculating degree of face directed to front side | |
JP6785723B2 (en) | Line-of-sight measuring device | |
CN109961473A (en) | Eyes localization method and device, electronic equipment and computer readable storage medium | |
JP2018149234A (en) | Fixation point estimation system, fixation point estimation method, and fixation point estimation program |