JPH07101265A - Driving state detecting device - Google Patents
Driving state detecting deviceInfo
- Publication number
- JPH07101265A JPH07101265A JP5246955A JP24695593A JPH07101265A JP H07101265 A JPH07101265 A JP H07101265A JP 5246955 A JP5246955 A JP 5246955A JP 24695593 A JP24695593 A JP 24695593A JP H07101265 A JPH07101265 A JP H07101265A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- template
- image
- driver
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Emergency Alarm Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は運転状態検出装置、特に
撮影して得られた運転者の顔画像を処理して運転者の運
転状態を検出する装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a driving state detecting device, and more particularly to a device for detecting a driving state of a driver by processing a face image of the driver obtained by photographing.
【0002】[0002]
【従来の技術】従来より、車両走行の安全性向上を計る
べく種々の装置が開発、搭載されており、運転者の運転
状態を車載カメラなどで監視し、居眠りや脇見運転など
を検出して警報などを与える運転状態検出装置もその1
つである。2. Description of the Related Art Conventionally, various devices have been developed and installed in order to improve the safety of vehicle running. The driver's driving condition is monitored by an in-vehicle camera or the like to detect drowsiness or looking aside. The operating condition detection device that gives an alarm is also part 1
Is one.
【0003】例えば、特開昭63−174490号公報
では、映像信号A/D変換し、一定期間毎に映像メモリ
に格納し、その映像メモリ内容と基準映像とを比較し
て、差異があれば動きがあるとする技術を開示してい
る。すなわち、デジタル基準映像信号とデジタル映像信
号が共に比較器に入力され、比較器は両デジタル信号を
比較(減算)して一定値以上の差異がある場合には動き
検知信号を出力する。ここで、基準映像は基準映像メモ
リに格納されるが、基準メモリ内容は用途に応じて適宜
所定のタイミングで更新され、太陽の陰りなどの輝度変
化を誤検出することを防止している。For example, in Japanese Unexamined Patent Publication No. 63-174490, a video signal is A / D converted and stored in a video memory at regular intervals, and the contents of the video memory are compared with a reference video. It discloses the technology that there is a movement. That is, both the digital reference video signal and the digital video signal are input to the comparator, and the comparator compares (subtracts) both digital signals and outputs a motion detection signal when there is a difference of a certain value or more. Here, the reference image is stored in the reference image memory, but the content of the reference memory is appropriately updated at a predetermined timing according to the application to prevent erroneous detection of a change in brightness such as the shade of the sun.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、このよ
うな動き検知装置を車両に搭載する場合、走行環境に応
じて撮影時の輝度は種々変化するので、基準映像を頻繁
に更新しなければならず、基準画像の意義が失われてし
まう問題がある。運転者の運転状態が正常か否かを検出
するには、予め正常な運転状態にある運転者画像を基準
画像として記憶しておく必要があるが、このように頻繁
に基準画像を更新しなければならないとすると、どれが
正常な運転状態の画像なのか判別できないからである。However, when such a motion detecting device is mounted on a vehicle, the brightness at the time of photographing changes variously according to the traveling environment, so the reference image must be updated frequently. However, there is a problem that the significance of the reference image is lost. In order to detect whether or not the driving condition of the driver is normal, it is necessary to store the driver image in a normal driving condition as a reference image in advance, but the reference image must be updated frequently like this. This is because if it is not possible to determine which is the image of the normal driving state.
【0005】そこで、このように種々の走行環境により
輝度変化が生じても、運転者の運転状態を検出するため
に、本願出願人は先に特願平5−47597号にて以下
のような運転状態検出装置を提案した。すなわち、予め
定められた標準テンプレートと正規化撮影画像との相関
演算により、運転状態を検出する対象となる運転者固有
の対象テンプレートを作成する。そして、この対象テン
プレートと正規化画像の対応する範囲の画像との相関演
算を行い、相関値の変化から運転者の目の状態及び顔の
方向を検出するものである。正規化画像を用いることに
より走行環境によって変化する背景輝度の変化の影響を
除去し、また相関演算を行うことにより確実に運転者の
変化の状態を検出することができる。Therefore, in order to detect the driving state of the driver even when the luminance changes due to various running environments as described above, the applicant of the present application has previously described the following in Japanese Patent Application No. 5-47597. A driving state detection device was proposed. That is, a target template peculiar to the driver, which is a target for detecting the driving state, is created by performing a correlation calculation between a predetermined standard template and the normalized captured image. Then, a correlation calculation is performed between the target template and the image in the corresponding range of the normalized image, and the state of the eyes and the direction of the face of the driver are detected from the change in the correlation value. By using the normalized image, it is possible to remove the influence of the change in the background brightness that changes depending on the driving environment, and by performing the correlation calculation, the change state of the driver can be reliably detected.
【0006】ここで、対象テンプレートとの相関演算に
より運転者の目の状態を検出するためには、対象となる
運転者の目領域を確実に検出することが前提となる。運
転者の目領域は所定の輝度変化から抽出されることにな
るが、領域輝度が目領域と近似する領域(例えば眉毛や
揉み上げ部など)を目領域と誤って検出してしまう可能
性があり、この場合には対象テンプレート自体が誤って
いるため運転者の運転状態を正確に検出できない問題が
生じてしまう。Here, in order to detect the state of the driver's eyes by the correlation calculation with the target template, it is premised that the target driver's eye region is detected reliably. The driver's eye area will be extracted from the predetermined brightness change, but there is a possibility that the area where the area brightness is close to the eye area (for example, the eyebrows or the rubbing part) is erroneously detected as the eye area. In this case, the target template itself is incorrect, which causes a problem that the driving state of the driver cannot be accurately detected.
【0007】本発明は上記従来の課題に鑑みなされたも
のであり、その目的は運転者の目領域を確実に抽出して
運転者の運転状態を判別できる運転状態検出装置を提供
することにある。The present invention has been made in view of the above conventional problems, and an object of the present invention is to provide a driving state detecting device capable of surely extracting the driver's eye region to determine the driving state of the driver. .
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の運転状態検出装置は、車両運転者の
顔画像を処理することにより運転者の運転状態を検出す
る運転状態検出装置であって、車両運転者を撮影する撮
像する撮像手段と、得られた画像の濃淡正規化を行う正
規化手段と、正規化された画像に対して、予め顔及び目
領域を特定した標準テンプレートを用いて相関演算を行
い、運転者用の対象顔テンプレート及び対象目テンプレ
ートを作成する対象テンプレート作成手段と、正規化さ
れた画像に対して前記対象テンプレートを用いて相関演
算を行い、相関値の変化に基づき運転者の運転状態を検
出する検出手段と、を有し、前記対象テンプレート作成
手段は、正規化された画像に対して前記標準テンプレー
トを用いて運転者の顔領域画像を抽出する顔領域抽出手
段と、抽出した顔領域に対して前記標準テンプレートを
用いて運転者の目領域候補を抽出する目領域候補抽出手
段と、抽出した目領域候補から運転者の顔要素の配置に
関する情報を用いて運転者の目領域を抽出する目領域抽
出手段とを備えることを特徴とする。In order to achieve the above object, a driving state detecting apparatus according to claim 1 detects a driving state of a driver by processing a face image of the vehicle driver. An apparatus, which is an image capturing unit that captures an image of a vehicle driver, a normalizing unit that normalizes the density of an obtained image, and a standard that specifies a face and an eye region in advance with respect to the normalized image. Correlation calculation is performed using the template to generate a target face template and a target eye template for the driver, and a correlation calculation is performed on the normalized image using the target template to obtain a correlation value. Detecting means for detecting the driving state of the driver based on the change of the driver, and the target template creating means uses the standard template for a normalized image of the driver. Face area extracting means for extracting a face area image, eye area candidate extracting means for extracting an eye area candidate of the driver using the standard template for the extracted face area, and a driver of the driver from the extracted eye area candidates. Eye area extracting means for extracting the eye area of the driver by using the information on the arrangement of the face elements.
【0009】また、上記目的を達成するために請求項2
記載の運転状態検出装置は、車両運転者の顔画像を処理
することにより運転者の運転状態を検出する運転状態検
出装置であって、車両運転者を撮影する撮像手段と、得
られた画像の濃淡正規化を行う正規化手段と、正規化さ
れた画像に対して予め顔領域、目近傍領域及び目領域を
特定した標準テンプレートを用いて相関演算を行い、運
転者用の対象顔テンプレート、対象目近傍テンプレート
及び対象目テンプレートを作成する対象テンプレート作
成手段と、正規化された画像に対して前記対象顔テンプ
レート、対象目近傍テンプレート、対象目テンプレート
を順次用いて相関演算を行い、相関値の変化に基づき運
転者の運転状態を検出する検出手段とを備えることを特
徴とする。Further, in order to achieve the above object, a second aspect is provided.
The driving state detection device described is a driving state detection device that detects the driving state of the driver by processing the face image of the vehicle driver, and an imaging means for photographing the vehicle driver and the obtained image. Correlation calculation is performed using a normalization means for performing grayscale normalization and a standard template in which the face area, the eye vicinity area and the eye area are specified in advance for the normalized image, and the target face template for the driver, the target Correlation calculation is performed by sequentially using the target face template, the target eye vicinity template, and the target eye template with respect to the normalized image, the target template creating means for creating the eye vicinity template and the target eye template, and the change of the correlation value. And a detection means for detecting the driving state of the driver based on the above.
【0010】[0010]
【作用】請求項1記載の運転状態検出装置においては、
対象テンプレート作成手段にて対象となる運転者の目テ
ンプレートを作成するに際し、眉毛や目などの顔要素の
配置に関する情報が用いられる。対象目テンプレート
は、正規化画像と標準顔テンプレートとの相関演算によ
りまず顔領域が抽出され、次にこの顔領域と標準目テン
プレートとの相関演算により目領域が抽出されるが、前
述したように目領域と近似する輝度変化を有する眉毛や
も揉み上げ部なども相関演算により抽出される。抽出さ
れたこれら目領域候補から真の目領域を抽出するに際し
て、顔要素の配置情報が用いられる。ここで、配置情報
は、例えば眉毛は横方向にほぼ平向に、かつ離間して1
対存在する、目は横方向にほぼ平行に、かつ離間して1
対存在する、1対の目は1対の眉毛より下方に存在す
る、等である。目領域候補として真の目領域及び眉毛領
域が抽出された場合、目領域は眉毛より下方にあるとい
う配置情報を用いることにより眉毛領域から分離抽出さ
れる。In the operating state detecting device according to claim 1,
When creating the target driver's eye template by the target template creating means, information about the arrangement of face elements such as eyebrows and eyes is used. In the target eye template, the face area is first extracted by the correlation calculation between the normalized image and the standard face template, and then the eye area is extracted by the correlation calculation between the face area and the standard eye template. Correlation calculation is also performed to extract eyebrows, a massaging part, and the like having a brightness change similar to that of the eye region. When the true eye region is extracted from these extracted eye region candidates, the face element arrangement information is used. Here, the placement information is, for example, that the eyebrows are in a horizontal direction in a substantially horizontal direction and are separated by 1
A pair of eyes, the eyes are approximately parallel to the lateral direction and are spaced apart 1
A pair of eyes, a pair of eyes are below a pair of eyebrows, and so on. When the true eye area and the eyebrow area are extracted as the eye area candidates, the eye area is separated and extracted from the eyebrow area by using the arrangement information that the eye area is below the eyebrow.
【0011】また、請求項2記載の運転状態検出装置に
おいては、対象目テンプレートを作成するに際し、標準
テンプレートを3種類、すなわち標準顔テンプレート、
標準目近傍テンプレート、標準目テンプレートが用意さ
れ、相関演算が行われる。正規化画像に対してまず標準
顔テンプレートを用いることにより顔画像が抽出され
る。次に、標準目近傍テンプレートを用いることによ
り、眉毛を含む目近傍領域が抽出される。更に、眉毛を
含む目近傍領域に標準目テンプレートを用いることによ
り、対象となる運転者の目領域のみが抽出される。Further, in the driving state detecting apparatus according to the second aspect, when creating the target eye template, three types of standard templates, that is, standard face templates,
A standard eye vicinity template and a standard eye template are prepared and a correlation calculation is performed. A face image is extracted by first using a standard face template for the normalized image. Next, by using the standard eye vicinity template, the eye vicinity area including the eyebrows is extracted. Further, by using the standard eye template in the eye vicinity area including the eyebrows, only the eye area of the target driver is extracted.
【0012】前述した特願平5−47597号では顔領
域画像から直接目領域画像を抽出するが、このように顔
領域−目近傍領域−目領域と3段階の抽出処理を順次行
うことにより、目領域のみを確実に検出することができ
る。In the above-mentioned Japanese Patent Application No. 5-47597, the eye area image is directly extracted from the face area image, but by sequentially performing the three-step extraction processing of face area-near eye area-eye area in this way, Only the eye area can be reliably detected.
【0013】[0013]
【実施例】以下、図面を用いながら本発明の運転状態検
出装置の好適な実施例を説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the operating condition detecting apparatus of the present invention will be described below with reference to the drawings.
【0014】第1実施例 図1には本実施例の構成ブロック図が示されている。運
転者を撮影するカメラ10が車両の所定位置に設けら
れ、運転者の顔画像を撮影する。カメラ10には画像処
理装置12が接続されており、得られた運転者の顔画像
を画像処理装置12に供給する。画像処理装置12には
A/D変換器、正規化回路及び相関演算回路を備えてお
り、入力された画像信号をデジタル信号に変換し、更に
濃淡正規化処理を行う。画像処理装置12はメモリ14
が接続されている。メモリ14には標準テンプレート
(顔テンプレート及び目テンプレート)及び眉毛や目な
どの顔要素の配置データが予め格納されている。配置デ
ータの内容は、「眉毛、目とも2個づつ存在する」、
「眉毛、目とも左右濃淡値差は小さい」、「眉毛、目は
横方向(x方向)に平行して存在する」、「目は眉毛の
下方にある」等である。画像処理装置12は更に電子制
御装置ECU16に接続されており、処理結果をECU
16に供給する。ECU16では処理結果から運転者の
運転状態を判別し、図示しない警報装置などに制御信号
を出力して警報を発する構成である。 First Embodiment FIG. 1 shows a block diagram of the configuration of this embodiment. A camera 10 for photographing the driver is provided at a predetermined position of the vehicle and photographs a face image of the driver. An image processing device 12 is connected to the camera 10, and the obtained face image of the driver is supplied to the image processing device 12. The image processing device 12 includes an A / D converter, a normalization circuit, and a correlation calculation circuit, converts the input image signal into a digital signal, and further performs a grayscale normalization process. The image processing device 12 has a memory 14
Are connected. The memory 14 stores in advance standard templates (face template and eye template) and arrangement data of face elements such as eyebrows and eyes. The contents of the arrangement data are “two for each eyebrow and eye”,
The difference between the left and right gray value of the eyebrows and the eyes is small, the eyebrows and the eyes are parallel to the lateral direction (x direction), and the eyes are below the eyebrows. The image processing device 12 is further connected to the electronic control unit ECU 16, and the processing result is stored in the ECU.
Supply to 16. The ECU 16 is configured to determine the driving state of the driver from the processing result and output a control signal to an alarm device (not shown) to issue an alarm.
【0015】図2には図1に示された本実施例の構成に
おける処理の様子を示す処理ブロック図が示されてい
る。カメラ10にて運転者の顔画像が撮影され、画像処
理装置12に出力される。画像処理装置12ではメモリ
14に格納された標準テンプレートを用いて対象運転者
の対象テンプレート(対象顔テンプレート、対象目テン
プレート)を相関演算により検出する。対象目テンプレ
ートを作成するに際し、メモリ14に格納された顔配置
データが用いられる。作成された対象テンプレートはメ
モリ14に格納され、この対象テンプレートを用いて運
転者の顔画像から運転者の目の状態の変化を相関演算に
より監視する。相関演算の結果はECU16に出力さ
れ、運転者の異常状態の有無が判定される。FIG. 2 is a processing block diagram showing the manner of processing in the configuration of this embodiment shown in FIG. The face image of the driver is captured by the camera 10 and output to the image processing device 12. The image processing apparatus 12 detects the target template (target face template, target eye template) of the target driver by the correlation calculation using the standard template stored in the memory 14. The face layout data stored in the memory 14 is used when creating the target eye template. The created target template is stored in the memory 14, and the target template is used to monitor the change of the driver's eye state from the driver's face image by the correlation calculation. The result of the correlation calculation is output to the ECU 16 and it is determined whether the driver is in an abnormal state.
【0016】本実施例の構成は以上のようであり、以下
その動作を図3乃至図4のフローチャートを用いてより
詳細に説明する。The configuration of this embodiment is as described above, and its operation will be described in more detail below with reference to the flowcharts of FIGS.
【0017】図3には本実施例の装置を用いて運転者の
居眠りや脇見などの異常状態を検出する検出フローチャ
ートが示されている。まず、カメラ10により運転者の
顔画像が撮影される(S101)。次に、得られた顔画
像は画像処理装置12にて濃淡正規化が行われる(S1
02)。正規化処理は、画像中の最小輝度を1、最大輝
度を256とする濃淡正規化により行われる。正規化処
理が行われた後、標準テンプレートを用いて対象テンプ
レートが検出される(S103)。対象テンプレートの
検出処理の詳細は図4の処理フローチャートに示されて
いる。図4において、まず得られた顔画像から対象顔領
域を探索する(S201)。この探索は、カメラ10か
ら入力され、正規化された顔画像とメモリ14に格納さ
れた標準顔テンプレートとの相関演算により行われる。
すなわち、顔画像に対し、標準顔テンプレートを順次シ
フトさせながら相関演算を行い、相関が最も高くなる
(すなわち、相関値が最小となる)位置を求め、顔領域
を抽出する。FIG. 3 shows a detection flowchart for detecting an abnormal state such as a driver's drowsiness or looking aside using the apparatus of this embodiment. First, the face image of the driver is captured by the camera 10 (S101). Next, the obtained face image is gray-scale normalized by the image processing device 12 (S1).
02). The normalization processing is performed by the grayscale normalization in which the minimum brightness in the image is 1 and the maximum brightness is 256. After the normalization process is performed, the target template is detected using the standard template (S103). Details of the target template detection process are shown in the process flowchart of FIG. In FIG. 4, first, a target face area is searched from the obtained face image (S201). This search is performed by performing a correlation calculation between the normalized face image input from the camera 10 and the standard face template stored in the memory 14.
That is, the correlation calculation is performed on the face image while sequentially shifting the standard face template, the position where the correlation is highest (that is, the correlation value is minimum) is obtained, and the face area is extracted.
【0018】対象顔領域の探索が終了した後、この対象
顔領域内に小領域が設定される(S202)。この小領
域は抽出された顔領域を複数の帯状領域に分割するもの
であり、図5に示されている。図5において符号100
で示される枠が顔画像の領域を示しており、符号200
で示される枠が前述のS201にて抽出された顔領域で
あり、符号300で示される枠が小領域である。この小
領域300の幅は運転者の眉毛と目が同時に含まれるこ
とのないような幅に設定される。対象顔領域内に小領域
が設定された後、この小領域内で対象目領域候補が探索
される(S203)。すなわち、小領域内の画像に対
し、メモリ14に予め格納された標準目テンプレートを
用いて相関演算を行い、相関度が高い位置を探索する。
相関値が最小となる位置の横方向をx座標、縦方向位置
をy座標で表した場合に、x座標が所定の閾値xth以
上離れ、かつ、y座標が所定閾値yth以下となる2つ
の最小相関値領域を第1,第2目領域候補としてメモリ
14に格納する。ある小領域における探索が終了した
後、図6(a)に示すように小領域を特定する縦方向位
置y座標を更新して次の小領域探索に移行する(S20
4)。以下、同様にして顔領域200内の全ての小領域
300について第1,第2目領域候補の探索が行われる
(S205)。全ての小領域内の目領域候補が探索され
た後、次にこれらの目領域候補から真の目領域が検出さ
れる(S206)。真の目領域検出にはメモリ14に格
納された配置データが用いられる。前述したように、配
置データには「眉毛、目共に2個づつ存在する」、「目
は眉毛の下方にある」などのデータが含まれている。従
って、1対の眉毛領域を目領域候補とする小領域Aと1
対の目領域を目領域候補とする小領域Bがある場合、小
領域Bのy座標は小領域Aのy座標より下方にあるの
で、配置データの「目は眉毛の下方にある」により小領
域Bの目領域公報が真の目領域であると判定される。ま
た、ある小領域Cにおいて、目領域候補が第1,第2の
2つ存在したとしても、これら第1,第2目領域候補の
濃淡差が大きい場合には、配置データの「眉毛、目とも
左右濃淡値差は小さい」により真の目領域とはなり得ず
除外されることになる。このようにして図6(b)に示
すように複数の目領域候補から真の目領域500のみが
抽出される。抽出された顔領域及び目領域はそれぞれ対
象顔テンプレート、対象目テンプレートとしてメモリ1
4に格納される。After the search for the target face area is completed, a small area is set in this target face area (S202). This small area divides the extracted face area into a plurality of strip-shaped areas, and is shown in FIG. In FIG. 5, reference numeral 100
The frame indicated by indicates the area of the face image, and the reference numeral 200
The frame indicated by is the face area extracted in S201 described above, and the frame indicated by reference numeral 300 is the small area. The width of the small area 300 is set such that the driver's eyebrows and eyes are not included at the same time. After a small area is set in the target face area, a target eye area candidate is searched in this small area (S203). That is, the correlation calculation is performed on the image in the small area using the standard eye template stored in advance in the memory 14, and the position with a high degree of correlation is searched for.
When the horizontal direction of the position where the correlation value is the minimum is represented by the x-coordinate and the vertical position is represented by the y-coordinate, the x-coordinate is separated by a predetermined threshold value xth or more and the y-coordinate is the predetermined minimum value yth or less. The correlation value area is stored in the memory 14 as the first and second area candidates. After the search in a certain small area is completed, as shown in FIG. 6A, the y-coordinate in the vertical direction for identifying the small area is updated, and the process moves to the next small area search (S20).
4). Hereinafter, similarly, the search for the first and second eye area candidates is performed for all the small areas 300 in the face area 200 (S205). After searching the eye area candidates in all the small areas, the true eye areas are detected from these eye area candidates (S206). The placement data stored in the memory 14 is used for detecting the true eye region. As described above, the arrangement data includes data such as “two eyebrows and two eyes are present” and “eyes are below the eyebrows”. Therefore, a pair of small area A and eye area 1 that have a pair of eyebrow areas as eye area candidates
When there is a small area B having a pair of eye areas as eye area candidates, the y coordinate of the small area B is lower than the y coordinate of the small area A, and thus the small “B” is in the arrangement data. The eye area publication of the area B is determined to be a true eye area. Further, even if there are two eye region candidates, the first and second eye region candidates, in a certain small region C, if the difference in shade between these first and second eye region candidates is large, "eyebrows, eye In both cases, the difference between the gray values on the left and right is small. " In this way, only the true eye region 500 is extracted from the plurality of eye region candidates as shown in FIG. 6 (b). The extracted face area and eye area are the target face template and the memory 1 as the target eye template, respectively.
Stored in 4.
【0019】以上のようにして図3におけるS103の
処理が行われる。対象テンプレートが検出された後、再
びカメラ10により運転者の顔画像が撮影され、濃淡正
規化行われる(S104)。そして、この正規化顔画像
に対し、目領域の追跡が行われる(S105)。すなわ
ち、正規化顔画像とメモリ14に格納された対象顔テン
プレートとの相関演算により顔画像領域を抽出し、この
顔画像領域に対しメモリ14に格納された対象目テンプ
レートを用いて相関演算行われる。相関演算の結果は順
次ECU16に出力される。ECU16は順次入力され
た。相関演算結果に基づき、運転者の状態変化を判定す
る。この判定は、特願平5−47597号のように相関
値に変化があるか否か、そしてその変化の周期がどの程
度かにより判定される。運転者の状態に変化があると判
定された場合には(S107)、運転者が居眠りあるい
は脇見運転していると判定して警報装置を作動させ、運
転者の注意を促す(S108)。The processing of S103 in FIG. 3 is performed as described above. After the target template is detected, the face image of the driver is captured again by the camera 10 and the grayscale normalization is performed (S104). Then, the eye region is tracked for this normalized face image (S105). That is, the face image area is extracted by the correlation calculation between the normalized face image and the target face template stored in the memory 14, and the correlation calculation is performed on this face image area using the target eye template stored in the memory 14. . The result of the correlation calculation is sequentially output to the ECU 16. The ECU 16 is sequentially input. A change in the driver's state is determined based on the correlation calculation result. This determination is made based on whether or not there is a change in the correlation value as in Japanese Patent Application No. 5-47597, and how long the change cycle is. When it is determined that the driver's state has changed (S107), it is determined that the driver is dozing or looking aside, and the alarm device is activated to call the driver's attention (S108).
【0020】このように本実施例においては標準目テン
プレートを用いて相関演算を行うことにより運転者の顔
画像から目領域候補を複数抽出し、これら眉毛や目の配
置に関する情報を用いて複数の目領域候補から真の目領
域を抽出して対象テンプレートを作成するので、得られ
た顔画像から対象目テンプレートを確実に作成でき、目
の状態を監視することができる。As described above, in the present embodiment, a plurality of eye area candidates are extracted from the face image of the driver by performing the correlation calculation using the standard eye template, and a plurality of eye area candidates and eye arrangement information are used to obtain a plurality of eye area candidates. Since the target eye template is created by extracting the true eye area from the eye area candidates, the target eye template can be reliably created from the obtained face image, and the eye condition can be monitored.
【0021】第2実施例 前述した第1実施例においては、顔要素の配置に関する
情報を用いて抽出した顔画像から目領域を抽出したが、
本実施例においては、顔画像から直接目領域を抽出する
のではなく、顔画像からまず眉毛や目を含む目近傍領域
を抽出し、更にこの目近傍領域から目領域を抽出する。 Second Embodiment In the above-described first embodiment, the eye area is extracted from the face image extracted using the information on the arrangement of the face elements.
In this embodiment, the eye area is not directly extracted from the face image, but the eye vicinity area including eyebrows and eyes is first extracted from the face image, and the eye area is extracted from the eye vicinity area.
【0022】本実施例の全体構成は図1に示された第1
実施例と同様であり、カメラ10にて撮影された運転者
の顔画像は画像処理装置12に供給される。画像処理装
置12はメモリ14に予め格納された標準テンプレート
を用いて対象テンプレートを作成するが、本実施例にお
いてはメモリ14に予め格納される標準テンプレートは
標準顔テンプレート、標準目近傍テンプレート、標準目
テンプレートの3つのテンプレートが格納されており、
これら3つのテンプレートを用いて順次、対象顔テンプ
レート、対象目近傍テンプレート、対象目テンプレート
が作成される。作成された3つの対象テンプレートはメ
モリ14に格納される。そして、カメラ10から順次入
力される運転者の顔画像に対してこれら対象テンプレー
トを用いて相関演算が行われ、目領域の相関演算結果が
順次ECU16に出力され、運転者の異常状態が検出さ
れる。The overall configuration of this embodiment is the first shown in FIG.
Similar to the embodiment, the face image of the driver captured by the camera 10 is supplied to the image processing device 12. The image processing apparatus 12 creates the target template using the standard template stored in the memory 14 in advance. In this embodiment, the standard template stored in the memory 14 in advance is a standard face template, a standard eye vicinity template, and a standard eye template. Three templates of the template are stored,
A target face template, a target eye vicinity template, and a target eye template are sequentially created using these three templates. The created three target templates are stored in the memory 14. Correlation calculation is performed on the driver's face image sequentially input from the camera 10 using these target templates, and the correlation calculation result of the eye region is sequentially output to the ECU 16 to detect the abnormal state of the driver. It
【0023】図7には本実施例における処理フローチャ
ートが示されている。まず、前述した第1実施例と同様
に、運転者の顔画像から対象顔領域を探索する(S30
1)。この探索は、予めメモリ14に格納された標準顔
テンプレートと入力顔画像との相関演算により行われ
る。顔領域が抽出された後、この顔領域から対象目近傍
領域の探索が行われる(S302)。この目近傍領域の
探索も、抽出された顔領域とメモリ14に予め格納され
た標準目近傍テンプレートとの相関演算により行われ
る。標準目近傍テンプレートは、運転者の眉毛及び目を
共に含むような大きさのテンプレートであり、図8にそ
の一例が示されている。図8において、顔画像100内
に顔領域200が設定され、更にこの顔領域200内に
目近傍領域400が設定される。この目近傍領域は運転
者の眉毛及び目を共に含む範囲であり、運転者の顔領域
中にはこの目近傍領域と等しい輝度変化を有する領域は
存在しない。従って、輝度変化から目近傍領域400は
一義的に決定されることになる。なお、図8において最
終的な抽出の対象となる目領域は符号500で示されて
いる。FIG. 7 shows a processing flowchart in this embodiment. First, similar to the first embodiment described above, the target face area is searched from the driver's face image (S30).
1). This search is performed by a correlation calculation between the standard face template stored in advance in the memory 14 and the input face image. After the face area is extracted, a search for a target eye vicinity area is performed from this face area (S302). The search for the eye vicinity area is also performed by the correlation calculation between the extracted face area and the standard eye vicinity template stored in advance in the memory 14. The standard eye vicinity template is a template having a size including both the eyebrows and eyes of the driver, and an example thereof is shown in FIG. In FIG. 8, a face area 200 is set in the face image 100, and an eye vicinity area 400 is further set in the face area 200. This eye vicinity region is a range that includes both the eyebrows and eyes of the driver, and there is no region in the driver's face region that has the same brightness change as this eye vicinity region. Therefore, the eye vicinity region 400 is uniquely determined from the brightness change. Note that in FIG. 8, the eye area that is the final extraction target is indicated by reference numeral 500.
【0024】目近傍領域が抽出された後、次に抽出され
た目近傍領域から対象目領域が探索される(S30
3)。この探索は、抽出された目近傍領域400内の画
像と標準目テンプレートとの相関演算により行われる
が、前述した第1実施例と同様に眉毛と目とは近似した
輝度変化を有することがあり、相関演算の結果1対の眉
毛及び1対の目領域候補として抽出される場合がある。
従って、この場合にも予めメモリ14に格納された顔要
素の配置に関するデータが用いられ「目は眉毛の下方に
ある」などの配置データにより目領域のみが抽出され
る。図9には目近傍領域400と目領域500との関係
が示されており、眉毛と目を含む目近傍領域400に対
し、相関演算を行うことにより目領域500が抽出され
る。After the eye vicinity area is extracted, the target eye area is searched from the next extracted eye vicinity area (S30).
3). This search is performed by a correlation calculation between the extracted image in the eye vicinity region 400 and the standard eye template. However, similar to the first embodiment described above, the eyebrows and the eyes may have similar brightness changes. The result of the correlation calculation may be extracted as a pair of eyebrows and a pair of eye area candidates.
Therefore, also in this case, the data regarding the arrangement of the face elements stored in the memory 14 in advance is used, and only the eye region is extracted by the arrangement data such as "the eyes are below the eyebrows". FIG. 9 shows the relationship between the eye vicinity area 400 and the eye area 500, and the eye area 500 is extracted by performing the correlation calculation on the eye vicinity area 400 including the eyebrows and the eyes.
【0025】このようにして対象となる運転者の対象顔
テンプレート、対象目近傍テンプレート、対象目テンプ
レートの3つの対象テンプレートが作成され、メモリ1
4に格納される。そして、このようにして作成された対
象テンプレートを用いて入力顔画像との相関演算が行わ
れ、前述した第1実施例と同様にして目領域への状態が
監視され、異常状態と判定された場合は警報装置を作動
させて運転者に注意を促す。In this way, three target templates of the target driver's target face template, target eye neighborhood template, and target eye template are created, and stored in the memory 1
Stored in 4. Then, the correlation calculation with the input face image is performed using the target template created in this way, and the state to the eye region is monitored in the same manner as in the first embodiment described above, and it is determined that the state is abnormal. In this case, activate the alarm device to call attention to the driver.
【0026】このように、本実施例においては、顔領域
−目近傍領域−目領域の3段階で処理を行って目領域を
抽出するので、顔領域から直接目領域を抽出する場合に
比べ、より確実に目領域のみを抽出することができる。As described above, in this embodiment, since the eye region is extracted by performing the processing in three stages of the face region, the eye vicinity region, and the eye region, as compared with the case where the eye region is directly extracted from the face region, It is possible to more reliably extract only the eye region.
【0027】[0027]
【発明の効果】以上説明したように、本発明の運転状態
検出装置によれば運転者の目領域を確実に抽出し、監視
することにより運転者の運転状態を把握することができ
る。As described above, according to the driving condition detecting apparatus of the present invention, the driving condition of the driver can be grasped by surely extracting and monitoring the driver's eye region.
【図1】本発明の実施例の構成ブロック図である。FIG. 1 is a configuration block diagram of an embodiment of the present invention.
【図2】本発明の第1実施例における処理ブロック図で
ある。FIG. 2 is a processing block diagram in the first embodiment of the present invention.
【図3】本発明の第1実施例の処理フローチャートであ
る。FIG. 3 is a processing flowchart of the first embodiment of the present invention.
【図4】本発明の第1実施例の処理フローチャートであ
る。FIG. 4 is a processing flowchart of the first embodiment of the present invention.
【図5】本発明の第1実施例の小領域説明図である。FIG. 5 is an explanatory diagram of a small area according to the first embodiment of this invention.
【図6】本発明の第1実施例の小領域と目領域の説明図
である。FIG. 6 is an explanatory diagram of a small area and an eye area according to the first embodiment of this invention.
【図7】本発明の第2実施例の処理フローチャートであ
る。FIG. 7 is a processing flowchart of the second embodiment of the present invention.
【図8】本発明の第2実施例の目近傍領域の説明図であ
る。FIG. 8 is an explanatory diagram of an eye vicinity area according to a second embodiment of the present invention.
【図9】本発明の第2実施例の目近傍領域と目領域の説
明図である。FIG. 9 is an explanatory diagram of an eye vicinity region and an eye region according to the second embodiment of the present invention.
10 カメラ 12 画像処理装置 14 メモリ 16 ECU 10 Camera 12 Image Processing Device 14 Memory 16 ECU
Claims (2)
運転者の運転状態を検出する運転状態検出装置であっ
て、 車両運転者を撮影する撮像する撮像手段と、 得られた画像の濃淡正規化を行う正規化手段と、 正規化された画像に対して、予め顔及び目領域を特定し
た標準テンプレートを用いて相関演算を行い、運転者用
の対象顔テンプレート及び対象目テンプレートを作成す
る対象テンプレート作成手段と、 正規化された画像に対して前記対象テンプレートを用い
て相関演算を行い、相関値の変化に基づき運転者の運転
状態を検出する検出手段と、 を有し、 前記対象テンプレート作成手段は、 正規化された画像に対して前記標準テンプレートを用い
て運転者の顔領域画像を抽出する顔領域抽出手段と、 抽出した顔領域に対して前記標準テンプレートを用いて
運転者の目領域候補を抽出する目領域候補抽出手段と、 抽出した目領域候補から運転者の顔要素の配置に関する
情報を用いて運転者の目領域を抽出する目領域抽出手段
と、 を備えることを特徴とする運転状態検出装置。1. A driving state detection device for detecting a driving state of a driver by processing a face image of the vehicle driver, the image pickup means for picking up an image of the vehicle driver, and the density of the obtained image. Normalizing means for performing normalization, and for the normalized image, a correlation calculation is performed using a standard template in which the face and eye regions are specified in advance, and a target face template and target eye template for the driver are created. A target template creation means, and a detection means for performing a correlation operation on the normalized image using the target template, and detecting a driving state of the driver based on a change in the correlation value, the target template The creating means is a face area extracting means for extracting a face area image of a driver using the standard template for the normalized image, and the standard area for the extracted face area. Region candidate extraction means for extracting a driver's eye region candidate using a template, and an eye region extraction for extracting the driver's eye region from the extracted eye region candidate using information on the arrangement of the driver's face elements An operating condition detection device comprising:
運転者の運転状態を検出する運転状態検出装置であっ
て、 車両運転者を撮影する撮像手段と、 得られた画像の濃淡正規化を行う正規化手段と、 正規化された画像に対して予め顔領域、目近傍領域及び
目領域を特定した標準テンプレートを用いて相関演算を
行い、運転者用の対象顔テンプレート、対象目近傍テン
プレート及び対象目テンプレートを作成する対象テンプ
レート作成手段と、 正規化された画像に対して前記対象顔テンプレート、対
象目近傍テンプレート、対象目テンプレートを順次用い
て相関演算を行い、相関値の変化に基づき運転者の運転
状態を検出する検出手段と、 を備えることを特徴とする運転状態検出装置。2. A driving state detection device for detecting a driving state of a driver by processing a face image of the vehicle driver, the image pickup means for photographing the vehicle driver, and the normalization of gradation of the obtained image. And a normalization means for performing a correlation operation using a standard template in which the face area, the eye vicinity area, and the eye area are specified in advance for the normalized image, and the target face template for the driver and the target eye vicinity template And a target template creating means for creating a target eye template, and the target image template, the target eye neighborhood template, and the target eye template are sequentially used for the normalized image to perform a correlation calculation, and the operation is performed based on a change in the correlation value. A driving state detection device comprising: a detection unit that detects a driving state of a person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5246955A JPH07101265A (en) | 1993-10-01 | 1993-10-01 | Driving state detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5246955A JPH07101265A (en) | 1993-10-01 | 1993-10-01 | Driving state detecting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07101265A true JPH07101265A (en) | 1995-04-18 |
Family
ID=17156221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5246955A Pending JPH07101265A (en) | 1993-10-01 | 1993-10-01 | Driving state detecting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07101265A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944685A (en) * | 1995-07-28 | 1997-02-14 | Mitsubishi Electric Corp | Face image processor |
KR100283321B1 (en) * | 1996-11-22 | 2001-04-02 | 정몽규 | Drowsy driving prevention device |
KR100716370B1 (en) * | 2005-09-15 | 2007-05-11 | 현대자동차주식회사 | Driver eye detecting method |
US8952810B2 (en) | 2008-03-17 | 2015-02-10 | Fst21 Ltd | System and method for automated/semi-automated entry filtering |
-
1993
- 1993-10-01 JP JP5246955A patent/JPH07101265A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944685A (en) * | 1995-07-28 | 1997-02-14 | Mitsubishi Electric Corp | Face image processor |
KR100283321B1 (en) * | 1996-11-22 | 2001-04-02 | 정몽규 | Drowsy driving prevention device |
KR100716370B1 (en) * | 2005-09-15 | 2007-05-11 | 현대자동차주식회사 | Driver eye detecting method |
US8952810B2 (en) | 2008-03-17 | 2015-02-10 | Fst21 Ltd | System and method for automated/semi-automated entry filtering |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8300891B2 (en) | Facial image recognition system for a driver of a vehicle | |
JP5218168B2 (en) | Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system | |
EP2336949B1 (en) | Apparatus and method for registering plurality of facial images for face recognition | |
JP5058002B2 (en) | Object detection device | |
JP2009005198A (en) | Image monitoring system | |
JP2001175876A (en) | Method and device for detecting moving body | |
KR20020034919A (en) | Monitoring method for detecting an intruding object and monitoring apparatus therefor | |
CN102939617A (en) | Gesture recognition device, gesture recognition method, and program | |
KR101139963B1 (en) | Method and apparatus for preventing driver from driving while drowsy based on detection of driver's pupils | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
JP6214426B2 (en) | Object detection device | |
JP2008065757A (en) | Driving assist system | |
JP2013093639A (en) | Vehicle periphery monitoring device | |
JP4777195B2 (en) | Driving support device, vehicle, and driving support method | |
JP2004282368A (en) | Mobile object monitoring device | |
JPH07101265A (en) | Driving state detecting device | |
JP2000020722A (en) | Device and method for extracting object from moving image | |
JP5270319B2 (en) | Image monitoring device | |
JP2985558B2 (en) | Operating condition detection device | |
JP5587068B2 (en) | Driving support apparatus and method | |
JP5128454B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
KR20180125278A (en) | Apparatus and method for detecting pedestrian | |
JP2008040724A (en) | Image processing device and image processing method | |
JP2008146132A (en) | Image detection device, program, and image detection method | |
US20040032985A1 (en) | Edge image acquisition apparatus capable of accurately extracting an edge of a moving object |