JP4912206B2 - 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム - Google Patents
画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム Download PDFInfo
- Publication number
- JP4912206B2 JP4912206B2 JP2007109751A JP2007109751A JP4912206B2 JP 4912206 B2 JP4912206 B2 JP 4912206B2 JP 2007109751 A JP2007109751 A JP 2007109751A JP 2007109751 A JP2007109751 A JP 2007109751A JP 4912206 B2 JP4912206 B2 JP 4912206B2
- Authority
- JP
- Japan
- Prior art keywords
- spectacle
- face
- image
- eye
- search area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
第7発明に係る画像処理装置は、顔の向きを検出する顔の向き検出手段を備え、前記眼鏡部品検出手段は、前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してあることを特徴とする。
従って、運転者の姿勢、顔の向き等によらず、より正確に眼を含む探索領域を設定し、高精度に眼を検出することができる。
特に、眼鏡部品を基準として所定領域における輝度平均値を算出する手段と、該所定領域における輝度分散値を算出する手段と、算出された輝度平均値及び輝度分散値に基づいて、サングラスの有無を判定する手段とを備え、サングラス無しと判定された場合、探索領域から眼の位置を検出するように構成した場合、眼を検出できない状態で位置検出を試みることにより生ずる誤検出を効果的に防止することができる。
なお、顔の向きを検出する顔の向き検出手段を備え、前記検出手段が横向きであることを検出した場合、眼鏡部品検出手段が眼鏡蔓を検出するように構成した場合、検出可能性を考慮して眼鏡蔓の位置を検出することができるため、無駄な検出処理を省いて眼鏡蔓及び眼の位置の誤検出を防止することができる。
また、眼鏡部品を検出するための閾値を記憶する手段と、眼鏡部品検出手段による眼鏡部品の検出率を算出する手段と、検出された眼鏡部品の算出率に応じて前記閾値を増減させる手段とを備えた場合、眼鏡部品の特徴に応じた適切な閾値を設定して眼鏡部品及び眼の検出精度を向上させることができる。
図1は、本発明の実施の形態における画像処理システムの構成例を示すブロック図である。図中1は、車両に搭載された撮像装置であり、撮像装置1は、画像処理を行う画像処理装置2に通信網を介して接続されている。通信網は、例えば専用ケーブル等の通信線、又は有線若しくは無線の車内LAN(Local Area Network)によって構成されている。
撮像装置1は、装置全体を制御するMPU(Micro Processor Unit)11と、MPU11の制御に基づき実行される各種コンピュータプログラム及びデータを記録するROM(Read Only Memory)12と、ROM12に記録されたコンピュータプログラムの実行時に一時的に発生する各種データを記録するRAM(Random Access Memory)13と、CCD(Charge Coupled Device)等の撮像素子を用いて構成される撮像部14と、撮像部14の撮像により得られたアナログの画像データをデジタルデータに変換するA/D変換器15と、A/D変換器15によりデジタルに変換された画像データを一時的に記録するフレームメモリ16と、画像処理装置2との通信に用いられる通信インタフェース17とを備えている。
なお、各画素に対し夫々XY座標系による座標を示すのでは無く、データ内に配列される順序により座標を示す様にしても良い。また、本実施の形態ではグレイスケイルの画像データに基づく画像処理を説明する。カラーの画像データを用いる場合、該画像データを構成する画素の輝度データについて同様の画像処理を実行すれば良い。
なお、コンピュータプログラム31は、言うまでもなく外部のコンピュータから有線又は無線の通信ネットワークを介して流通するものも含み、画像処理装置2が該通信ネットワークを介してコンピュータプログラム31を取得し、HD23に記録するようにしても良い。
例えば、眼鏡ブリッジHの取得率が95%であって、眼鏡上フレームIの取得率が60%のような場合、眼鏡Gが存在しており、眼鏡上フレームIを検出するための閾値が適切でないために眼鏡上フレームIが検出されていない可能性がある。このような場合、眼鏡上フレームIを検出するための閾値を、検出が容易になるように変更することによって、眼鏡上フレームIをより正確に検出することができるようになる。
逆に、眼鏡ブリッジHの取得率が0%であって、眼鏡上フレームIの取得率が15%のような場合、眼鏡Gが存在しておらず、眼鏡上フレームIを検出するための閾値が適切で無いために眼鏡上フレームIを誤検出している可能性がある。このような場合、眼鏡上フレームIを検出するための閾値を、誤検出が生じないように変更することによって、眼鏡上フレームIをより正確に検出することができるようになる。
眼鏡判定処理では、各眼鏡部品の取得率に基づいて総合的に眼鏡Gの有無を判定する。
図3は、顔領域の検出方法を概念的に示す説明図である。ステップS12においてCPU21は、画像の各Y座標について、水平方向に並ぶ各画素の輝度値を積算し、積算して得た輝度積算値と、所定の閾値とを比較することで垂直方向における顔領域R0の範囲を検出する。Fy1は、垂直方向における顔領域R0の上端のY座標を、Fy2は、垂直方向における顔領域R0の下端のY座標を示している。顔領域R0は、髪の領域及び背景領域と比較して明るく撮像されため、輝度積算値と閾値とを比較することによって顔領域R0を検出することができる。
図5は、第1の眼鏡部品認識に係るCPU21の処理手順を示すフローチャートである。まずCPU21は、眼鏡ブリッジHを検出し(ステップS31)、眼鏡上フレームIを検出する(ステップS32)。そして、CPU21は、左右の眼鏡部品の検出処理を終えたか否かを判定する(ステップS33)。左側又は右側の眼鏡部品の検出処理を終えていないと判定した場合(ステップS33:NO)、CPU21は、処理をステップS32に戻す。左右の眼鏡部品の検出処理を終えたと判定した場合(ステップS33:YES)、CPU21は、眼鏡蔓Jを検出し(ステップS34)、第1の眼鏡部品認識に係る処理手順を終える。次に、ステップS31〜34の処理内容を更に具体的に説明する。
ステップS52又はステップS53の処理を終えた場合、CPU21は、眼鏡ブリッジHの上位置及び下位置を検出すべく、図9(b)に示すように検出処理範囲R2において水平方向に並んだ各画素の輝度値を積算する(ステップS54)。図9(b)のグラフの縦軸は、画像データにおけるY座標を、横軸は各X座標の水平ラインにおける輝度値を積算して得た輝度積算値を示している。輝度積算値は各Y座標における水平ラインの明るさを示している。眼鏡ブリッジHが存在している場合、図9(b)に示すように、垂直方向Yにおける眼鏡ブリッジH部分の輝度積算値が他の部分に比べて低く落ち込む。
上下差分値=M1(y+所定画素)−M1(y)…式1
但し、yは、一の水平ラインにおけるY座標を示しており、M1(y)は該水平ラインにおける輝度積算値を示している。
左右差分値=M2(x+所定画素)−M2(x)…式2
但し、xは、一の垂直ラインのX座標を示しており、M2(x)は該垂直ラインにおける画素位置xにおける輝度積算値を示している。
図16は、眼鏡ブリッジHの再評価処理方法を説明するための説明図である。CPU21は、ステップS74で処理された画像であって、眼鏡ブリッジHの左端点H1と右端点H2とを結ぶ直線から上下に所定幅N7を有する画像領域中における輝度値1の含有率を眼鏡ブリッジスコアとして算出する。含有率は、前記画像領域を構成する画素の数に対する、輝度値1を有する画素の割合である。
なお、現画像データの眼鏡ブリッジスコアのみならず、過去の画像データの眼鏡ブリッジスコアも用いて眼鏡ブリッジHの有無を評価する。具体的には、現画像データの眼鏡ブリッジスコアが閾値以上であり、且つ第1所定数フレームの画像データの内、眼鏡ブリッジスコアが閾値以上である画像データの数が第2所定数以上である場合、眼鏡ブリッジH有りと判定する。
次いで、CPU21は図19(b)中、実線の矩形枠で示すように、上下範囲を一定範囲に限定する。具体的には、CPU21は過去に検出された眼位置中点のY座標軸を中心にして上下に顔幅FwのN81%の広がりを有する範囲R5に限定する。なお、過去に検出された眼位置中点が無い場合、眼鏡ブリッジHの中点H1を基準にして上下範囲を設定すれば良い。
より具体的には、図20に示すようにX座標がx1のY方向ラインで各画素について上下の輝度差及び素直方向の微分値を算出する。例えば、Y座標がy1の対象画素についてその上下、つまりY座標がy1+Δyの画素と、Y座標がy1−Δyの画素との輝度差、及び垂直方向における微分値を算出する。そして、前記輝度差が閾値以上であって、垂直方向における微分値が最大の対象画素を眼鏡蔓Jと推定される画素として特定し、該画素のX座標及びY座標(以下、Y位置という)をY位置テーブルに記憶する。Y位置テーブルは、連続する複数のX座標の値と、各X座標に対応するY位置とを対応付けた情報である。
図21は、Y位置テーブルに係るノイズ除去方法を概念的に示す説明図である。3本の縦線は眼鏡蔓Jを抽出する処理ラインL1,L2,L3を示しており、CPU21は左側の処理ラインL1から右側の処理ラインL3へ順に眼鏡蔓Jの画素を抽出する。黒色四角印は各ラインL1,L2,L3で眼鏡蔓Jの位置として算出された画素を示しており、白抜き四角印はノイズ除去処理された後の画素を示している。具体的には、CPU21は、処理ラインL2におけるY位置と処理ラインL3におけるY位置との差が第1の所定値以上であって、処理ラインL1におけるY位置と処理ラインL1におけるY位置との差が第2の所定値未満である場合、処理ラインL2における眼鏡蔓画素のY座標を、図21に示すように処理ラインL1におけるY位置と処理ラインL3におけるY位置との中間値に補正する。
具体的には、CPU21は、Y位置テーブルを参照して、隣り合うX座標におけるY位置の差が所定閾値以下の場合、連続性ありと判定する。概念的には、水平方向において隣り合う眼鏡蔓画素のY位置の差、例えばX座標がx1の眼鏡蔓画素と、X座標がx1+1の眼鏡蔓画素とのY座標の差が所定閾値以下の場合、各眼鏡蔓画素は連続性があると判定する。
眼鏡蔓J無しと判断されずに左端点候補及び右端点候補のX座標が算出された場合、CPU21は、Y位置テーブルを参照し、左端点候補及び右端点候補間のX座標及びY位置を用いて最小自乗法により眼鏡蔓Jの近似直線を算出する(ステップS95)。
そして、CPU21は、左端点候補のX座標から近似直線を用いて左端点候補のY座標を算出し、右端点候補のX座標から近似直線を用いて右端点候補のY座標を算出する(ステップS96)。
図23は、第2の眼鏡部品認識に係るCPUの処理手順を示すフローチャートである。CPU21は、微分フィルタを用いて眼鏡下フレームKを検出し(ステップS111)、眼鏡上フレームIを検出する(ステップS112)。そして、輝度平均値及び輝度の分散値を算出してサングラスであるか否かを判定する(ステップS113)。
検出処理範囲R7の下端は鼻穴の中点P0から顔幅FwのN10%下側の位置である。つまり検出処理範囲R7の下端のY座標は、中点P0のY座標+Fw×N10/100である。検出処理範囲R7の上端は、眼位置EのY座標Eyである。
CPU21は、微分フィルタ抽出処理を終えた場合、眼鏡下フレームKの下位置を検出し(ステップS133)、眼鏡下フレーム検出に係る処理を終える。眼鏡下フレームKの下位置は、図26中、×印で示した箇所である。具体的には、ステップS132で複数の画素が検出されている場合、CPU21は、検出されたn個の画素中、各画素のY座標の中間値を下位置のY座標として記憶する。また、CPU21は、検出処理範囲R8の水平方向略中央部のX座標を、下位置のX座標として記憶する。
下フレームが無い眼鏡Gの場合、眼鏡下フレームKが検出されないが、反射部分が検出されている場合、反射部分に眼鏡Gが存在していると考えられるため、反射部分の最下端を下位置として記憶する。
CPU21は、ステップS132で検出された画素が1つも無く、反射部分画素が検出されてない場合、眼鏡下フレームKが無いと判定して、処理を終える。
図29は、眼鏡上フレームIの上位置を概念的に示す説明図である。
CPU21は、微分フィルタ抽出処理を終えた場合、眼鏡上フレームIの上位置を検出し(ステップS153)、眼鏡上フレーム検出に係る処理を終える。眼鏡上フレームIの上位置は、図29中、×印で示した箇所である。具体的には、ステップS152で複数の画素が検出されている場合、CPU21は、検出されたn個の画素中、各画素のY座標の中間値を上位置のY座標として記憶する。また、CPU21は、検出処理範囲R8の水平方向略中央部のX座標を、上位置のX座標として記憶する。
サングラスフラグが示す1フレームのみの結果では、瞬間的な輝度変化、手の進入等によってサングラスを誤認識する虞があるが、複数フレームでのサングラス判定結果を用いて総合的に判定することにより、上述のような誤認識を防止することができる。
具体的には、CPU21は、眼鏡蔓J、眼鏡上フレームI、眼鏡下フレームK、眼鏡ブリッジHの検出の成否、及び各眼鏡部品の位置を記録する。
また、CPU21は、過去の所定数フレームにおける各眼鏡部品の取得率、即ち検出の成功率を算出し、HD23に記録する。眼鏡部品の取得率は、各眼鏡部品毎に算出する。眼鏡Gによっては、眼鏡下フレームKが検出されないが、眼鏡ブリッジHは検出できるような場合が存在するからである。
そして、CPU21は、各眼鏡部品の取得率に基づいて眼鏡Gの有無を判定する。例えば、取得率が所定取得率以上の眼鏡部品が一つ以上ある場合、眼鏡G有りと判定する。また、顔が横向きの場合、眼鏡蔓Jの取得率を用いて眼鏡Gの有無を判定し、顔が正面向きの場合、眼鏡ブリッジの取得率を用いて眼鏡Gの有無を判定するように構成しても良い。
CPU21は、ステップS16で眼鏡G有りと判定されている場合、眼鏡部品の領域を除外して探索領域を設定する。
なお、眼鏡上フレームIの領域を、第2の眼鏡部品認識処理によって検出した座標に基づいて算出しているが、第1の眼鏡部品認識処理によって検出した座標に基づいて算出するように構成しても良い。
眼の探索領域から眼鏡部品の領域を除外することにより、眼鏡部品を眼の瞼と誤検出することを防止することができる。
図34は、眼の再検出に係るCPUの処理手順を示すフローチャートである。まず、CPU21は、眼鏡蔓Jの位置を基準とした探索領域Sを設定し、眼の再検出処理を実行する(ステップS211)。眼鏡蔓Jに対する探索領域Sの相対距離は顔幅Fwに比例し、その探索領域Sの寸法も顔幅Fwに比例するように設定される。
図35は、眼鏡蔓Jの検出結果を用いた眼の再検出に係るCPUの処理手順を示すフローチャート、図36は、眼鏡蔓Jの位置を基準として設定された探索領域を概念的に示す説明図である。CPU21は、顔幅Fwを算出し(ステップS231)、顔幅Fwに基づいて眼推定領域の縦幅Shを算出する(ステップS232)。また、CPU21は、顔幅Fwに基づいて眼推定領域の横幅Swを算出する(ステップS233)。眼推定領域の横幅Sw及び縦幅Shは、顔幅Fwに比例する。
次いで、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の横幅SwのW12%左側の位置を、探索領域Sの左端のX座標として設定する(ステップS235)。探索領域Sの左端のX座標は、J1x−Sw×W12/100で表される。
次いで、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の縦幅ShのH12%下側の位置を探索領域Sの下端のY座標として設定する(ステップS237)。探索領域Sの下端のY座標は、J1y+Sh×H12/100で表される。
図37は、眼鏡ブリッジHの検出結果を用いた眼の再検出に係るCPUのフローチャート、図38は、眼鏡ブリッジHの検出結果を用いて設定された探索領域を概念的に示す説明図である。
顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理方法において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を有することを特徴とする画像処理方法。
顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理装置において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出する領域幅算出手段と、
画像から眼鏡部品の位置を検出する眼鏡部品検出手段と、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する設定手段と
を備えることを特徴とする画像処理装置。
前記設定手段は、前記幅が広い場合、眼鏡部品に対する相対距離が長くなるように探索領域を設定し、前記幅が狭い場合、眼鏡部品に対する相対距離が短くなるように探索領域を設定することを特徴とする付記2に記載の画像処理装置。
前記設定手段は、
前記幅に応じた寸法を有する探索領域を設定するようにしてある
ことを特徴とする付記2又は付記3に記載の画像処理装置。
探索領域中に眼鏡部品が含まれた場合、前記眼鏡部品検出手段にて検出された眼鏡部品の領域を探索領域から除外する手段を備える
ことを特徴とする付記2又は付記3に記載の画像処理装置。
時系列で画像を取得するように構成してあり、
各画像から眼以外の顔部位を検出する顔部位検出手段と、
一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段と
を備え、
前記設定手段は、
他の画像から検出された顔部位及び眼鏡部品の位置、並びに前記記憶手段が記憶している顔部位、眼鏡部品及び眼の位置を比較して、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定する手段を備える
ことを特徴とする付記2乃至付記5のいずれか一つに記載の画像処理装置。
前記眼鏡部品は、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を含む
ことを特徴とする付記2乃至付記6のいずれか一つに記載の画像処理装置。
顔の向きを検出する顔の向き検出手段を備え、
前記眼鏡部品検出手段は、
前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してある
ことを特徴とする付記7に記載の画像処理装置。
眼鏡部品検出手段は、眼鏡ブリッジを検出する眼鏡ブリッジ検出手段を備え、
該眼鏡ブリッジ検出手段は、
第1方向に並ぶ画素の輝度値を積算した輝度積算値を算出し、該第1方向と異なる第2方向における積算値の変化に基づいて、第1方向における眼鏡ブリッジの位置を算出する手段と、
第2方向に並ぶ画素の輝度値を積算した輝度積算値を算出し、第1方向における輝度積算値の変化に基づいて、第2方向における眼鏡ブリッジの位置を算出する手段と
を備えることを特徴とする付記7又は付記8に記載の画像処理装置。
前記眼鏡部品検出手段は、眼鏡フレームを検出する眼鏡フレーム検出手段を備え、
該眼鏡フレーム検出手段は、
ラプラシアンフィルタにて眼鏡フレームのエッジを抽出する手段と、
抽出されたエッジと、検出された眼鏡ブリッジ及び顔領域の端部を含む近似直線又は近似曲線との相関を算出し、該相関に基づいて近似直線又は曲線を特定する手段と
を備えることを特徴とする付記7乃至付記9に記載の画像処理装置。
眼鏡部品検出手段は、眼鏡フレームを検出する眼鏡フレーム検出手段を備え、
該眼鏡フレーム検出手段は、
所定方向に隣接して並ぶ画素の輝度差を算出する手段と、
算出された輝度差及び閾値を比較する比較手段と、
該比較手段の比較結果に基づいて眼鏡フレームの所定方向における位置を算出する手段と
を備えることを特徴とする付記7乃至付記9に記載の画像処理装置。
眼鏡部品検出手段は、眼鏡蔓を検出する眼鏡蔓検出手段を備え、
該眼鏡蔓検出手段は、
所定方向に隣接して並ぶ画素の輝度差を算出する手段と、
算出された輝度差の変化に基づいて眼鏡蔓の位置を算出する手段と
を備えることを特徴とする付記7乃至付記11に記載の画像処理装置。
眼鏡部品を検出するための閾値を記憶する手段と、
前記眼鏡部品検出手段による眼鏡部品の検出率を算出する手段と、
検出された眼鏡部品の検出率に応じて前記閾値を増減させる手段と
を備えることを特徴とする付記2乃至付記12に記載の画像処理装置。
眼鏡部品を基準として所定領域における輝度平均値を算出する手段と、
該所定領域における輝度分散値を算出する手段と、
算出された輝度平均値及び輝度分散値に基づいて、サングラスの有無を判定する手段と
を備え、
サングラス無しと判定された場合、探索領域から眼の位置を検出するように構成してある
ことを特徴とする付記2乃至付記13に記載の画像処理装置。
付記2乃至付記14のいずれか一つに記載の画像処理装置と、
車両の運転者を撮像する撮像装置と
を備え、
前記画像処理装置は、
前記撮像装置が撮像して得た画像から眼の位置を検出するように構成してあることを特徴とする画像処理システム。
コンピュータに、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出させるコンピュータプログラムにおいて、
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させることを特徴とするコンピュータプログラム。
コンピュータに、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出させるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体において、
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させるコンピュータプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
2 画像処理装置
21 CPU
G 眼鏡
H 眼鏡ブリッジ
I 眼鏡上フレーム
J 眼鏡蔓
K 眼鏡下フレーム
Claims (9)
- 顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理方法において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を有することを特徴とする画像処理方法。 - 顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理装置において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出する領域幅算出手段と、
画像から眼鏡部品の位置を検出する眼鏡部品検出手段と、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する設定手段と
を備えることを特徴とする画像処理装置。 - 前記設定手段は、
前記幅に応じた寸法を有する探索領域を設定するようにしてある
ことを特徴とする請求項2に記載の画像処理装置。 - 探索領域中に眼鏡部品が含まれた場合、前記眼鏡部品検出手段にて検出された眼鏡部品の領域を探索領域から除外する手段を備える
ことを特徴とする請求項2又は請求項3に記載の画像処理装置。 - 時系列で画像を取得するように構成してあり、
各画像から眼以外の顔部位を検出する顔部位検出手段と、
一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段と
を備え、
前記設定手段は、
他の画像から検出された顔部位及び眼鏡部品の位置、並びに前記記憶手段が記憶している顔部位、眼鏡部品及び眼の位置を比較して、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定する手段を備える
ことを特徴とする請求項2乃至請求項4のいずれか一つに記載の画像処理装置。 - 前記眼鏡部品は、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を含む
ことを特徴とする請求項2乃至請求項5のいずれか一つに記載の画像処理装置。 - 顔の向きを検出する顔の向き検出手段を備え、
前記眼鏡部品検出手段は、
前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してある
ことを特徴とする請求項6に記載の画像処理装置。 - 請求項2乃至請求項7のいずれか一つに記載の画像処理装置と、
車両の運転者を撮像する撮像装置と
を備え、
前記画像処理装置は、
前記撮像装置が撮像して得た画像から眼の位置を検出するように構成してあることを特徴とする画像処理システム。 - コンピュータに、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出させるコンピュータプログラムにおいて、
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007109751A JP4912206B2 (ja) | 2007-04-18 | 2007-04-18 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007109751A JP4912206B2 (ja) | 2007-04-18 | 2007-04-18 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008269182A JP2008269182A (ja) | 2008-11-06 |
JP4912206B2 true JP4912206B2 (ja) | 2012-04-11 |
Family
ID=40048614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007109751A Active JP4912206B2 (ja) | 2007-04-18 | 2007-04-18 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4912206B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5359266B2 (ja) * | 2008-12-26 | 2013-12-04 | 富士通株式会社 | 顔認識装置、顔認識方法及び顔認識プログラム |
CN101477692B (zh) * | 2009-02-13 | 2012-08-22 | 阿里巴巴集团控股有限公司 | 图像特征提取方法及装置 |
JP5293589B2 (ja) * | 2009-12-21 | 2013-09-18 | トヨタ自動車株式会社 | 生体監視装置 |
JP2012181628A (ja) * | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | 顔検出方法および顔検出装置、ならびに、プログラム |
JP6099943B2 (ja) * | 2012-11-20 | 2017-03-22 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2017130407A1 (ja) * | 2016-01-29 | 2017-08-03 | パイオニア株式会社 | 情報生成装置、情報生成方法、情報生成プログラム及び記録媒体 |
JP6320661B2 (ja) * | 2016-02-18 | 2018-05-09 | 三菱電機株式会社 | 搭乗者検出装置、搭乗者検出システムおよび搭乗者検出方法 |
DE102016205307A1 (de) * | 2016-03-31 | 2017-10-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Lokalisieren eines Kopfes eines Fahrzeuginsassen |
JP6558387B2 (ja) * | 2017-03-14 | 2019-08-14 | オムロン株式会社 | 画像解析装置、画像解析方法、及び画像解析プログラム |
WO2019207721A1 (ja) | 2018-04-26 | 2019-10-31 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
JP7331910B2 (ja) * | 2018-04-26 | 2023-08-23 | 日本電気株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102161908B1 (ko) * | 2019-01-25 | 2020-10-05 | 주식회사 에프에스솔루션 | 운전자 상태 모니터링 방법 및 장치 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3452685B2 (ja) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | 顔画像の処理装置 |
JP3926507B2 (ja) * | 1999-05-28 | 2007-06-06 | 沖電気工業株式会社 | 目位置及び顔位置検出装置 |
JP2005157648A (ja) * | 2003-11-25 | 2005-06-16 | Toyota Motor Corp | 運転者認識装置 |
JP4696571B2 (ja) * | 2005-01-27 | 2011-06-08 | 日産自動車株式会社 | 眼位置検出装置 |
-
2007
- 2007-04-18 JP JP2007109751A patent/JP4912206B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008269182A (ja) | 2008-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4912206B2 (ja) | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
US7907752B2 (en) | Face center position detecting device, face center position detecting method, and computer-readable medium | |
JP4845698B2 (ja) | 眼部検出装置、眼部検出方法及びプログラム | |
JP4317465B2 (ja) | 顔識別装置、顔識別方法及び顔識別プログラム | |
JP3926507B2 (ja) | 目位置及び顔位置検出装置 | |
JPH0944685A (ja) | 顔画像処理装置 | |
JP2008226125A (ja) | 瞼検出装置、瞼検出方法、及び、プログラム | |
US9762773B2 (en) | Image processing apparatus and method for increasing sharpness of images | |
JP2007272435A (ja) | 顔特徴抽出装置及び顔特徴抽出方法 | |
WO2017061106A1 (ja) | 情報処理装置、画像処理システム、画像処理方法及びプログラム記録媒体 | |
JP2005165984A (ja) | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム | |
JP2001043382A (ja) | 目追跡装置 | |
JP4989249B2 (ja) | 目検知装置、居眠り検知装置及び目検知装置の方法 | |
CN112183502B (zh) | 驾驶员的驾驶状态确定方法、计算机存储介质及电子设备 | |
JP2009279186A (ja) | 顔検出装置及び顔検出方法 | |
JP4107087B2 (ja) | 開閉眼判定装置 | |
JP4082203B2 (ja) | 開閉眼判定装置 | |
US20060269128A1 (en) | Image correction method and apparatus | |
JP6098133B2 (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
JP2007072627A (ja) | サングラス検出装置及び顔中心位置検出装置 | |
JP4878273B2 (ja) | 眼鏡検出装置、画像処理装置、眼鏡検出方法、及び、コンピュータプログラム | |
JP4996943B2 (ja) | 顔特徴点検出装置、顔特徴点検出方法及びプログラム | |
JP5035139B2 (ja) | 眼画像処理装置 | |
JP2008084109A (ja) | 目開閉判定装置及び目開閉判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110719 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4912206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |