Nothing Special   »   [go: up one dir, main page]

JP5004903B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5004903B2
JP5004903B2 JP2008215457A JP2008215457A JP5004903B2 JP 5004903 B2 JP5004903 B2 JP 5004903B2 JP 2008215457 A JP2008215457 A JP 2008215457A JP 2008215457 A JP2008215457 A JP 2008215457A JP 5004903 B2 JP5004903 B2 JP 5004903B2
Authority
JP
Japan
Prior art keywords
extracted
element region
region
area
region group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008215457A
Other languages
Japanese (ja)
Other versions
JP2010049635A (en
JP2010049635A5 (en
Inventor
雅和 坂
正人 渡辺
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008215457A priority Critical patent/JP5004903B2/en
Publication of JP2010049635A publication Critical patent/JP2010049635A/en
Publication of JP2010049635A5 publication Critical patent/JP2010049635A5/ja
Application granted granted Critical
Publication of JP5004903B2 publication Critical patent/JP5004903B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle.

撮像装置により撮像された赤外線画像から対象物である歩行者の頭部に相当する領域を抽出し、当該頭部領域に基づいて歩行者の胴体に相当する領域を抽出することにより対象物が歩行者であることを認識し、この歩行者の存在を車両の運転者に知らせる技術が知られている(特許文献1参照)。
特開平11−328364号公報
A region corresponding to the pedestrian's head, which is an object, is extracted from the infrared image captured by the imaging device, and the region corresponding to the pedestrian's torso is extracted based on the head region. A technique for recognizing the presence of a pedestrian and informing the driver of the vehicle of the presence of the pedestrian is known (see Patent Document 1).
Japanese Patent Laid-Open No. 11-328364

しかし、自車両の周辺には歩行者(人間)のみならず、鹿等の四足動物も存在する場合がある。この場合、対象物が人間であるか否かを判定する手法が採用されても、対象物が四足動物であるか否かを判定することは困難である。このため、車両の運転者に四足動物の存在を知らせること、さらには、運転者が対象物との接触を回避するように車両を運転することが困難となる。   However, there are cases where not only pedestrians (human beings) but also quadruped animals such as deers are present around the host vehicle. In this case, it is difficult to determine whether or not the object is a quadruped animal even if a method for determining whether or not the object is a human is employed. For this reason, it becomes difficult to inform the driver of the vehicle of the presence of a quadruped animal, and to drive the vehicle so that the driver avoids contact with the object.

そこで、本発明は、対象物が四足動物であるか否かを高精度で認識することができる車両周辺監視装置を提供することを目的とする。   Then, an object of this invention is to provide the vehicle periphery monitoring apparatus which can recognize with high precision whether a target object is a quadruped animal.

第1発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの2対の要素領域からなる第1の要素領域群、および、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の前記要素領域とその横に並ぶ1つの前記要素領域とからなる第2の要素領域群が異なる時刻において抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えることを特徴とする。 A vehicle periphery monitoring device according to a first aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and is a first device that represents an object from the captured image . Extracting a first object region constituted by a second high-intensity region having a luminance equal to or higher than a second threshold value included in the first high-luminance region having a luminance equal to or higher than a threshold value; A target area extracting means for extracting a second target area, which is an area where a part of the target object below exists, as a target area; and the first target area extracted by the target area extracting means . The ratio of the horizontal width to the vertical width is 1 or more , and extends from the object area extracted by the object area extracting means in the vertical direction or the direction inclined with respect to the vertical direction and downward. As you head A first element region group consisting of two pairs of element regions arranged side by side so as to widen the gap, and a pair of element regions arranged side by side so that the gap increases toward the bottom, and And a target classification unit that determines that the target object is a quadruped animal on the condition that a second group of element areas including one element area arranged side by side is extracted at different times. It is characterized by.

第1発明の車両周辺監視装置によれば、撮像画像(撮像手段により撮像された画像のほか、当該画像に加工処理が施されることにより得られた画像も含まれる。)から抽出された対象物が存在する領域としての対象物領域から、第1および第2の要素領域群が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。なお、「四足動物」はすべての四足動物を意味するのではなく、本発明の手法により分類されうる特定の四足動物を意味している。第1の要素領域群は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。第2の要素領域群は、前脚および後脚のうち一方が開き、他方がほぼ揃っている「第2の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第1の姿勢」と「第2の姿勢」とが異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device of the first aspect of the present invention, an object extracted from a captured image (in addition to an image captured by the imaging unit, an image obtained by applying a processing to the image is included). On the condition that the first and second element region groups are extracted at different times from the object region as the region where the object exists, it is determined that the object corresponds to a quadruped animal. The “quadruped animal” does not mean all the quadruped animals, but means a specific quadruped animal that can be classified by the method of the present invention. The first element region group is highly likely to correspond to the four legs of a laterally-facing quadruped that shows the “first posture” in which the front legs and the rear legs are open. The second element region group is highly likely to correspond to four legs of a laterally-facing quadruped that shows a “second posture” in which one of the front legs and the rear legs is open and the other is substantially aligned. . Further, when a quadruped animal that is walking or running is observed from the side, the “first posture” and the “second posture” may be confirmed at different times as the posture of the quadruped animal. high. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

第2発明の車両周辺監視装置は、第1発明の車両周辺監視装置において、前記対象物分類手段が、前記第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ下方に向かうにつれて間隔が広がるように配置されている横並びの前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。   The vehicle periphery monitoring device according to a second aspect of the present invention is the vehicle periphery monitoring device according to the first aspect, wherein the object classification means is reversed left and right compared to the second element region group and the second element region group. As a further requirement that the pair of side-by-side element regions and the third element region group consisting of the one element region arranged so that the interval is widened toward the lower side are extracted at different times. It is determined that the object corresponds to the quadruped animal.

第2発明の車両周辺監視装置によれば、対象物領域から第2の要素領域群および第3の要素領域群が異なる時刻に抽出されたことをさらなる要件として、対象物が四足動物に該当すると判定される。第3の要素領域群は、第2の姿勢と比較して、前脚および後脚のうち開いている一対の脚と、ほぼ揃っている一対の脚との配置が左右(四足動物にとっては前後)逆になっている「第3の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第2の姿勢」および「第3の姿勢」が異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device of the second invention, the object corresponds to a quadruped animal, with the further requirement that the second element area group and the third element area group are extracted from the object area at different times. Then, it is determined. Compared to the second posture, the third element region group has a left and right arrangement of a pair of open legs of the front and rear legs and a pair of substantially aligned legs (front and rear for a quadruped animal). ) There is a high probability that it corresponds to the four legs of a sideways quadruped animal showing the "third posture" which is reversed. Further, when a quadruped animal walking or running is observed from the side, it is highly likely that the “second posture” and the “third posture” are confirmed at different times as the posture of the quadruped animal. . In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

第3発明の車両周辺監視装置は、第2発明の車両周辺監視装置において、前記対象物分類手段が、前記第1の要素領域群が抽出されてから第1の所定時間以内に前記第2の要素領域群が抽出されることと、前記第2の要素領域群が抽出されてから前記第1の所定時間より長い第2の所定時間以内に前記第3の要素領域群が抽出されることとをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。   The vehicle periphery monitoring device according to a third aspect of the present invention is the vehicle periphery monitoring device according to the second aspect of the present invention, wherein the object classifying means performs the second operation within a first predetermined time after the first element region group is extracted. Extracting an element region group; extracting the third element region group within a second predetermined time longer than the first predetermined time after the second element region group is extracted; As a further requirement, it is determined that the object corresponds to the quadruped animal.

第3発明の車両周辺監視装置によれば、第1の要素領域群が抽出されてから第1の所定時間以内に第2の要素領域群が抽出されることと、第2の要素領域群が抽出されてから第1の所定時間よりも長い第2の所定時間以内に第3の要素領域群が抽出されることとを要件として、対象物が四足動物に該当すると判定される。歩行または走行している四足動物が横から観察された場合、四足動物の姿勢が第1の姿勢から第2の姿勢に遷移するのに要する時間よりも、四足動物の姿勢が第2の姿勢から第3の姿勢に遷移するのに要する時間のほうが長くなる可能性が高い。したがって、前記のように第2の所定時間が第1の所定時間よりも長く設定されることにより、第2の要素領域群が抽出されてから、第3の要素領域群が抽出されえないほど早い段階で対象物が四足動物に該当しないと誤認される事態が回避されうる。すなわち、前記のような判定手法により対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring apparatus of the third aspect of the invention, the second element region group is extracted within the first predetermined time after the first element region group is extracted, and the second element region group is On the condition that the third element region group is extracted within a second predetermined time longer than the first predetermined time after the extraction, it is determined that the object corresponds to a quadruped animal. When a walking or running quadruped is observed from the side, the quadruped's posture is the second higher than the time required for the quadruped's posture to transition from the first posture to the second posture. There is a high possibility that the time required for the transition from the first posture to the third posture will be longer. Therefore, as described above, the second predetermined time is set longer than the first predetermined time, so that the third element region group cannot be extracted after the second element region group is extracted. It can be avoided that the object is mistakenly identified as not being a quadruped at an early stage. In other words, whether or not the object is a quadruped animal can be recognized with high accuracy by the above-described determination method.

第4発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域と、前記1対の要素領域の横に並ぶ1つの前記要素領域とからなる第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを有することを特徴とする。 A vehicle periphery monitoring device according to a fourth aspect of the present invention is a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging unit mounted on the vehicle, and is a first device that represents an object from the captured image . Extracting a first object region constituted by a second high-intensity region having a luminance equal to or higher than a second threshold value included in the first high-luminance region having a luminance equal to or higher than a threshold value; A target area extracting means for extracting a second target area, which is an area where a part of the target object below exists, as a target area; and the first target area extracted by the target area extracting means . The ratio of the horizontal width to the vertical width is 1 or more , and extends from the object area extracted by the object area extracting means in the vertical direction or the direction inclined with respect to the vertical direction and downward. As you head A second element region group composed of a pair of side-by-side element regions arranged so as to be widened, and one element region arranged next to the pair of element regions, and the second element region The object is a quadruped animal, provided that the pair of element regions arranged in the left-right direction compared to the group and the third element region group consisting of the one element region are extracted at different times. It is characterized by having an object classification means which determines that it corresponds to.

第4発明の車両周辺監視装置によれば、第2発明と同様の理由から、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device of the fourth invention, for the same reason as in the second invention, whether or not the object represented by the high-intensity region extracted from the captured image by the determination method as described above is a quadruped animal. Can be recognized with high accuracy.

第5発明の車両周辺監視装置は、第4発明の車両周辺監視装置において、前記対象物分類手段が、前記第2の要素領域群が抽出されてから前記第3の要素領域群が抽出される間に、前記第2対象物領域から下方に向かうにつれて間隔が広がるように配置されている横並びの2対の前記要素領域からなる第1の要素領域群が抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。 The vehicle periphery monitoring device according to a fifth aspect of the present invention is the vehicle periphery monitoring device according to the fourth aspect, wherein the object classification means extracts the third element region group after extracting the second element region group. In the meantime, as a further requirement that a first element region group consisting of two pairs of element regions arranged side by side so as to increase in distance from the second object region downward is extracted, It is determined that the object corresponds to the quadruped animal.

第5発明の車両周辺監視装置によれば、第2の要素領域群が抽出されてから第3の要素領域群が抽出される間に、第1の要素領域群が抽出されることをさらなる要件として、対象物が四足動物に該当すると判定される第1の要素領域群は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第2の姿勢」「第1の姿勢」および「第3の姿勢」が異なる時刻で順に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。 According to the vehicle periphery monitoring device of the fifth aspect of the present invention, it is further required that the first element region group is extracted while the third element region group is extracted after the second element region group is extracted. It is determined that the object corresponds to a quadruped animal . The first element region group is highly likely to correspond to the four legs of a laterally-facing quadruped that shows the “first posture” in which the front legs and the rear legs are open. Further, when a quadruped animal that is walking or running is observed from the side, “second posture”, “first posture”, and “third posture” are sequentially changed at different times as the posture of the quadruped animal. It is likely to be confirmed. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

本発明の車両周辺監視装置の実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3、自車両10の走行速度(車速)を検出する車速センサ4、および自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6、および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するための表示装置7が接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像手段に相当する。対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。   An embodiment of a vehicle periphery monitoring device of the present invention will be described. First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. The image processing unit 1 is connected with two infrared cameras 2R and 2L as imaging means for capturing an image in front of the host vehicle 10, and as a sensor for detecting the traveling state of the host vehicle 10, the image processing unit 1 A yaw rate sensor 3 that detects the yaw rate, a vehicle speed sensor 4 that detects the traveling speed (vehicle speed) of the host vehicle 10, and a brake sensor 5 that detects the presence or absence of a brake operation of the host vehicle 10 are connected. Further, the image processing unit 1 includes a speaker 6 for outputting auditory notification information such as voice, and a display device for displaying captured images and visual notification information captured by the infrared cameras 2R and 2L. 7 is connected. The infrared cameras 2R and 2L correspond to the image pickup means in the present invention. When the distance to the object is measured by a radar, only one infrared camera may be mounted on the vehicle 10.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の通報要件を満す場合にスピーカ6や表示装置7により運転者に通報を発する処理を実行する。なお、画像処理ユニット1は対象物抽出手段および対象物分類手段としての機能を備えている。   Although not shown in detail, the image processing unit 1 includes electronic circuits including an A / D conversion circuit, a microcomputer (having a CPU, a RAM, a ROM, and the like), an image memory, and the like. The infrared cameras 2R, 2L, Analog signals output from the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit and input to the microcomputer. Then, the microcomputer detects an object such as a person (pedestrian or person riding a bicycle) based on the input data, and the speaker 6 if the detected object satisfies a predetermined notification requirement. And the process which issues a report to a driver by the display device 7 is executed. The image processing unit 1 has functions as an object extraction unit and an object classification unit.

図2に示されているように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、自車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion (the front grill portion in the figure) of the host vehicle 10 in order to image the front of the host vehicle 10. In this case, the infrared cameras 2R and 2L are respectively disposed at a position on the right side and a position on the left side of the center of the host vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in parallel in the front-rear direction of the vehicle 10, and the heights of the respective optical axes from the road surface are equal to each other. The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and have a characteristic that the higher the temperature of an object to be imaged, the higher the level of the output video signal (the higher the luminance of the video signal). is doing.

また、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。   In the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays image information on the front window of the host vehicle 10. In addition, as a display device 7, instead of the HUD 7a, or together with the HUD 7a, a display provided integrally with a meter for displaying a traveling state such as the vehicle speed of the host vehicle 10 or a display provided in an in-vehicle navigation device is provided. It may be used.

次に、前記構成の車両周辺監視装置の基本的な機能について図3のフローチャートを用いて説明する。図3のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号公報の図3および特開2007−310705号公報の図3に記載されている処理内容と同様である。   Next, basic functions of the vehicle periphery monitoring apparatus having the above-described configuration will be described with reference to the flowchart of FIG. The basic processing contents of the flowchart of FIG. 3 are the same as the processing contents described in FIG. 3 of Japanese Patent Application Laid-Open No. 2001-6096 and FIG. 3 of Japanese Patent Application Laid-Open No. 2007-310705, for example.

具体的にはまず、赤外線カメラ2R、2Lの赤外線画像信号が画像処理ユニット1に入力される(図3/STEP11)。次いで、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号をA/D変換する(図3/STEP12)。そして、画像処理ユニット1は、A/D変換された赤外線画像からグレースケール画像を取得する(図3/STEP13)。その後、画像処理ユニット1は、基準画像(右画像)を2値化する(図3/STEP14)。次いで、画像処理ユニット1は2値化画像から対象物が存在する領域を対象物領域Sとして抽出する。具体的には、2値化画像の高輝度領域を構成する画素群をランレングスデータに変換する(図3/STEP15)。次いで、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付される(図3/STEP16)。そして、ライン群のそれぞれが対象物として抽出される(図3/STEP17)。これにより、たとえば図6(a)〜(c)に示されているように矩形状の二重枠によって対象物の全部を囲むように画定された領域が対象物領域Sとして抽出される。なお、対象物(高輝度領域)の全部ではなく、対象物の一部、特に、対象物が四足動物である場合にはその脚が存在する可能性が高い対象物の下部を包含するように対象物領域Sが設定されてもよい。これにより、たとえば図6(a)〜(c)に示されている二重線で囲まれた領域の下部に位置する、一点鎖線で囲まれた領域が対象物領域Sとして抽出されてもよい。   Specifically, first, infrared image signals from the infrared cameras 2R and 2L are input to the image processing unit 1 (FIG. 3 / STEP 11). Next, the image processing unit 1 A / D converts the output signals of the infrared cameras 2R and 2L (FIG. 3 / STEP 12). Then, the image processing unit 1 acquires a gray scale image from the A / D converted infrared image (FIG. 3 / STEP 13). Thereafter, the image processing unit 1 binarizes the reference image (right image) (FIG. 3 / STEP 14). Next, the image processing unit 1 extracts an area where the object exists from the binarized image as the object area S. Specifically, the pixel group constituting the high brightness area of the binarized image is converted into run length data (FIG. 3 / STEP 15). Next, a label (identifier) is attached to each line group that overlaps in the vertical direction of the reference image (FIG. 3 / STEP 16). Then, each line group is extracted as an object (FIG. 3 / STEP 17). Thereby, for example, as shown in FIGS. 6A to 6C, an area defined so as to surround the entire object by the rectangular double frame is extracted as the object area S. It should be noted that not all of the target object (high luminance region) but part of the target object, particularly when the target object is a quadruped animal, the lower part of the target object where the leg is likely to exist is included. The object region S may be set in Thereby, for example, the region surrounded by the alternate long and short dash line located in the lower portion of the region surrounded by the double line shown in FIGS. 6A to 6C may be extracted as the object region S. .

その後、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比を算出する(図3/STEP18)。次いで、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の対象物の同一性を判定する(図3/STEP19)。そして、画像処理ユニット1は、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)を読み込む(図3/STEP20)。   Thereafter, the image processing unit 1 calculates the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed square (FIG. 3 / STEP 18). Next, the image processing unit 1 traces the object for the time, that is, determines the identity of the object for each arithmetic processing period of the image processing unit 1 (FIG. 3 / STEP 19). Then, the image processing unit 1 reads the outputs (the detected vehicle speed value and the detected yaw rate value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (FIG. 3 / STEP 20).

一方、画像処理ユニット1は、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像として抽出する(図3/STEP31)。次いで、左画像中から探索画像に対応する画像(対応画像)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(図3/STEP32)。そして、対象物の自車両10からの距離(自車両10の前後方向における距離)を算出する(図3/STEP33)。   On the other hand, in parallel with the calculation of the aspect ratio of the circumscribed rectangle and the tracking of the target object during the time, the image processing unit 1 firstly, in the reference image, an area corresponding to each target object (for example, the circumscribed square of the target object). (Region) is extracted as a search image (FIG. 3 / STEP 31). Next, a search area for searching for an image (corresponding image) corresponding to the search image from the left image is set, and a correlation operation is executed to extract the corresponding image (FIG. 3 / STEP 32). And the distance from the own vehicle 10 of the target object (distance in the front-back direction of the own vehicle 10) is calculated (FIG. 3 / STEP33).

次いで、画像処理ユニット1は、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(図3/STEP21)。そして、画像処理ユニット1は、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを前記STEP20で求めた回頭角の時系列データに応じて補正する(図3/STEP22)。その後、画像処理ユニット1は、対象物の自車両10に対する相対移動ベクトルを推定する(図3/STEP23)。次いで、STEP23において、相対移動ベクトルが求められたら、検出した対象物との接触の可能性を判定し、その可能性が高いときに通報を発する通報判定処理を実行する(図3/STEP24)。そして、対象物が通報判定要件を満たすと判定した場合(図3/STEP24‥YES)、通報判定要件を満たす対象物に関する実際の通報を行うべきか否かの判定を行う通報出力判定処理を実行する(図3/STEP25)。その後、画像処理ユニット1は、通報を行うべきと判定した場合(図3/STEP25‥YES)、運転者に対して自車両10との接触可能性が高い状況である旨の通報をする(図3/STEP26)。具体的には、スピーカ6を介して音声を出力することにより当該状況が通報される。また、HUD7aにおいて対象物を強調表示することによっても当該状況が通報される。以上が本実施形態の周辺監視装置の全体的作動である。なお、画像処理ユニット1によりSTEP11〜18の処理を実行する構成が、本発明の第1の対象物領域抽出手段に相当する。   Next, the image processing unit 1 calculates a real space position that is a position (relative position with respect to the host vehicle 10) of each object in the real space (FIG. 3 / STEP 21). Then, the image processing unit 1 corrects the position X in the X direction of the real space position (X, Y, Z) of the object according to the time-series data of the turning angle obtained in STEP 20 (FIG. 3 / (Step 22). Thereafter, the image processing unit 1 estimates a relative movement vector of the object with respect to the host vehicle 10 (FIG. 3 / STEP 23). Next, when the relative movement vector is obtained in STEP 23, the possibility of contact with the detected object is determined, and a notification determination process for issuing a notification when the possibility is high is executed (FIG. 3 / STEP 24). When it is determined that the object satisfies the notification determination requirement (FIG. 3 / STEP 24... YES), a notification output determination process is performed to determine whether or not an actual notification regarding the object that satisfies the notification determination requirement should be performed. (FIG. 3 / STEP 25). Thereafter, when the image processing unit 1 determines that the notification should be performed (FIG. 3 / STEP 25... YES), the image processing unit 1 notifies the driver that the possibility of contact with the host vehicle 10 is high (FIG. 3). 3 / STEP 26). Specifically, the situation is reported by outputting sound through the speaker 6. The situation is also reported by highlighting the object on the HUD 7a. The above is the overall operation of the periphery monitoring device of this embodiment. In addition, the structure which performs the process of STEP11-18 by the image processing unit 1 is equivalent to the 1st object area | region extraction means of this invention.

次に、図3に示したフローチャートのSTEP24における通報判定処理について図4のフローチャートを用いて説明する。図4のフローチャートの基本的な処理内容は、例えば本出願人による特開2001−6096号の図4および特開2007−310705号の図4に記載されている処理内容と同様である。   Next, the notification determination process in STEP 24 of the flowchart shown in FIG. 3 will be described using the flowchart of FIG. The basic processing content of the flowchart of FIG. 4 is the same as the processing content described in FIG. 4 of Japanese Patent Laid-Open No. 2001-6096 and FIG.

具体的にはまず、画像処理ユニット1は、接触判定処理を行う(図4/STEP41)。接触判定処理は、自車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合に、接触の可能性があるものとして判定する。次いで、余裕時間T以内に自車両と対象物とが接触する可能性がある場合(図4/STEP41‥YES)、画像形成ユニット1は、対象物が接近判定領域内に存在するか否かを判定する(図4/STEP42)。そして、対象物が接近判定領域内に存在しない場合(図4/STEP42‥NO)、画像形成ユニット1は、対象物が接近判定領域内に侵入して自車両10と接触する可能性があるか否かを判定する(図4/STEP43)。具体的には、対象物が侵入判定領域に存在し、かつ、STEP23で求めた対象物の移動ベクトルが接近判定領域に向かっているときに、接触する可能性が高いと判定する。   Specifically, first, the image processing unit 1 performs a contact determination process (FIG. 4 / STEP 41). The contact determination process determines that there is a possibility of contact when the distance between the host vehicle 10 and the object is equal to or less than a value obtained by multiplying the relative speed Vs and the margin time T. Next, when there is a possibility that the host vehicle and the object come into contact within the margin time T (FIG. 4 / STEP 41... YES), the image forming unit 1 determines whether or not the object exists in the approach determination area. The determination is made (FIG. 4 / STEP 42). If the object does not exist in the approach determination area (FIG. 4 / STEP 42... NO), the image forming unit 1 may enter the approach determination area and come into contact with the host vehicle 10. It is determined whether or not (FIG. 4 / STEP 43). Specifically, when the object is present in the intrusion determination area and the movement vector of the object determined in STEP 23 is toward the approach determination area, it is determined that the possibility of contact is high.

一方、対象物が接近判定領域内に存在している場合(図4/STEP42‥YES)、または対象物が接近判定領域内に侵入して自車両10と接触する可能性がある場合(図4/STEP43‥YES)、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(図4/STEP44)。人工構造物判定処理は、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定する。次いで、対象物は人工構造物ではないと判定された場合(図4/STEP44‥NO)、対象物が歩行者に該当するか否かが判定される(図4/STEP45)。具体的には、グレースケール画像上で対象物の画像領域の形状や大きさ、輝度分散等の特徴から、対象物が歩行者に該当するか否かが判定される。そして、対象物が歩行者に該当すると判定された場合(図4/STEP45‥YES)、検出した対象物を通報または注意喚起の対象として決定する(図4/STEP46)。   On the other hand, when the object exists in the approach determination area (FIG. 4 / STEP 42... YES), or when the object may enter the approach determination area and come into contact with the host vehicle 10 (FIG. 4). / STEP43... YES), the image processing unit 1 performs an artificial structure determination process for determining whether or not the object is an artificial structure (FIG. 4 / STEP44). In the artificial structure determination process, when a feature that is impossible for a pedestrian is detected, the object is determined to be an artificial structure. Next, when it is determined that the object is not an artificial structure (FIG. 4 / STEP 44... NO), it is determined whether or not the object corresponds to a pedestrian (FIG. 4 / STEP 45). Specifically, it is determined whether or not the object corresponds to a pedestrian from the characteristics such as the shape and size of the image area of the object on the gray scale image and luminance dispersion. Then, when it is determined that the object corresponds to a pedestrian (FIG. 4 / STEP 45... YES), the detected object is determined as a notification or alerting target (FIG. 4 / STEP 46).

また、対象物が人工構造物であると判定された場合(図4/STEP44‥YES)または対象物が歩行者ではないと判定された場合(図4/STEP45‥NO)、この対象物が四足動物に該当するか否かが判定される(図4/STEP47)。対象物が四足動物に該当すると判定された場合(図4/STEP47‥YES)、画像処理ユニット1は、検出した対象物を通報の対象として決定する(図4/STEP46)。その一方、対象物が四足動物に該当しないと判定された場合(図4/STEP47‥NO)、画像処理ユニット1は、検出した対象物を通報の対象から除外される(図4/STEP48)。   When it is determined that the object is an artificial structure (FIG. 4 / STEP 44... YES) or when the object is determined not to be a pedestrian (FIG. 4 / STEP 45. It is determined whether or not it corresponds to a paw animal (FIG. 4 / STEP 47). When it is determined that the target object corresponds to a quadruped animal (FIG. 4 / STEP 47... YES), the image processing unit 1 determines the detected target object as a report target (FIG. 4 / STEP 46). On the other hand, when it is determined that the object does not correspond to a quadruped animal (FIG. 4 / STEP 47... NO), the image processing unit 1 excludes the detected object from the report target (FIG. 4 / STEP 48). .

次に、本発明の車両周辺監視装置の主要な機能である動物判定処理について図5のフローチャートを用いて説明する。対象物抽出手段(図3/STEP11〜18参照)により抽出された対象物領域Sから、要素領域群が抽出されるか否かが判定される。具体的にはメモリにあらかじめ保存または格納されているテンプレートと、対象物領域Sにおける高輝度画像領域の一部または全部との相関値が基準値を超えているか否かに応じて、当該高輝度画像領域の一部または全部が第1〜第3要素領域群のうちいずれか1つに該当するか否かが判定される。テンプレートとしては、第1の要素領域群E1を抽出するための第1種のテンプレートT1と、第2の要素領域群E2を抽出するための第2種のテンプレートT2と、第3の要素領域群E3を抽出するための第3種のテンプレートT3とが準備されている。なお、対象物領域Sから抽出された高輝度領域が細線化処理された上で得られた細線化画像の形状および配置態様に基づき、各要素領域群E1〜E3が抽出されてもよい。   Next, an animal determination process that is a main function of the vehicle periphery monitoring device of the present invention will be described with reference to the flowchart of FIG. It is determined whether or not an element region group is extracted from the object region S extracted by the object extraction means (see FIG. 3 / STEPs 11 to 18). Specifically, depending on whether or not a correlation value between a template stored or stored in advance in a memory and a part or all of the high-luminance image area in the object area S exceeds a reference value, the high-luminance It is determined whether a part or all of the image area corresponds to any one of the first to third element area groups. As templates, a first type template T1 for extracting the first element region group E1, a second type template T2 for extracting the second element region group E2, and a third element region group A third type of template T3 for extracting E3 is prepared. In addition, each element area group E1-E3 may be extracted based on the shape and arrangement | positioning aspect of a thinning image obtained after the high-intensity area | region extracted from the target object area | region S was thinned.

第1の対象物領域群E1は図6(a)に示されているように下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域(上下方向または上下方向に対して傾斜している方向にのびる形状を有している。以下同じ。)E1aおよびE1bと、その横に並んでいる、下方に向かうにつれて間隔が広がるように配置されている横並びのもう1対の要素領域E1cおよびE1dとからなる。第2の要素領域群E2は図6(b)に示されているように1つの要素領域E2aと、その横に並ぶ下方に向かうにつれて間隔が広がるように配置されている1対の要素領域E2bおよびE2cとからなる。第3の要素領域群E3は図6(c)に示されているように下方に向かうにつれて間隔が広がるように配置された1対の要素領域E3aおよびE3bと、その横に並ぶ1つの要素領域E3cとからなる。なお、図6(b)に示されている要素領域群が第3の要素領域群E3として定められ、図6(c)に示されている要素領域群が第2の要素領域群E2として定められてもよい。   As shown in FIG. 6A, the first object region group E1 has a pair of side-by-side element regions (in the up-down direction or the up-down direction) that are arranged so that the distance increases as they go downward. (The same applies hereinafter.) E1a and E1b, and another pair of elements arranged side by side so as to be spaced apart from each other. It consists of areas E1c and E1d. As shown in FIG. 6B, the second element region group E2 is composed of one element region E2a and a pair of element regions E2b arranged so that the distance between the second element region group E2 increases toward the lower side. And E2c. As shown in FIG. 6C, the third element region group E3 includes a pair of element regions E3a and E3b that are arranged so that the distance between the third element region group E3 and the element region extends downward. E3c. The element region group shown in FIG. 6B is defined as a third element region group E3, and the element region group shown in FIG. 6C is defined as a second element region group E2. May be.

第1種のテンプレートT1は図7(a)に示されているように下方に向かうにつれて間隔が広がるように配置されている横並びの1対の基準要素(上下方向または上下方向に対して傾斜している方向にのびる形状を有している。以下同じ。)T1aおよびT1bと、その横に並んでいる、下方に向かうにつれて間隔が広がるように配置されている横並びのもう1対の基準要素T1cおよびT1dとからなる。第2種のテンプレートT2は図7(b)に示されているように1つの基準要素T2aと、その横に並ぶ下方に向かうにつれて間隔が広がるように配置されている1対の基準要素T2bおよびT2cとからなる。第3種のテンプレートT3は図7(c)に示されているように下方に向かうにつれて間隔が広がるように配置されている1対の基準要素T3aおよびT3bと、その横に並ぶ1つの基準要素T3cとからなる。なお、図7(b)に示されているテンプレートが第3種のテンプレートT3として定められ、図7(c)に示されているテンプレートが第2種のテンプレートT2として定められてもよい。各種テンプレートとして、基準要素の形状、サイズおよび配置(間隔など)のうち一部または全部が異なる複数パターンのテンプレートが準備されていてもよい。テンプレートは赤外線カメラ2R、2Lにより撮像された、横向きの犬、鹿、馬等の特定種類の四足動物の画像に基づいて作成されてもよい。   As shown in FIG. 7A, the first type of template T1 is a pair of side-by-side reference elements (inclined with respect to the vertical direction or the vertical direction) that are arranged so that the distance increases as they go downward. (The same applies hereinafter.) T1a and T1b, and another pair of reference elements T1c arranged side by side so as to increase in distance as they go downward. And T1d. As shown in FIG. 7 (b), the second type of template T2 includes one reference element T2a and a pair of reference elements T2b arranged so that the distance increases in the downward direction. T2c. As shown in FIG. 7C, the third type template T3 has a pair of reference elements T3a and T3b that are arranged so that the distance between the third type template T3 and the reference element extends in the downward direction. T3c. Note that the template shown in FIG. 7B may be defined as the third type template T3, and the template shown in FIG. 7C may be defined as the second type template T2. As various templates, templates of a plurality of patterns in which some or all of the shapes, sizes, and arrangements (intervals) of the reference elements are different may be prepared. The template may be created based on an image of a specific kind of quadruped animal such as a sideways dog, deer, or horse imaged by the infrared cameras 2R and 2L.

まず、対象物領域Sから第1要素領域群E1が抽出されたか否かが判定される(図5/STEP102)。第1要素領域群E1が抽出されたと判定された場合(図5/STEP102‥YES)、対象物領域Sから第2要素領域群E2が抽出されたか否かが判定される(図5/STEP104)。なお、STEP102において第2の要素領域群E2が抽出されたか否かが判定された上で、STEP104において第1の要素領域群E1が抽出されたか否かが判定されてもよい。第2の要素領域群E2が抽出されていないと判定された場合(図5/STEP104‥NO)、第1の要素領域群E1が抽出されたと判定されてから第1の所定時間が経過したか否かが判定される(図5/STEP110)。第1の所定時間は四足動物の標準的な歩行周期の約0.25倍等、四足動物の標準的な歩行周期を基準として設定されている。当該判定結果が否定的である場合(図5/STEP110‥NO)、対象物領域Sから第2要素領域群E2が抽出されたか否かが再び判定される(図5/STEP104)。   First, it is determined whether or not the first element region group E1 is extracted from the object region S (FIG. 5 / STEP 102). When it is determined that the first element region group E1 has been extracted (FIG. 5 / STEP102... YES), it is determined whether or not the second element region group E2 has been extracted from the object region S (FIG. 5 / STEP104). . Note that after determining whether or not the second element region group E2 is extracted in STEP102, it may be determined whether or not the first element region group E1 is extracted in STEP104. If it is determined that the second element region group E2 has not been extracted (FIG. 5 / STEP 104... NO), has the first predetermined time elapsed since it was determined that the first element region group E1 was extracted? It is determined whether or not (FIG. 5 / STEP 110). The first predetermined time is set based on the standard walking cycle of the quadruped animal, such as about 0.25 times the standard walking cycle of the quadruped animal. When the determination result is negative (FIG. 5 / STEP 110... NO), it is determined again whether the second element region group E2 is extracted from the object region S (FIG. 5 / STEP 104).

第2の要素領域群E2が抽出されたと判定された場合(図5/STEP104‥YES)、対象物領域Sから第3の要素領域群E3が抽出されたか否かが判定される(図5/STEP106)。第3の要素領域群E3が抽出されていないと判定された場合(図5/STEP106‥NO)、第2の要素領域群E2が抽出されたと判定されてから第2の所定時間が経過したか否かが判定される(図5/STEP112)。第2の所定時間は第1の所定時間の約2倍に設定される等、第1の所定時間より長く設定されている。なお、STEP102において第2の要素領域群E2が抽出されたか否かが判定され、STEP104において第1の要素領域群E1が抽出されたか否かが判定される場合、第2の所定時間は第1の所定時間と同様に四足動物の標準的な歩行周期に基づいて設定される。当該判定結果が否定的である場合(図5/STEP112‥NO)、対象物領域Sから第3の要素領域群E3が抽出されたか否かが再び判定される(図5/STEP106)。   When it is determined that the second element region group E2 has been extracted (FIG. 5 / STEP 104... YES), it is determined whether or not the third element region group E3 has been extracted from the object region S (FIG. 5 / (STEP 106). If it is determined that the third element region group E3 has not been extracted (FIG. 5 / STEP 106... NO), has the second predetermined time elapsed since it was determined that the second element region group E2 was extracted? It is determined whether or not (FIG. 5 / STEP 112). The second predetermined time is set to be longer than the first predetermined time, such as being set to about twice the first predetermined time. If it is determined in STEP 102 whether or not the second element region group E2 has been extracted, and if it is determined in STEP 104 whether or not the first element region group E1 has been extracted, the second predetermined time is the first predetermined time. It is set based on the standard walking cycle of a quadruped animal as well as the predetermined time. If the determination result is negative (FIG. 5 / STEP 112... NO), it is determined again whether the third element region group E3 is extracted from the object region S (FIG. 5 / STEP 106).

第3の要素領域群E3が抽出されたと判定された場合(図5/STEP106‥YES)、対象物が四足動物に該当すると判定される(図5/STEP114)。なお、第1の要素領域群E1が抽出されたと判定されてから、第2の要素領域群E2が抽出されないまま第1の所定時間が経過した場合(図5/STEP104‥NO、STEP110‥YES)、対象物が四足動物に該当しないと判定される(図5/STEP116)。また、第2の要素領域群E2が抽出されたと判定されてから、第3の要素領域群E3が抽出されないまま第2の所定時間が経過した場合(図5/STEP106‥NO、STEP112‥YES)、対象物が四足動物に該当しないと判定される(図5/STEP116)。   When it is determined that the third element region group E3 has been extracted (FIG. 5 / STEP 106... YES), it is determined that the object corresponds to a quadruped animal (FIG. 5 / STEP 114). When it is determined that the first element region group E1 has been extracted and the first predetermined time has passed without the second element region group E2 being extracted (FIG. 5 / STEP104... NO, STEP110... YES). It is determined that the object does not correspond to a quadruped animal (FIG. 5 / STEP 116). In addition, when it is determined that the second element region group E2 has been extracted and the second predetermined time has passed without the third element region group E3 being extracted (FIG. 5 / STEP106..., STEP112... YES). It is determined that the object does not correspond to a quadruped animal (FIG. 5 / STEP 116).

画像処理ユニット1において、動物判定処理(STEP100〜116、STEP200〜208)の処理を実行する構成(CPUおよび関連するRAM,ROM等)が、本発明の対象物分類手段に相当する。   In the image processing unit 1, the configuration (CPU and associated RAM, ROM, etc.) for executing the animal determination process (STEP 100 to 116, STEP 200 to 208) corresponds to the object classification means of the present invention.

前記機能を発揮する車両周辺監視装置によれば、対象物が存在する領域として抽出された対象物領域Sから、第1の要素領域群E1および第2の要素領域群E2が異なる時刻において抽出されたことと、さらには、第2の要素領域群E2および第3の要素領域群E3が異なる時刻において抽出されたこととを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP102,104,106,114参照)。第1の要素領域群E1は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(a)参照)。第2の要素領域群E2は、前脚および後脚のうち一方が開き、他方がほぼ揃っている「第2の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(b)参照)。第3の要素領域群E3は、第2の姿勢と比較して、前脚および後脚のうち開いている一対の脚と、ほぼ揃っている一対の脚との配置が左右(四足動物にとっては前後)逆になっている「第3の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(c)参照)。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第1の姿勢」「第2の姿勢」および「第3の姿勢」が異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。   According to the vehicle periphery monitoring device that exhibits the function, the first element region group E1 and the second element region group E2 are extracted at different times from the object region S extracted as the region where the object exists. And the fact that the second element region group E2 and the third element region group E3 are extracted at different times is determined to be a quadruped animal (see FIG. 5 / STEP 102, 104, 106, 114). The first element region group E1 is highly likely to correspond to four legs of a laterally-facing quadruped that indicates the “first posture” in which the front legs and the rear legs are open (see FIG. 6A). ). The second element region group E2 has a probability corresponding to four legs of a laterally-facing quadruped that indicates a “second posture” in which one of the front legs and the rear legs is open and the other is substantially aligned. High (see FIG. 6B). Compared to the second posture, the third element region group E3 has a left and right arrangement of a pair of open legs and a pair of substantially aligned legs (for a quadruped animal). There is a high probability that it corresponds to the four legs of a laterally facing quadruped animal showing the “third posture” which is reversed (see FIG. 6C). Furthermore, when a walking or running quadruped animal is observed from the side, the “first posture”, “second posture”, and “third posture” are confirmed at different times as the posture of the quadruped animal. There is a high possibility of being. In view of these points, it is possible to recognize with high accuracy whether or not the object represented by the high luminance region extracted from the captured image by the determination method as described above is a quadruped.

また、第1の要素領域群E1が抽出されてから第1の所定時間以内に第2の要素領域群E2が抽出されることと、第2の要素領域群E2が抽出されてから第1の所定時間よりも長い第2の所定時間以内に第3の要素領域群E3が抽出されることとをさらなる要件として、対象物が四足動物に該当すると判定される(図5/STEP110,112,114参照)。歩行または走行している四足動物が横から観察された場合、四足動物の姿勢が第1の姿勢から第2の姿勢に遷移するのに要する時間よりも、四足動物の姿勢が第2の姿勢から第3の姿勢に遷移するのに要する時間のほうが長くなる可能性が高い。したがって、前記のように第2の所定時間が第1の所定時間よりも長く設定されることにより、第2の要素領域群が抽出されてから、第3の要素領域群が抽出されえないほど早い段階で対象物が四足動物に該当しないと誤認される事態が回避されうる。すなわち、前記のような判定手法により対象物が四足動物であるか否かが高精度で認識されうる。   Further, the second element region group E2 is extracted within the first predetermined time after the first element region group E1 is extracted, and the first element region group E2 is extracted after the first element region group E2 is extracted. With the further requirement that the third element region group E3 be extracted within a second predetermined time longer than the predetermined time, it is determined that the object corresponds to a quadruped animal (FIG. 5 / STEP 110, 112, 114). When a walking or running quadruped is observed from the side, the quadruped's posture is the second higher than the time required for the quadruped's posture to transition from the first posture to the second posture. There is a high possibility that the time required for the transition from the first posture to the third posture will be longer. Therefore, as described above, the second predetermined time is set longer than the first predetermined time, so that the third element region group cannot be extracted after the second element region group is extracted. It can be avoided that the object is mistakenly identified as not being a quadruped at an early stage. In other words, whether or not the object is a quadruped animal can be recognized with high accuracy by the above-described determination method.

なお、第1の要素領域群E1および第2の要素領域群E2が異なる時刻において(先後を問わず)抽出されたことを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP102,104,114参照)。この際、必要に応じて当該異なる時刻の間隔が第1の所定時間以内であることをさらなる要件として当該対象物が四足動物に該当すると判定されてもよい(図5/STEP110参照)。第2の要素領域群E2および第3の要素領域群E3が異なる時刻において(先後を問わず)抽出されたことのみを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP104,106,114参照)。この際、必要に応じて当該異なる時刻の間隔が第2の所定時間以内であることをさらなる要件として当該対象物が四足動物に該当すると判定されてもよい(図5/STEP112参照)。第2の要素領域群E2、第1の要素領域群E1および第3の要素領域群E3が順に抽出されたことのみを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP102,104,106,114参照)。この際、第2の要素領域群E2が抽出されてから第1の要素領域群E1が抽出されるまでの時間と、第1の要素領域群E1が抽出されてから第3の要素領域群E3が抽出されるまでの時間とがともに第1の所定時間以内であることをさらなる要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP110参照)。   Note that it may be determined that the object corresponds to a quadruped animal on the condition that the first element region group E1 and the second element region group E2 are extracted at different times (regardless of the previous or later) ( (See FIG. 5 / STEPs 102, 104, and 114). At this time, it may be determined that the target object corresponds to a quadruped animal as a further requirement that the interval between the different times is within a first predetermined time as necessary (see FIG. 5 / STEP 110). Only if the second element region group E2 and the third element region group E3 are extracted at different times (regardless of the previous or later), it may be determined that the object corresponds to a quadruped (see FIG. 5 / STEP 104, 106, 114). At this time, if necessary, it may be determined that the object corresponds to a quadruped animal on the further requirement that the interval between the different times is within a second predetermined time (see FIG. 5 / STEP 112). It may be determined that the object corresponds to a quadruped animal only on the condition that the second element region group E2, the first element region group E1, and the third element region group E3 are sequentially extracted (FIG. 5 / STEP 102, 104, 106, 114). At this time, the time from when the second element region group E2 is extracted until the first element region group E1 is extracted, and after the first element region group E1 is extracted, the third element region group E3. It may be determined that the object corresponds to a quadruped animal on the further requirement that both the time until extraction is within the first predetermined time (see FIG. 5 / STEP 110).

なお、次のようにして対象物領域Sが抽出されてもよい。まず、赤外線カメラ2R、2Lにより撮像されA/D変換された赤外線画像から取得されるグレースケール画像(図3/STEP13参照)が2値化処理されることにより得られた2値化画像(図3/STEP14参照)から抽出された高輝度領域(対象物)を包含する領域が第1対象物領域S1として抽出される(図8/STEP202)。これにより、図9(a)に示されているように、対象物の高輝度領域(対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる、第1閾値より大きい第2閾値以上の輝度の第2高輝度領域)を囲む、斜線が付された矩形状の領域が第1対象物領域S1として抽出される。第1対象物領域S1の横幅Wを縦幅Hで割った値である縦横比W/Hが1以上であることが、対象物が四足動物に該当すると判定されるための追加要件とされていてもよい。第1対象物領域S1は、横向きの四足動物の胴部に相当する可能性がある。 Note that the object region S may be extracted as follows. First, a binarized image obtained by binarizing a grayscale image (see FIG. 3 / STEP 13) obtained from an infrared image captured by the infrared cameras 2R and 2L and A / D converted (see FIG. 3). A region including the high luminance region (object) extracted from 3 / STEP 14) is extracted as the first object region S1 (FIG. 8 / STEP 202). As a result, as shown in FIG. 9A, the high-intensity region of the object (the second higher than the first threshold included in the first high-intensity region having a luminance equal to or higher than the first threshold representing the object). A hatched rectangular area surrounding the second high-luminance area having a luminance equal to or higher than the threshold is extracted as the first object area S1. The aspect ratio W / H, which is a value obtained by dividing the width W of the first object region S1 by the height H, is 1 or more, and is an additional requirement for determining that the object corresponds to a quadruped animal. It may be. The first object region S1 may correspond to a torso of a sideways quadruped animal.

続いて、第1の対象物領域S1を基準として基準領域Aが抽出される(図8/STEP204)。これにより、図9(b)に示されているような破線で囲まれている領域が基準領域Aとして抽出される。基準領域Aの上端位置は第1対象物領域S1の上端位置と一致している。基準領域Aの高さは、第1対象物領域S1の高さHの3倍の高さに設定されている。基準領域Aの左端位置は第1対象物領域S1の左端位置よりも所定のマージンMARGIN_Wだけ左側にあり、基準領域Aの右端位置は第1対象物領域S1の右端位置よりも所定のマージンMARGIN_W(余裕)だけ右側にある。なお、基準領域Aの上端位置は第1の対象物領域S1の上端位置より下方に位置していてもよい。   Subsequently, a reference area A is extracted with reference to the first object area S1 (FIG. 8 / STEP 204). As a result, a region surrounded by a broken line as shown in FIG. 9B is extracted as the reference region A. The upper end position of the reference area A coincides with the upper end position of the first object area S1. The height of the reference area A is set to three times the height H of the first object area S1. The left end position of the reference area A is left by a predetermined margin MARGIN_W from the left end position of the first object area S1, and the right end position of the reference area A is a predetermined margin MARGIN_W ( Only margin is on the right side. Note that the upper end position of the reference area A may be located below the upper end position of the first object area S1.

さらに、基準領域Aから第2対象物領域S2が対象物領域Sとして抽出される(図8/STEP206)。具体的には、基準領域Aにおいて縦方向および横方向のそれぞれを走査方向としてエッジ画素が抽出される。エッジ画素は2値化画像における輝度が「0」から「1」になる箇所である。基準領域Aにおいて最も上で水平方向またはほぼ水平方向(縦2〜3画素分のずれ)に並ぶ所定個数以上の一連の縦エッジ画素群の位置が図9(c)に示されているように脚部上端位置として抽出される。また、基準領域Aにおいて最も下で水平方向またはほぼ水平方向(縦2〜3画素分のずれが許容されている。)に並ぶ所定個数以上の一連の縦エッジ画素群の位置が図9(c)に示されているように脚部下端位置として抽出される。さらに、基準領域Aにおいて最も左または右で鉛直方向またはほぼ鉛直方向(横2〜3画素分のずれが許容されている。)に並ぶ所定個数以上の一連の横エッジ画素群の位置が図9(c)に示されているように脚部左右端位置が抽出される。そして、図9(c)に示されているように第1対象物領域S1の下方において、脚部下端位置および脚部上端位置を示す一対の水平線と、脚部左右端位置を示す一対の垂直線とにより囲まれた領域が第2対象物領域S2として抽出される。なお、第1対象物領域S1の下方にメモリに格納されている所定形状の第2対象物領域S2が抽出されてもよい。   Further, the second object area S2 is extracted as the object area S from the reference area A (FIG. 8 / STEP 206). Specifically, edge pixels are extracted in the reference area A with the vertical direction and the horizontal direction as scanning directions. The edge pixel is a portion where the luminance in the binarized image changes from “0” to “1”. As shown in FIG. 9C, the positions of a series of vertical edge pixel groups of a predetermined number or more arranged in the uppermost horizontal direction or almost horizontal direction (deviation by 2 to 3 pixels) in the reference area A are shown. Extracted as the upper end position of the leg. Further, the positions of a series of vertical edge pixel groups of a predetermined number or more arranged in the lowest horizontal direction or almost horizontal direction (displacement of 2 to 3 pixels in the vertical direction) in the reference area A are shown in FIG. ) Is extracted as the leg lower end position. Further, in the reference area A, the positions of a series of a plurality of horizontal edge pixel groups of a predetermined number or more arranged in the leftmost or rightmost vertical direction or substantially vertical direction (displacement by 2 to 3 pixels is allowed) are shown in FIG. As shown in (c), the leg left and right end positions are extracted. Then, as shown in FIG. 9 (c), below the first object region S1, a pair of horizontal lines indicating the leg lower end position and the leg upper end position, and a pair of vertical indicating the leg left and right end positions. A region surrounded by the line is extracted as the second object region S2. Note that a second target area S2 having a predetermined shape stored in the memory may be extracted below the first target area S1.

その後、前記実施形態と同様に、第2対象物領域S2として抽出された対象物領域Sから要素領域群が抽出されたか否かが判定されることにより、対象物が四足動物に該当するか否かが判定されうる(図5/STEP102〜114、図6、図7参照)。この場合も、前記実施形態と同様に、歩行または走行中の横向きの四足物の姿勢変化態様に鑑みて、対象物が四足動物であるか否かが高精度で認識されうる。   Thereafter, as in the above-described embodiment, whether or not the object corresponds to a quadruped animal is determined by determining whether or not an element region group is extracted from the object region S extracted as the second object region S2. It can be determined whether or not (see FIG. 5 / STEPs 102 to 114, FIG. 6 and FIG. 7). In this case as well, in the same manner as in the above-described embodiment, whether or not the target object is a quadruped animal can be recognized with high accuracy in view of the posture change mode of the lateral quadruped during walking or running.

本発明の車両周辺監視装置の一実施形態の全体構成を示す図The figure which shows the whole structure of one Embodiment of the vehicle periphery monitoring apparatus of this invention. 車両周辺監視装置が搭載されている車両の斜視図Perspective view of a vehicle equipped with a vehicle periphery monitoring device 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャートFlow chart showing functions of image processing unit constituting vehicle periphery monitoring device 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャートFlow chart showing functions of image processing unit constituting vehicle periphery monitoring device 本実施形態における対象物種別判定処理を示すフローチャートThe flowchart which shows the object classification determination process in this embodiment 要素領域群に関する説明図Illustration of element regions テンプレートに関する説明図Illustration about templates 本実施形態における脚部領域抽出処理を示すフローチャートFlowchart showing leg region extraction processing in this embodiment 画像処理ユニットの処理を説明するための図The figure for demonstrating the process of an image processing unit

符号の説明Explanation of symbols

1…画像処理ユニット(対象物抽出手段、対象物判定手段)、2R,2L…赤外線カメラ(撮像手段) DESCRIPTION OF SYMBOLS 1 ... Image processing unit (object extraction means, object determination means), 2R, 2L ... Infrared camera (imaging means)

Claims (5)

車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの2対の要素領域からなる第1の要素領域群、および、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の前記要素領域とその横に並ぶ1つの前記要素領域とからなる第2の要素領域群が異なる時刻において抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
From the captured image , a first object configured by a second high-brightness area having a luminance equal to or higher than the first threshold and included in a first high-brightness area having a luminance equal to or higher than the first threshold representing the object. An object region extracting means for extracting a region, and extracting a second object region, which is a region where a part of the object exists below the first object region, as an object region;
The ratio of the width to the vertical width of the first object area extracted by the object area extraction means is 1 or more, and from the object area extracted by the object area extraction means, the vertical direction or A first element region group composed of two pairs of element regions arranged side by side so as to extend in a direction inclined with respect to the up-down direction and to extend downward, and as it goes downward The requirement is that a second element region group consisting of a pair of side-by-side element regions arranged so that the interval is widened and one element region side by side is extracted at different times. A vehicle periphery monitoring device comprising: object classification means for determining that the object corresponds to a quadruped animal.
請求項1記載の車両周辺監視装置において、
前記対象物分類手段が、前記第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ下方に向かうにつれて間隔が広がるように配置されている横並びの前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The object classifying means is arranged in such a way that the second element region group and the pair of side by side are arranged so that the interval is widened toward the lower side as compared with the second element region group. The vehicle periphery characterized in that it is determined that the object corresponds to the quadruped animal, with the further requirement that an element region and a third element region group consisting of the one element region are extracted at different times Monitoring device.
請求項2記載の車両周辺監視装置において、
前記対象物分類手段が、前記第1の要素領域群が抽出されてから第1の所定時間以内に前記第2の要素領域群が抽出されることと、前記第2の要素領域群が抽出されてから前記第1の所定時間より長い第2の所定時間以内に前記第3の要素領域群が抽出されることとをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 2,
The object classification means extracts the second element region group within a first predetermined time after the first element region group is extracted, and the second element region group is extracted. The third element region group is extracted within a second predetermined time that is longer than the first predetermined time, and it is determined that the object corresponds to the quadruped animal. A vehicle periphery monitoring device.
車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、
前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域と、前記1対の要素領域の横に並ぶ1つの前記要素領域とからなる第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを有することを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging means mounted on the vehicle,
From the captured image , a first object configured by a second high-brightness area having a luminance equal to or higher than the first threshold and included in a first high-brightness area having a luminance equal to or higher than the first threshold representing the object. An object region extracting means for extracting a region, and extracting a second object region, which is a region where a part of the object exists below the first object region, as an object region;
The ratio of the width to the vertical width of the first object area extracted by the object area extraction means is 1 or more, and from the object area extracted by the object area extraction means, the vertical direction or A pair of element regions arranged side by side so as to extend in a direction inclined with respect to the up-down direction and to be spaced downward, and one of the element regions arranged next to the pair of element regions A second element region group consisting of element regions, and a third element region group consisting of the pair of element regions and the one element region arranged in the left-right direction in comparison with the second element region group. A vehicle periphery monitoring apparatus, comprising: an object classification unit that determines that the object corresponds to a quadruped animal on the condition that the object is extracted at different times.
請求項4記載の車両周辺監視装置において、
前記対象物分類手段が、前記第2の要素領域群が抽出されてから前記第3の要素領域群が抽出される間に、前記第2対象物領域から下方に向かうにつれて間隔が広がるように配置されている横並びの2対の前記要素領域からなる第1の要素領域群が抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 4,
The object classification means is arranged such that the interval increases from the second object area downward while the third element area group is extracted after the second element area group is extracted. The vehicle periphery monitoring characterized in that it is determined that the object corresponds to the quadruped animal, on the further requirement that a first element region group consisting of two pairs of the element regions arranged side by side is extracted. apparatus.
JP2008215457A 2008-08-25 2008-08-25 Vehicle periphery monitoring device Expired - Fee Related JP5004903B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008215457A JP5004903B2 (en) 2008-08-25 2008-08-25 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008215457A JP5004903B2 (en) 2008-08-25 2008-08-25 Vehicle periphery monitoring device

Publications (3)

Publication Number Publication Date
JP2010049635A JP2010049635A (en) 2010-03-04
JP2010049635A5 JP2010049635A5 (en) 2010-08-19
JP5004903B2 true JP5004903B2 (en) 2012-08-22

Family

ID=42066640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008215457A Expired - Fee Related JP5004903B2 (en) 2008-08-25 2008-08-25 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5004903B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP5502149B2 (en) * 2012-06-29 2014-05-28 本田技研工業株式会社 Vehicle periphery monitoring device
JP5907849B2 (en) * 2012-10-02 2016-04-26 本田技研工業株式会社 Vehicle periphery monitoring device
JP5885640B2 (en) * 2012-11-05 2016-03-15 本田技研工業株式会社 Vehicle periphery monitoring device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295798A (en) * 2003-03-28 2004-10-21 Japan Best Rescue System Kk Security system
JP4173901B2 (en) * 2006-05-19 2008-10-29 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device

Also Published As

Publication number Publication date
JP2010049635A (en) 2010-03-04

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5198346B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
WO2010050090A1 (en) System for monitoring the area around a vehicle
US8189868B2 (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP4271720B1 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP5004903B2 (en) Vehicle periphery monitoring device
JP5259647B2 (en) Vehicle periphery monitoring device
JP5172482B2 (en) Vehicle periphery monitoring device
JP5004919B2 (en) Vehicle periphery monitoring device
JP5004882B2 (en) Vehicle periphery monitoring device
JP5642785B2 (en) Vehicle periphery monitoring device
JP4615061B2 (en) Vehicle periphery monitoring device
JP5026398B2 (en) Vehicle periphery monitoring device
JP4972073B2 (en) Environment recognition device
JP5907849B2 (en) Vehicle periphery monitoring device
JP2009193241A (en) Vehicle surrounding monitoring device, vehicle, and vehicle surrounding monitoring program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees