Nothing Special   »   [go: up one dir, main page]

JP5208790B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5208790B2
JP5208790B2 JP2009024232A JP2009024232A JP5208790B2 JP 5208790 B2 JP5208790 B2 JP 5208790B2 JP 2009024232 A JP2009024232 A JP 2009024232A JP 2009024232 A JP2009024232 A JP 2009024232A JP 5208790 B2 JP5208790 B2 JP 5208790B2
Authority
JP
Japan
Prior art keywords
image
vehicle
captured image
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009024232A
Other languages
Japanese (ja)
Other versions
JP2010183294A (en
Inventor
吉宏 中村
宜和 信時
英樹 小馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Mazda Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Mazda Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2009024232A priority Critical patent/JP5208790B2/en
Publication of JP2010183294A publication Critical patent/JP2010183294A/en
Application granted granted Critical
Publication of JP5208790B2 publication Critical patent/JP5208790B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両の周囲の画像を適切に表示させるための画像信号を生成する画像処理装置、画像処理方法ならびに当該画像処理装置をコンピュータ上で実現するためのプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for realizing the image processing apparatus on a computer, which generate an image signal for appropriately displaying an image around a vehicle.

近年、車載カメラで撮像された車両の周囲の画像を車室内に設置されたモニターに表示することにより、運転者の適切な運転操作を促す技術が知られている。このような用途で用いられる車載カメラは、車両の周囲の所望の領域(空間)を適切に表示できるように、一般的には、車体の正確な位置に正確な角度で取り付けられる。   2. Description of the Related Art In recent years, a technique for prompting a driver to perform an appropriate driving operation by displaying an image around a vehicle captured by an in-vehicle camera on a monitor installed in a vehicle interior is known. In-vehicle cameras used in such applications are generally attached to an accurate position of the vehicle body at an accurate angle so that a desired region (space) around the vehicle can be appropriately displayed.

しかしながら、車載カメラを車体に取り付ける際の取り付けミスや経年劣化により、取り付け位置や取り付け角度がずれてしまう場合がある。このような問題を解決するための技術は、例えば、特許文献1乃至4に開示されている。   However, the attachment position and the attachment angle may be shifted due to an attachment mistake or aging deterioration when attaching the in-vehicle camera to the vehicle body. Technologies for solving such problems are disclosed in, for example, Patent Documents 1 to 4.

特許文献1には、第1行列演算部と、校正点特定部と、第2行列演算部と、第3行列演算部と、成否判定部と、を備え、回転行列を求めることによって、車両に取り付けられた車載カメラを校正し、その成否を判定する車載カメラの校正装置が開示されている。ここで、第1行列演算部は、少なくとも異なる2箇所に配置された校正指標の校正点の基準座標系における座標に基づいて第1行列を演算する。また、校正点特定部は、車載カメラの撮影画像から校正点を特定する。そして、第2行列演算部は、車載カメラの撮影画像上の校正点の座標に基づいて第2行列を演算する。また、第3行列演算部は、第1行列と第2行列とに基づいて車載カメラの回転状態を示す回転行列を演算する。そして、成否判定部は、車載カメラの撮影画像に基づいて車載カメラの校正の成否を判定する。   Patent Document 1 includes a first matrix calculation unit, a calibration point specifying unit, a second matrix calculation unit, a third matrix calculation unit, and a success / failure determination unit. An in-vehicle camera calibration device that calibrates an attached in-vehicle camera and determines success or failure is disclosed. Here, the first matrix calculation unit calculates the first matrix based on the coordinates in the reference coordinate system of the calibration points of the calibration indices arranged at least at two different locations. Further, the calibration point specifying unit specifies the calibration point from the captured image of the in-vehicle camera. And a 2nd matrix calculating part calculates a 2nd matrix based on the coordinate of the calibration point on the picked-up image of a vehicle-mounted camera. The third matrix calculation unit calculates a rotation matrix indicating the rotation state of the in-vehicle camera based on the first matrix and the second matrix. Then, the success / failure determination unit determines the success or failure of the calibration of the in-vehicle camera based on the captured image of the in-vehicle camera.

また、特許文献2には、画像処理装置を構成するメモリのメモリ容量を削減すると共に、ビデオカメラに対する光軸ズレ補正を行うことができる画像処理装置が開示されている。特許文献2に開示された画像処理装置は、ビデオカメラと、その撮像信号を格納するメモリと、読み出した撮像信号に対して所定の処理を行うCPUとを備える。特許文献2に開示された画像処理装置は、CPUからの選択指令に応じて、撮像信号のうち所定の部分のみを選択し、選択撮像信号のみをメモリに書き込む選択書き込み手段をさらに備えている。   Patent Document 2 discloses an image processing apparatus capable of reducing the memory capacity of a memory constituting the image processing apparatus and correcting optical axis deviation with respect to the video camera. The image processing apparatus disclosed in Patent Literature 2 includes a video camera, a memory that stores the image pickup signal, and a CPU that performs predetermined processing on the read image pickup signal. The image processing apparatus disclosed in Patent Document 2 further includes a selection writing unit that selects only a predetermined portion of the imaging signal in response to a selection command from the CPU and writes only the selected imaging signal in the memory.

さらに、特許文献3には、車載カメラの光軸ずれを検出できる車載カメラの光軸ずれ検出装置が開示されている。特許文献3に開示された車載カメラの光軸ずれ検出装置は、以下に示す手法により車載カメラの光軸のずれを検出する。すなわち、車載カメラは、リヤバンパー等の車体の一部が視野に入るように車両に取り付けられる。ここで、この車載カメラにより撮像される画像内においてリヤバンパー等が本来観測されるべき位置は、テンプレート画像としてデータROMに予め格納されている。車載カメラの光軸ずれを検出する際は、車載カメラにより撮像された実画像内におけるリヤバンパー等の位置が、テンプレート画像内におけるリヤバンパー等の位置と比較される。そして、所定値以上の位置ずれが生じている場合には、車載カメラに光軸ずれが生じているものと判定される。   Further, Patent Literature 3 discloses an optical axis deviation detection device for an in-vehicle camera that can detect an optical axis deviation of the in-vehicle camera. The on-vehicle camera optical axis deviation detection device disclosed in Patent Literature 3 detects the optical axis deviation of the on-vehicle camera by the following method. That is, the in-vehicle camera is attached to the vehicle so that a part of the vehicle body such as a rear bumper enters the field of view. Here, the position where the rear bumper or the like should be observed in the image captured by the in-vehicle camera is stored in advance in the data ROM as a template image. When detecting the optical axis deviation of the vehicle-mounted camera, the position of the rear bumper or the like in the actual image captured by the vehicle-mounted camera is compared with the position of the rear bumper or the like in the template image. And when the position shift more than a predetermined value has arisen, it determines with the optical axis shift having arisen in the vehicle-mounted camera.

また、特許文献4には、車両に搭載された車載カメラのピントが合わない場合に乗員に速やかに警告を発し得る車載カメラ点検装置、ならびに、車載カメラのずれや汚れを乗員に確実に判別せしめる車載カメラ点検装置が開示されている。特許文献4に開示された車載カメラ点検装置は、以下に示すように構成されている。すなわち、撮像部により撮像された撮像画像について、ピント判定部がピント判定を行う。ピント判定は、エッジ抽出により行う。ここで、記憶部には基準映像が記憶されている。そして、基準映像と撮像映像とが照合されることによって撮像部の設置姿勢のずれが判別される。また、車両が移動しているにも拘わらず無変化領域が検出された場合には、撮像部のレンズ表面に付着した汚れがあると判別される。ピントが合っていない場合、または設置姿勢がずれている場合、またはレンズ表面に汚れが付着されていると判別された場合には、警告部から乗員に対して警告を発する。   Further, Patent Document 4 discloses an in-vehicle camera inspection device that can promptly give a warning to an occupant when the in-vehicle camera mounted on the vehicle is out of focus, and allows the occupant to reliably discriminate the displacement and dirt of the in-vehicle camera. An in-vehicle camera inspection device is disclosed. The in-vehicle camera inspection device disclosed in Patent Document 4 is configured as follows. That is, the focus determination unit performs focus determination on the captured image captured by the imaging unit. Focus determination is performed by edge extraction. Here, the reference image is stored in the storage unit. Then, the reference image and the captured image are collated to determine the deviation of the installation posture of the imaging unit. In addition, when a non-change area is detected even though the vehicle is moving, it is determined that there is dirt attached to the lens surface of the imaging unit. When it is out of focus, when the installation posture is deviated, or when it is determined that dirt is attached to the lens surface, the warning unit issues a warning to the occupant.

特開2008−131250号公報JP 2008-131250 A 特開2002−94977号公報JP 2002-94977 A 特開2004−1658号公報JP 2004-1658 A 特開2007−38773号公報JP 2007-38773 A

しかしながら、特許文献1に開示された車載カメラの校正装置は、車載カメラを校正する装置である。このため、車載カメラ自身が車載カメラを校正するための特別な機構等を備えている必要があった。また、特許文献2に開示された画像処理装置は、光軸ズレ補正を行うことができる画像処理装置であり、画像処理装置自身が光軸ズレ補正を行うための機構等を備えている必要があった。また、特許文献3に開示された車載カメラの光軸ずれ検出装置は、車載カメラの光軸ずれを検出するだけの装置である。さらに、特許文献4に開示された車載カメラ点検装置は、車載カメラのピントのずれや車載カメラの設置姿勢のずれやレンズの汚れなどがあるか否かを判別し、これらがあった場合には乗員に警告を発するだけの装置である。このように、特許文献1乃至4に開示された装置はいずれも、装置自体に車載カメラを校正するための特別な機構等を設けずに、車両の周囲の画像を適切に表示できる装置ではなかった。従って、簡単な構成で、車両の周囲の画像を適切に表示する技術が強く望まれていた。   However, the in-vehicle camera calibration device disclosed in Patent Document 1 is a device for calibrating the in-vehicle camera. For this reason, the vehicle-mounted camera itself needs to have a special mechanism for calibrating the vehicle-mounted camera. The image processing apparatus disclosed in Patent Document 2 is an image processing apparatus that can perform optical axis misalignment correction, and the image processing apparatus itself needs to include a mechanism for performing optical axis misalignment correction. there were. The on-vehicle camera optical axis deviation detection device disclosed in Patent Document 3 is a device that only detects the optical axis deviation of the on-vehicle camera. Furthermore, the in-vehicle camera inspection device disclosed in Patent Document 4 determines whether or not there is a deviation in the focus of the in-vehicle camera, a deviation in the installation posture of the in-vehicle camera, dirt on the lens, and the like. It is a device that only issues warnings to passengers. As described above, none of the apparatuses disclosed in Patent Documents 1 to 4 is an apparatus that can appropriately display an image around the vehicle without providing a special mechanism for calibrating the in-vehicle camera in the apparatus itself. It was. Therefore, there has been a strong demand for a technique for appropriately displaying an image around the vehicle with a simple configuration.

本発明は、上記問題に鑑みてなされたものであり、車両の周囲の画像を適切に表示させるための画像信号を生成する画像処理装置、画像処理方法ならびに当該画像処理装置をコンピュータ上で実現するためのプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and realizes an image processing apparatus, an image processing method, and the image processing apparatus for generating an image signal for appropriately displaying an image around a vehicle on a computer. It aims at providing the program for.

上記目的を達成するために、本発明の第1の観点に係る画像処理装置は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段と、
前記撮像画像上における前記車両の一部の位置を特定する特定手段と、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段と、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段と、を備え
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the first aspect of the present invention provides:
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part;
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
It is characterized by that.

前記生成手段は、前記抽出手段により抽出された画像部分を前記表示装置の画面上の一定の位置に表示させるとともに当該画面上の一定の位置にガイド線を重畳表示させるための画像信号を生成してもよい。   The generating unit generates an image signal for displaying the image portion extracted by the extracting unit at a certain position on the screen of the display device and displaying a guide line superimposed on the certain position on the screen. May be.

上記目的を達成するために、本発明の第2の観点に係る画像処理方法は、
記憶手段、特定手段、抽出手段、生成手段を備える画像処理装置が実行する画像処理方法であって、
前記記憶手段は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶し、
前記画像処理方法は、
前記特定手段が、前記撮像画像上における前記車両の一部の位置を特定する特定ステップと、
前記抽出手段が、前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出ステップと、
前記生成手段が、前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成ステップと、を備え
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定ステップでは、前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, an image processing method according to a second aspect of the present invention includes:
An image processing method executed by an image processing apparatus including a storage unit, an identification unit, an extraction unit, and a generation unit,
The storage means
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Store spatial location definition information,
The image processing method includes:
A specifying step in which the specifying unit specifies a position of a part of the vehicle on the captured image;
The extraction unit is configured to extract the predetermined space from the captured image based on the predetermined spatial position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. An extraction step of extracting an image portion indicating the space of
The generating unit includes a generating step of generating an image signal for causing the display device to display the image portion extracted by the extracting unit ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
In the specifying step, the specifying unit specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle.
It is characterized by that.

上記目的を達成するために、本発明の第3の観点に係るプログラムは、
コンピュータを、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段、
前記撮像画像上における前記車両の一部の位置を特定する特定手段、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段、
として機能させるプログラムであって、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする。
In order to achieve the above object, a program according to the third aspect of the present invention provides:
Computer
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part,
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means;
A program that functions as
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
It is characterized by that.

本発明にかかる画像処理装置、画像処理方法ならびにプログラムによれば、車両の周囲の画像を適切に表示させるための画像信号を生成することができる。   According to the image processing device, the image processing method, and the program according to the present invention, it is possible to generate an image signal for appropriately displaying an image around the vehicle.

本発明の実施形態に係る画像処理装置を備える画像処理システムの構成図である。1 is a configuration diagram of an image processing system including an image processing apparatus according to an embodiment of the present invention. 画像処理システムが備える各モジュールの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of each module with which an image processing system is provided. 画像処理装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of an image processing apparatus. カメラが画像を撮像する様子を模式的に示す第1の図である。It is the 1st figure showing typically signs that a camera picturizes an image. 表示装置に表示される画像を模式的に示す第1の図である。It is a 1st figure which shows typically the image displayed on a display apparatus. カメラが画像を撮像する様子を模式的に示す第2の図である。It is a 2nd figure which shows a mode that a camera captures an image typically. 表示装置に表示される画像を模式的に示す第2の図である。It is a 2nd figure which shows typically the image displayed on a display apparatus. 画像処理システムが実行する車両後方空間表示処理を示すフローチャートである。It is a flowchart which shows the vehicle rear space display process which an image processing system performs. 図6のフローチャートに示すリヤバンパー位置特定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the rear bumper position specific process shown in the flowchart of FIG. リヤバンパーの上端部の位置の特定方法を説明するための図である。It is a figure for demonstrating the identification method of the position of the upper end part of a rear bumper. 画像処理装置が撮像画像から撮像対象画像を抽出する方法を説明するための図である。It is a figure for demonstrating the method for an image processing apparatus to extract an imaging target image from a captured image. 表示装置に表示される合成画像を示す図である。It is a figure which shows the synthesized image displayed on a display apparatus. 特徴点を説明するための図である。It is a figure for demonstrating a feature point. 変形例に係る画像処理装置が撮像画像から撮像対象画像を抽出する方法を説明するための図である。It is a figure for demonstrating the method for the image processing apparatus which concerns on a modification to extract an imaging target image from a captured image. 距離の目安をラフに示す合成画像を示す第1の図である。It is a 1st figure which shows the synthesized image which shows the rough standard of distance. 距離の目安をラフに示す合成画像を示す第2の図である。It is a 2nd figure which shows the synthesized image which shows the rough standard of distance.

以下、本発明の実施形態に係る画像処理装置について図面を参照して説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

まず、図1を参照して本発明の実施形態に係る画像処理装置を備える画像処理システムの構成について説明する。   First, the configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention will be described with reference to FIG.

図1に示すように、画像処理システム100は、カメラ10と、照明光源20と、画像処理装置30と、表示装置50と、車速センサ60と、から構成される。   As shown in FIG. 1, the image processing system 100 includes a camera 10, an illumination light source 20, an image processing device 30, a display device 50, and a vehicle speed sensor 60.

カメラ10は、一定周期(例えば、1/30秒)毎に、車両の一部を含んだ所定の空間(以下、「撮像対象」とする。)を含む撮像空間を撮像して、撮像により得られた階調画像(以下、「撮像画像」とする。)を順次出力する。カメラ10は、撮像画像を、例えば、アナログ画像信号として出力する。カメラ10は、例えば、CCD(Charge Coupled Device)カメラ等から構成される。照明光源20は、撮像対象を照明する。   The camera 10 captures an imaging space including a predetermined space including a part of the vehicle (hereinafter referred to as “imaging target”) at regular intervals (for example, 1/30 seconds), and is obtained by imaging. The obtained gradation images (hereinafter referred to as “captured images”) are sequentially output. The camera 10 outputs the captured image as an analog image signal, for example. The camera 10 is composed of, for example, a CCD (Charge Coupled Device) camera or the like. The illumination light source 20 illuminates the imaging target.

表示装置50は、画像処理装置30から供給された画像信号に従って画像を表示する。表示装置50は、例えば、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成される。   The display device 50 displays an image according to the image signal supplied from the image processing device 30. The display device 50 includes, for example, an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube).

車速センサ60は、車両の速度を電気信号に変換して出力する。車速センサ60は、例えば、ロータリエンコーダなどから構成される。   The vehicle speed sensor 60 converts the speed of the vehicle into an electrical signal and outputs it. The vehicle speed sensor 60 is composed of, for example, a rotary encoder.

画像処理装置30は、カメラ10から供給された撮像画像から撮像対象に相当する画像部分を抽出して、当該抽出された画像部分(以下「撮像対象画像」とする。)に目安線などを合成して得られる合成画像を表示装置50に表示させるための画像信号を生成する。画像処理装置30は、例えば、図1に示すように、A/D(Analog/Digital)変換器31と、画像メモリ32と、ROM(Read Only Memory)33と、CPU(Central Processing Unit)34と、RAM(Random Access Memory)35と、表示制御部36と、光源制御部37と、設定メモリ38と、操作装置39と、センサ入力部40と、から構成される。   The image processing apparatus 30 extracts an image portion corresponding to the imaging target from the captured image supplied from the camera 10 and synthesizes a reference line or the like with the extracted image portion (hereinafter referred to as “imaging target image”). An image signal for causing the display device 50 to display the composite image obtained in this manner is generated. For example, as shown in FIG. 1, the image processing apparatus 30 includes an A / D (Analog / Digital) converter 31, an image memory 32, a ROM (Read Only Memory) 33, and a CPU (Central Processing Unit) 34. , A RAM (Random Access Memory) 35, a display control unit 36, a light source control unit 37, a setting memory 38, an operation device 39, and a sensor input unit 40.

A/D変換器31は、カメラ10から供給されたアナログ画像信号をディジタル画像信号に変換して、出力する。   The A / D converter 31 converts the analog image signal supplied from the camera 10 into a digital image signal and outputs it.

画像メモリ32は、A/D変換器31が出力したディジタル画像信号により表現された撮像画像を記憶する。また、画像メモリ32は、撮像対象画像や合成画像も記憶する。画像メモリ32は、例えば、SRAM(Static Random Access Memory)などから構成される。   The image memory 32 stores a captured image expressed by the digital image signal output from the A / D converter 31. The image memory 32 also stores an imaging target image and a composite image. The image memory 32 is composed of, for example, an SRAM (Static Random Access Memory).

ROM33は、CPU34の動作を制御するためのプログラムを記憶する。CPU34は、画像処理装置30全体の動作を制御する。CPU34は、ROM33に記憶されたプログラムを実行することにより、カメラ10から供給された撮像画像を処理する。RAM35は、CPU34のワークエリアとして機能する。   The ROM 33 stores a program for controlling the operation of the CPU 34. The CPU 34 controls the overall operation of the image processing apparatus 30. The CPU 34 processes the captured image supplied from the camera 10 by executing a program stored in the ROM 33. The RAM 35 functions as a work area for the CPU 34.

表示制御部36は、CPU34の制御のもと、画像メモリ32に記憶されている合成画像から画像信号を生成し、表示装置50に供給する。光源制御部37は、照明光源20の点灯・消灯を制御する。   The display control unit 36 generates an image signal from the composite image stored in the image memory 32 under the control of the CPU 34 and supplies the image signal to the display device 50. The light source control unit 37 controls turning on / off of the illumination light source 20.

設定メモリ38は、CPU34が後述する車両後方空間表示処理を実行するために必要な設定データなどを格納する。   The setting memory 38 stores setting data necessary for the CPU 34 to execute a vehicle rear space display process to be described later.

操作装置39は、ドライバーからの操作入力を受け付け、受け付けた操作入力に応じた操作信号をCPU34に供給する。操作装置39は、各種のボタンなどにより構成される。ドライバーは、これらのボタンを操作することにより、車両の後方の様子を表示装置50に表示させたり、当該表示を終了させたりする。   The operation device 39 receives an operation input from the driver and supplies an operation signal corresponding to the received operation input to the CPU 34. The operation device 39 includes various buttons. By operating these buttons, the driver displays the state behind the vehicle on the display device 50 or ends the display.

センサ入力部40は、車速センサ60から供給された電気信号の入力を受け付け、当該電気信号により示される車速データをRAM35などに記憶する。   The sensor input unit 40 receives an input of an electrical signal supplied from the vehicle speed sensor 60 and stores vehicle speed data indicated by the electrical signal in the RAM 35 or the like.

次に、図2を参照して、画像処理システム100が備える各モジュールが車両のどの部分にどのように設置されるかを説明する。なお、ここで説明する各モジュールの設置場所は例示である。   Next, with reference to FIG. 2, how each module included in the image processing system 100 is installed in which part of the vehicle will be described. In addition, the installation location of each module demonstrated here is an illustration.

カメラ10は、例えば、車両1000の後方のナンバープレートの上端部近傍の車体部分に設置される。カメラ10は、車両1000の後方斜め下方の空間を、リヤバンパー200の上部とともに撮像できるような位置ならびに角度に設置される。照明光源20は、カメラ10の近傍の車体部分に設置される。照明光源20は、カメラ10が撮像する空間を照明可能な位置ならびに角度に設置される。   For example, the camera 10 is installed in a vehicle body portion near the upper end portion of the license plate behind the vehicle 1000. The camera 10 is installed at a position and an angle at which a space obliquely below the rear of the vehicle 1000 can be imaged together with the upper part of the rear bumper 200. The illumination light source 20 is installed in a vehicle body part near the camera 10. The illumination light source 20 is installed at a position and an angle at which the space captured by the camera 10 can be illuminated.

画像処理装置30は、例えば、運転席に座っているドライバーが操作装置39を操作可能なように、ギアボックスの前方に設置される。表示装置50は、例えば、運転席に座っているドライバーが合成画像を見ることができるように、ギアボックスの前方に設置される。車速センサ60は、例えば、前輪のシャフト部分近傍に設置される。   For example, the image processing device 30 is installed in front of the gear box so that a driver sitting in a driver's seat can operate the operation device 39. The display device 50 is installed in front of the gear box so that, for example, a driver sitting in the driver's seat can see the composite image. The vehicle speed sensor 60 is installed in the vicinity of the shaft portion of the front wheel, for example.

次に、図3を参照して、本発明の実施形態に係る画像処理装置30の機能を説明する。   Next, functions of the image processing apparatus 30 according to the embodiment of the present invention will be described with reference to FIG.

図3に示すように、画像処理装置30は、記憶部110と、特定部120と、抽出部130と、生成部140と、を備える。なお、画像処理装置30は、カメラ10から供給された撮像画像を処理して画像信号を生成し、生成した画像信号を表示装置50に供給する。   As illustrated in FIG. 3, the image processing apparatus 30 includes a storage unit 110, a specification unit 120, an extraction unit 130, and a generation unit 140. The image processing device 30 processes the captured image supplied from the camera 10 to generate an image signal, and supplies the generated image signal to the display device 50.

カメラ10は、車両の一部を含んだ所定の空間を含む撮像空間を撮像して撮像画像を取得し、取得した撮像画像を特定部120ならびに抽出部130に供給する。車両の一部は、例えば、リヤバンパー200の上端部であり、所定の空間は、例えば、車両1000の後方斜め下方の空間を含む空間である。   The camera 10 captures an imaging space including a predetermined space including a part of the vehicle to acquire a captured image, and supplies the acquired captured image to the specifying unit 120 and the extraction unit 130. A part of the vehicle is, for example, an upper end portion of the rear bumper 200, and the predetermined space is a space including, for example, a space obliquely below the rear of the vehicle 1000.

記憶部110は、所定空間位置定義情報を記憶する。ここで、所定空間位置定義情報は、撮像画像上における車両の一部の位置を基準とした撮像画像上における所定の空間を示す領域を定義する情報である。また、撮像画像は、車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる画像である。所定空間位置定義情報は、例えば、撮像画像上における車両1000の後方斜め下方の空間ならびにリヤバンパー200の上端部を示す領域を、撮像画像上におけるリヤバンパー200の上端部の位置を基準として定義する情報である。記憶部110は、例えば、設定メモリ38により構成される。   The storage unit 110 stores predetermined space position definition information. Here, the predetermined space position definition information is information that defines an area indicating a predetermined space on the captured image on the basis of the position of a part of the vehicle on the captured image. The captured image is an image obtained by capturing an imaging space including a predetermined space including a part of the vehicle. For example, the predetermined space position definition information defines a space obliquely below the vehicle 1000 on the captured image and an area indicating the upper end portion of the rear bumper 200 on the basis of the position of the upper end portion of the rear bumper 200 on the captured image. Information. The storage unit 110 is configured by the setting memory 38, for example.

特定部120は、カメラ10により生成された撮像画像上における車両の一部の位置を特定する。特定部120は、例えば、撮像画像上におけるリヤバンパー200の上端部の位置を特定する。特定部120は、例えば、CPU34により構成される。   The specifying unit 120 specifies the position of a part of the vehicle on the captured image generated by the camera 10. For example, the specifying unit 120 specifies the position of the upper end portion of the rear bumper 200 on the captured image. The specifying unit 120 is configured by the CPU 34, for example.

抽出部130は、記憶部110に記憶されている所定空間位置定義情報と特定部120により特定された撮像画像上における車両の一部の位置とに基づいて、撮像画像から所定の空間を示す画像部分を抽出する。抽出部130は、例えば、撮像画像から車両1000の後方斜め下方の空間ならびにリヤバンパー200の上端部を示す画像部分を抽出する。抽出部130は、例えば、CPU34により構成される。   The extraction unit 130 is an image indicating a predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit 110 and the position of a part of the vehicle on the captured image specified by the specifying unit 120. Extract the part. The extraction unit 130 extracts, for example, an image portion showing a space obliquely below the rear of the vehicle 1000 and an upper end portion of the rear bumper 200 from the captured image. The extraction unit 130 is configured by the CPU 34, for example.

生成部140は、抽出部130により抽出された画像部分を所定の表示装置に表示させるための画像信号を生成する。生成部140は、例えば、車両1000の後方斜め下方の空間を示す画像部分を表示装置50に表示させるための画像信号を生成する。   The generation unit 140 generates an image signal for displaying the image portion extracted by the extraction unit 130 on a predetermined display device. The generation unit 140 generates, for example, an image signal for causing the display device 50 to display an image portion indicating a space obliquely below the rear of the vehicle 1000.

表示装置50は、生成部140から供給された画像信号により示される画像を表示する。表示装置50は、例えば、生成部140から供給された画像信号により示される、車両1000の後方斜め下方の空間の画像を表示する。   The display device 50 displays an image indicated by the image signal supplied from the generation unit 140. For example, the display device 50 displays an image of a space obliquely below the rear of the vehicle 1000 indicated by the image signal supplied from the generation unit 140.

ここで、図4A、図4B、図5Aならびに図5Bを参照して、画像処理装置30の機能を簡単に説明する。   Here, the function of the image processing apparatus 30 will be briefly described with reference to FIGS. 4A, 4B, 5A, and 5B.

図4Aは、カメラ10が撮像対象を撮像する様子を模式的に示す図である。図4Aに示すように、カメラ10の垂直方向の画角(以下「カメラフル画角」という。)をDegAとすると、カメラ10によって撮像される垂直方向の範囲は、DegAを挟む2つの破線の線分に挟まれた範囲となる。また、表示装置50の垂直方向の画角(以下「画面表示角」という。)をDegBとすると、カメラ10によって撮像される垂直方向の範囲のうち表示装置50に表示される垂直方向の範囲は、DegBを挟む2つの実線の線分に挟まれた範囲となる。なお、図4Aにおいて、カメラ10は、一点鎖線で示される方向を中心とした空間(撮像領域)を撮像する。また、カメラ10によって撮像される水平方向の範囲も所定の範囲に限定される。ここで、カメラ10によって撮像される範囲には、撮像画像のうちどの範囲を表示装置50に表示するかを決定するための基準物であるリヤバンパー200の上端部が含まれる。また、図4Aに示す例では、路面上の車両1000の後方50cmの位置に目印401、路面上の車両1000の後方100cmの位置に目印402、路面上の車両1000の後方200cmの位置に目印403、がそれぞれ配置され、撮像範囲には目印401〜403が含まれている。   FIG. 4A is a diagram schematically illustrating how the camera 10 captures an imaging target. As shown in FIG. 4A, assuming that the vertical angle of view of the camera 10 (hereinafter referred to as “camera full angle of view”) is DegA, the vertical range captured by the camera 10 is two broken lines sandwiching DegA. It is the range between the line segments. When the vertical field angle of the display device 50 (hereinafter referred to as “screen display angle”) is DegB, the vertical range displayed on the display device 50 in the vertical range captured by the camera 10 is as follows. , The range is sandwiched between two solid line segments sandwiching DegB. In FIG. 4A, the camera 10 captures an image of a space (imaging region) centered on the direction indicated by the alternate long and short dash line. Further, the horizontal range imaged by the camera 10 is also limited to a predetermined range. Here, the range captured by the camera 10 includes the upper end portion of the rear bumper 200 that is a reference object for determining which range of the captured image is displayed on the display device 50. In the example shown in FIG. 4A, a mark 401 is located at a position 50 cm behind the vehicle 1000 on the road surface, a mark 402 is located 100 cm behind the vehicle 1000 on the road surface, and a mark 403 is located 200 cm behind the vehicle 1000 on the road surface. Are arranged, and marks 401 to 403 are included in the imaging range.

図4Bは、表示装置50に表示される画像を模式的に示す図である。図4Bにおいて、カメラ10により生成された撮像画像は、破線の枠410で囲まれた部分に示す画像である。一方、図4Bにおいて、表示装置50に表示される合成画像は、太線の枠420で囲まれた部分に示す画像である。なお、合成画像は、撮像画像の一部を抽出して得られる撮像対象画像に、所定の目安線などを合成して得られる画像である。撮像画像のどの部分を撮像対象画像として抽出するかは、撮像画像に含まれる基準物の位置に基づく。本実施形態においては、リヤバンパー200の上端部の垂直方向の位置が撮像画像のどの位置にあるか、ならびに、表示装置50に表示すべき車両1000の後方斜め下の空間をリヤバンパー200の上端部の垂直方向の位置を基準として定義した所定空間位置定義情報に基づいて、撮像画像からどの部分を抽出して撮像対象画像とするかが定められる。   FIG. 4B is a diagram schematically illustrating an image displayed on the display device 50. In FIG. 4B, the captured image generated by the camera 10 is an image shown in a portion surrounded by a dashed frame 410. On the other hand, in FIG. 4B, the composite image displayed on the display device 50 is an image shown in a portion surrounded by a thick frame 420. The synthesized image is an image obtained by synthesizing a predetermined reference line or the like with an imaging target image obtained by extracting a part of the captured image. Which part of the captured image is extracted as the captured image is based on the position of the reference object included in the captured image. In the present embodiment, the vertical position of the upper end of the rear bumper 200 is located in the captured image, and the space below the vehicle 1000 to be displayed on the display device 50 is defined as the upper end of the rear bumper 200. Based on the predetermined spatial position definition information defined with reference to the vertical position of the part, it is determined which part is to be extracted from the captured image as the captured image.

図4Bに示す例では、DegAにより示される範囲の画像が撮像画像であり、DegBにより示される範囲の画像が合成画像である。なお、合成画像には、車両1000の後方50cmの路面位置を示す目安線441、車両1000の後方100cmの路面位置を示す目安線442、ならびに、車両1000の後方200cmの路面位置を示す目安線443が含まれる。なお、上述したように、路面上の車両1000の後方50cmの位置に目印401、路面上の車両1000の後方100cmの位置に目印402、路面上の車両1000の後方200cmの位置に目印403、がそれぞれ配置されている。このため、合成画像は、目安線441上に目印401、目安線442上に目印402、目安線443上に目印403、がそれぞれ配置されているように表示される画像となる。また、合成画像の下方には、リヤバンパー200が示される。なお、図4Bにおいて、リヤバンパー200に相当する画像部分をハッチングにより明示している。   In the example shown in FIG. 4B, the image in the range indicated by DegA is a captured image, and the image in the range indicated by DegB is a composite image. In the composite image, a reference line 441 indicating the road surface position 50 cm behind the vehicle 1000, a reference line 442 indicating the road surface position 100 cm behind the vehicle 1000, and a reference line 443 indicating the road surface position 200 cm behind the vehicle 1000 are shown. Is included. As described above, the mark 401 is located at a position 50 cm behind the vehicle 1000 on the road surface, the mark 402 is located 100 cm behind the vehicle 1000 on the road surface, and the mark 403 is located 200 cm behind the vehicle 1000 on the road surface. Each is arranged. For this reason, the composite image is an image displayed such that the mark 401 is arranged on the guide line 441, the mark 402 is placed on the guide line 442, and the mark 403 is placed on the guide line 443. A rear bumper 200 is shown below the composite image. In FIG. 4B, an image portion corresponding to the rear bumper 200 is clearly shown by hatching.

図5Aは、カメラ10が撮像対象を撮像する様子を模式的に示す図である。図5Aに示す例では、図4Aに示す例と比較すると、カメラ10はより下方の空間が撮像範囲となるような角度で車両1000に設置されている。カメラ10の設置角度以外は、図4Aと同様であるため説明を省略する。   FIG. 5A is a diagram schematically illustrating how the camera 10 captures an imaging target. In the example illustrated in FIG. 5A, the camera 10 is installed in the vehicle 1000 at an angle such that the lower space is the imaging range as compared to the example illustrated in FIG. 4A. Other than the installation angle of the camera 10 is the same as FIG.

図5Bは、表示装置50に表示される画像を模式的に示す図である。カメラ10により撮像される垂直方向の範囲は、図4Aに示す例と図5Aに示す例とでは異なるため、図5Bに示す撮像画像は図4Bに示す撮像画像と異なる画像となる。図5Bに示すように、合成画像は図4Bに示す合成画像と同じ画像となる。これは、図4Bに示す例と図5Bに示す例とで、異なる撮像画像から同じ撮像対象画像が撮像画像から抽出されるように構成されているためである。   FIG. 5B is a diagram schematically illustrating an image displayed on the display device 50. Since the range in the vertical direction captured by the camera 10 is different between the example illustrated in FIG. 4A and the example illustrated in FIG. 5A, the captured image illustrated in FIG. 5B is different from the captured image illustrated in FIG. 4B. As shown in FIG. 5B, the composite image is the same as the composite image shown in FIG. 4B. This is because the example illustrated in FIG. 4B and the example illustrated in FIG. 5B are configured such that the same image to be captured is extracted from the captured image from different captured images.

すなわち、従来の撮像装置では、撮像対象を表示装置に表示しようとした場合、当該撮像対象を撮像可能な正確な位置ならびに正確な角度でカメラを車両に設置する必要がある。しかしながら、カメラの設置時の設置ミスあるいは経年劣化により、カメラの設置位置あるいは設置角度にずれが生じてしまう場合がある。この場合、撮像対象を表示装置に正確に表示することができなくなってしまう。これに対し、画像処理システム100では、撮像対象を含む広い領域をカメラ10で撮像して撮像画像を生成し、表示装置50は撮像画像のうちの撮像対象に相当する部分のみを表示する。これにより、画像処理システム100によれば、カメラ10の設置位置あるいは設置角度に多少のずれが生じた場合であっても、撮像対象を表示装置50に正確に表示できる。なお、カメラ10は、撮像範囲に基準物が含まれるような位置ならびに角度に設置される。   That is, in a conventional imaging device, when an imaging target is to be displayed on a display device, it is necessary to install a camera on the vehicle at an accurate position and an accurate angle at which the imaging target can be imaged. However, there may be a case where the installation position or the installation angle of the camera is deviated due to an installation error at the time of installation of the camera or aging deterioration. In this case, the imaging target cannot be accurately displayed on the display device. In contrast, in the image processing system 100, a wide area including the imaging target is captured by the camera 10 to generate a captured image, and the display device 50 displays only a portion corresponding to the imaging target in the captured image. Thereby, according to the image processing system 100, the imaging target can be accurately displayed on the display device 50 even when there is a slight shift in the installation position or the installation angle of the camera 10. The camera 10 is installed at a position and an angle at which the reference object is included in the imaging range.

次に、図6に示すフローチャートを用いて、画像処理システム100が実行する車両後方空間表示処理について説明する。   Next, the vehicle rear space display process executed by the image processing system 100 will be described using the flowchart shown in FIG.

画像処理システム100は、車両の後方の空間の表示を開始する要求を受け付けた後、当該表示を終了する要求を受け付けるまでの間、定期的(例えば、1/30秒毎)に図6に示す車両後方空間表示処理を実行する。   The image processing system 100 shown in FIG. 6 periodically (for example, every 1/30 second) after receiving a request to start display of the space behind the vehicle until receiving a request to end the display. Car rear space display processing is executed.

まず、カメラ10は、車両の後方の空間を撮像する(ステップS101)。そして、CPU34は、カメラ10から供給された信号に基づいて撮像画像を生成する(ステップS102)。具体的には、CPU34は、カメラ10が出力する1フレーム分のアナログ画像信号により表現される撮像画像をA/D変換器31に供給し、当該A/D変換器31が出力する1フレーム分のディジタル画像信号により表現される撮像画像を画像メモリ32に記憶する。   First, the camera 10 images the space behind the vehicle (step S101). And CPU34 produces | generates a captured image based on the signal supplied from the camera 10 (step S102). Specifically, the CPU 34 supplies a captured image expressed by an analog image signal for one frame output from the camera 10 to the A / D converter 31, and outputs one frame for output from the A / D converter 31. The captured image represented by the digital image signal is stored in the image memory 32.

次に、CPU34は、リヤバンパー位置特定処理を実行する(ステップS103)。リヤバンパー位置特定処理については、図7に示すフローチャートを参照して詳細に説明する。なお、リヤバンパー位置特定処理は、撮像画像におけるリヤバンパー200の上端部の垂直方向の位置を特定する処理である。   Next, the CPU 34 executes a rear bumper position specifying process (step S103). The rear bumper position specifying process will be described in detail with reference to the flowchart shown in FIG. The rear bumper position specifying process is a process of specifying the vertical position of the upper end portion of the rear bumper 200 in the captured image.

まず、車速センサから車両1000の車速を取得する(ステップS201)。次に、CPU34は、車両1000が移動中であるか否を判別する(ステップS202)。具体的には、CPU34は、ステップS201において取得した車速の絶対値が所定の値以上である場合に車両1000が移動中であると判別し、ステップS201において取得した車速の絶対値が所定の値未満である場合に車両1000が移動中ではないと判別する。   First, the vehicle speed of the vehicle 1000 is acquired from the vehicle speed sensor (step S201). Next, the CPU 34 determines whether or not the vehicle 1000 is moving (step S202). Specifically, the CPU 34 determines that the vehicle 1000 is moving when the absolute value of the vehicle speed acquired in step S201 is equal to or greater than a predetermined value, and the absolute value of the vehicle speed acquired in step S201 is a predetermined value. If it is less than that, it is determined that the vehicle 1000 is not moving.

CPU34は、車両1000が移動中ではない判別すると(ステップS202:NO)、エッジ検出によりリヤバンパー200の上端部の位置を検出して(ステップS203)、リヤバンパー位置特定処理を終了する。なお、エッジ検出によりリヤバンパー200の上端部の位置を検出する方法については、従来のエッジ検出技術を採用することができる。従来のエッジ検出技術は、例えば、特許文献3(特開2004−1658号公報)の図4等に、リヤバンパーの境界線を検出する技術として開示されている。なお、リヤバンパー200の上端部の位置とは、厳密には、撮像画像におけるリヤバンパー200の上端の境界線の位置である。   When determining that the vehicle 1000 is not moving (step S202: NO), the CPU 34 detects the position of the upper end portion of the rear bumper 200 by edge detection (step S203), and ends the rear bumper position specifying process. As a method of detecting the position of the upper end portion of the rear bumper 200 by edge detection, a conventional edge detection technique can be employed. A conventional edge detection technique is disclosed, for example, in FIG. 4 of Patent Document 3 (Japanese Patent Application Laid-Open No. 2004-1658) as a technique for detecting a boundary line of a rear bumper. Note that the position of the upper end portion of the rear bumper 200 is strictly the position of the boundary line of the upper end of the rear bumper 200 in the captured image.

一方、車両1000が移動中であると判別すると(ステップS202:YES)、チェック対象の画素を下から1行目の左端の画素に設定する(ステップS204)。ここで、チェック対象の画素は、撮像画像を構成する画素のうち、1フレーム前のフレームにおける輝度と現在のフレームにおける輝度との差分をチェックする対象の画素である。なお、本実施形態においては、チェック対象の画素は、水平方向には左から右に走査され、垂直方向には下から上に走査される。   On the other hand, if it is determined that the vehicle 1000 is moving (step S202: YES), the pixel to be checked is set to the leftmost pixel in the first row from the bottom (step S204). Here, the pixel to be checked is a pixel to be checked for a difference between the luminance in the previous frame and the luminance in the current frame among the pixels constituting the captured image. In the present embodiment, the pixel to be checked is scanned from left to right in the horizontal direction and from bottom to top in the vertical direction.

次に、CPU34は、現在のフレームにおけるチェック対象の画素の輝度を取得する(ステップS205)。具体的には、CPU34は、画像メモリ32に記憶されている撮像画像のうち現在のフレームの撮像画像を読み出し、当該撮像画像を構成する画素のうちチェック対象の画素の輝度を取得する。同様に、CPU34は、1フレーム前のフレームにおけるチェック対象の画素の輝度を取得する(ステップS206)。具体的には、CPU34は、画像メモリ32に記憶されている撮像画像のうち1フレーム前のフレームの撮像画像を読み出し、当該撮像画像を構成する画素のうちチェック対象の画素の輝度を取得する。なお、各画素がRed、Green、Blueの3色から構成される場合、CPU34は、3色の輝度をそれぞれ取得する。   Next, the CPU 34 acquires the luminance of the pixel to be checked in the current frame (step S205). Specifically, the CPU 34 reads out the captured image of the current frame among the captured images stored in the image memory 32, and acquires the luminance of the check target pixel among the pixels constituting the captured image. Similarly, the CPU 34 acquires the luminance of the pixel to be checked in the previous frame (step S206). Specifically, the CPU 34 reads a captured image of a frame one frame before the captured image stored in the image memory 32, and acquires the luminance of the pixel to be checked among the pixels constituting the captured image. In addition, when each pixel is comprised from 3 colors of Red, Green, and Blue, CPU34 acquires the brightness | luminance of 3 colors, respectively.

そして、CPU34は、輝度の差分の絶対値が所定値以上であるか否かを判別する(ステップS207)。具体的には、CPU34は、ステップS205で取得した輝度とステップS206で取得した輝度との差分の絶対値が所定値以上であるか否かを判別し、判別結果をRAM35に記憶する。所定値は、例えば、各画素の輝度が0〜255の値で示される場合に、5〜50程度の値に設定する。なお、各画素がRed、Green、Blueの3色から構成される場合、CPU34は、色毎に輝度の差分の絶対値をとり、色毎の輝度の差分の絶対値の和が所定値以上であるか否かを判別する。   Then, the CPU 34 determines whether or not the absolute value of the luminance difference is greater than or equal to a predetermined value (step S207). Specifically, the CPU 34 determines whether or not the absolute value of the difference between the luminance acquired in step S205 and the luminance acquired in step S206 is a predetermined value or more, and stores the determination result in the RAM 35. For example, when the luminance of each pixel is indicated by a value of 0 to 255, the predetermined value is set to a value of about 5 to 50. When each pixel is composed of three colors of Red, Green, and Blue, the CPU 34 takes the absolute value of the luminance difference for each color, and the sum of the absolute values of the luminance differences for each color is greater than or equal to a predetermined value. It is determined whether or not there is.

CPU34は、輝度の差分の絶対値が所定値以上であるか否かを判別する処理(ステップS207)を終了すると、チェック対象の画素が右端の画素であるか否かを判別する(ステップS208)。CPU34は、チェック対象の画素が右端の画素ではないと判別すると(ステップS208:NO)、チェック対象の画素を1つ右の画素に設定して(ステップS209)、現在のフレームにおけるチェック対象の画素の輝度を取得する処理(ステップS205)に処理を戻す。   When the CPU 34 finishes the process of determining whether or not the absolute value of the luminance difference is greater than or equal to a predetermined value (step S207), it determines whether or not the pixel to be checked is the rightmost pixel (step S208). . When the CPU 34 determines that the pixel to be checked is not the rightmost pixel (step S208: NO), the CPU 34 sets the pixel to be checked one right pixel (step S209), and the pixel to be checked in the current frame. The process returns to the process of acquiring the brightness (step S205).

一方、CPU34は、チェック対象の画素が右端の画素であると判別すると(ステップS208:YES)、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満か否かを判別する(ステップS210)。具体的には、CPU34は、チェック対象の画素を含む行から2つ下の行までの行に含まれる画素のうち、輝度の差分の絶対値が所定値以上の画素の個数が所定の割合(例えば、80%)未満であるか否かを判別する。CPU34は、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満ではないと判別すると(ステップS210:NO)、チェック対象の画素を1行上の左端の画素に設定して(ステップS211)、現在のフレームにおけるチェック対象の画素の輝度を取得する処理(ステップS205)に処理を戻す。これに対し、CPU34は、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満であると判別すると(ステップS210:YES)、チェック対象の画素を含む行を示す情報をRAM35に記憶して(ステップS212)、リヤバンパー位置特定処理を終了する。なお、チェック対象の画素を含む行は、リヤバンパー200の上端部の位置を示す行として扱われる。   On the other hand, if the CPU 34 determines that the pixel to be checked is the rightmost pixel (step S208: YES), the CPU 34 determines whether or not the proportion of pixels whose absolute value of luminance difference is equal to or greater than a predetermined value is less than the predetermined proportion. (Step S210). Specifically, the CPU 34 has a predetermined ratio (the number of pixels in which the absolute value of the luminance difference is equal to or larger than a predetermined value among the pixels included in the row from the row including the pixel to be checked to the second lower row). For example, it is determined whether it is less than 80%. If the CPU 34 determines that the ratio of the pixels whose luminance difference absolute value is equal to or larger than the predetermined value is not less than the predetermined ratio (step S210: NO), the CPU 34 sets the pixel to be checked to the leftmost pixel on one line. (Step S211), the process returns to the process of acquiring the luminance of the pixel to be checked in the current frame (Step S205). On the other hand, when the CPU 34 determines that the ratio of the pixels whose luminance difference absolute value is equal to or larger than the predetermined value is less than the predetermined ratio (step S210: YES), the RAM 35 stores information indicating the row including the pixel to be checked. (Step S212), and the rear bumper position specifying process is terminated. Note that the row including the pixel to be checked is treated as a row indicating the position of the upper end portion of the rear bumper 200.

ここで、図8を参照して、リヤバンパー位置特定処理において、撮像画像上におけるリヤバンパー200の上端部の位置がどのように特定されるかを説明する。   Here, how the position of the upper end portion of the rear bumper 200 on the captured image is specified in the rear bumper position specifying process will be described with reference to FIG.

図8において、撮像画像は、破線の枠410で囲まれた部分に示す画像である。一方、図8において、撮像対象画像は、太線の枠420で囲まれた部分である。図8において、リヤバンパー200に相当する部分をハッチング表示している。ここで、カメラ10とリヤバンパー200とは共に車両1000に固定されており、車両1000が移動中でも撮像画像上におけるリヤバンパー200の位置は変化しない。このため、リヤバンパー200に相当する部分は、現在のフレームと1フレーム前のフレームとで輝度の変化が小さい。これに対し、撮像画像上のリヤバンパー200に相当する部分以外の部分は、現在のフレームと1フレーム前のフレームとで輝度の変化が大きくなるのが一般的である。   In FIG. 8, the captured image is an image shown in a portion surrounded by a broken line frame 410. On the other hand, in FIG. 8, the imaging target image is a portion surrounded by a thick frame 420. In FIG. 8, a portion corresponding to the rear bumper 200 is hatched. Here, both the camera 10 and the rear bumper 200 are fixed to the vehicle 1000, and the position of the rear bumper 200 on the captured image does not change even when the vehicle 1000 is moving. For this reason, the portion corresponding to the rear bumper 200 has a small change in luminance between the current frame and the previous frame. On the other hand, in a portion other than the portion corresponding to the rear bumper 200 on the captured image, a change in luminance is generally large between the current frame and the previous frame.

ここで、図8において、太線の枠450で囲まれた部分は、チェック対象の画素を示す部分であり、1画素分に相当する。まず、チェック対象の画素は、ステップS204において、1番下の行(k1)の左端の画素に設定される。そして、チェック対象の画素は、ステップS209において、1つずつ右の画素にシフトされる。なお、チェック対象の画素が右端の画素である場合、チェック対象の画素は、ステップS211において、1つ上の行の左端の画素に設定される。なお、チェック対象の画素が1つ上の行の左端の画素に設定される前に、ステップS210において、チェック対象の画素が含まれる行から2行下までの行に含まれる画素について、輝度の差分の絶対値が所定値以上の画素の割合が所定の割合未満であるか否かがチェックされる。   Here, in FIG. 8, a portion surrounded by a thick frame 450 is a portion indicating a pixel to be checked, and corresponds to one pixel. First, the pixel to be checked is set to the leftmost pixel of the bottom row (k1) in step S204. Then, the pixels to be checked are shifted to the right pixel one by one in step S209. When the pixel to be checked is the rightmost pixel, the pixel to be checked is set to the leftmost pixel in the next row in step S211. In addition, before the pixel to be checked is set as the leftmost pixel in the upper row, in step S210, the luminance of pixels included in the row from the row including the pixel to be checked to the second lower row is determined. It is checked whether or not the ratio of pixels whose absolute value of the difference is greater than or equal to a predetermined value is less than the predetermined ratio.

本実施形態においては、輝度の差分の絶対値が所定値未満の画素を静止画素として、1行中における静止画素の割合をチェックするのではなく、1行中における静止画素の割合の3行分の移動平均をとった割合をチェックするのは、ノイズ除去のためである。図8において、k1〜k6までの行は静止画素の割合が100%であり、k7の行の静止画素の割合が90%であり、k8の行の静止画素の割合が80%であり、k9の行の静止画素の割合が75%であり、k10の行の静止画素の割合が70%であり、k11の行の静止画素の割合が60%であり、k12の行の静止画素の割合が25%であり、k13の行の静止画素の割合が5%であり、k14以降の行の静止画素の割合が0%である。従って、例えば、k7の右端のチェック対象の画素をチェックした後には、k5〜k7の行のそれぞれについての静止画素の割合の平均値である96.7%が80%未満であるか否かが判別される。同様に、k8の右端のチェック対象の画素をチェックした後には、k6〜k8の行のそれぞれについての静止画素の割合の平均値である90%が80%未満であるか否かが判別され、k9の右端のチェック対象の画素をチェックした後には、k7〜k9の行のそれぞれについての静止画素の割合の平均値である81.7%が80%未満であるか否かが判別され、k10の右端のチェック対象の画素をチェックした後には、k8〜k10の行のそれぞれについての静止画素の割合の平均値である75%が80%未満であるか否かが判別される。そして、静止画素の割合の平均値が80%未満であると初めて判別された行であるk9が、ステップS212において、リヤバンパー200の上端部に相当する行として記憶される。   In the present embodiment, pixels whose absolute value of luminance difference is less than a predetermined value are set as still pixels, and the ratio of still pixels in one row is not checked, but the ratio of still pixels in one row is equal to three rows. The reason for checking the ratio of the moving average of is to remove noise. In FIG. 8, in the rows from k1 to k6, the ratio of still pixels is 100%, the ratio of still pixels in the k7 row is 90%, the ratio of still pixels in the k8 row is 80%, and k9 The ratio of still pixels in row k is 75%, the ratio of still pixels in row k10 is 70%, the ratio of still pixels in row k11 is 60%, and the ratio of still pixels in row k12 is 25%, the proportion of still pixels in the row k13 is 5%, and the proportion of still pixels in the rows after k14 is 0%. Therefore, for example, after checking the pixel to be checked at the right end of k7, whether or not 96.7%, which is the average value of the ratio of still pixels for each of the rows k5 to k7, is less than 80%. Determined. Similarly, after checking the pixel to be checked at the right end of k8, it is determined whether 90%, which is the average value of the ratio of still pixels for each of the rows k6 to k8, is less than 80%. After checking the pixel to be checked at the right end of k9, it is determined whether or not 81.7% that is the average value of the ratio of still pixels for each of the rows k7 to k9 is less than 80%. After checking the rightmost pixel to be checked, it is determined whether or not 75%, which is the average value of the ratio of still pixels for each of the rows k8 to k10, is less than 80%. Then, k9, which is a row determined for the first time that the average value of the ratio of still pixels is less than 80%, is stored as a row corresponding to the upper end portion of the rear bumper 200 in step S212.

なお、行毎の静止画素の割合を求めずに、3行分の静止画素の割合を直接求めるようにしてもよい。また、1行目と2行目については、静止画素の割合が所定の割合未満であるか否かを判別する処理を実行しなくてもよいし、存在する行のみの静止画素の割合を平均して所定の割合未満であるか否かを判別するようにしてもよい。   Note that the ratio of still pixels for three rows may be directly determined without determining the ratio of still pixels for each row. In addition, for the first and second lines, it is not necessary to execute processing for determining whether or not the ratio of still pixels is less than a predetermined ratio, and the ratio of still pixels in only existing rows is averaged. Then, it may be determined whether the ratio is less than a predetermined ratio.

以下、フローチャートの説明に戻る。CPU34は、リヤバンパー位置特定処理(ステップS103)を終了すると、設定メモリ38にあらかじめ記憶されている所定空間位置定義情報を取得する(ステップS104)。上述したように、所定空間位置定義情報は、例えば、撮像画像内における車両1000の後方斜め下方の空間の位置を、撮像画像内におけるリヤバンパー200の上端部の位置を基準として定義する情報である。例えば、リヤバンパー200の上端部が撮像対象画像の下方から20%の位置になるように撮像画像から撮像対象画像を切り出す場合に、20%を示す情報を所定空間位置定義情報とすることができる。   Hereinafter, the description returns to the flowchart. When completing the rear bumper position specifying process (step S103), the CPU 34 acquires predetermined space position definition information stored in advance in the setting memory 38 (step S104). As described above, the predetermined space position definition information is information that defines, for example, the position of the space obliquely below the rear of the vehicle 1000 in the captured image with reference to the position of the upper end portion of the rear bumper 200 in the captured image. . For example, when the captured image is cut out from the captured image so that the upper end of the rear bumper 200 is positioned at 20% from below the captured image, information indicating 20% can be used as the predetermined spatial position definition information. .

CPU34は、所定空間位置定義情報の取得(ステップS104)を終了すると、ステップS103で特定したリヤバンパー200の上端部の位置と、ステップS104で取得した所定空間位置定義情報とに基づいて、撮像画像から撮像対象画像を抽出する(ステップS105)。上述したように、所定空間位置定義情報が20%である場合、図9Aに示すように、リヤバンパー200の上端部の位置が撮像対象画像の下方から20%の位置になるように、撮像画像から撮像対象画像を切り出す。   When the CPU 34 completes the acquisition of the predetermined space position definition information (step S104), the captured image is obtained based on the position of the upper end portion of the rear bumper 200 specified in step S103 and the predetermined space position definition information acquired in step S104. An image to be captured is extracted from (step S105). As described above, when the predetermined space position definition information is 20%, as shown in FIG. 9A, the captured image is such that the position of the upper end of the rear bumper 200 is 20% from the lower side of the image to be captured. The image to be captured is cut out from the image.

次に、CPU34は、ステップS105において抽出した撮像対象画像に目安線441〜443を合成して合成画像を生成する(ステップS106)。そして、CPU34は、ステップS106において生成した合成画像を示す画像信号を表示装置50に供給して、表示装置50に合成画像を表示させる(ステップS107)。図9Bに、合成画像の例を示す。CPU34は、合成画像を表示する処理(ステップS107)を終了すると、車両後方空間表示処理を終了する。   Next, the CPU 34 combines the reference lines 441 to 443 with the imaging target image extracted in step S105 to generate a combined image (step S106). And CPU34 supplies the image signal which shows the synthesized image produced | generated in step S106 to the display apparatus 50, and displays a synthesized image on the display apparatus 50 (step S107). FIG. 9B shows an example of a composite image. CPU34 complete | finishes a vehicle back space display process, after complete | finishing the process (step S107) which displays a synthesized image.

本実施形態にかかる画像処理装置30によれば、カメラ10の設置位置ならびに設置角度に垂直方向にずれがある場合においても、所望の領域の画像を適切に表示することができる。また、カメラ10の固定位置ならびに固定角度のずれに拘わらず、目安線を表示する画面上の位置を一定の位置にする。このため、ずれの量に合わせて目安線を表示する画面上の位置を再計算するなどの処理をしなくてもよい。   According to the image processing apparatus 30 according to the present embodiment, an image of a desired region can be appropriately displayed even when the installation position and the installation angle of the camera 10 are shifted in the vertical direction. In addition, the position on the screen where the reference line is displayed is set to a fixed position regardless of the fixed position and fixed angle of the camera 10. For this reason, it is not necessary to perform processing such as recalculating the position on the screen where the reference line is displayed in accordance with the amount of deviation.

(変形例)
上記実施形態においては、カメラ10により撮像される撮像画像の垂直方向の範囲を表示装置50に表示される合成画像(または、撮像対象画像)の垂直方向の範囲よりも広い範囲に設定し、撮像画像内におけるリヤバンパー200の上端部の位置に基づいて垂直方向の表示範囲を定め、撮像画像のうち当該定めた垂直方向の範囲のみを表示装置50に表示する例を示した。しかし、本発明によれば、撮像画像の水平方向の範囲を合成画像の水平方向の範囲よりも広い範囲に設定し、撮像画像内における所定の基準物の位置に基づいて水平方向の表示範囲を定め、撮像画像のうち当該定めた水平方向の範囲のみを表示装置50に表示するようにしてもよい。また、撮像画像の垂直方向の範囲を合成画像の垂直方向の範囲よりも広い範囲に設定するとともに、撮像画像の水平方向の範囲を合成画像の水平方向の範囲よりも広い範囲に設定してもよい。このように、撮像画像の範囲を合成画像の範囲よりも広くとることにより、カメラ10の設置位置ならびに設置角度にずれがある場合においても、所望の領域の画像を適切に表示することができる。
(Modification)
In the above embodiment, the vertical range of the captured image captured by the camera 10 is set to a range wider than the vertical range of the composite image (or the image to be captured) displayed on the display device 50, and the image is captured. In the example, the vertical display range is determined based on the position of the upper end of the rear bumper 200 in the image, and only the determined vertical range of the captured image is displayed on the display device 50. However, according to the present invention, the horizontal range of the captured image is set to be wider than the horizontal range of the composite image, and the horizontal display range is set based on the position of the predetermined reference object in the captured image. It is also possible to display only the determined horizontal range in the captured image on the display device 50. Also, the vertical range of the captured image may be set to a range wider than the vertical range of the composite image, and the horizontal range of the captured image may be set to a range wider than the horizontal range of the composite image. Good. As described above, by setting the range of the captured image wider than the range of the composite image, an image of a desired region can be appropriately displayed even when the installation position and the installation angle of the camera 10 are shifted.

例えば、撮像画像に基づいてエッジ検出により検出した特徴点が、撮像対象画像上において、所望の垂直方向の位置ならびに所望の水平方向の位置に表示されるように、撮像画像から撮像対象画像を抽出するように構成することができる。図10Aに示すように、撮像画像に基づいてエッジ検出によりリヤバンパー200の上端部の境界線451が検出されたとする。このとき、境界線451上の点のうち垂直方向の位置が最も下方である点が特徴点452であるものとする。   For example, the imaging target image is extracted from the captured image so that the feature points detected by edge detection based on the captured image are displayed at the desired vertical position and the desired horizontal position on the imaging target image. Can be configured to. As shown in FIG. 10A, it is assumed that a boundary line 451 at the upper end of the rear bumper 200 is detected by edge detection based on the captured image. At this time, it is assumed that the point having the lowest vertical position among the points on the boundary line 451 is the feature point 452.

ここで、設定メモリ38に、撮像対象画像上における特徴点452の位置が、垂直方向については下方から20%、水平方向については左方から50%の位置となるように定義する所定空間位置定義情報が格納されているとする。このとき、CPU34は、撮像対象画像における特徴点452の位置が、垂直方向については下方から20%、水平方向については左方から50%の位置となるように撮像画像から撮像対象画像を抽出する。   Here, a predetermined spatial position definition is defined in the setting memory 38 so that the position of the feature point 452 on the image to be captured is 20% from below in the vertical direction and 50% from the left in the horizontal direction. Assume that information is stored. At this time, the CPU 34 extracts the imaging target image from the captured image so that the position of the feature point 452 in the imaging target image is 20% from below in the vertical direction and 50% from the left in the horizontal direction. .

図10Bに、撮像画像と撮像対象画像との関係を示す。図10Bにおいて、撮像画像は破線の枠410で囲まれた部分に示す画像であり、撮像対象画像は太線の枠420で囲まれた部分に示す画像である。撮像対象画像における特徴点452の位置は、下方から20%、左方から50%の位置である。このように、撮像対象画像における特徴点452の位置が所定空間位置定義情報で定義された位置になるように、撮像画像から撮像対象画像が抽出される。なお、撮像画像と撮像対象画像の大きさは適宜調整が可能である。例えば、予測されるカメラ10の車両1000への設置位置若しくは設置角度のずれが大きいほど、撮像対象画像の大きさに対する撮像画像の大きさの割合を大きくする。   FIG. 10B shows the relationship between the captured image and the captured image. In FIG. 10B, the captured image is an image shown in a part surrounded by a broken line frame 410, and the imaging target image is an image shown in a part surrounded by a thick line frame 420. The position of the feature point 452 in the captured image is 20% from below and 50% from the left. In this manner, the imaging target image is extracted from the captured image so that the position of the feature point 452 in the imaging target image becomes a position defined by the predetermined spatial position definition information. Note that the sizes of the captured image and the captured image can be adjusted as appropriate. For example, the ratio of the size of the captured image to the size of the image to be captured is increased as the predicted displacement of the installation position or the installation angle of the camera 10 on the vehicle 1000 is larger.

本実施形態においては、撮像対象画像に幅の狭い目安線を合成することにより、車両1000からの距離(カメラ10からの距離)の目安を示す合成画像を生成した。しかし、図11に示すように、幅の広い目安線を用いて車両1000からの距離の目安を示してもよい。図11に示す例では、車両1000から50cmの位置を示す目安線461、車両1000から100cmの位置を示す目安線462、車両1000から200cmの位置を示す目安線463を示している。バンパーの取り付け精度などが良くない場合、目安線が厳密に表示されない場合がある。しかしながら、このように目安線の幅をある程度広くすることにより、ドライバーに余裕もった運転操作をさせることができる。なお、これらの各目安線の色彩や模様などを、適宜調整して表示することが可能である。典型的には、目安線により示される車両1000からの距離が近いほど、ドライバーの注意を惹くように、目立つ色彩や模様などにすることができる。例えば、目安線461を赤色、目安線462を黄色、目安線463を青色、とすることができる。また、目安線の幅を広くする場合は、背景の画像を完全に隠してしまわないように、目安線を半透明に表示するようにしてもよい。   In the present embodiment, a composite image indicating a distance from the vehicle 1000 (a distance from the camera 10) is generated by combining a narrow reference line with the image to be captured. However, as shown in FIG. 11, the standard of distance from the vehicle 1000 may be indicated using a wide standard line. In the example shown in FIG. 11, a reference line 461 indicating a position 50 cm from the vehicle 1000, a reference line 462 indicating a position 100 cm from the vehicle 1000, and a reference line 463 indicating a position 200 cm from the vehicle 1000 are shown. If the mounting accuracy of the bumper is not good, the reference line may not be displayed accurately. However, by widening the width of the reference line to some extent in this way, it is possible to allow the driver to perform a driving operation with a margin. Note that the color and pattern of each guide line can be appropriately adjusted and displayed. Typically, the closer the distance from the vehicle 1000 indicated by the reference line, the more noticeable colors and patterns can be drawn to attract the driver's attention. For example, the guide line 461 can be red, the guide line 462 can be yellow, and the guide line 463 can be blue. When the width of the reference line is increased, the reference line may be displayed semi-transparently so that the background image is not completely hidden.

本実施形態においては、撮像対象画像に目安線を合成することにより、車両1000からの距離(カメラ10からの距離)の目安を示す合成画像を生成した。しかし、車両1000からの距離の目安を示すものとして、目安線ではなく、目安となる領域を示すものを表示するようにしてもよい。図12に示す例では、車両1000から50cm付近の領域を示す領域471、車両1000から100cm付近の領域を示す領域472、車両1000から200cm付近の領域を示す領域473、が示されている。このように、車両1000からの大まかな距離の目安を示すことにより、ドライバーに余裕もった運転操作をさせることができる。なお、目安線と同様に、各領域の色彩や模様などを適宜調整して表示することができる。例えば、領域471は危険領域として赤色表示、領域472は注意領域として黄色表示、領域473は安全領域として青色表示とすることができる。   In the present embodiment, a combined image indicating a distance from the vehicle 1000 (a distance from the camera 10) is generated by combining a reference line with the image to be captured. However, as an indication of the distance from the vehicle 1000, a reference area may be displayed instead of the reference line. In the example shown in FIG. 12, a region 471 indicating a region near 50 cm from the vehicle 1000, a region 472 indicating a region near 100 cm from the vehicle 1000, and a region 473 indicating a region near 200 cm from the vehicle 1000 are shown. In this way, by indicating the rough distance from the vehicle 1000, it is possible to allow the driver to perform a driving operation with a margin. Note that, similarly to the reference line, the color and pattern of each region can be appropriately adjusted and displayed. For example, the area 471 can be displayed in red as a dangerous area, the area 472 can be displayed in yellow as a caution area, and the area 473 can be displayed in blue as a safety area.

上記実施形態では、輝度の変化が大きい画素の割合を求める際には、3行分の画素について割合を求めたが、1行分若しくは2行分の画素について割合を求めても良いし、4行以上分の画素について割合を求めても良い。また、上記実施形態では、画素毎に輝度の差分を求める例を示したが、複数の画素から構成されるブロック毎に輝度の総和を求め、ブロック毎の輝度の差分を求めることにより、基準物(静止物)を特定しても良い。また、行毎に輝度の総和を求め、行毎の輝度の差分を求めることにより、基準物を特定しても良い。   In the above embodiment, when the ratio of pixels with a large change in luminance is obtained, the ratio is obtained for pixels for three rows, but the ratio may be obtained for pixels for one row or two rows. You may obtain | require a ratio about the pixels for a line or more. Moreover, although the example which calculates | requires the difference of a brightness | luminance for every pixel was shown in the said embodiment, the reference | standard thing is calculated | required by calculating | requiring the sum total of the brightness | luminance for every block comprised from several pixels, and calculating | requiring the brightness | luminance difference for every block. (Stationary object) may be specified. Further, the reference object may be specified by obtaining the sum of luminance for each row and obtaining the difference in luminance for each row.

上記実施形態では、現在のフレームと1フレーム前のフレームとで輝度の差分を求めたが、比較するフレームは適宜変更可能である。例えば、現在のフレームと10フレーム前とで輝度の差分を求めても良い。また、数フレームにわたって継続して輝度が変化しない部分を、基準物を示す部分として特定しても良い。   In the above embodiment, the difference in luminance between the current frame and the previous frame is obtained, but the frame to be compared can be changed as appropriate. For example, a luminance difference may be obtained between the current frame and 10 frames before. In addition, a portion where the luminance does not change continuously over several frames may be specified as a portion indicating the reference object.

上記実施形態では、撮像画像から抽出された撮像対象画像に目安線などを合成した合成画像を表示する例を示した。しかし、撮像対象画像そのものを表示するようにしてもよい。   In the above-described embodiment, an example in which a composite image in which a reference line or the like is combined with an imaging target image extracted from the captured image is displayed. However, the captured image itself may be displayed.

上記実施形態ならびに変形例では、所定空間位置定義情報は、合成画像上における基準物の位置を%表示で示すものであった。しかし、所定空間位置定義情報は、例えば、合成画像上における基準物の所定の部分の位置を、下あるいは上から何行目もしくは左あるいは右から何列目であるかにより撮像対象の撮像対象画像上における位置を定義する情報であってもよい。なお、何行目もしくは何列目であるかとは、何画素目であるかと同義である。基準物は、実施形態のように基準となる線を示すものであってもよいし、変形例のように基準となる点を示すものであってもよい。   In the above embodiment and the modification, the predetermined space position definition information indicates the position of the reference object on the composite image in% display. However, the predetermined spatial position definition information includes, for example, the imaging target image of the imaging target depending on the position of the predetermined portion of the reference object on the composite image, the number of rows from the bottom or top, or the column from the left or right It may be information defining a position on the top. The number of rows or the number of columns is synonymous with the number of pixels. The reference object may indicate a reference line as in the embodiment, or may indicate a reference point as in the modification.

上記実施形態においては、撮像画像において輝度の差分が小さい部分をリヤバンパーに相当する部分として特定した。また、変形例においては、エッジ検出によりリヤバンパーの上端部を検出して、撮像画像中のリヤバンパーに相当する部分を特定する方法を示した。しかし、撮像画像中の基準物(リヤバンパー)に相当する部分を特定する方法は、これらの方法に限られない。例えば、リヤバンパーの色を示す情報をあらかじめ設定メモリ38などに記憶しておき、撮像画像中の当該色を示す画素部分をリヤバンパーに相当する部分として特定しても良い。   In the above embodiment, a portion with a small difference in brightness in the captured image is specified as a portion corresponding to the rear bumper. Further, in the modification, the method of detecting the upper end portion of the rear bumper by edge detection and specifying the portion corresponding to the rear bumper in the captured image is shown. However, the method for specifying the portion corresponding to the reference object (rear bumper) in the captured image is not limited to these methods. For example, information indicating the color of the rear bumper may be stored in advance in the setting memory 38 or the like, and a pixel portion indicating the color in the captured image may be specified as a portion corresponding to the rear bumper.

なお、本発明に係る画像処理装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、画像を入力可能なコンピュータに、上記動作を実行するためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read−Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これをコンピュータシステムにインストールすることにより、上述の処理を実行する画像処理装置を構成しても良い。   Note that the image processing apparatus according to the present invention can be realized using a normal computer system, not a dedicated system. For example, a program for performing the above operation on a computer capable of inputting an image includes a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), an MO (Magneto Optical Disk), etc. An image processing apparatus that performs the above-described processing may be configured by storing and distributing in a computer-readable recording medium and installing the recording medium in a computer system.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

本発明は、例えば、車載用の撮像装置に利用することができる。   The present invention can be used for, for example, an in-vehicle imaging device.

10 カメラ
20 照明光源
30 画像処理装置
31 A/D変換器
32 画像メモリ
33 ROM
34 CPU(特定手段、抽出手段、生成手段)
35 RAM
36 表示制御部
37 光源制御部
38 設定メモリ(記憶手段)
39 操作装置
40 センサ入力部
50 表示装置
60 車速センサ
100 画像処理システム
110 記憶部
120 特定部
130 抽出部
140 生成部
200 リヤバンパー
1000 車両
DESCRIPTION OF SYMBOLS 10 Camera 20 Illumination light source 30 Image processing apparatus 31 A / D converter 32 Image memory 33 ROM
34 CPU (identifying means, extracting means, generating means)
35 RAM
36 Display Control Unit 37 Light Source Control Unit 38 Setting Memory (Storage Unit)
39 Operating device 40 Sensor input unit 50 Display device 60 Vehicle speed sensor 100 Image processing system 110 Storage unit 120 Identification unit 130 Extraction unit 140 Generation unit 200 Rear bumper 1000 Vehicle

Claims (4)

車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段と、
前記撮像画像上における前記車両の一部の位置を特定する特定手段と、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段と、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段と、を備え
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする画像処理装置。
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part;
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
An image processing apparatus.
前記生成手段は、前記抽出手段により抽出された画像部分を前記表示装置の画面上の一定の位置に表示させるとともに当該画面上の一定の位置にガイド線を重畳表示させるための画像信号を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
The generation unit generates an image signal for displaying the image portion extracted by the extraction unit at a certain position on the screen of the display device and displaying a guide line superimposed on the certain position on the screen. ,
The image processing apparatus according to claim 1 .
記憶手段、特定手段、抽出手段、生成手段を備える画像処理装置が実行する画像処理方法であって、
前記記憶手段は、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶し、
前記画像処理方法は、
前記特定手段が、前記撮像画像上における前記車両の一部の位置を特定する特定ステップと、
前記抽出手段が、前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出ステップと、
前記生成手段が、前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成ステップと、を備え
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定ステップでは、前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus including a storage unit, an identification unit, an extraction unit, and a generation unit,
The storage means
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Store spatial location definition information,
The image processing method includes:
A specifying step in which the specifying unit specifies a position of a part of the vehicle on the captured image;
The extraction unit is configured to extract the predetermined space from the captured image based on the predetermined spatial position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. An extraction step of extracting an image portion indicating the space of
The generating unit includes a generating step of generating an image signal for causing the display device to display the image portion extracted by the extracting unit ;
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
In the specifying step, the specifying unit specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle.
An image processing method.
コンピュータを、
車両の一部を含んだ所定の空間を含む撮像空間を撮像して得られる撮像画像上における前記車両の一部の位置を基準とした前記撮像画像上における前記所定の空間の領域を定義する所定空間位置定義情報を記憶する記憶手段、
前記撮像画像上における前記車両の一部の位置を特定する特定手段、
前記記憶手段に記憶されている前記所定空間位置定義情報と前記特定手段により特定された前記撮像画像上における前記車両の一部の位置とに基づいて、前記撮像画像から前記所定の空間を示す画像部分を抽出する抽出手段、
前記抽出手段により抽出された画像部分を表示装置に表示させるための画像信号を生成する生成手段、
として機能させるプログラムであって、
前記撮像画像は、前記車両に設置された撮像装置が前記車両の移動中に前記撮像空間を撮像して得られた動画像であり、
前記特定手段は、前記動画像上における画素の輝度の変化が小さい画像部分の位置を前記車両の一部の位置として特定する、
ことを特徴とするプログラム。
Computer
A predetermined that defines an area of the predetermined space on the captured image based on a position of the part of the vehicle on a captured image obtained by capturing an imaging space including a predetermined space including a part of the vehicle Storage means for storing spatial position definition information;
A specifying means for specifying a position of a part of the vehicle on the captured image;
An image indicating the predetermined space from the captured image based on the predetermined space position definition information stored in the storage unit and a position of a part of the vehicle on the captured image specified by the specifying unit. Extraction means for extracting the part,
Generating means for generating an image signal for causing the display device to display the image portion extracted by the extracting means;
A program that functions as
The captured image is a moving image obtained by imaging the imaging space while the vehicle is moving by an imaging device installed in the vehicle,
The specifying means specifies a position of an image portion where a change in luminance of a pixel on the moving image is small as a position of a part of the vehicle;
A program characterized by that.
JP2009024232A 2009-02-04 2009-02-04 Image processing apparatus, image processing method, and program Expired - Fee Related JP5208790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009024232A JP5208790B2 (en) 2009-02-04 2009-02-04 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009024232A JP5208790B2 (en) 2009-02-04 2009-02-04 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2010183294A JP2010183294A (en) 2010-08-19
JP5208790B2 true JP5208790B2 (en) 2013-06-12

Family

ID=42764490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009024232A Expired - Fee Related JP5208790B2 (en) 2009-02-04 2009-02-04 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5208790B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6072064B2 (en) * 2012-11-08 2017-02-01 日立建機株式会社 Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP6299373B2 (en) 2014-04-18 2018-03-28 富士通株式会社 Imaging direction normality determination method, imaging direction normality determination program, and imaging direction normality determination apparatus
JP6299371B2 (en) 2014-04-18 2018-03-28 富士通株式会社 Imaging direction inclination detection method, imaging direction inclination detection program, and imaging direction inclination detection apparatus
JP6264173B2 (en) * 2014-04-18 2018-01-24 富士通株式会社 Normality determination method for imaging direction, imaging device attachment state evaluation program, and imaging device attachment state evaluation device
JP6794879B2 (en) * 2017-03-10 2020-12-02 株式会社タダノ Person detection system for work vehicles and work vehicles equipped with this

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3183284B2 (en) * 1999-01-19 2001-07-09 株式会社豊田自動織機製作所 Steering support device for reversing a vehicle
JP3820342B2 (en) * 2000-08-31 2006-09-13 株式会社日立製作所 In-vehicle imaging device
JP4793616B2 (en) * 2001-09-20 2011-10-12 日本精機株式会社 Vehicle monitoring device
JP4045862B2 (en) * 2002-06-03 2008-02-13 日産自動車株式会社 Optical axis deviation detection device for in-vehicle camera
JP2004200819A (en) * 2002-12-17 2004-07-15 Clarion Co Ltd Method of calibrating mounted camera and calibrator
JP4906628B2 (en) * 2007-08-01 2012-03-28 富士重工業株式会社 Surveillance camera correction device

Also Published As

Publication number Publication date
JP2010183294A (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP4861034B2 (en) Car camera calibration system
US8514282B2 (en) Vehicle periphery display device and method for vehicle periphery image
JP5689872B2 (en) Vehicle periphery monitoring device
JP4611899B2 (en) Camera lens dirt detection device and image display system
JP2008182652A (en) Camera posture estimation device, vehicle, and camera posture estimating method
JP2010085186A (en) Calibration device for on-vehicle camera
JP2001218197A (en) Device for displaying periphery of vehicle
US10861192B2 (en) Vehicle device, calibration result determination method, and non-transitory storage medium
JP5208790B2 (en) Image processing apparatus, image processing method, and program
JP2011151666A (en) Device, system and method for acquiring parameter, and program
JP2006157739A (en) Abnormality detecting device of image pickup apparatus
JP2008085710A (en) Driving support system
JP5505764B2 (en) On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device
JP6617733B2 (en) Vehicle display device
JP5240517B2 (en) Car camera calibration system
JP2002087160A (en) Vehicular surrounding image processing device and recording medium
JP3961969B2 (en) Vehicle periphery image processing system
JP6617734B2 (en) Vehicle display device
US8405714B2 (en) Pupil hidden state detecting apparatus and vehicle-mounted camera employing the same
JP2018113622A (en) Image processing apparatus, image processing system, and image processing method
WO2017122688A1 (en) Device for detecting abnormality of lens of onboard camera
JP4814752B2 (en) Display control device
JP2008042759A (en) Image processing apparatus
JP2011180962A (en) Drive assist device, drive assist method and program
JP4040620B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5208790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees