Nothing Special   »   [go: up one dir, main page]

JP7244215B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP7244215B2
JP7244215B2 JP2018089392A JP2018089392A JP7244215B2 JP 7244215 B2 JP7244215 B2 JP 7244215B2 JP 2018089392 A JP2018089392 A JP 2018089392A JP 2018089392 A JP2018089392 A JP 2018089392A JP 7244215 B2 JP7244215 B2 JP 7244215B2
Authority
JP
Japan
Prior art keywords
unit
blind spot
vehicle
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018089392A
Other languages
Japanese (ja)
Other versions
JP2019197270A (en
Inventor
宏典 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018089392A priority Critical patent/JP7244215B2/en
Publication of JP2019197270A publication Critical patent/JP2019197270A/en
Application granted granted Critical
Publication of JP7244215B2 publication Critical patent/JP7244215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

開示の実施形態は、物体検知装置および物体検知方法に関する。 The disclosed embodiments relate to an object detection apparatus and an object detection method.

従来、車載カメラによって撮像される車両周辺の撮像画像情報と、ミリ波レーダによる物体の検知情報とに基づいて物体を検知することにより、物体の検知精度を向上させたフュージョンセンサと呼ばれる物体検知装置がある(例えば、特許文献1参照)。 Conventionally, an object detection device called a fusion sensor improves the accuracy of object detection by detecting an object based on image information of the vehicle surroundings captured by an in-vehicle camera and object detection information by a millimeter wave radar. There is (for example, see Patent Document 1).

特開2017-47706号公報JP 2017-47706 A

しかしながら、従来の物体検知装置は、カメラの死角となる範囲を移動する物体については、検知対象外であった。実施形態の一態様は、上記に鑑みてなされたものであって、カメラの死角となる範囲を移動する物体を含めて物体を検知することができる物体検知装置および物体検知方法を提供することを目的とする。 However, conventional object detection devices do not detect objects moving in the blind spot of the camera. One aspect of the embodiments has been made in view of the above, and aims to provide an object detection device and an object detection method capable of detecting an object including an object moving in a range that is a blind spot of a camera. aim.

実施形態の一態様に係る物体検知装置は、カメラ装置とレーダ装置とを備える。前記カメラ装置は、撮像部と、検出部とを備える。撮像部は、車両の周囲における所定範囲を撮像する。検出部は、前記撮像部によって撮像される画像に基づいて前記所定範囲に存在する移動物を検出する。前記レーダ装置は、判定部を備える。判定部は、前記カメラ装置によって前記移動物が検出されない期間に、前記レーダ装置が移動物を検知した場合、前記所定範囲のうち前記カメラ装置の死角となる死角範囲に移動物が存在する可能性があると判定する。 An object detection device according to an aspect of an embodiment includes a camera device and a radar device. The camera device includes an imaging section and a detection section. The imaging unit images a predetermined range around the vehicle. The detection section detects a moving object existing within the predetermined range based on the image captured by the imaging section. The radar device includes a determination section. When the radar device detects a moving object during a period in which the moving object is not detected by the camera device, the determination unit determines the possibility that the moving object exists in a blind spot range, which is a blind spot of the camera device, within the predetermined range. It is determined that there is

実施形態の一態様に係る物体検知装置および物体検知方法は、カメラの死角となる範囲を移動する物体を含めて物体を検知することができる。 An object detection device and an object detection method according to an aspect of an embodiment can detect an object including an object moving in a blind spot of a camera.

図1は、実施形態に係る物体検知方法の説明図である。FIG. 1 is an explanatory diagram of an object detection method according to an embodiment. 図2は、実施形態に係る物体検知装置の構成の一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of the configuration of the object detection device according to the embodiment. 図3Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 3A is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図3Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 3B is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図4Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 4A is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図4Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 4B is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図5Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 5A is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図5Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 5B is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図6Aは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 6A is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図6Bは、実施形態に係る注意喚起部の動作の具体例を示す説明図である。FIG. 6B is an explanatory diagram showing a specific example of the operation of the alerting unit according to the embodiment; 図7は、実施形態に係る画像処理ECUが実行する処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of processing executed by the image processing ECU according to the embodiment. 図8は、実施形態に係るレーダECUが実行する処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of processing executed by the radar ECU according to the embodiment; 図9は、実施形態に係る注意喚起部が実行する処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of processing executed by an alerting unit according to the embodiment; 図10Aは、実施形態の変形例1に係る静止物onlyフラグの切替態様の説明図である。FIG. 10A is an explanatory diagram of a switching mode of a stationary object only flag according to Modification 1 of the embodiment. 図10Bは、実施形態の変形例2に係る静止物onlyフラグの切替態様の説明図である。FIG. 10B is an explanatory diagram of a switching mode of the stationary object only flag according to Modification 2 of the embodiment.

以下、添付図面を参照して、物体検知装置および物体検知方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。図1は、実施形態に係る物体検知方法の概要について説明する。 Hereinafter, embodiments of an object detection device and an object detection method will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. FIG. 1 illustrates an overview of an object detection method according to an embodiment.

図1は、実施形態に係る物体検知方法の説明図である。図1に示すように、実施形態に係る物体検知装置1は、車両10に搭載され、例えば、車両10の前方に存在する物体を検知する装置である。 FIG. 1 is an explanatory diagram of an object detection method according to an embodiment. As shown in FIG. 1, an object detection device 1 according to the embodiment is a device that is mounted on a vehicle 10 and detects an object that exists in front of the vehicle 10, for example.

なお、物体検知装置1は、車両10の後方や側方に設けられることで、車両10の後方や側方に存在する物体を検知することもできる。また、物体検知装置1が搭載される移動体は、車両10に限定されるものではなく、船舶、航空機、および列車等といった任意の移動体であってもよい。 It should be noted that the object detection device 1 can also detect an object existing behind or to the side of the vehicle 10 by being provided behind or to the side of the vehicle 10 . Moreover, the mobile object on which the object detection device 1 is mounted is not limited to the vehicle 10, and may be any mobile object such as a ship, an aircraft, or a train.

物体検知装置1は、カメラ装置(以下、「カメラ2」と記載する)と、レーダ装置(以下「レーダ3」と記載する)とを備え、カメラ2による物体の検知結果と、レーダ3による物体の検知結果とに基づいて物体を検知するフュージョンセンサである。 The object detection device 1 includes a camera device (hereinafter referred to as "camera 2") and a radar device (hereinafter referred to as "radar 3"). It is a fusion sensor that detects an object based on the detection result of

カメラ2は、車両前方における所定範囲(以下、「検知範囲2A」と記載する)の画像を所定周期で順次撮像し、今回撮像した画像(現フレーム画像)と、前回撮像した画像(前フレーム画像)とのフレーム間差分をとることによって移動物を検知する。 The camera 2 sequentially captures images in a predetermined range (hereinafter referred to as “detection range 2A”) in front of the vehicle at predetermined intervals, and the image captured this time (current frame image) and the image captured last time (previous frame image) ) to detect moving objects.

レーダ3は、例えば、カメラ2の検知範囲2Aと略同一の検知範囲3Aへ向け、ミリ波帯の電波を放射して物体によって反射される電波を受信し、受信する電波波に基づいて物体を検知する。 The radar 3, for example, radiates radio waves in the millimeter wave band toward a detection range 3A that is substantially the same as the detection range 2A of the camera 2, receives radio waves reflected by an object, and detects the object based on the received radio waves. detect.

そして、物体検知装置1は、カメラ2およびレーダ3という2つのセンサによる検知結果から物体の存在を総合的に判断して物体を検知する。これにより、物体検知装置1は、1つのセンサによる検知結果に基づいて物体を検知する他の物体検知装置よりも確実に物体を検知することができる。 The object detection device 1 detects the object by comprehensively judging the existence of the object from the detection results of the two sensors, the camera 2 and the radar 3 . Thereby, the object detection device 1 can detect an object more reliably than other object detection devices that detect an object based on the detection result of one sensor.

ただし、かかる物体検知装置1では、車両10の周辺環境によっては、カメラ2の死角となる範囲が発生する場合がある。例えば、図1に示すように、車両10の両脇に建物100,101があるT字路R1の手前に停止している場合、T字路R1を右左折する先がカメラ2の死角となる。 However, in such an object detection device 1 , a blind spot of the camera 2 may occur depending on the surrounding environment of the vehicle 10 . For example, as shown in FIG. 1, when the vehicle 10 is stopped in front of a T-junction R1 with buildings 100 and 101 on both sides, the blind spot of the camera 2 is where the vehicle turns right or left at the T-junction R1. .

かかる場合に、カメラ2は、建物101がなければ検知範囲2A内であるが、建物101があるために死角となるT字路R1を右折する先に、T字路R1へ向かって移動する歩行者T1が居ても、歩行者T1を検知することができない。 In such a case, the camera 2 would be within the detection range 2A if there was no building 101, but before turning right at the T-junction R1 that would be a blind spot due to the presence of the building 101, the camera 2 would walk toward the T-junction R1. Even if the person T1 is present, the pedestrian T1 cannot be detected.

これに対してレーダ3は、放射した電波Bが車両10の前方の壁102に反射して歩行者T1に当たり、歩行者T1によって反射され、再度壁102によって反射される電波を受信することがある。これにより、レーダ3は、歩行者T1の位置までは特定することはできないが、カメラ2の死角となる範囲に移動物が存在する可能性があることは検知することができる。 On the other hand, the radar 3 may receive the radiated radio wave B which is reflected by the wall 102 in front of the vehicle 10, hits the pedestrian T1, is reflected by the pedestrian T1, and is reflected again by the wall 102. . As a result, although the radar 3 cannot specify the position of the pedestrian T1, it can detect that there is a possibility that a moving object exists in the blind spot of the camera 2 .

そこで、物体検知装置1は、車両10が停止中であり、カメラ2によって移動物である歩行者が検知されない期間に、レーダ3に対する相対速度がゼロでない物体を検知した場合、カメラ2の死角となる範囲に移動物が存在する可能性があると判定する。これにより、物体検知装置1は、カメラ2の死角となる範囲を移動する物体を含めて物体を検知することができる。 Therefore, when the vehicle 10 is stopped and the camera 2 does not detect a pedestrian as a moving object, the object detection device 1 detects an object whose relative velocity to the radar 3 is not zero. It is determined that there is a possibility that a moving object exists in the range. As a result, the object detection device 1 can detect an object including an object moving in a blind spot of the camera 2 .

次に、図2を参照し、実施形態に係る物体検知装置1の構成の一例について説明する。図2は、実施形態に係る物体検知装置1の構成の一例を示す説明図である。図2に示すように、物体検知装置1は、例えば、カーナビゲーション装置5および車両制御装置6と接続される。 Next, an example of the configuration of the object detection device 1 according to the embodiment will be described with reference to FIG. 2 . FIG. 2 is an explanatory diagram showing an example of the configuration of the object detection device 1 according to the embodiment. As shown in FIG. 2, the object detection device 1 is connected to a car navigation device 5 and a vehicle control device 6, for example.

カーナビゲーション装置5は、ナビゲーション部51と、記憶部52と、表示部53とを備える。記憶部52は、地図情報54を記憶している。ナビゲーション部51は、車両10のユーザによって目的地が設定される場合に、現在地から目的地までの車両10の走行経路を地図情報に重畳させて表示部53に表示させることにより、ユーザに経路案内を行う。 The car navigation device 5 includes a navigation section 51 , a storage section 52 and a display section 53 . The storage unit 52 stores map information 54 . When the user of the vehicle 10 sets the destination, the navigation unit 51 superimposes the travel route of the vehicle 10 from the current location to the destination on the map information and displays it on the display unit 53, thereby providing route guidance to the user. I do.

車両制御装置6は、車両全体を統括制御する制御装置である。車両制御装置6は、例えば、物体検知装置1から前方に車両10の走行を妨げる物体が存在することを示す情報が入力される場合に、自動的にブレーキを作動させたり、物体を回避するように自動的に操舵したりする等の制御を行う。 The vehicle control device 6 is a control device that centrally controls the entire vehicle. For example, when information is input from the object detection device 1 indicating that there is an object in front of the vehicle 10, the vehicle control device 6 automatically applies a brake or avoids the object. control such as automatically steering the vehicle.

物体検知装置1は、カメラ2と、レーダ3と、注意喚起部4とを備える。カメラ2は、撮像部21と、画像処理ECU(Electronic Control Unit)22とを備える。撮像部21は、例えば、CMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を備え、車両10の前方における検知範囲2Aの画像を所定周期で撮像し、撮像した画像を順次画像処理ECU22へ出力する。 The object detection device 1 includes a camera 2 , a radar 3 and a warning section 4 . The camera 2 includes an imaging unit 21 and an image processing ECU (Electronic Control Unit) 22 . The image capturing unit 21 includes a solid-state image sensor such as a CMOS (Complementary Metal Oxide Semiconductor), captures an image of the detection range 2A in front of the vehicle 10 at predetermined intervals, and sequentially outputs the captured images to the image processing ECU 22. .

画像処理ECU22は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。 The image processing ECU 22 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various circuits.

画像処理ECU22は、CPUがROMに記憶されたプログラムを、RAMを作業範囲として使用して実行することにより機能する検出部23を備える。なお、検出部23は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。 The image processing ECU 22 includes a detection unit 23 that functions by executing a program stored in the ROM by the CPU using the RAM as a work range. Note that the detection unit 23 may be configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

検出部23は、撮像部21から順次入力される画像のフレーム間差分に基づいて、検知範囲2A内に存在する移動物を検出する。例えば、車両10が停止している期間に、カメラ2の検知範囲2A内に静止物しか存在せず、移動物が存在しない場合、カメラ2によって2回撮像を行うと、今回撮像された画像と前回撮像された画像とは同じ画像になる。 The detection unit 23 detects a moving object existing within the detection range 2A based on the inter-frame difference of the images sequentially input from the imaging unit 21 . For example, when the vehicle 10 is stopped, only a stationary object exists within the detection range 2A of the camera 2 and no moving object exists. It becomes the same image as the image captured last time.

このため、検出部23は、今回撮像された画像の各画素の輝度値と、前回撮像された画像の各画素の輝度値との差分(フレーム間差分)を取ると、フレーム間差分が理論上0となるので、検知範囲2A内には静止物しか存在しないと判定する。 Therefore, when the detection unit 23 obtains the difference (inter-frame difference) between the luminance value of each pixel in the image captured this time and the luminance value of each pixel in the image captured last time, the difference between frames is theoretically Since it is 0, it is determined that only a stationary object exists within the detection range 2A.

ただし、実際には、風等の外乱が影響しフレーム間差分が完全に0になることはない。このため、検出部23は、フレーム間差分が所定の閾値以下の場合に、検知範囲2A内には静止物しか存在しないと判定し、フレーム間差分が所定の閾値を超える場合に、検知範囲2A内に移動物が存在すると判定する。 However, in reality, the frame-to-frame difference does not become completely zero due to the influence of disturbances such as wind. Therefore, the detection unit 23 determines that only a stationary object exists within the detection range 2A when the inter-frame difference is equal to or less than a predetermined threshold, and determines that only a stationary object exists within the detection range 2A when the inter-frame difference exceeds the predetermined threshold. It is determined that there is a moving object inside.

かかる検出部23は、撮像部21から画像が入力される場合、まず、検知範囲2A内に静止物しか存在しないことを示す静止物onlyフラグをOFFにする。そして、検出部23は、今回入力された画像と、前回入力された画像とのフレーム間差分が所定の閾値以下の場合に、静止物onlyフラグをOFFする。 When an image is input from the imaging unit 21, the detection unit 23 first turns off the stationary object only flag indicating that only stationary objects exist within the detection range 2A. Then, when the inter-frame difference between the image input this time and the image input last time is equal to or less than a predetermined threshold value, the detection unit 23 turns off the stationary object only flag.

そして、画像処理ECU22は、画像毎にONまたはOFFの静止物onlyフラグをレーダ3へ送信する。これにより、レーダ3は、検出部23から入力される静止物onlyフラグの状態を参照することで、カメラ2によって移動物が検知されている期間か、移動物が検知されていない期間かを判定することができる。 Then, the image processing ECU 22 transmits the ON or OFF stationary object only flag to the radar 3 for each image. As a result, the radar 3 refers to the state of the stationary object only flag input from the detection unit 23 to determine whether the moving object is detected by the camera 2 or not. can do.

また、検出部23は、撮像部21から入力される画像を注意喚起部4およびカーナビゲーション装置5へ出力し、カーナビゲーション装置5による経路案内が行われていない期間に、表示部53に表示させる。なお、検出部23は、車両10に別途表示装置が搭載されている場合には、撮像部21から入力される画像を表示装置へ出力して常時表示させることもできる。 Further, the detection unit 23 outputs the image input from the imaging unit 21 to the alerting unit 4 and the car navigation device 5, and causes the display unit 53 to display the image while the car navigation device 5 is not providing route guidance. . In addition, when the vehicle 10 is separately equipped with a display device, the detection unit 23 can output the image input from the imaging unit 21 to the display device and display the image at all times.

レーダ3は、アンテナ部31と、レーダECU32とを備える。アンテナ部31は、周波数が連続的に増加または減少するミリ波帯の電波をレーダ3の検知範囲3Aへ向けて放射(送信)し、放射した電波が物体によって反射される電波を受信する。そして、アンテナ部31は、送信した電波と受信した電波をミキシングしてビート信号を生成し、生成したビート信号をレーダECU32へ出力する。 The radar 3 includes an antenna section 31 and a radar ECU 32 . The antenna unit 31 radiates (transmits) millimeter-band radio waves whose frequency continuously increases or decreases toward the detection range 3A of the radar 3, and receives radio waves reflected by objects. The antenna unit 31 mixes the transmitted radio wave and the received radio wave to generate a beat signal, and outputs the generated beat signal to the radar ECU 32 .

レーダECU32は、CPU、ROM、RAMなどを有するマイクロコンピュータや各種の回路を含む。レーダECU32は、CPUがROMに記憶されたプログラムを、RAMを作業範囲として使用して実行することにより機能する信号処理部33および認識処理部34を備える。なお、信号処理部33および認識処理部34は、ASICやFPGA等のハードウェアで構成されてもよい。 The radar ECU 32 includes a microcomputer having CPU, ROM, RAM, etc. and various circuits. The radar ECU 32 includes a signal processing section 33 and a recognition processing section 34 that function when the CPU executes a program stored in the ROM using the RAM as a work range. The signal processing unit 33 and the recognition processing unit 34 may be configured by hardware such as ASIC and FPGA.

信号処理部33は、アンテナ部31から入力されるビート信号を2次元FFT(Fast Fourier transform)し、FFTの結果からピークを抽出する。続いて、信号処理部33は、抽出したピークおよびピークの位相変化に基づいて、検知対象となるレーダ3に対する物体の角度(方位)、物体までの距離、および物体との相対速度を算出する。 The signal processing unit 33 performs two-dimensional FFT (Fast Fourier transform) on the beat signal input from the antenna unit 31, and extracts a peak from the FFT result. Subsequently, the signal processing unit 33 calculates the angle (azimuth) of the object with respect to the radar 3 to be detected, the distance to the object, and the relative speed to the object, based on the extracted peak and the phase change of the peak.

そして、信号処理部33は、算出した物体の角度、物体までの距離、および物体との相対速度を認識処理部34へ出力する。認識処理部34は、信号処理部33から入力される物体の角度、物体までの距離、および物体との相対速度に基づいて、レーダ3の検知範囲A3に存在する移動物および静止物を検知する。 Then, the signal processing unit 33 outputs the calculated angle of the object, the distance to the object, and the relative speed to the object to the recognition processing unit 34 . The recognition processing unit 34 detects moving and stationary objects existing within the detection range A3 of the radar 3 based on the angle of the object, the distance to the object, and the relative speed to the object, which are input from the signal processing unit 33. .

そして、認識処理部34は、前方に車両10の走行を妨げる物体を検知した場合に、その旨を示す情報を車両制御装置6へ出力する。車両制御装置6は、認識処理部34から前方に車両10の走行を妨げる物体が存在することを示す情報が入力される場合に、自動的にブレーキを作動させたり、物体を回避するように自動的に操舵したりする等の制御を行う。 Then, when the recognition processing unit 34 detects an object that hinders the running of the vehicle 10 ahead, the recognition processing unit 34 outputs information to that effect to the vehicle control device 6 . When the vehicle control device 6 receives information from the recognition processing unit 34 indicating that there is an object in front of the vehicle 10 that prevents the vehicle 10 from traveling, the vehicle control device 6 automatically operates the brake or avoids the object. control such as steering the vehicle.

かかる認識処理部34は、カメラ2の死角となる死角範囲に移動物が存在する可能性があるか否かを判定する判定部35を備える。判定部35は、車両10が停止中であり、且つカメラ2によって移動物が検出されない期間に、レーダ3に対する相対速度がゼロでない物体を検知した場合に、カメラ2の検知範囲2Aのうち、死角となる死角範囲に移動物が存在する可能性があると判定する。 The recognition processing unit 34 includes a determination unit 35 that determines whether or not there is a possibility that a moving object exists in the blind spot range of the camera 2 . When the determination unit 35 detects an object whose relative velocity to the radar 3 is not zero during a period in which the vehicle 10 is stopped and no moving object is detected by the camera 2, the determination unit 35 It is determined that there is a possibility that a moving object exists in the blind spot range.

かかる判定部35は、カメラ2の検出部23から静止物onlyフラグを受信する。カメラ2の検出部23は、前述したように、カメラ2の検知範囲2A内に静止物しか存在しない場合に、OFFからONにする。 The determination unit 35 receives the stationary object only flag from the detection unit 23 of the camera 2 . The detection unit 23 of the camera 2 is turned on from OFF when only a stationary object exists within the detection range 2A of the camera 2, as described above.

このため、判定部35は、カメラ2の検出部23から受信する静止物onlyフラグがONの期間がカメラ2によって移動物が検出されない期間であると判定することができる。これにより、判定部35は、車両10が停止し、検出部23から受信する静止物onlyフラグがONの期間に、信号処理部33からゼロでない相対速度が入力される場合に、カメラ2の死角となる死角範囲に移動物が存在する可能性があると判定することができる。 Therefore, the determination unit 35 can determine that the period during which the stationary object only flag received from the detection unit 23 of the camera 2 is ON is the period during which the camera 2 does not detect a moving object. As a result, when the vehicle 10 is stopped and the stationary object only flag received from the detection unit 23 is ON and a non-zero relative velocity is input from the signal processing unit 33, the determination unit 35 detects the blind spot of the camera 2. It can be determined that there is a possibility that a moving object exists in the blind spot range.

そして、判定部35は、カメラ2の死角となる死角範囲に移動物が存在する可能性があると判定した場合、その旨を示す情報を注意喚起部4へ出力する。注意喚起部4は、判定部35からカメラ2の死角となる死角範囲に移動物が存在する可能性があることを示す情報が入力される場合に、注意喚起情報を表示させる。 Then, when determining that there is a possibility that a moving object exists in the blind spot range of the camera 2 , the determining unit 35 outputs information to that effect to the alerting unit 4 . The alerting unit 4 displays alerting information when information indicating that there is a possibility that a moving object is present in the blind spot range of the camera 2 is input from the determination unit 35 .

例えば、注意喚起部4は、カーナビゲーション装置5の表示部53へ注意喚起情報を出力し、表示部53に表示されるカメラ2によって撮像された画像に注意喚起情報を重畳表示させる。これにより、物体検知装置1は、車両10の運転者に対して、目視では確認できない位置に存在する移動物に気を付けるよう注意を促すことができる。 For example, the alerting unit 4 outputs the alerting information to the display unit 53 of the car navigation device 5 and superimposes the alerting information on the image captured by the camera 2 displayed on the display unit 53 . As a result, the object detection device 1 can prompt the driver of the vehicle 10 to pay attention to moving objects that are present in positions that cannot be visually confirmed.

また、このとき、注意喚起部4は、例えば、カーナビゲーション装置5に記憶されている地図情報から判定する道路形状に基づいてカメラ2の死角範囲を推定し、カメラ2によって撮像された画像における死角範囲に対応する位置に、注意喚起情報を表示させる。 At this time, the alerting unit 4 estimates the blind spot range of the camera 2 based on the road shape determined from the map information stored in the car navigation device 5, for example, and detects the blind spot in the image captured by the camera 2. Display alert information at a position corresponding to the range.

これにより、物体検知装置1は、表示部53に表示される画像におけるカメラ2の死角範囲の位置を運転者に直感的に認識させることができる。したがって、物体検知装置1は、死角範囲から出現する移動物をいち早く運転者に発見させることができる。 Thereby, the object detection device 1 allows the driver to intuitively recognize the position of the blind spot range of the camera 2 in the image displayed on the display unit 53 . Therefore, the object detection device 1 can allow the driver to quickly find a moving object appearing from the blind spot.

また、注意喚起部4は、例えば、表示部53に表示される画像中の他の車両に起因する死角範囲を推定し、カメラ2によって撮像された画像における死角範囲に対応する位置に、注意喚起情報を表示させる。 Further, the attention calling unit 4 estimates, for example, a blind spot range caused by another vehicle in the image displayed on the display unit 53, and calls attention to a position corresponding to the blind spot range in the image captured by the camera 2. Display information.

これにより、物体検知装置1は、例えば、運転者が他の車両に気を取られ、注意を怠りがちになる他の車両によって死角となる死角範囲の位置を運転者に再確認させることができる。したがって、物体検知装置1は、死角範囲から出現する移動物をいち早く運転者に発見させることがきる。 As a result, the object detection device 1 can make the driver reconfirm the position of the blind spot range where the driver tends to be distracted by other vehicles and neglect attention due to other vehicles. . Therefore, the object detection device 1 allows the driver to quickly find a moving object appearing in the blind spot.

次に、図3A~図6Bを参照し、上記した注意喚起部4の動作の具体例について説明する。図3A~図6Bは、実施形態に係る注意喚起部4の動作の具体例を示す説明図である。 Next, with reference to FIGS. 3A to 6B, a specific example of the operation of the alerting unit 4 will be described. 3A to 6B are explanatory diagrams showing specific examples of the operation of the alerting unit 4 according to the embodiment.

図3Aに示すように、注意喚起部4は、例えば、車両10が十字路の交差点R2の手前から走行を開始する場合、地図情報54に基づいて、車両10が停止中の道路と交差する道路におけるハッチングを付した範囲が死角範囲になると推定する。 As shown in FIG. 3A, for example, when the vehicle 10 starts traveling before the intersection R2 of the crossroads, the alerting unit 4, based on the map information 54, The hatched range is assumed to be the blind spot range.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、交差点R2へ進入しようとする自転車T2や交差点R2へ向かう歩行者T3が存在する可能性がある。 At this time, if the determining unit 35 determines that there is a possibility that a moving object exists in the blind spot range, the blind spot includes, for example, a bicycle T2 attempting to enter the intersection R2 or a pedestrian T3 heading toward the intersection R2. may exist.

そこで、図3Bに示すように、注意喚起部4は、表示中の画像P1における左右の両端に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に自転車T2や歩行者T3が死角範囲から交差点R2に進入してきたとしても、自転車T2や歩行者T3を運転者にいち早く発見させることができる。 Therefore, as shown in FIG. 3B, the attention calling unit 4 superimposes the attention calling information C on both the left and right ends of the image P1 being displayed. As a result, even if the bicycle T2 or the pedestrian T3 enters the intersection R2 from the blind spot, the object detection device 1 can allow the driver to quickly find the bicycle T2 or the pedestrian T3.

また、図4Aに示すように、注意喚起部4は、例えば、車両10がT字路R3の脇道の手前から走行を開始する場合、地図情報54に基づいて、脇道におけるハッチングを付した範囲が死角範囲になると推定する。 Further, as shown in FIG. 4A , for example, when the vehicle 10 starts traveling before the side road of the T-junction R3, the hatched range of the side road is displayed based on the map information 54. It is estimated that it will be in the blind spot range.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、車両10が走行する道路を横切ろうとする小動物T4が存在する可能性がある。 At this time, if the determination unit 35 determines that there is a possibility that a moving object exists in the blind spot area, there is a possibility that, for example, a small animal T4 that is about to cross the road on which the vehicle 10 travels exists in the blind spot area. There is

そこで、図4Bに示すように、注意喚起部4は、例えば、表示中の画像P2における左端に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に小動物T4が脇道から飛び出してきたとしても、小動物T4を運転者にいち早く発見させることができる。 Therefore, as shown in FIG. 4B, the alerting unit 4 superimposes the alerting information C on the left end of the image P2 being displayed, for example. As a result, even if the small animal T4 jumps out of the side road, the object detection device 1 can allow the driver to quickly find the small animal T4.

また、図5Aに示すように、注意喚起部4は、例えば、車両10が山間部を通る見通しの悪い右カーブR4の手前から走行を開始する場合、地図情報54に基づいて、右カーブR4の出口付近にハッチングを付した範囲が死角範囲になると推定する。 Further, as shown in FIG. 5A , for example, when the vehicle 10 starts traveling in front of a right curve R4 that passes through a mountainous area and has poor visibility, the attention calling unit 4, based on the map information 54, determines the direction of the right curve R4. The hatched area near the exit is assumed to be the blind area.

このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、右カーブR4の出口付近を移動する野生動物T5が存在する可能性がある。 At this time, if the determination unit 35 determines that there is a possibility that a moving object exists in the blind spot area, there is a possibility that, for example, a wild animal T5 moving near the exit of the right curve R4 exists in the blind spot area. be.

そこで、図5Bに示すように、注意喚起部4は、例えば、表示中の画像P3における右端の法面付近に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に車両10が右カーブR4の出口に差し掛かって道路上に野生動物T5が現れたとしても、野生動物T5を運転者にいち早く発見させることができる。 Therefore, as shown in FIG. 5B, the attention calling unit 4 superimposes and displays the attention calling information C in the vicinity of the slope at the right end of the image P3 being displayed, for example. As a result, even if the vehicle 10 approaches the exit of the right curve R4 and the wild animal T5 appears on the road, the object detection device 1 allows the driver to quickly find the wild animal T5.

また、図6Aに示すように、注意喚起部4は、例えば、対向車線に他の車両T6が停止している交差点R5から車両10が右折を開始する場合、カメラ2によって撮像された画像からパターン認識によって他の車両T6を検出する。 Further, as shown in FIG. 6A, for example, when the vehicle 10 starts to turn right from an intersection R5 where another vehicle T6 is stopped in the oncoming lane, the attention calling unit 4 detects a pattern from the image captured by the camera 2. Recognition detects another vehicle T6.

かかる場合、注意喚起部4は、他の車両T6の後方にハッチングを付した範囲が死角範囲になると推定する。このとき、判定部35によって死角範囲に移動物が存在する可能性があると判定される場合、死角範囲には、例えば、ミニバイクT7が信号待ちをしている可能性がある。 In such a case, the attention calling unit 4 estimates that the hatched range behind the other vehicle T6 is the blind spot range. At this time, if the determination unit 35 determines that there is a possibility that a moving object exists in the blind spot area, there is a possibility that, for example, a mini bike T7 is waiting for a signal in the blind spot area.

そこで、図6Bに示すように、注意喚起部4は、表示中の画像P4における他の車両T6の後方位置に注意喚起情報Cを重畳表示させる。これにより、物体検知装置1は、仮に他の車両T6とすれ違った後、他の車両T6の後方からミニバイクT7が出現しても、ミニバイクT7を運転者にいち早く発見させることができる。 Therefore, as shown in FIG. 6B, the attention calling unit 4 superimposes and displays the attention calling information C at the rear position of the other vehicle T6 in the image P4 being displayed. Thus, the object detection device 1 can allow the driver to quickly find the minibike T7 even if the minibike T7 appears from behind the other vehicle T6 after passing by the other vehicle T6.

次に、図7を参照し、カメラ2が備える画像処理ECU22が実行する処理の一例について説明する。図7は、実施形態に係る画像処理ECU22が実行する処理の一例を示すフローチャートである。 Next, an example of processing executed by the image processing ECU 22 included in the camera 2 will be described with reference to FIG. FIG. 7 is a flowchart showing an example of processing executed by the image processing ECU 22 according to the embodiment.

画像処理ECU22は、撮像部21から所定周期で撮像された画像が入力される毎に、図7に示す処理を実行する。図7に示すように、画像処理ECU22は、撮像部21から画像が入力されると、まず、その画像に関する静止物onlyフラグをOFFにする(ステップS101)。 The image processing ECU 22 executes the processing shown in FIG. 7 each time an image captured in a predetermined cycle is input from the imaging section 21 . As shown in FIG. 7, when an image is input from the imaging unit 21, the image processing ECU 22 first turns off the stationary object only flag for that image (step S101).

続いて、画像処理ECU22は、自車速度が0か否かを判定する(ステップS102)。そして、画像処理ECU22は、自車速度が0でないと判定した場合(ステップS102,No)、処理をステップS107へ移す。 Subsequently, the image processing ECU 22 determines whether or not the vehicle speed is 0 (step S102). When the image processing ECU 22 determines that the vehicle speed is not 0 (step S102, No), the process proceeds to step S107.

また、画像処理ECU22は、自車速度が0であると判定した場合(ステップS102,Yes)、画像による移動物の検知が可能か否かを判定する(ステップS103)。このとき、画像処理ECU22は、例えば、夜間や荒天等で被写体の撮像が困難な場合に、画像による移動物の検知が可能でないと判定する。 When the image processing ECU 22 determines that the vehicle speed is 0 (step S102, Yes), the image processing ECU 22 determines whether or not a moving object can be detected from an image (step S103). At this time, the image processing ECU 22 determines that it is not possible to detect a moving object using an image when it is difficult to capture an image of the subject due to nighttime, stormy weather, or the like.

そして、画像処理ECU22は、画像による移動物の検知が可能でないと判定した場合(ステップS103,No)、処理をステップS107へ移す。また、画像処理ECU22は、画像による移動物の検知が可能であると判定した場合(ステップS103,Yes)、今回、撮像部21から入力された画像と、前フレームとのフレーム間差分を演算する(ステップS104)。 When the image processing ECU 22 determines that the moving object cannot be detected by the image (step S103, No), the process proceeds to step S107. When the image processing ECU 22 determines that the moving object can be detected from the image (step S103, Yes), the image processing ECU 22 calculates the frame difference between the image input from the imaging unit 21 this time and the previous frame. (Step S104).

続いて、画像処理ECU22は、演算したフレーム間差分が閾値以下であるか否かを判定し(ステップS105)、フレーム間差分が閾値以下でないと判定した場合(ステップS105,No)、処理をステップS107へ移す。 Subsequently, the image processing ECU 22 determines whether or not the calculated inter-frame difference is equal to or less than the threshold (step S105). Move to S107.

また、画像処理ECU22は、フレーム間差分が閾値以下であると判定した場合(ステップS105,Yes)、ステップS101でOFFにした静止物onlyフラグをONにする(ステップS106)。 When the image processing ECU 22 determines that the inter-frame difference is equal to or less than the threshold (step S105, Yes), the image processing ECU 22 turns on the stationary object only flag that was turned off in step S101 (step S106).

続いて、画像処理ECU22は、静止物onlyフラグをレーダ3へ送信し(ステップS107)、画像を表示部53および注意喚起部4へ出力して(ステップS108)、処理を終了する。そして、画像処理ECU22は、次の画像が撮像部21から入力されると、再度、ステップS101から処理を開始する。 Subsequently, the image processing ECU 22 transmits a stationary object only flag to the radar 3 (step S107), outputs the image to the display section 53 and the alerting section 4 (step S108), and terminates the process. Then, when the next image is input from the imaging unit 21, the image processing ECU 22 restarts the processing from step S101.

なお、画像処理ECU22は、上記したステップS101~ステップS107の処理を、次に図8を参照して説明するレーダECU32が実行するステップS201~ステップS204の処理が終了するまでの間に完了する。 Note that the image processing ECU 22 completes the processing of steps S101 to S107 described above until the processing of steps S201 to S204 executed by the radar ECU 32, which will be described next with reference to FIG. 8, ends.

次に、図8を参照し、レーダ3が備えるレーダECU32が実行する処理の一例について説明する。図8は、実施形態に係るレーダECU32が実行する処理の一例を示すフローチャートである。 Next, an example of processing executed by the radar ECU 32 included in the radar 3 will be described with reference to FIG. 8 . FIG. 8 is a flowchart showing an example of processing executed by the radar ECU 32 according to the embodiment.

ここでは、レーダECU32がカメラ2の死角となる範囲を移動する物体を検知する場合に実行する処理について説明する。なお、レーダECU32がカメラ2の死角となる範囲以外に存在する物体を検知する処理は、一般的なレーダと同様であるため、ここでは、その説明を省略する。 Here, the processing executed when the radar ECU 32 detects an object moving in the blind spot range of the camera 2 will be described. Note that the processing of the radar ECU 32 detecting an object that exists outside the blind spot of the camera 2 is the same as that of a general radar, so the description thereof will be omitted here.

レーダECU32は、アンテナ部31から所定周期でビート信号が入力される毎に、図8に示す処理を実行する。また、レーダECU32は、画像処理ECU22が図7に示すステップS101~ステップS208の処理を行う期間に、図8に示すステップS201~ステップS210の処理を並行して実行する。 The radar ECU 32 executes the process shown in FIG. 8 each time a beat signal is input from the antenna section 31 at predetermined intervals. The radar ECU 32 concurrently executes the processes of steps S201 to S210 shown in FIG. 8 while the image processing ECU 22 executes the processes of steps S101 to S208 shown in FIG.

図8に示すように、レーダECU32は、アンテナ部31からビート信号が入力されると、まず、ビート信号をFFTする(ステップS201)。ここでは、レーダECU32は、2次元FFTを行う。 As shown in FIG. 8, when a beat signal is input from the antenna unit 31, the radar ECU 32 first performs FFT on the beat signal (step S201). Here, the radar ECU 32 performs two-dimensional FFT.

続いて、レーダECU32は、2次元FFTの結果からピーク抽出を行い(ステップS202)、抽出したピークの位相変化に基づいて物体が存在する角度を算出する(ステップS203)。 Subsequently, the radar ECU 32 extracts a peak from the result of the two-dimensional FFT (step S202), and calculates the angle at which the object exists based on the phase change of the extracted peak (step S203).

その後、レーダECU32は、抽出したピークに基づいて物体の候補速度を算出する(ステップS204)。このとき、レーダECU32は、位相折り返しを考慮して複数(例えば、5個)の候補速度を算出する。 After that, the radar ECU 32 calculates candidate velocities of the object based on the extracted peaks (step S204). At this time, the radar ECU 32 calculates a plurality of (eg, five) candidate velocities in consideration of the phase folding.

その後、レーダECU32は、自車速度が0か否かを判定する(ステップS205)。そして、レーダECU32は、自車速度が0でないと判定した場合(ステップS205,No)、処理を終了する。 After that, the radar ECU 32 determines whether or not the vehicle speed is 0 (step S205). Then, when the radar ECU 32 determines that the vehicle speed is not 0 (step S205, No), the process ends.

また、レーダECU32は、自車速度が0であると判定した場合(ステップS205,Yes)、今回の処理中にカメラ2から受信した静止物onlyフラグがONか否かを判定する(ステップS206)。そして、レーダECU32は、静止物onlyフラグがONでないと判定した場合(ステップS206,No)、処理を終了する。 When the radar ECU 32 determines that the vehicle speed is 0 (step S205, Yes), the radar ECU 32 determines whether or not the stationary object only flag received from the camera 2 during the current process is ON (step S206). . Then, when the radar ECU 32 determines that the stationary object only flag is not ON (step S206, No), the process ends.

また、レーダECU32は、静止物onlyフラグがONであると判定した場合(ステップS206,Yes)、ステップS204で算出した候補速度に0[m/s]を含むか否かを判定する(ステップS207)。 When the radar ECU 32 determines that the stationary object only flag is ON (step S206, Yes), the radar ECU 32 determines whether or not the candidate speed calculated in step S204 includes 0 [m/s] (step S207). ).

そして、レーダECU32は、0[m/s]を含むと判定した場合(ステップS207,Yes)、カメラ2の検知範囲2A内に存在する全てのピークについて相対速度を0に設定し(ステップS208)、処理を終了する。 Then, when the radar ECU 32 determines that 0 [m/s] is included (step S207, Yes), the radar ECU 32 sets the relative velocity to 0 for all peaks existing within the detection range 2A of the camera 2 (step S208). , terminate the process.

また、レーダECU32は、候補速度に0[m/s]を含まないと判定した場合(ステップS207,No)移動物の情報に範囲外移動物フラグを付与する(ステップS209)。続いて、レーダECU32は、移動物の情報を車両制御装置6および注意喚起部4へ出力し(ステップS210)、処理を終了する。 When the radar ECU 32 determines that the candidate speeds do not include 0 [m/s] (step S207, No), the radar ECU 32 adds an out-of-range moving object flag to the moving object information (step S209). Subsequently, the radar ECU 32 outputs the information on the moving object to the vehicle control device 6 and the alerting unit 4 (step S210), and terminates the process.

次に、図9を参照し、実施形態に係る注意喚起部4が実行する処理の一例について説明する。図9は、実施形態に係る注意喚起部4が実行する処理の一例を示すフローチャートである。 Next, an example of processing executed by the alerting unit 4 according to the embodiment will be described with reference to FIG. 9 . FIG. 9 is a flowchart showing an example of processing executed by the alerting unit 4 according to the embodiment.

注意喚起部4は、レーダECU32から移動物の情報が入力される場合に、図9に示す処理を実行する。具体的には、図9に示すように、注意喚起部4は、レーダECU32から移動物の情報が入力される場合、移動物の情報に範囲外移動物フラグが付与されているか否かを判定する(ステップS301)。 When information on a moving object is input from the radar ECU 32, the alerting unit 4 executes the process shown in FIG. Specifically, as shown in FIG. 9, when information on a moving object is input from the radar ECU 32, the alerting unit 4 determines whether or not an out-of-range moving object flag is added to the information on the moving object. (step S301).

そして、注意喚起部4は、範囲外移動物フラグが付与されていないと判定した場合(ステップS301,No)、処理を終了する。また、注意喚起部4は、範囲外移動物フラグが付与されていると判定した場合(ステップS301,Yes)、画像中に他の車両があるか否かを、例えば、パターン認識によって判定する(ステップS302)。 Then, when it is determined that the out-of-range moving object flag is not assigned (step S301, No), the alerting unit 4 ends the process. Further, when the warning unit 4 determines that the out-of-range moving object flag is given (step S301, Yes), it determines whether or not there is another vehicle in the image by, for example, pattern recognition ( step S302).

そして、注意喚起部4は、他の車両があると判定した場合(ステップS302,Yes)、他の車両に起因するカメラ2の死角範囲を推定し(ステップS303)、処理をステップS305へ移す。 Then, when it is determined that there is another vehicle (step S302, Yes), the alerting unit 4 estimates the blind spot range of the camera 2 caused by the other vehicle (step S303), and shifts the process to step S305.

また、注意喚起部4は、画像中に他の車両がないと判定した場合(ステップS302,No)、地図情報54から判定する道路形状に基づいてカメラ2の死角範囲を推定し(ステップS304)、処理をステップS305へ移す。ステップS305において、注意喚起部4は、表示中の画像における推定したカメラ2の死角範囲に対応する位置に、注意喚起情報Cを表示させ、処理を終了する。 Further, when the warning unit 4 determines that there is no other vehicle in the image (step S302, No), it estimates the blind spot range of the camera 2 based on the road shape determined from the map information 54 (step S304). , the process proceeds to step S305. In step S305, the attention calling unit 4 displays the attention calling information C at the position corresponding to the estimated blind spot range of the camera 2 in the image being displayed, and ends the process.

なお、上述した実施形態では、車両10が停止中である場合に、判定部35がカメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行う場合について説明したが、これは一例である。 In the above-described embodiment, the case where the determination unit 35 determines whether or not there is a possibility that a moving object exists in the blind spot range of the camera 2 when the vehicle 10 is stopped has been described. This is an example.

判定部35は、車両10の走行速度が完全にゼロでなくても、実質的に物体の検知に支障がない走行速度であれば、車両10が走行中であっても、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行うことができる。 Even if the traveling speed of the vehicle 10 is not completely zero, the determination unit 35 determines the blind spot range of the camera 2 even when the vehicle 10 is traveling as long as the traveling speed does not substantially interfere with the detection of the object. It is possible to determine whether there is a possibility that a moving object exists in the

例えば、判定部35は、カメラ2によって撮像される画像のフレーム間差分から推定される車両10の走行速度よりも、車両10に対する相対速度が十分に速い速度で移動する物体がレーダ3によって検知される場合に、カメラ2の死角範囲に移動物が存在する可能性があると判定することができる。 For example, the determination unit 35 determines that the radar 3 detects an object moving at a speed sufficiently faster relative to the vehicle 10 than the traveling speed of the vehicle 10 estimated from the inter-frame difference of the image captured by the camera 2 . , it can be determined that there is a possibility that a moving object exists in the blind spot range of the camera 2 .

ただし、レーダ3は、車両10の走行速度が速過ぎると、建物等の静止物と移動物との速度差を検出することが困難になる。そこで、判定部35は、車両10の走行速度が所定速度(例えば、5km/h)以下の場合に、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を行う。 However, if the traveling speed of the vehicle 10 is too high, it becomes difficult for the radar 3 to detect the speed difference between a stationary object such as a building and a moving object. Therefore, the determination unit 35 determines whether or not there is a possibility that a moving object exists in the blind spot range of the camera 2 when the traveling speed of the vehicle 10 is equal to or lower than a predetermined speed (eg, 5 km/h).

これにより、物体検知装置1は、車両10の走行速度が所定速度以下であれば、車両10が走行中であっても、カメラ2の死角範囲に移動物が存在する可能性があるか否かの判定を正確に行うことができる。 As a result, the object detection device 1 determines whether there is a possibility that a moving object exists in the blind spot range of the camera 2 even when the vehicle 10 is traveling, if the traveling speed of the vehicle 10 is equal to or lower than a predetermined speed. can be accurately determined.

また、上述した実施形態では、カメラ2が検知範囲2A全体を対象とし、検知範囲2A内に静止物しか存在しない場合に限り、静止物onlyフラグをONにする場合について説明したが、これは一例である。 In the above-described embodiment, the camera 2 targets the entire detection range 2A, and the case where the stationary object only flag is turned ON only when only a stationary object exists within the detection range 2A has been described, but this is an example. is.

次に、図10Aおよび図10Bを参照し、カメラ2による静止物onlyフラグの切替態様の変形例1および変形例2について説明する。図10Aは、実施形態の変形例1に係る静止物onlyフラグの切替態様の説明図である。図10Bは、実施形態の変形例2に係る静止物onlyフラグの切替態様の説明図である。 Next, with reference to FIGS. 10A and 10B, modified examples 1 and 2 of the mode of switching the stationary object only flag by the camera 2 will be described. FIG. 10A is an explanatory diagram of a switching mode of a stationary object only flag according to Modification 1 of the embodiment. FIG. 10B is an explanatory diagram of a switching mode of the stationary object only flag according to Modification 2 of the embodiment.

図10Aに示すように、カメラ2は、例えば、撮像する画像Pを4つの領域P11,P12,P13,P14に分割し、各領域P11,P12,P13,P14に対して、それぞれ静止物onlyフラグを設定する構成であってもよい。 As shown in FIG. 10A, the camera 2, for example, divides an image P to be captured into four areas P11, P12, P13, and P14. may be configured to set

かかる構成のカメラ2は、例えば、3つの各領域P11,P12,P13で移動物を検出し、右端の領域P14だけ移動物を検出しない場合、右端の領域P14の静止物onlyフラグのみONとし、他の静止物onlyフラグをOFFにしてレーダ3へ送信する。 For example, when the camera 2 having such a configuration detects a moving object in each of the three areas P11, P12, and P13, and does not detect a moving object only in the rightmost area P14, only the stationary object only flag of the rightmost area P14 is turned ON, Other stationary object only flags are turned off and transmitted to the radar 3 .

これにより、レーダ3は、右端の領域P14に対応する検知範囲についてのみ、死角範囲に移動物が存在する可能性の有無を判定することになるので、処理負荷を低減することができる。 As a result, the radar 3 determines whether or not there is a possibility that a moving object exists in the blind spot range only for the detection range corresponding to the rightmost region P14, so the processing load can be reduced.

また、図10Bに示すように、カメラ2は、例えば、カメラレンズの光軸方向を0°とし、カメラレンズを中心として光軸方向から時計回りの方向を正の角度とし、反時計回りの角度として、移動物が検出されない範囲を角度でレーダ通知してもよい。 Also, as shown in FIG. 10B, the camera 2 is configured such that the optical axis direction of the camera lens is 0°, the clockwise direction from the optical axis direction around the camera lens is a positive angle, and the counterclockwise angle is , the range in which the moving object is not detected may be notified by the radar as an angle.

かかる構成のカメラ2は、例えば、-30°~-15°の範囲で移動物を検出せず、-15~0°の範囲でカメラ2の前方を横断する歩行者T8を検出し、0°~+30°の範囲で接近してくる対向車T9を検出する場合がある。 The camera 2 having such a configuration does not detect moving objects in the range of -30° to -15°, detects a pedestrian T8 crossing in front of the camera 2 in the range of -15° to 0°, and detects a pedestrian T8 crossing in front of the camera 2 in the range of -15° to 0°. An oncoming vehicle T9 approaching in the range of ~+30° may be detected.

かかる場合、カメラ2は、-30°~-15°の角度範囲にONの静止物onlyフラグを対応付け、-15~+30°という角度範囲にOFFの静止物onlyフラグを対応付けてレーダ3へ送信する。これにより、レーダ3は、-30°~-15°の角度範囲についてのみ、死角範囲に移動物が存在する可能性の有無を判定することになるので、処理負荷を低減することができる。 In this case, the camera 2 associates an ON stationary object only flag with the angle range of -30° to -15°, and an OFF stationary object only flag with the angle range of -15° to +30°. Send. As a result, the radar 3 determines whether or not there is a possibility that a moving object exists in the blind spot range only for the angle range of -30° to -15°, so the processing load can be reduced.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 物体検知装置
2 カメラ
21 撮像部
22 画像処理ECU
23 検出部
3 レーダ
31 アンテナ部
32 レーダECU
33 信号処理部
34 認識処理部
35 判定部
4 注意喚起部
1 object detection device 2 camera 21 imaging unit 22 image processing ECU
23 detection unit 3 radar 31 antenna unit 32 radar ECU
33 signal processing unit 34 recognition processing unit 35 determination unit 4 attention calling unit

Claims (4)

カメラ装置とレーダ装置とを備え、
前記カメラ装置は、
車両の周囲における所定範囲を撮像する撮像部と、
前記撮像部によって撮像される画像に基づいて前記所定範囲に存在する移動物を検出する検出部と、
を備え、
前記レーダ装置は、
前記カメラ装置によって前記移動物が検出されない期間に、前記レーダ装置が前記移動物を検知した場合、前記所定範囲のうち前記カメラ装置の死角となる死角範囲に当該検知した移動物が存在する可能性があると判定する判定部、
を備え、
前記判定部は、
前記車両の走行速度が所定速度以下の場合に、前記死角範囲に前記移動物が存在する可能性があるか否かの判定を行うように構成された、
物体検知装置。
Equipped with a camera device and a radar device,
The camera device
an imaging unit that images a predetermined range around the vehicle;
a detection unit that detects a moving object present in the predetermined range based on the image captured by the imaging unit;
with
The radar device
When the radar device detects the moving object during a period in which the moving object is not detected by the camera device, there is a possibility that the detected moving object exists in a blind spot range, which is a blind spot of the camera device, within the predetermined range. A determination unit that determines that there is
with
The determination unit is
configured to determine whether or not there is a possibility that the moving object exists in the blind spot range when the traveling speed of the vehicle is equal to or lower than a predetermined speed;
Object detection device.
前記判定部によって前記死角範囲に前記移動物が存在する可能性があると判定される場合に、表示装置によって表示中の前記画像に注意喚起情報を重畳表示させる注意喚起部、
を備える、請求項1に記載の物体検知装置。
an alerting unit that superimposes and displays alerting information on the image being displayed by a display device when the determination unit determines that the moving object may exist in the blind spot range;
The object detection device according to claim 1, comprising:
前記注意喚起部は、
地図情報から判定する道路形状に基づいて前記死角範囲を推定し、前記画像における当該死角範囲に対応する位置に前記注意喚起情報を表示させるように構成された、
請求項2に記載の物体検知装置。
The alerting unit is
estimating the blind spot range based on a road shape determined from map information, and displaying the alert information at a position corresponding to the blind spot range in the image;
The object detection device according to claim 2.
前記注意喚起部は、
前記画像中の他の車両に起因する前記死角範囲を推定し、前記画像における当該死角範囲に対応する位置に前記注意喚起情報を表示させるように構成された、
請求項2または請求項3に記載の物体検知装置。
The alerting unit is
estimating the blind spot range caused by another vehicle in the image, and displaying the alert information at a position corresponding to the blind spot range in the image;
The object detection device according to claim 2 or 3.
JP2018089392A 2018-05-07 2018-05-07 Object detection device Active JP7244215B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018089392A JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089392A JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Publications (2)

Publication Number Publication Date
JP2019197270A JP2019197270A (en) 2019-11-14
JP7244215B2 true JP7244215B2 (en) 2023-03-22

Family

ID=68538368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089392A Active JP7244215B2 (en) 2018-05-07 2018-05-07 Object detection device

Country Status (1)

Country Link
JP (1) JP7244215B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144505A (en) * 2020-03-12 2021-09-24 パナソニックIpマネジメント株式会社 Estimation device and estimation method
JP7318609B2 (en) * 2020-08-06 2023-08-01 トヨタ自動車株式会社 In-vehicle detection device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046766A (en) 2006-08-11 2008-02-28 Denso Corp Vehicle external information display device
JP2008046744A (en) 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd Approaching mobile body displaying apparatus, system, and method
JP2009193135A (en) 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
JP2011242860A (en) 2010-05-14 2011-12-01 Toyota Motor Corp Obstacle recognition apparatus
JP2013120574A (en) 2011-12-08 2013-06-17 Daimler Ag On-vehicle pedestrian alarm device
JP2016110629A (en) 2014-11-27 2016-06-20 パナソニックIpマネジメント株式会社 Object detection device and road reflecting mirror
JP2016122308A (en) 2014-12-25 2016-07-07 クラリオン株式会社 Vehicle controller

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046766A (en) 2006-08-11 2008-02-28 Denso Corp Vehicle external information display device
JP2008046744A (en) 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd Approaching mobile body displaying apparatus, system, and method
JP2009193135A (en) 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
JP2011242860A (en) 2010-05-14 2011-12-01 Toyota Motor Corp Obstacle recognition apparatus
JP2013120574A (en) 2011-12-08 2013-06-17 Daimler Ag On-vehicle pedestrian alarm device
JP2016110629A (en) 2014-11-27 2016-06-20 パナソニックIpマネジメント株式会社 Object detection device and road reflecting mirror
JP2016122308A (en) 2014-12-25 2016-07-07 クラリオン株式会社 Vehicle controller

Also Published As

Publication number Publication date
JP2019197270A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
CN110785798B (en) Traffic environment adaptive threshold
CN108932869B (en) Vehicle system, vehicle information processing method, recording medium, traffic system, infrastructure system, and information processing method
CA3001287C (en) Display assistance device and display assistance method
US8461976B2 (en) On-vehicle device and recognition support system
EP3364394B1 (en) Information processing apparatus
US9842503B2 (en) Driving support apparatus and driving support method
US20110128136A1 (en) On-vehicle device and recognition support system
WO2016181618A1 (en) Monitored area setting device and monitored area setting method
WO2012147187A1 (en) Periphery vehicle detection device
US20090132161A1 (en) Navigation device and its method
JP2008060874A (en) On-vehicle camera and stain detector for on-vehicle camera
JP7275623B2 (en) Driving support device
JP2011027457A (en) Object detecting device, information processing method and information processing system
US11479173B2 (en) Driving assistance apparatus
JP6500724B2 (en) Danger information notification system, server and computer program
JP7244215B2 (en) Object detection device
JP2009187351A (en) Obstacle detecting device and obstacle detecting method
JP2016189084A (en) Vehicle state determination device
JP6363393B2 (en) Vehicle periphery monitoring device
US20190228238A1 (en) Object detection apparatus
JP4872517B2 (en) Obstacle recognition device
JP2019021120A (en) Confluence support apparatus and confluence support method
JP2008249634A (en) Object detector
JP4644590B2 (en) Peripheral vehicle position detection device and peripheral vehicle position detection method
JP2008185554A (en) Route guidance device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211013

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150