JP6418961B2 - Obstacle detection device, moving object, obstacle detection method, and obstacle detection program - Google Patents
Obstacle detection device, moving object, obstacle detection method, and obstacle detection program Download PDFInfo
- Publication number
- JP6418961B2 JP6418961B2 JP2015014074A JP2015014074A JP6418961B2 JP 6418961 B2 JP6418961 B2 JP 6418961B2 JP 2015014074 A JP2015014074 A JP 2015014074A JP 2015014074 A JP2015014074 A JP 2015014074A JP 6418961 B2 JP6418961 B2 JP 6418961B2
- Authority
- JP
- Japan
- Prior art keywords
- rain
- detection
- obstacle
- image
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 408
- 238000000034 method Methods 0.000 claims description 116
- 238000012545 processing Methods 0.000 claims description 102
- 238000005259 measurement Methods 0.000 claims description 16
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 24
- 239000006185 dispersion Substances 0.000 description 24
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、被検知物までの距離を測定する測距センサを備えた障害物検知装置および移動体、並びに、その障害物検知方法および障害物検知プログラムに関する。 The present invention relates to an obstacle detection device and a moving body that include a distance measuring sensor that measures a distance to an object to be detected, and an obstacle detection method and an obstacle detection program thereof.
従来、走行面を自律走行するシステムでは、センサなどで障害物を検知して、動作を制御していた。例えば、自動車などの車両においては、運転者を補佐するシステムとして、障害物との接触回避を支援する車両の接触回避支援装置が開発されている(例えば、特許文献1参照。)。 Conventionally, in a system that autonomously travels on a traveling surface, an obstacle is detected by a sensor or the like to control the operation. For example, in a vehicle such as an automobile, a vehicle contact avoidance support device that supports contact avoidance with an obstacle has been developed as a system for assisting a driver (see, for example, Patent Document 1).
また、移動ロボットでは、遠隔操作によって指示した方向へ移動させ、センサによって検知した障害物との距離に基づいて、移動速度を算出させることで、障害物との接触を防止する方法が提案されている(例えば、特許文献2参照。)。 In mobile robots, a method for preventing contact with an obstacle by moving in a direction instructed by remote operation and calculating a moving speed based on a distance from the obstacle detected by a sensor has been proposed. (For example, refer to Patent Document 2).
特許文献1に記載の車両の接触回避支援装置は、前方障害物センサによって車両前方の障害物までの距離を検知しており、障害物までの距離に応じて車両の目標速度を算出し、目標速度に基づいて制動力を制御して、車速を自動制動により減速している。従って、接触回避支援装置では、運転者による車両の操作状態に応じて目標速度を補正し、運転者の自発的な接触回避操作を支援することで、運転者に違和感を与えずに、障害物との接触回避を促している。
The vehicle contact avoidance assistance device described in
また、特許文献2に記載の移動ロボットは、移動方向前方の障害物を検出する検出部を備え、障害物までの距離を算出しており、監視センタから通信によって移動する方向や速度が指示される。移動ロボットは、自律移動モードにおいて、前方の障害物を検出した際に、異常信号を監視センタに送信する。監視センタでは、管制員によって移動ロボットに対する遠隔操作が行われる。そして、移動ロボットは、遠隔操作モードにおいて、監視センタからの指示に応じて、障害物に接触する前に停止可能な走行速度で移動する。このように遠隔操作を用いた移動ロボットでは、伝送遅延による指示の遅れに対応できるように、障害物の回避を考慮した移動速度とされている。
In addition, the mobile robot described in
ところで、移動ロボットや車両などの自律走行を用いたシステムは、屋内に留まらず、屋外でも使用されており、様々な環境に対応することが求められている。屋外においては天候の変化が考慮され、降雨の際の雨粒などを障害物として誤検知してしまう問題がある。上述した特許文献1および特許文献2には、雨粒などによって障害物を誤検知することが考慮されておらず、接触を回避すべき障害物と移動を妨げない雨粒等とを区別できないという課題がある。また、雨粒などを障害物と誤検知しないように、検知結果に対してノイズなどを取り除く処理が提案されているが、このような処理を通常時に実施すると、小さい障害物などを見落とす虞がある。
By the way, a system using autonomous traveling such as a mobile robot or a vehicle is used not only indoors but also outdoors, and is required to cope with various environments. In the outdoors, changes in the weather are taken into account, and there is a problem that raindrops and the like at the time of rainfall are erroneously detected as obstacles.
本発明は、上記の課題を解決するためになされたものであり、降雨中には、雨粒を障害物として誤検知することを避けることができる障害物検知装置、移動体、障害物検知方法、および障害物検知プログラムを提供することを目的とする。 The present invention has been made in order to solve the above-described problem, and during rainfall, an obstacle detection device, a moving body, an obstacle detection method capable of avoiding erroneous detection of raindrops as an obstacle, And to provide an obstacle detection program.
本発明に係る障害物検知装置は、被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサと、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成する検知画像生成部と、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をする降雨判定部と、前記検知画像から前記孤立点を除去する雨除去処理を行う雨除去処理部と、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をする障害物判定部とを備え、前記障害物判定部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記雨除去処理部によって前記雨除去処理された検知画像に基づいて、前記障害物判定を実施することを特徴とする。 An obstacle detection device according to the present invention includes a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected; A detection image generation unit that generates a detection image indicating the presence or absence of the detection object in the detection range in which the detection wave is transmitted based on a distance measurement result of the distance measurement sensor; and the object to be detected in the detection image. A rain determining unit that determines whether or not the detection range is in a rain state based on the presence or absence of discrete points that are discretely located among the detected objects, and a rain that removes the isolated points from the detected image A rain removal processing unit that performs a removal process, and an obstacle determination unit that determines whether the detected object is an obstacle based on the detected image, and the obstacle determination unit includes: If it is determined by the rain determination unit that the rain state is present, the rain It based the processed section into the rain removing processed sensed image, which comprises carrying out the obstacle determining.
本発明に係る障害物検知装置では、前記検知範囲は、立体空間とされており、前記検知画像生成部は、前記検知画像として、立体空間とされた検知範囲に対応する3次元画像を生成し、前記降雨判定部は、前記3次元画像に対して、前記降雨判定を行う構成としてもよい。 In the obstacle detection device according to the present invention, the detection range is a three-dimensional space, and the detection image generation unit generates a three-dimensional image corresponding to the detection range that is a three-dimensional space as the detection image. The rain determination unit may perform the rain determination on the three-dimensional image.
本発明に係る障害物検知装置では、前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の分散値を算出する構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit may calculate a variance value of the detected object in the detection image at the time of the rain determination.
本発明に係る障害物検知装置では、前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の周囲との前記検知距離の差を算出する構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit may calculate a difference in the detection distance from the periphery of the detection object in the detection image at the time of the rain determination.
本発明に係る障害物検知装置では、前記検知画像生成部は、予め設定された生成周期毎に前記検知画像を周期的に生成する構成としてもよい。 In the obstacle detection device according to the present invention, the detection image generation unit may be configured to periodically generate the detection image for each preset generation cycle.
本発明に係る障害物検知装置では、前記雨除去処理部は、メディアンフィルタを用いて前記雨除去処理を行う構成としてもよい。 In the obstacle detection device according to the present invention, the rain removal processing unit may perform the rain removal processing using a median filter.
本発明に係る障害物検知装置では、前記降雨判定部は、前記検知画像と、該検知画像に対しメディアンフィルタを用いて前記孤立点を除去したメディアン処理画像とを比較して、前記降雨判定を行う構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit compares the detection image with a median-processed image obtained by removing the isolated points using a median filter with respect to the detection image, and performs the rain determination. It is good also as a structure to perform.
本発明に係る障害物検知装置では、前記降雨判定部は、それぞれ異なる生成周期において生成された2つの検知画像を比較して、前記降雨判定を行う構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit may perform the rain determination by comparing two detection images generated in different generation periods.
本発明に係る障害物検知装置では、前記降雨判定部は、複数の前記生成周期毎に前記降雨判定を行う構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit may perform the rain determination for each of the plurality of generation periods.
本発明に係る障害物検知装置では、前記降雨判定部は、複数の前記生成周期で前記降雨判定を行い、複数回連続して同じ判定をした際に、該降雨判定の結果を出力する構成としてもよい。 In the obstacle detection device according to the present invention, the rain determination unit performs the rain determination at a plurality of the generation periods, and outputs the result of the rain determination when the same determination is made a plurality of times in succession. Also good.
本発明に係る障害物検知装置では、前記雨除去処理部は、前記検知画像に対し、複数の前記生成周期毎の前記検知距離を比較して、前記孤立点を除去する構成としてもよい。 In the obstacle detection device according to the present invention, the rain removal processing unit may be configured to remove the isolated points by comparing the detection distances for each of the plurality of generation periods with respect to the detection image.
本発明に係る移動体は、本発明に係る障害物検知装置を備え、走行面を走行することを特徴とする。 A moving body according to the present invention includes the obstacle detection device according to the present invention and travels on a traveling surface.
本発明に係る移動体では、前記走行面で走行する走行速度を制御する走行制御部を備え、前記走行制御部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記走行速度を減速させる制御をする構成としてもよい。 The mobile body according to the present invention includes a travel control unit that controls a travel speed that travels on the travel surface, and the travel control unit, when the rain determination unit determines that the rain state is present, the travel speed It is good also as a structure which controls to decelerate.
本発明に係る障害物検知方法は、被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサを備えた障害物検知装置における障害物検知方法であって、検知画像生成部に、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成させる検知画像生成ステップと、降雨判定部に、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、雨除去処理部に、前記検知画像から前記孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、障害物判定部に、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をさせる障害物判定ステップとを含み、前記障害物判定ステップは、前記降雨判定ステップで前記降雨状態であると判定された場合、前記雨除去処理ステップで前記雨除去処理された検知画像に基づいて、前記障害物判定を実施することを特徴とする。 The obstacle detection method according to the present invention includes a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected. An obstacle detection method in an obstacle detection apparatus provided, wherein the presence or absence of the detection object in a detection range in which the detection wave is transmitted to a detection image generation unit based on a distance measurement result of the distance measurement sensor The detection range is generated in a rainy state based on the presence or absence of isolated points discretely located among the detected objects in the detection image. A rain determining step for determining whether there is a rain, a rain removing processing step for causing a rain removing processing unit to perform a rain removing process for removing the isolated point from the detected image, and an obstacle judging unit for detecting the detection Based on the image, the detected object An obstacle determination step for making an obstacle determination as to whether or not the object is an obstacle, and when the obstacle determination step is determined to be in the rain state in the rain determination step, the rain removal processing step includes the step The obstacle determination is performed based on the detection image subjected to the rain removal process.
本発明に係る障害物検知プログラムは、本発明に係る障害物検知方法の各ステップをコンピュータに実行させることを特徴とする。 The obstacle detection program according to the present invention causes a computer to execute each step of the obstacle detection method according to the present invention.
本発明によると、降雨中には、検知画像に雨除去処理を施すことで、障害物だけを示す検知画像とすることができ、雨粒を障害物として誤検知することを避けることができる。 According to the present invention, it is possible to obtain a detection image showing only an obstacle by performing rain removal processing on the detection image during the rain, and it is possible to avoid erroneous detection of raindrops as an obstacle.
(第1実施形態)
以下、本発明の第1実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。
(First embodiment)
Hereinafter, an obstacle detection device and a moving body according to a first embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の第1実施形態に係る移動体の外観図であって、図2は、図1に示す移動体の構成図である。 FIG. 1 is an external view of a moving body according to the first embodiment of the present invention, and FIG. 2 is a configuration diagram of the moving body shown in FIG.
本発明の第1実施形態に係る移動体1は、被検知物50に対する検知波を送波し、被検知物50からの反射波を受波して、被検知物50までの検知距離KLを測定する測距センサ11が設けられた障害物検知装置10を備え、走行面100を走行する。具体的に、移動体1は、予め設定された経路に沿って移動する四輪の車両であって、測距センサ11、駆動部20、およびCPU30を備えた構成とされている。
The moving
駆動部20は、4つの車輪とモータ等の駆動源とによって構成されている。なお、駆動部20は、これに限定されず、車輪の数を変更したり、ベルト等を用いたりしてもよく、移動体1を走行させ、適宜走行する速度を調整できる構成とされていればよい。駆動部20は、走行制御部30eによって、走行する速度や方向が制御される。
The
測距センサ11は、LIDAR(Light Detection and Ranging)を用いた光学センサであって、検知波であるレーザ光を広範囲に照射し、物体からの反射光(反射波)を受光している。それによって、測距センサ11は、被検知物50の位置や被検知物50までの距離を検知している。なお、測距センサ11の検知結果については、後述する図3Aないし図3Cを参照して、詳細に説明する。
The
CPU30は、検知画像生成部30a、降雨判定部30b、雨除去処理部30c、障害物判定部30d、および走行制御部30eを予め組み込まれたプログラムとして記憶しており、記憶したプログラムを実行することにより、後述する処理を実行する。なお、CPU30は、移動体1と障害物検知装置10とで共通に用いられている。また、図2では、省略されているが、移動体1には、測距センサ11の検知結果や、走行速度等の各種設定を記憶させるための記憶装置が設けられていてもよい。
The
図1では、雨が降っている降雨状態において、走行している移動体1を示している。測距センサ11は、移動体1の進行方向に沿って検知範囲KHが設定されており、検知範囲KH内の障害物51に加えて、雨粒52も被検知物50として検知する。
FIG. 1 shows a moving
図3Aは、検知画像生成部によって生成された第1検知画像を示す説明図であって、図3Bは、検知画像生成部によって生成された第2検知画像を示す説明図であって、図3Cは、検知画像生成部によって生成された第3検知画像を示す説明図である。 FIG. 3A is an explanatory diagram illustrating a first detection image generated by the detection image generation unit, and FIG. 3B is an explanatory diagram illustrating a second detection image generated by the detection image generation unit, and FIG. These are explanatory drawings which show the 3rd detection image produced | generated by the detection image generation part.
測距センサ11は、検知範囲KHにおける被検知物50の位置を出力する構成とされており、検知画像生成部30aは、測距センサ11の測距結果に基づいて、検知範囲KHにおける被検知物50の有無を示す検知画像(例えば、第1検知画像GZ1)を生成する。検知画像は、検知範囲KHにおける被検知物50の有無と、被検知物50の位置とを関連付けた画像とされている。本実施の形態において、検知画像は、移動体1の進行方向に対し直交する平面を示し、矩形状とされている。検知画像では、被検知物50が位置に応じた座標(画素)に反射点として配置され、被検知物50が有る画素(反射点)を「1」とし、被検知物50が無い画素を「0」として示しており、2値化された画像データとみなされる。なお、以下に示す検知画像(第1検知画像GZ1ないし第10検知画像GZ10)では、水平な方向を横方向Xとし、横方向Xに対して垂直な方向を縦方向Yとして示している。また、以下では説明の簡略化のため、被検知物50が無い画素(反射点では無い画素)を空白点と呼ぶ。
The
検知画像生成部30aは、予め設定された生成周期SC(後述する図12参照)毎に検知画像を周期的に生成する構成とされている。つまり、検知画像生成部30aは、生成周期SCとして予め設定された時間が経過するたびに、検知画像を生成している。屋外においては、時間の経過によって降雨状態が変化するため、周期的に検知画像を生成して、雨が降っているかどうかを判定している。なお、測距センサ11が検知波を送波するタイミングについては、特に限定されておらず、常に検知波を送波してもよいし、生成周期SCに応じて、定期的に送波して測距を行う構成としてもよい。以下では説明のために、生成周期SCとして設定された時間をフレームと呼ぶことがある。例えば、検知画像を生成した生成周期SCに対して2つ前の周期を、2フレーム前とのように呼ぶことがある。
The detection
図3Aは、降雨状態で雨粒52が検知された第1検知画像GZ1を示しており、反射点HK1の数は「11」である。反射点HK1は、第1検知画像GZ1内に離散的に位置しており、それぞれ独立している。つまり、降雨中には、検知範囲KH内に多数の雨粒52が存在しており、多数の雨粒52は、それぞれサイズが小さいため、1つの画素で示されている。
FIG. 3A shows a first detection image GZ1 in which raindrops 52 are detected in a rainy state, and the number of reflection points HK1 is “11”. The reflection points HK1 are discretely located in the first detection image GZ1, and are independent from each other. That is, during the rain, a large number of
図3Bは、細長い障害物51が検知された第2検知画像GZ2を示しており、反射点HK2の数は「11」である。なお、第2検知画像GZ2は、降雨状態ではないため、雨粒52による反射点は存在しない。反射点HK2は、縦方向Yに並んで位置しており、横方向Xでの座標が全て同じである。第2検知画像GZ2では、測距センサ11によって棒状の障害物51が検知されている。障害物51のようにサイズが大きい塊は、複数の連続した画素で示される。
FIG. 3B shows the second detection image GZ2 in which the
図3Cは、降雨状態で雨粒52と障害物51とが検知された第3検知画像GZ3を示しており、反射点の総数は「26」である。なお、第3検知画像GZ3に示された反射点のうち、雨粒52に対応する反射点HK3の数は「12」であって、障害物51に対応する反射点HK4は「14」である。そして、雨粒52に対応する反射点HK3は、第3検知画像GZ3内に離散的に位置しており、障害物51に対応する反射点HK4は、第3検知画像GZ3の中央に集まって位置している。なお、図3Cでは、実線で示した反射点HK3との違いを明確にするために、反射点HK4を太線で示しているが、いずれも画像データでは、「1」として扱われ、両者に違いは無い。
FIG. 3C shows a third detection image GZ3 in which raindrops 52 and
障害物判定部30dは、検知画像に基づいて、被検知物50が障害物51であるか否かの障害物判定をする。具体的には、予め反射点の数に関する障害物閾値が設定されており、障害物判定部30dは、検知画像内の反射点の数が障害物閾値を超えていると、被検知物50が障害物51であると判定する。
The
例えば、反射点閾値が「10」に設定されていた場合、第1検知画像GZ1ないし第3検知画像GZ3は、全て被検知物50が障害物51であると判定される。しかしながら、第1検知画像GZ1では、小さな雨粒52が検知されているだけであって、第2検知画像GZ2および第3検知画像GZ3と同様に、障害物51であると判定されるのは好ましくない。そこで、障害物検知装置10では、雨除去処理部30cによって、検知画像に対し雨粒52による反射点を除去して、雨を誤検知することを回避している。
For example, when the reflection point threshold is set to “10”, the first detection image GZ1 to the third detection image GZ3 are all determined that the detected
具体的に、雨除去処理部30cは、検知画像から孤立点を除去する雨除去処理を行っており、本実施の形態において、雨除去処理では、メディアンフィルタ(メディアン処理)を用いている。一般的に、メディアン処理は、各画素の値を周辺画素の中央値に置き換える処理である。これによって、確実に孤立点を検知画像から除去することができる。以下では、第1検知画像GZ1ないし第3検知画像GZ3に対して、メディアン処理を行った検知画像を参照して、メディアン処理を説明する。
Specifically, the rain
図4Aは、雨除去処理部によって雨除去処理された第4検知画像を示す説明図であって、図4Bは、雨除去処理部によって雨除去処理された第5検知画像を示す説明図である。 FIG. 4A is an explanatory diagram illustrating a fourth detection image that has been subjected to rain removal processing by the rain removal processing unit, and FIG. 4B is an explanatory diagram illustrating a fifth detection image that has been subjected to rain removal processing by the rain removal processing unit. .
図4Aは、第1検知画像GZ1および第2検知画像GZ2に対して、メディアン処理を行った第4検知画像GZ4を示しており、反射点の数は「0」である。 FIG. 4A shows a fourth detection image GZ4 obtained by performing median processing on the first detection image GZ1 and the second detection image GZ2, and the number of reflection points is “0”.
先ず、第1検知画像GZ1(図3A参照)において、反射点HK1は、それぞれ独立しており、周囲を空白点に囲まれているので、全ての反射点HK1が、空白点に置き換えられる。その結果、第1検知画像GZ1は、反射点が存在しない第4検知画像GZ4とされる。 First, in the first detection image GZ1 (see FIG. 3A), the reflection points HK1 are independent of each other and are surrounded by blank points, so that all the reflection points HK1 are replaced with blank points. As a result, the first detection image GZ1 is a fourth detection image GZ4 in which no reflection point exists.
次に、第2検知画像GZ2(図3B参照)では、反射点HK2が連続しているが、反射点HK2の周囲には、空白点が多く存在しており、メディアン処理を行うと、反射点HK2が空白点に置き換えられる。その結果、第2検知画像GZ2は、第1検知画像GZ1と同様に、反射点が存在しない第4検知画像GZ4とされる。 Next, in the second detection image GZ2 (see FIG. 3B), the reflection points HK2 are continuous, but there are many blank points around the reflection point HK2, and when the median processing is performed, the reflection point HK2 Is replaced with a blank point. As a result, the second detection image GZ2 is a fourth detection image GZ4 that does not have a reflection point, like the first detection image GZ1.
図4Bは、第3検知画像GZ3に対して、メディアン処理を行った第5検知画像GZ5を示しており、反射点HK4の数は「14」である。第3検知画像GZ3(図3C参照)では、雨粒52に対応する反射点HK3と障害物51に対応する反射点HK4とが存在していたが、雨粒52に対応する反射点HK3は、第1検知画像GZ1と同様にして、全て空白点に置き換えられる。これに対し、障害物51に対応する反射点HK4は、位置(座標)が集中しており、周囲に多くの反射点HK4が存在するため、メディアン処理を行っても、空白点に置き換えられず、反射点HK4として残る。その結果、第3検知画像GZ3は、雨粒52に対応する反射点HK3だけが除去されて、障害物51に対応する反射点HK4だけが存在する第5検知画像GZ5とされる。
FIG. 4B shows a fifth detection image GZ5 obtained by performing median processing on the third detection image GZ3, and the number of reflection points HK4 is “14”. In the third detection image GZ3 (see FIG. 3C), there is a reflection point HK3 corresponding to the
ところで、第2検知画像GZ2については、細長い障害物51を検知した画像であるため、被検知物50が障害物51であると判定されることが望ましい。しかしながら、第2検知画像GZ2は、メディアン処理が行われると、第4検知画像GZ4とされるが、第4検知画像GZ4を対象として障害物判定を行うと、反射点が存在しないため、被検知物50が障害物51であると判定されない。従って、降雨中には、雨粒52を除去するために雨除去処理を行うことが望ましいが、降雨していないときには、雨除去処理を行わないことが望ましく、状況に応じて、雨除去処理を行うか否かを選択することが望ましい。そこで、障害物検知装置10では、降雨判定部30bによって、降雨状態であるか否かを判定し、状態に応じて、雨除去処理の要否を指示している。
By the way, since the second detection image GZ2 is an image in which the
具体的に、降雨判定部30bは、検知画像内の被検知物50のうち、離散的に位置する孤立点の有無に基づいて、検知範囲KHが降雨状態であるか否かの降雨判定をしている。本実施の形態では、降雨判定の際に、検知画像における被検知物50の分散値を算出する構成とされている。
Specifically, the
例えば、第1検知画像GZ1に対して、降雨判定を行う場合、先ず、第1検知画像GZ1にメディアン処理が行われ、上述した第4検知画像GZ4(メディアン処理画像)が生成される。 For example, when performing rainfall determination on the first detection image GZ1, first, median processing is performed on the first detection image GZ1, and the above-described fourth detection image GZ4 (median processing image) is generated.
次に、第1検知画像GZ1とメディアン処理画像との差分を算出した差分画像が生成される。ここで、第4検知画像GZ4は、全て空白点であるため、第1検知画像GZ1との差分は、第1検知画像GZ1と略同じとなる。つまり、第1検知画像GZ1における差分画像は、第1検知画像GZ1に相当し、図面を省略する。 Next, a difference image in which a difference between the first detection image GZ1 and the median processed image is calculated is generated. Here, since all the fourth detection images GZ4 are blank points, the difference from the first detection image GZ1 is substantially the same as that of the first detection image GZ1. That is, the difference image in the first detection image GZ1 corresponds to the first detection image GZ1, and the drawing is omitted.
そして、差分画像に対して、横方向Xと縦方向Yとのそれぞれでの分散値が算出される。降雨判定では、予め分散値の数に関する分散閾値が設定されており、降雨判定部30bは、算出した分散値が分散閾値を超えていると、降雨状態であると判定する。なお、本実施の形態では、横方向Xでの横分散値Vxに対して、横方向Xの横分散閾値Thxが設定されており、縦方向Yでの縦分散値Vyに対して、縦方向Yの縦分散閾値Thyが設定されている。さらに、降雨判定において、「Vx>Thx」、且つ「Vy>Thy」である場合に、降雨状態であると判定される。つまり、横方向Xと縦方向Yとのいずれかの分散値が、対応する分散閾値を超えていない場合には、降雨状態ではない(通常状態である)と判定される。
Then, the variance value in each of the horizontal direction X and the vertical direction Y is calculated for the difference image. In the rain determination, a dispersion threshold regarding the number of dispersion values is set in advance, and the
第1検知画像GZ1の場合には、反射点HK1がそれぞれ独立しており、1箇所に集まらずにばらついているため、分散値は分散閾値を超えるような大きな値となる。従って、第1検知画像GZ1は、降雨状態であると判定される。 In the case of the first detection image GZ1, since the reflection points HK1 are independent of each other and vary without being collected at one place, the dispersion value becomes a large value exceeding the dispersion threshold. Therefore, it is determined that the first detection image GZ1 is in a rainy state.
上述したように、降雨判定部30bは、検知画像と、検知画像に対しメディアンフィルタを用いて孤立点を除去したメディアン処理画像とを比較して、降雨判定を行っている。従って、障害物51と雨粒52との両方が検知された場合であっても、メディアンフィルタを用いて雨粒52を抽出し、雨粒52だけを降雨判定の対象とすることができる。
As described above, the
ところで、第2検知画像GZ2に対して降雨判定を行うと、第2検知画像GZ2における差分画像は、第2検知画像GZ2と略同じとなる。そして、第2検知画像GZ2での分散値を算出した場合、反射点HK2は、縦方向Yに並んでおり、それぞれの反射点HK2で縦方向Yの座標が異なるため、縦分散値Vyは大きな値となる。これに対し、横方向Xでは、反射点HK2の座標が同じであるため、横分散値Vxが横分散閾値Thxより小さい値となる。その結果、第2検知画像GZ2は、降雨状態ではないと判定される。 By the way, when the rain detection is performed on the second detection image GZ2, the difference image in the second detection image GZ2 is substantially the same as the second detection image GZ2. When the dispersion value in the second detection image GZ2 is calculated, the reflection points HK2 are arranged in the vertical direction Y, and the vertical dispersion value Vy is large because the coordinates in the vertical direction Y are different at each reflection point HK2. Value. On the other hand, in the horizontal direction X, since the coordinates of the reflection point HK2 are the same, the lateral dispersion value Vx is smaller than the lateral dispersion threshold Thx. As a result, it is determined that the second detection image GZ2 is not in a rain state.
上述したように、分散値を算出して、反射点のばらつきを把握することで、被検知物50が離散的に位置する孤立点であるかどうかを判別することができる。
As described above, it is possible to determine whether or not the detected
次に、障害物検知装置10(移動体1)における障害物検知方法の処理フローについて、図面を参照して説明する。 Next, the processing flow of the obstacle detection method in the obstacle detection apparatus 10 (moving body 1) will be described with reference to the drawings.
図5は、本発明の第1実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。 FIG. 5 is a flowchart showing a processing flow of the obstacle detection method of the obstacle detection device according to the first embodiment of the present invention.
移動体1は、処理開始時において、予め設定された走行速度で走行面100を走行している状態とされている。
The
ステップS101では、検知画像生成部30aによって、検知画像が生成される。検知画像は、例えば、記憶装置などに一次保存しておく構成とし、複数フレームの検知画像を蓄積させてもよい。
In step S101, a detection image is generated by the detection
ステップS102では、降雨判定部30bによって、後述する降雨判定処理(図6参照)が行われる。
In step S102, a rain determination process (see FIG. 6) described later is performed by the
ステップS103では、降雨判定部30bによって、降雨状態であると判定されたかどうかが判断される。つまり、降雨判定部30bから出力された結果が、降雨状態であるか否かで判断される。その結果、降雨状態であると判定された場合(ステップS103:Yes)には、ステップS104へ進む。一方、降雨状態ではないと判定された場合(ステップS103:No)には、ステップS106へ進む。
In step S103, it is determined whether or not the
ステップS104では、走行制御部30eによって、徐行走行へ切り換えられる。つまり、走行制御部30eは、駆動部20に対し、走行速度を減速させる指示をする。走行制御部30eでは、予め徐行走行に対応する徐行速度が設定されていてもよいし、通常時の走行速度に対して、所定の数値だけ減算した走行速度としてもよい。なお、既に、徐行走行にして減速されている場合には、設定を変更する必要は無い。
In step S104, the traveling
ステップS105では、雨除去処理部30cによって、後述する雨除去処理(図7参照)が行われ、ステップS108へ進む。
In step S105, a rain removal process (see FIG. 7) described later is performed by the rain
ステップS106では、走行制御部30eによって、通常走行へ切り換えられる。つまり、移動体1の走行速度が、徐行速度のように減速されている場合には、処理開始時の走行速度へ戻す。また、通常走行とされており、初期の走行速度とされている場合には、設定を変更する必要は無い。
In step S106, the
ステップS107では、雨除去処理部30cによって、雨除去処理が停止される。つまり、前のフレームで雨除去処理を行っていた場合には、雨除去処理を停止し、ステップS101で生成した検知画像に対して、雨除去処理を行わずに出力する。
In step S107, the rain
ステップS108では、障害物判定部30dによって、障害物判定処理が行われる。障害物判定処理では、検知画像に対して障害物判定が行われるが、ステップS105で雨除去処理を行った場合には、雨除去処理された処理済画像に対して障害物判定を行う。
In step S108, the
ステップS109では、障害物判定部30dによって、障害物51があると判定されたかどうかが判断される。つまり、検知画像内の被検知物50が障害物51であるかどうかによって判断される。その結果、障害物51がないと判定された場合(ステップS109:No)には、ステップS110へ進む。一方、障害物51があると判定された場合(ステップS109:Yes)には、ステップS111へ進む。
In step S109, the
ステップS110では、検知画像生成部30aによって、次の生成周期まで待機した後、ステップS101へ戻る。つまり、障害物検知装置10は、1フレーム経過するのを待ち、ステップS101ないしステップS109に示す処理を繰り返す。なお、移動体1は、1フレーム経過する間、待機せずに走行し続けている。従って、移動体1が走行している状態で、障害物検知装置10は、周期的に障害物の検知を行っている。また、処理の途中で走行速度を変更した場合には、変更された速度を、再度変更されるまで維持する。
In step S110, the detected
ステップS111では、走行制御部30eによって、走行が停止され、処理を終了する。つまり、検知範囲KH内に障害物51があると判定された場合、移動体1は、停止して指示を待つ。
In step S111, the traveling
次に、ステップS102における降雨判定処理について、詳細に説明する。なお、本発明では、降雨判定および雨除去処理として複数の方法を用いることができる。そこで、複数の降雨判定処理および雨除去処理を区別するため、本発明の第1実施形態における降雨判定処理および雨除去処理を、降雨判定処理1および雨除去処理1と呼ぶ。
Next, the rain determination process in step S102 will be described in detail. In the present invention, a plurality of methods can be used as rain determination and rain removal processing. Therefore, in order to distinguish between a plurality of rain determination processes and rain removal processes, the rain determination process and the rain removal process in the first embodiment of the present invention are referred to as a
図6は、本発明の第1実施形態における降雨判定処理1の処理フローを示すフロー図である。
FIG. 6 is a flowchart showing a process flow of the
ステップS201では、降雨判定部30bによって、メディアン処理画像が生成される。つまり、ステップS101で生成された検知画像に対して、メディアン処理を施し、メディアン処理画像とする。
In step S201, the median processing image is generated by the
ステップS202では、降雨判定部30bによって、検知画像とメディアン処理画像とを比較した差分画像が生成される。
In step S202, the
ステップS203では、降雨判定部30bによって、差分画像の分散値が分散閾値を超えているかどうかが判断される。つまり、差分画像における横分散値Vxおよび縦分散値Vyを算出して、横分散閾値Thxおよび縦分散閾値Thyと比較する。その結果、分散値が分散閾値を超えている場合(ステップS203:Yes)には、ステップS204へ進む。一方、分散値が分散閾値を超えていない場合(ステップS203:No)には、ステップS205へ進む。
In step S203, the
なお、分散値と分散閾値とを比較する前に、差分画像における反射点の数に対して、予め設定された反射点閾値と比較して、反射点の数が反射点閾値を超えていない場合には、分散値に拘わらず、ステップS205へ進んでもよい。つまり、反射点が少ないと、分散値の精度が低くなり、実際に反射点がばらついているかどうかを判断するのが困難なためである。また、反射点が少なければ、雨が降っていたとしても、雨除去処理を要する程度の大雨では無いと推測できるためである。 When the number of reflection points does not exceed the reflection point threshold, compared to the reflection point threshold set in advance for the number of reflection points in the difference image before comparing the dispersion value and the dispersion threshold. However, the process may proceed to step S205 regardless of the variance value. That is, if the number of reflection points is small, the accuracy of the dispersion value is low, and it is difficult to determine whether the reflection points actually vary. Moreover, if there are few reflection points, even if it is raining, it can be estimated that it is not heavy rain that requires rain removal processing.
ステップS204では、降雨判定部30bによって、降雨状態であると判定され、降雨判定処理1を終了する。
In step S204, the
ステップS205では、降雨判定部30bによって、降雨状態ではないと判定され、降雨判定処理1を終了する。
In step S205, the
図7は、本発明の第1実施形態における雨除去処理1の処理フローを示すフロー図である。
FIG. 7 is a flowchart showing the process flow of the
ステップS301では、雨除去処理部30cによって、検知画像にメディアン処理をする。なお、上述した降雨判定処理(例えば、ステップS201)において、メディアン処理画像が生成されていれば、これを用いることができ、新たな画像を生成する必要は無いため、処理時間を短縮することができる。
In step S301, the rain
ステップS302では、雨除去処理部30cによって、メディアン処理した検知画像を処理済画像に指定し、処理を終了する。つまり、上述した障害物判定は、ここで指定された処理済画像に対して行われる。
In step S302, the rain
本実施の形態では、上述した処理をしており、以下では、具体例として、ステップS101で第1検知画像GZ1ないし第3検知画像GZ3が生成された場合について、それぞれ説明する。 In the present embodiment, the above-described processing is performed, and hereinafter, as specific examples, cases where the first detection image GZ1 to the third detection image GZ3 are generated in step S101 will be described.
第1検知画像GZ1が生成された場合、ステップS102の降雨判定処理では、降雨状態であると判定される(図6のステップ204)。その結果、移動体1は、徐行走行とされ、第1検知画像GZ1に対して雨除去処理(図5のステップ105)が行われる。雨除去処理の結果、第1検知画像GZ1は、反射点HK1が除去された第4検知画像GZ4とされ、第4検知画像GZ4に対して障害物判定が行われる。第4検知画像GZ4は、障害物51がないと判定されるので、ステップS110へ進む。その後、移動体1は、徐行走行した状態で、再度、検知画像が生成され、障害物51の検知が行われる。
When the first detection image GZ1 is generated, it is determined in the rain determination process in step S102 that it is in a rain state (step 204 in FIG. 6). As a result, the moving
第2検知画像GZ2が生成された場合、降雨判定処理では、降雨状態ではないと判定される(図6のステップ205)。その結果、移動体1は、通常走行とされ、雨除去処理は実施されない。障害物判定では、第2検知画像GZ2を対象とし、障害物51があると判定される(図5のステップS111)。そして、移動体1は、走行を停止する。
When the second detection image GZ2 is generated, it is determined in the rain determination process that the rain state is not present (step 205 in FIG. 6). As a result, the moving
第3検知画像GZ3が生成された場合、降雨判定処理では、降雨状態であると判定される。そして、第3検知画像GZ3は、雨除去処理がされ、障害物判定の対象が第5検知画像GZ5とされる。障害物判定では、障害物51があると判定され、移動体1を停止させる。
When the third detection image GZ3 is generated, it is determined that it is raining in the rain determination process. The third detection image GZ3 is subjected to rain removal processing, and the obstacle determination target is the fifth detection image GZ5. In the obstacle determination, it is determined that there is an
上述したように、測距センサ11の測距結果では、雨粒52と障害物51とがいずれも被検知物50とみなされてしまい、両者を区別することができない。そこで、降雨中には、検知画像に雨除去処理を施すことで、障害物51だけを示す検知画像とすることができ、雨粒52を障害物51として誤検知することを避けることができる。
As described above, in the distance measurement result of the
また、走行制御部30eは、降雨判定部30bによって降雨状態であると判定された場合、走行速度を減速させる制御をする構成とされている。従って、降雨中には、雨除去処理などによって処理に要する時間が長くなることを考慮し、移動体1を減速させることで、障害物51等に近接するまでの時間を長くして、障害物51等との衝突を回避することができる。例えば、降雨状態において、図3Bに示すような細長い障害物51が存在する場合、雨除去処理によって、障害物51が除去される可能性があるが、移動体1を減速させることで、障害物51に近接するまでに、再度、障害物判定が行われる。その結果、近接してから検知することで、検知画像内で障害物51が占める範囲が大きくなり、雨除去処理によって障害物51が除去されず、障害物51があると判定できる。
In addition, the traveling
本発明に係る障害物検知方法は、被検知物50に対する検知波を送波し、被検知物50からの反射波を受波して、被検知物50までの検知距離KLを測定する測距センサ11を備えた障害物検知装置10における障害物検知方法であって、検知画像生成部30aに、測距センサ11の測距結果に基づいて、検知波が送波された検知範囲KHにおける被検知物50の有無を示す検知画像を生成させる検知画像生成ステップと、降雨判定部30bに、検知画像内の被検知物50のうち、離散的に位置する孤立点の有無に基づいて、検知範囲KHが降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、雨除去処理部30cに、検知画像から孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、障害物判定部30dに、検知画像に基づいて、被検知物50が障害物51であるか否かの障害物判定をさせる障害物判定ステップとを含んでいる。障害物判定ステップは、降雨判定ステップで降雨状態であると判定された場合、雨除去処理ステップで雨除去処理された検知画像に基づいて、障害物判定を実施する。
The obstacle detection method according to the present invention transmits a detection wave to the detected
(第2実施形態)
次に、本発明の第2実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第2実施形態は、第1実施形態に対して、略同様の形状とされているので、外観図や構成図を省略し、第1実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Second Embodiment)
Next, an obstacle detection device and a moving body according to a second embodiment of the present invention will be described with reference to the drawings. Since the second embodiment has substantially the same shape as the first embodiment, the external view and the configuration diagram are omitted, and the components having substantially the same functions as those of the first embodiment are omitted. The same reference numerals are given and the description is omitted.
図8は、本発明の第2実施形態における検知画像生成部で生成された第6検知画像を示す説明図である。 FIG. 8 is an explanatory diagram illustrating a sixth detection image generated by the detection image generation unit according to the second embodiment of the present invention.
第2実施形態は、第1実施形態に対して、検知画像生成部30aで生成される検知画像の形式が異なる。具体的に、検知画像は、第1実施形態において、2次元で示された平面的な画像であったのに対し、第2実施形態では、3次元で示された立体的な画像とされている。つまり、検知画像生成部30aは、検知画像として、立体空間とされた検知範囲に対応する3次元画像(例えば、第6検知画像GZ6)を生成する。
The second embodiment differs from the first embodiment in the format of the detection image generated by the detection
図8は、第2実施形態において生成された第6検知画像GZ6であって、立体的な空間に反射点HK5を配置した画像とされている。第6検知画像GZ6は、横方向Xおよび縦方向Yに加えて、両者と直交する奥行方向Zが示されている。反射点HK5を配置する際には、被検知物50の検知距離KLに基づいて、奥行方向Zでの位置を決めればよい。第6検知画像GZ6は、降雨中に検知された雨粒52を反射点HK5として示しており、反射点HK5は、横方向Xおよび縦方向Yでそれぞれ離間しているのに加えて、奥行方向Zでも離間している。
FIG. 8 is the sixth detection image GZ6 generated in the second embodiment, and is an image in which the reflection point HK5 is arranged in a three-dimensional space. In the sixth detection image GZ6, in addition to the horizontal direction X and the vertical direction Y, a depth direction Z orthogonal to both is shown. When the reflection point HK5 is arranged, the position in the depth direction Z may be determined based on the detection distance KL of the
第2実施形態では、第1実施形態と同様の障害物検知方法が実施される。降雨判定では、第6検知画像GZ6に対し、横方向Xおよび縦方向Yと伴に、奥行方向Zでも分散値が算出される。算出された分散値において、横方向X、縦方向Y、および奥行方向Zのうちのいずれかで、対応する分散閾値を超えていない場合には、降雨状態ではない(通常状態である)と判定される。従って、立体空間に対して雨を検知する処理を行うことで、より確実に雨が降っているかどうかを判定することができる。つまり、複数の反射点HK5が隣接して大きな障害物51のような形状となっている場合でも、それぞれの反射点HK5までの距離を比較することで、互いに離間した位置関係であることが把握できる。
In the second embodiment, the same obstacle detection method as that in the first embodiment is implemented. In the rain determination, the variance value is calculated in the depth direction Z along with the horizontal direction X and the vertical direction Y with respect to the sixth detection image GZ6. If the calculated dispersion value does not exceed the corresponding dispersion threshold value in any one of the horizontal direction X, the vertical direction Y, and the depth direction Z, it is determined that the rain state is not present (normal state). Is done. Therefore, it is possible to determine whether or not it is raining more reliably by performing the process of detecting rain on the three-dimensional space. That is, even when a plurality of reflection points HK5 are adjacent to each other and have a shape like a
検知画像生成部30aは、第6検知画像GZ6を生成する際、3次元画像だけでなく、検知結果を平面に示した画像(例えば、第1検知画像GZ1)を生成してもよい。雨除去処理や障害物判定は、平面的な検知画像を対象として実施することで、画像処理を簡略化し、処理時間を短縮することができる。また、3次元画像を対象として、障害物判定などをした場合では、被検知物50の形状をより正確に把握できるので、判定の精度を向上させることができる。
When generating the sixth detection image GZ6, the detection
(第3実施形態)
次に、本発明の第3実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第3実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態および第2実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Third embodiment)
Next, an obstacle detection device and a moving body according to a third embodiment of the present invention will be described with reference to the drawings. Since the third embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first embodiment and the second embodiment. The description will be omitted.
図9は、本発明の第3実施形態における検知画像生成部で生成された第7検知画像を示す説明図であって、図10は、第1検知画像と第7検知画像とを比較した差分画像を示す説明図である。 FIG. 9 is an explanatory diagram illustrating a seventh detection image generated by the detection image generation unit according to the third embodiment of the present invention, and FIG. 10 illustrates a difference between the first detection image and the seventh detection image. It is explanatory drawing which shows an image.
第3実施形態は、第1実施形態に対して、降雨判定に用いられている方法が異なる。第1実施形態では、検知画像に対してメディアン処理をしたメディアン処理画像との差分を算出していたが、第3実施形態において、降雨判定部30bは、それぞれ異なる生成周期SCにおいて生成された2つの検知画像を比較して、降雨判定を行う構成とされている。
The third embodiment differs from the first embodiment in the method used for rainfall determination. In the first embodiment, the difference between the detected image and the median-processed image obtained by performing the median process is calculated. However, in the third embodiment, the
図9は、降雨状態で雨粒52が検知された第7検知画像GZ7を示しており、反射点HK6の数は「10」である。反射点HK6は、第7検知画像GZ7内に離散的に位置しており、それぞれ独立している。また、第7検知画像GZ7は、第1検知画像GZ1の1フレーム前に生成された検知画像とされている。つまり、設置された障害物51は、移動しないため、時間が経過しても位置が変わらないが、雨粒52は、時間の経過によって移動するため、検知範囲KH内での位置が変化する。そのため、第7検知画像GZ7は、第1検知画像GZ1に対して、反射点HK6(雨粒52)の配置が異なっている。なお、図9および図10では、実線で示した反射点HK1との違いを明確にするために、反射点HK6を破線で示しているが、いずれも画像データでは、「1」として扱われ、両者に違いは無い。
FIG. 9 shows a seventh detection image GZ7 in which raindrops 52 are detected in a rainy state, and the number of reflection points HK6 is “10”. The reflection points HK6 are discretely located in the seventh detection image GZ7 and are independent from each other. The seventh detection image GZ7 is a detection image generated one frame before the first detection image GZ1. That is, since the installed
図10は、第1検知画像GZ1と第7検知画像GZ7との差分を算出した第8検知画像GZ8(差分画像)を示しており、第1検知画像GZ1の反射点HK1と第7検知画像GZ7の反射点HK6とが示されている。なお、差分画像において、重複した反射点は除去される。第3実施形態において、降雨判定は、第8検知画像GZ8を対象として実施され、第8検知画像GZ8での分散値に基づいて、降雨しているかどうかが判定される。このように、生成周期SCが異なる検知画像を比較することで、時間の経過によって移動した雨粒を把握できる。また、検知画像に対する画像処理等が行われないので、小さな障害物などを除去することなく、降雨判定を行うことができる。 FIG. 10 shows an eighth detection image GZ8 (difference image) obtained by calculating the difference between the first detection image GZ1 and the seventh detection image GZ7. The reflection point HK1 of the first detection image GZ1 and the seventh detection image GZ7. The reflection point HK6 is shown. In the difference image, the overlapping reflection points are removed. In the third embodiment, the rain determination is performed on the eighth detection image GZ8, and it is determined whether it is raining based on the variance value in the eighth detection image GZ8. Thus, by comparing the detection images having different generation cycles SC, it is possible to grasp the raindrops that have moved over time. In addition, since image processing or the like is not performed on the detected image, it is possible to perform rainfall determination without removing a small obstacle or the like.
次に、第3実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第3実施形態では、第1実施形態に対して、降雨判定処理が異なっているが、その他は、同様の処理がされる。つまり、第3実施形態では、上述した図5に示す処理フローが実施され、ステップS102において、以下に示す降雨判定処理2が実施される。
Next, a processing flow of the obstacle detection method in the third embodiment will be described with reference to the drawings. In the third embodiment, the rain determination process is different from the first embodiment, but the other processes are the same. That is, in the third embodiment, the above-described process flow shown in FIG. 5 is performed, and the
図11は、本発明の第3実施形態における降雨判定処理2の処理フローを示すフロー図である。
FIG. 11 is a flowchart showing the process flow of the
ステップS401では、降雨判定部30bによって、前の生成周期で生成された検知画像が比較検知画像として指定される。つまり、1フレーム前のステップS101で生成された検知画像を比較検知画像とする。
In step S401, the
ステップS402では、降雨判定部30bによって、検知画像と比較検知画像とを比較した差分画像が生成される。つまり、第1検知画像GZ1が検知画像とされ、第7検知画像GZ7が比較検知画像とされた場合は、差分画像として第8検知画像GZ8が生成される。
In step S402, the
ステップS403ないしステップS405の処理については、上述したステップS203ないしステップS205と同様であるので、説明を省略する。 Since the processing from step S403 to step S405 is the same as that from step S203 to step S205 described above, description thereof will be omitted.
(第4実施形態)
次に、本発明の第4実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第4実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第3実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Fourth embodiment)
Next, an obstacle detection device and a moving body according to a fourth embodiment of the present invention will be described with reference to the drawings. Since the fourth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to third embodiments. The description will be omitted.
図12は、本発明の第4実施形態における生成周期と降雨判定周期との関係を示す説明図である。 FIG. 12 is an explanatory diagram showing the relationship between the generation period and the rain determination period in the fourth embodiment of the present invention.
第4実施形態は、第1実施形態に対して、降雨判定を行う周期が異なる。第1実施形態では、検知画像を生成した生成周期SC毎に降雨判定を行っていたが、第4実施形態では、複数の生成周期SC毎に降雨判定を行っている。 The fourth embodiment is different from the first embodiment in the period for performing rainfall determination. In the first embodiment, the rain determination is performed for each generation cycle SC in which the detection image is generated. In the fourth embodiment, the rain determination is performed for each of the plurality of generation cycles SC.
図12は、時間の経過に応じて、降雨判定を行うタイミングを示している。図12において、時間T1ないし時間T11は、検知画像を生成した時間を示しており、例えば、時間T1と時間T2との間隔が、1つの生成周期SC(1フレーム)に相当する。 FIG. 12 shows the timing of performing rainfall determination as time elapses. In FIG. 12, time T1 to time T11 indicate the time when the detected image is generated. For example, the interval between time T1 and time T2 corresponds to one generation cycle SC (one frame).
時間の経過に沿って説明すると、先ず、時間T1において、検知画像を生成し、降雨判定がされる。次に、時間T2および時間T3において、検知画像は生成されるが、降雨判定はされない。そして、時間T4では、検知画像を生成すると伴に、降雨判定がされる。その後、降雨判定は、時間T7および時間T10にのみ実施され、他のフレームでは実施されない。このように、検知画像が毎フレーム生成されるのに対し、降雨判定は、3フレーム毎に実施され、時間T10以降は、同様の処理が繰り返される。 Explaining along the passage of time, first, at time T1, a detection image is generated, and rainfall determination is performed. Next, at time T2 and time T3, a detection image is generated, but rain determination is not performed. Then, at time T4, the rain detection is made while the detection image is generated. Thereafter, the rain determination is performed only at time T7 and time T10, and is not performed in other frames. Thus, while the detection image is generated every frame, the rain determination is performed every three frames, and the same processing is repeated after time T10.
上述したように、降雨判定部30bは、複数の生成周期SC毎に降雨判定を行っており、降雨判定を行う間隔は、予め降雨判定周期KCとして設定されている。本実施の形態において、降雨判定周期KCは3フレームとされているが、これに限定されず、降雨判定を行う間隔は、適宜変更してもよい。このように、時間をあけて降雨判定を行うことで、降雨判定による処理時間の増加を必要最小限に抑えることができる。つまり、障害物検知装置10では、障害物51に素早く対応できるように、生成周期SCが短く設定されているが、天候の変化は、障害物51等と比較すると緩やかである。そのため、降雨判定の頻度を下げて、過剰な処理を抑制してもよい。
As described above, the
次に、第4実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第4実施形態では、第1実施形態と略同様の処理がされるので、異なる点について詳細に説明し、他の点については説明を省略する。 Next, a processing flow of the obstacle detection method in the fourth embodiment will be described with reference to the drawings. In the fourth embodiment, substantially the same processing as in the first embodiment is performed, so that different points will be described in detail, and descriptions of other points will be omitted.
図13は、本発明の第4実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。 FIG. 13: is a flowchart which shows the processing flow of the obstruction detection method of the obstruction detection apparatus concerning 4th Embodiment of this invention.
移動体1は、第1実施形態と同様に、処理開始時に走行速度で走行面100を走行している状態とされている。
Similar to the first embodiment, the moving
ステップS501では、第1実施形態と同様に、検知画像生成部30aによって、検知画像が生成される。
In step S501, similarly to the first embodiment, a detection image is generated by the detection
ステップS502では、降雨判定部30bによって、降雨判定周期KCに到達したかどうかが判断される。ここでは、前に降雨判定を実施してから、降雨判定周期KCとして設定された時間を経過したかどうかが判断される。その結果、降雨判定周期KCに到達した場合(ステップS502:Yes)には、ステップS503へ進む。一方、降雨判定周期KCに到達していない場合(ステップS502:No)には、ステップS509へ進む。
In step S502, the
ステップS503ないしステップS512の処理については、上述したステップS102ないしステップS111と同様とされているので、具体的な説明は省略する。つまり、降雨判定周期KCに到達した場合には、ステップS102に相当するステップS503において、降雨判定処理が実施される。一方、降雨判定周期KCに到達していない場合には、ステップS108に相当するステップS509において、障害物判定処理が実施される。従って、降雨判定周期KCに到達したかどうかによって、降雨判定の要否が判断される。なお、ステップS503の降雨判定処理では、図6に示す降雨判定処理1を適用してもよいし、図11に示す降雨判定処理2を適用してもよい。
The processing from step S503 to step S512 is the same as that from step S102 to step S111 described above, and a specific description thereof will be omitted. That is, when the rainfall determination period KC is reached, the rain determination process is performed in step S503 corresponding to step S102. On the other hand, if the rainfall determination period KC has not been reached, an obstacle determination process is performed in step S509 corresponding to step S108. Therefore, whether or not the rain determination is necessary is determined depending on whether or not the rain determination cycle KC has been reached. In the rain determination process in step S503, the
(第5実施形態)
次に、本発明の第5実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第5実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第4実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Fifth embodiment)
Next, an obstacle detection device and a moving body according to a fifth embodiment of the present invention will be described with reference to the drawings. Since the fifth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the components that have substantially the same functions as those of the first to fourth embodiments are the same. The description will be omitted.
図14は、本発明の第5実施形態における降雨判定の繰り返しと判定結果の出力との関係を示す説明図である。 FIG. 14 is an explanatory diagram showing a relationship between repetition of rainfall determination and output of determination results in the fifth embodiment of the present invention.
第5実施形態は、第4実施形態に対して、降雨判定を繰り返してから判定結果を出力する点で異なる。第4実施形態では、降雨判定を行った判定結果を直ぐに出力していたが、第5実施形態では、同じ判定結果が連続した際に、判定結果を出力している。 The fifth embodiment is different from the fourth embodiment in that the determination result is output after the rain determination is repeated. In the fourth embodiment, the determination result of the rain determination is immediately output. In the fifth embodiment, the determination result is output when the same determination result is continued.
図14は、図12と同様に、時間の経過に応じて、降雨判定を行うタイミングを示している。図14では、図12と同じように、3フレーム毎に降雨判定が行われており、時間T1、時間T4、時間T7、および時間T10で降雨判定が行われている。降雨判定の結果、時間T1では、降雨していないと判定され、時間T4、時間T7、および時間T10では、降雨していると判定されている。本実施の形態では、同じ判定が3回連続した際に、判定結果を出力する構成とされており、時間T10において、降雨状態であるとの判定結果が出力される。なお、具体的な処理については、図15および図16に示す処理フローと併せて説明する。 FIG. 14 shows the timing for performing the rain determination as time elapses, as in FIG. In FIG. 14, as in FIG. 12, the rain determination is performed every three frames, and the rain determination is performed at time T <b> 1, time T <b> 4, time T <b> 7, and time T <b> 10. As a result of the rain determination, it is determined that it is not raining at time T1, and it is determined that it is raining at time T4, time T7, and time T10. In the present embodiment, the determination result is output when the same determination is repeated three times. At time T10, the determination result indicating that it is in a rainy state is output. Specific processing will be described in conjunction with the processing flows shown in FIGS. 15 and 16.
次に、第5実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第5実施形態では、第4実施形態と略同様の処理がされるので、異なる点について詳細に説明し、他の点については説明を省略する。 Next, a processing flow of the obstacle detection method in the fifth embodiment will be described with reference to the drawings. In 5th Embodiment, since the process substantially the same as 4th Embodiment is performed, a different point is demonstrated in detail and description is abbreviate | omitted about another point.
図15は、本発明の第5実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図であって、図16は、本発明の第5実施形態における連続判定処理の処理フローを示すフロー図である。 FIG. 15 is a flowchart showing a process flow of the obstacle detection method of the obstacle detection apparatus according to the fifth embodiment of the present invention, and FIG. 16 is a process of the continuous determination process in the fifth embodiment of the present invention. It is a flowchart which shows a flow.
ステップS601ないしステップS603の処理は、上述したステップS501ないしステップS503と同様とされており、ステップS605ないしステップS613の処理は、上述したステップS504ないしステップS512と同様とされており、具体的な説明は省略する。つまり、第5実施形態は、第4実施形態に対し、ステップS603の後、ステップS604として図16に示す連続判定処理を実施する点で異なる。そこで、図16を参照して、連続判定処理について説明する。 Steps S601 to S603 are the same as steps S501 to S503 described above, and steps S605 to S613 are similar to steps S504 to S512 described above. Is omitted. That is, the fifth embodiment is different from the fourth embodiment in that the continuous determination process shown in FIG. 16 is performed as step S604 after step S603. Therefore, the continuous determination process will be described with reference to FIG.
ステップS701では、降雨判定部30bによって、降雨判定処理(ステップS603)での判定結果が、前回の降雨判定処理での判定結果と同じかどうかが判断される。例えば、図14の時間T4での降雨判定であれば、時間T1での降雨判定に対して、判定結果を比較する。その結果、判定結果が前回と同じである場合(ステップS701:Yes)には、ステップS702へ進む。一方、判定結果が前回と異なる場合(ステップS701:No)には、ステップS703へ進む。
In step S701, the
ステップS702では、降雨判定部30bによって、判定回数を1回増加する。本実施の形態では、降雨判定の結果を判定回数として数えて記憶する構成とされている。例えば、判定回数が1回として記憶されている場合には、ステップS702を経ることで、2回として記憶される。
In step S702, the number of determinations is increased by one by the
ステップS703では、降雨判定部30bによって、判定回数をリセットする。ここでは、記憶されている判定回数に拘わらず、判定回数を1回として記憶させる。
In step S703, the number of determinations is reset by the
ステップS704では、降雨判定部30bによって、判定回数が規定値を超えたかどうかが判断される。規定値は、予め3回に設定されており、判定回数が3回となったとき、規定値を超えたと判断される。その結果、判定回数が規定値を超えた場合(ステップS704:Yes)には、ステップS705へ進む。一方、判定回数が規定値を超えていない場合(ステップS704:No)には、ステップS706へ進む。なお、本実施の形態では、規定値を3回に設定していたが、規定値は適宜設定すればよい。
In step S704, the
ステップS705では、降雨判定部30bによって、今回の生成周期SCでの判定結果を出力し、処理を終了する。
In step S705, the
ステップS706では、降雨判定部30bによって、前回出力した判定結果を出力し、処理を終了する。
In step S706, the determination result output last time is output by the
連続判定処理の後、ステップS605では、降雨判定部30bによって、出力された判定結果が降雨状態であるかどうかが判断される。つまり、ステップS605では、ステップS504と同様の処理がされ、降雨状態であれば、ステップS606へ進み、移動体1の徐行走行等の対処がされる。また、降雨状態でなければ、ステップS608へ進み、移動体1に通常走行をさせる。
After the continuous determination process, in step S605, the
本実施の形態では、上述した処理をしており、以下では、連続判定処理について、図14に示す場合を具体例として説明する。なお、時間T1以前では、降雨状態ではないとの判定結果が連続して出力されていると想定する。 In the present embodiment, the above-described processing is performed, and in the following, the continuous determination processing will be described by taking a case illustrated in FIG. 14 as a specific example. In addition, before time T1, it is assumed that the determination result that it is not raining is continuously output.
時間T1では、降雨状態ではないと判定されており、判定結果が前回と同じであるので、判定回数が1回増加される(ステップS702)。そして、判定回数が規定値を超えており、降雨状態ではないとの判定結果が出力される(ステップS705)。 At time T1, it is determined that it is not raining, and the determination result is the same as the previous time, so the determination count is increased by one (step S702). And the determination result that the frequency | count of determination exceeds the regulation value and it is not a rainy state is output (step S705).
時間T4では、降雨状態であると判定され、前回の判定結果と異なるので、判定回数がリセットされる(ステップS703)。そして、判定回数は1回となり、規定値を超えていないので、時間T1と同じ判定結果(降雨状態ではない)が出力される(ステップS706)。 At time T4, it is determined that it is raining and is different from the previous determination result, so the determination count is reset (step S703). Then, since the number of times of determination is one and does not exceed the specified value, the same determination result (not in the rain state) as the time T1 is output (step S706).
時間T7では、降雨状態であると判定され、判定結果が前回と同じであるので、判定回数は、1回増加されて2回となる。そして、判定回数は、規定値を超えていないので、時間T4と同じ判定結果が出力される。 At time T7, it is determined that it is raining, and the determination result is the same as the previous time, so the number of determinations is increased by 1 to 2 times. Since the number of determinations does not exceed the specified value, the same determination result as that at time T4 is output.
時間T10では、降雨状態であると判定され、判定結果が前回と同じであるので、判定回数は、1回増加されて3回となる。その結果、判定回数は、規定値を超え、時間T10での判定結果(降雨状態である)が出力される(ステップS705)。 At time T10, it is determined that it is raining, and since the determination result is the same as the previous time, the number of determinations is increased by 1 to 3 times. As a result, the number of determinations exceeds the specified value, and the determination result at time T10 (in a rainy state) is output (step S705).
上述したように、時間T4において、降雨していると判定されるが、その前の時間T1において、降雨していないと判定されているため、同じ判定が連続しておらず、降雨状態であるとの判定結果は出力されない。そして、時間T7でも降雨していると判定されるが、判定が連続した回数が2回であるため、判定結果は出力されない。さらに、時間T10で降雨していると判定された際、判定が連続した回数が3回となり、降雨状態であるとの判定結果が出力される。降雨判定を繰り返した場合、雨などは、ある程度継続して降るため、同じ結果が連続するが、一時的なノイズであれば異なる結果となる。同じ結果が連続した場合に、雨か否かを判断することで、検知画像のノイズなどを雨粒であると誤検知することを防止することができる。 As described above, it is determined that it is raining at time T4. However, since it is determined that it is not raining at the previous time T1, the same determination is not continuous and it is raining. Is not output. Then, although it is determined that it is raining at time T7, the determination result is not output because the number of continuous determinations is two. Furthermore, when it is determined that it is raining at time T10, the number of consecutive determinations is 3, and a determination result indicating that it is raining is output. When the rain judgment is repeated, rain or the like continues to some extent, so the same result continues, but if it is temporary noise, the result will be different. When the same result continues, it is possible to prevent erroneous detection of noise or the like in the detected image as raindrops by determining whether or not it is raining.
なお、第5実施形態では、複数フレーム毎に降雨判定を行う構成としたが、これに限定されず、第1実施形態と同様に、1フレーム毎に降雨判定を行う構成としてもよい。 In the fifth embodiment, the rain determination is performed for each of a plurality of frames. However, the present invention is not limited to this, and the rain determination may be performed for each frame as in the first embodiment.
(第6実施形態)
次に、本発明の第6実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第6実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第5実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Sixth embodiment)
Next, an obstacle detection device and a moving body according to a sixth embodiment of the present invention will be described with reference to the drawings. Since the sixth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to fifth embodiments. The description will be omitted.
図17Aは、検知距離を示す第1距離データの説明図であって、図17Bは、検知距離を示す第2距離データの説明図である。なお、図17Aおよび図17Bでは、一部を強調するために、ハッチングしている。 FIG. 17A is an explanatory diagram of first distance data indicating a detection distance, and FIG. 17B is an explanatory diagram of second distance data indicating a detection distance. In FIG. 17A and FIG. 17B, hatching is performed to emphasize a part.
第6実施形態において、降雨判定部30bは、降雨判定の際に、検知画像における被検知物50の周囲との検知距離KLの差を算出する構成とされている。そして、降雨判定では、周囲との検知距離KLの差が大きい測定点(画素)を孤立点とし、孤立点の数に基づいて、降雨しているかどうかを判定する。
In the sixth embodiment, the
本実施の形態では、検知画像を生成する際、座標毎の検知距離KLを示す距離データを生成する構成とされている。図17Aおよび図17Bに示す第1距離データDT1および第2距離データDT2は、生成された距離データの一部を拡大して示した具体例である。距離データは、行列によって座標が示されており、座標と検知距離KLとが関連付けられている。第1距離データDT1および第2距離データDT2は、「3×3」の行列とされている。横方向Xでは、「1列」、「2列」、および「3列」が並んでおり、縦方向Yでは、「A行」、「B行」、および「C行」が並んでいる。以下では、説明の簡略化のため、行と列とを併せて座標を示している。例えば、左上段(1行1列目)の座標であれば、「A1」と呼び、右中段(2行3列目)の座標であれば、「B3」と呼ぶ。なお、第1距離データDT1および第2距離データDT2は、距離データの一部を拡大して示した図面であって、距離データは「3×3」より多い行と列とで構成されていてもよい。 In the present embodiment, when generating a detection image, distance data indicating a detection distance KL for each coordinate is generated. The first distance data DT1 and the second distance data DT2 shown in FIGS. 17A and 17B are specific examples in which a part of the generated distance data is enlarged. In the distance data, coordinates are indicated by a matrix, and the coordinates and the detection distance KL are associated with each other. The first distance data DT1 and the second distance data DT2 are “3 × 3” matrices. In the horizontal direction X, “1 column”, “2 columns”, and “3 columns” are arranged, and in the vertical direction Y, “A row”, “B row”, and “C row” are arranged. In the following, for simplification of description, coordinates are shown together with rows and columns. For example, if the coordinates are in the upper left (first row, first column), they are called “A1”, and if the coordinates are in the middle right (second row, third column), they are called “B3”. The first distance data DT1 and the second distance data DT2 are enlarged views of a part of the distance data, and the distance data is composed of more rows and columns than “3 × 3”. Also good.
図17Aに示す第1距離データDT1における検知距離KLは、「B2」が1m(メートル)であって、その他の座標は、10〜13mである。具体的には、検知距離KLの差に関する距離閾値が予め設定されており、本実施の形態において、距離閾値は、5mとされている。そして、「B2」と周囲の座標とにおける検知距離KLを比較した際、検知距離KLの差が距離閾値を超えているため、「B2」が孤立点であると判定される。 As for the detection distance KL in the first distance data DT1 shown in FIG. 17A, “B2” is 1 m (meters), and other coordinates are 10 to 13 m. Specifically, a distance threshold relating to the difference in the detection distance KL is set in advance, and in this embodiment, the distance threshold is 5 m. Then, when the detection distance KL between “B2” and the surrounding coordinates is compared, the difference between the detection distances KL exceeds the distance threshold value, so that “B2” is determined to be an isolated point.
図17Bに示す第2距離データDT2における検知距離KLは、「B2」が1mであって、「B2」に隣接する「B1」の検知距離KLが4mであり、その他の座標は、10〜13mである。第2距離データDT2において、「B2」と「B1」との検知距離KLの差が距離閾値を超えていないため、「B2」および「B1」は、孤立点ではないと判定される。 The detection distance KL in the second distance data DT2 shown in FIG. 17B is “B2” is 1 m, the detection distance KL of “B1” adjacent to “B2” is 4 m, and other coordinates are 10 to 13 m. It is. In the second distance data DT2, since the difference in the detection distance KL between “B2” and “B1” does not exceed the distance threshold, “B2” and “B1” are determined not to be isolated points.
図18Aは、検知画像生成部によって生成された第9検知画像を示す説明図であって、図18Bは、検知画像生成部によって生成された第10検知画像を示す説明図である。 FIG. 18A is an explanatory diagram illustrating a ninth detection image generated by the detection image generation unit, and FIG. 18B is an explanatory diagram illustrating a tenth detection image generated by the detection image generation unit.
検知画像生成部30aでは、上述した孤立点を反射点として示した検知画像を生成する。つまり、画像データにおいて、孤立点に対応する画素が「1」として示され、それ以外の画素が「0」として示される。具体的に、図18Aに示す第9検知画像GZ9では、反射点HK7は、第9検知画像GZ9内に離散的に位置しており、数は「13」である。また、図18Bに示す第10検知画像GZ10では、反射点HK8は、第10検知画像GZ10内に離散的に位置しており、数は「4」である。降雨判定において、孤立点の数に関する孤立点閾値が予め設定されており、本実施の形態において、孤立点閾値は、「10」とされている。つまり、第9検知画像GZ9は、反射点HK7(孤立点)の数が孤立点閾値を超えているため、降雨状態であると判定され、第10検知画像GZ10は、反射点HK8の数が孤立点閾値を超えていないため、降雨状態ではないと判定される。なお、距離閾値および孤立点閾値については、適宜設定すればよい。
The detection
次に、第6実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第6実施形態では、第1実施形態に対して、降雨判定処理が異なっているが、その他は、同様の処理がされる。つまり、第6実施形態では、上述した図5に示す処理フローが実施され、ステップS102において、以下に示す降雨判定処理3が実施される。
Next, a processing flow of the obstacle detection method in the sixth embodiment will be described with reference to the drawings. In the sixth embodiment, the rain determination process is different from the first embodiment, but the other processes are the same. That is, in the sixth embodiment, the above-described process flow shown in FIG. 5 is performed, and the
図19は、本発明の第3実施形態における降雨判定処理3の処理フローを示すフロー図である。
FIG. 19 is a flowchart showing a process flow of the
ステップS801では、検知画像生成部30aによって、被検知物50毎の検知距離KLを示した距離データ(例えば、第1距離データDT1および第2距離データDT2)を生成する。
In step S801, distance data (for example, first distance data DT1 and second distance data DT2) indicating the detection distance KL for each
ステップS802では、降雨判定部30bによって、距離データにおける孤立点の数をカウントする。孤立点については、距離閾値に基づいて判定される。ここで、距離データにおける孤立点を数えてもよいし、距離データに対応する検知画像の反射点を数えてもよい。
In step S802, the
ステップS803では、降雨判定部30bによって、孤立点の数が孤立点閾値を超えているかどうかが判断される。その結果、孤立点の数が孤立点閾値を超えている場合(ステップS803:Yes)には、ステップS804へ進む。一方、孤立点の数が孤立点閾値を超えていない場合(ステップS803:No)には、ステップS805へ進む。
In step S803, the
ステップS804では、降雨判定部30bによって、降雨状態であると判定され、降雨判定処理3を終了する。
In step S804, the
ステップS805では、降雨判定部30bによって、降雨状態ではないと判定され、降雨判定処理3を終了する。
In step S805, the
上述したように、検知距離KLに基づいて比較することで、離散的に位置している雨粒52かどうかを判断することができる。また、障害物51が存在するなどして、被検知物50が局所的に集中している場合でも、統計的な偏りに影響されることなく、検知距離KLの差を把握することができる。
As described above, it is possible to determine whether or not the
(第7実施形態)
次に、本発明の第7実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第7実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第6実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Seventh embodiment)
Next, an obstacle detection device and a moving body according to a seventh embodiment of the present invention will be described with reference to the drawings. Since the seventh embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to sixth embodiments. The description will be omitted.
図20Aは、第1フレームでの第3距離データを示す説明図であって、図20Bは、第2フレームでの第4距離データを示す説明図であって、図20Cは、第3フレームでの第5距離データを示す説明図であって、図20Dは、検知距離の最大値を取得した第6距離データを示す説明図である。なお、図20Aないし図20Dでは、一部を強調するために、ハッチングしている。 FIG. 20A is an explanatory diagram illustrating third distance data in the first frame, FIG. 20B is an explanatory diagram illustrating fourth distance data in the second frame, and FIG. 20C is a diagram illustrating the third frame. FIG. 20D is an explanatory diagram illustrating the sixth distance data obtained from the maximum detected distance. In FIGS. 20A to 20D, hatching is performed to emphasize a part.
第7実施形態は、第1実施形態に対して、雨除去処理に用いられている方法が異なる。第7実施形態において、雨除去処理部30cは、検知画像に対し、複数の生成周期SC毎の検知距離KLを比較して、孤立点を除去する構成とされている。本実施の形態では、検知画像を生成したフレームに対して、1フレーム前と2フレーム前とを併せた3フレームで、検知距離KLを比較している。なお、以下では説明のため、3つの連続したフレームを時間の経過に沿って、第1フレーム、第2フレーム、および第3フレームと呼ぶ。
The seventh embodiment is different from the first embodiment in the method used for the rain removal process. In 7th Embodiment, the rain
第3距離データDT3、第4距離データDT4、および第5距離データDT5は、それぞれ第1フレーム、第2フレーム、および第3フレームでの検知画像に対応する距離データの一部とされており、第1距離データDT1と同様に、「3×3」の行列とされている。なお、第3距離データDT3、第4距離データDT4、および第5距離データDT5は、検知範囲KHにおいて、同じ座標を示している。 The third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5 are part of the distance data corresponding to the detected images in the first frame, the second frame, and the third frame, respectively. Similar to the first distance data DT1, it is a “3 × 3” matrix. The third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5 indicate the same coordinates in the detection range KH.
第3距離データDT3の検知距離KLは、「A1」が2m、「A2」が10m、「A3」が9m、「B1」が13m、「B2」が10m、「B3」が2m、「C1」が12m、「C2」が4m、「C3」が9mである。 The detection distance KL of the third distance data DT3 is “A1” is 2 m, “A2” is 10 m, “A3” is 9 m, “B1” is 13 m, “B2” is 10 m, “B3” is 2 m, “C1”. Is 12 m, “C2” is 4 m, and “C3” is 9 m.
第4距離データDT4の検知距離KLは、「A1」が8m、「A2」が1m、「A3」が6m、「B1」が4m、「B2」が2m、「B3」が2m、「C1」が13m、「C2」が6m、「C3」が3mである。 The detection distance KL of the fourth distance data DT4 is 8m for "A1", 1m for "A2", 6m for "A3", 4m for "B1", 2m for "B2", 2m for "B3", "C1" Is 13 m, “C2” is 6 m, and “C3” is 3 m.
第5距離データDT5の検知距離KLは、「A1」が7m、「A2」が15m、「A3」が3m、「B1」が4m、「B2」が10m、「B3」が2m、「C1」が8m、「C2」が11m、「C3」が5mである。 The detection distance KL of the fifth distance data DT5 is “A1” 7 m, “A2” 15 m, “A3” 3 m, “B1” 4 m, “B2” 10 m, “B3” 2 m, “C1”. Is 8 m, “C2” is 11 m, and “C3” is 5 m.
雨除去処理では、それぞれの測定点において最大となる検知距離KLを取得し、測定点毎の最大値を示す最大値データを生成する。例えば、「A1」の場合には、第4距離データDT4の8mを最大値として取得する。他の座標も同様に最大値が取得され、第3距離データDT3、第4距離データDT4、および第5距離データDT5の最大値データとして、図20Dに示す第6距離データDT6が生成される。 In the rain removal process, the maximum detection distance KL at each measurement point is acquired, and maximum value data indicating the maximum value for each measurement point is generated. For example, in the case of “A1”, 8 m of the fourth distance data DT4 is acquired as the maximum value. Similarly, the maximum value is acquired for the other coordinates, and the sixth distance data DT6 shown in FIG. 20D is generated as the maximum value data of the third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5.
第6距離データDT6の検知距離KLは、「A1」が8m、「A2」が15m、「A3」が9m、「B1」が13m、「B2」が10m、「B3」が2m、「C1」が13m、「C2」が11m、「C3」が9mである。 The detection distance KL of the sixth distance data DT6 is 8m for "A1", 15m for "A2", 9m for "A3", 13m for "B1", 10m for "B2", 2m for "B3", "C1" Is 13 m, “C2” is 11 m, and “C3” is 9 m.
このようにして生成された最大値データに対して、障害物判定を行う場合には、検知距離KLに関して予め設定された閾値を基準として、反射点かどうかを判断すればよい。例えば、閾値が5mとされていた場合、第6距離データDT6では、「B3」が被検知物50に対応する反射点であると判断される。そして、距離データにおける反射点の数と障害物閾値とを比較して、被検知物50が障害物51であると判定される。
When obstacle determination is performed on the maximum value data generated in this way, it is only necessary to determine whether or not it is a reflection point with reference to a threshold set in advance with respect to the detection distance KL. For example, when the threshold is 5 m, it is determined that “B3” is a reflection point corresponding to the detected
第3距離データDT3ないし第5距離データDT5の検知距離について、「B3」以外では、閾値より小さい座標も存在しており、障害物51と雨粒52とのいずれかを判別できない。しかしながら、他のフレームと比較すると、検知距離KLが変動している。これに対し、「B3」では、いずれのフレームでも2mとなっており、検知距離KLが変わらない。このように、生成周期SC毎の検知距離KLを比較して、同じ箇所に位置しているものと、雨粒52のように高速で動くものとを区別することができる。雨粒52等が存在する座標については、検知距離KLの最大値を取得することで、障害物検知の妨げとなるノイズを除去することができる。また、検知距離KLを比較するといった簡素な演算を用いた処理とされているので、処理の高速化を図ることができる。
Regarding the detection distance of the third distance data DT3 to the fifth distance data DT5, coordinates other than “B3” are also present, and coordinates smaller than the threshold exist, and it is not possible to determine either the
次に、第7実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第7実施形態では、第1実施形態に対して、雨除去判定処理が異なっているが、その他は、同様の処理がされる。つまり、第7実施形態では、上述した図5に示す処理フローが実施され、ステップS105において、以下に示す雨除去処理2が実施される。
Next, a processing flow of the obstacle detection method in the seventh embodiment will be described with reference to the drawings. In the seventh embodiment, the rain removal determination process is different from the first embodiment, but the other processes are the same. That is, in the seventh embodiment, the above-described processing flow shown in FIG. 5 is performed, and in step S105, the
図21は、本発明の第7実施形態における雨除去処理2の処理フローを示すフロー図である。
FIG. 21 is a flowchart showing the process flow of the
ステップS901では、検知画像生成部30aによって、被検知物50毎の検知距離KLを示した距離データ(例えば、第3距離データDT3ないし第5距離データDT5)を生成する。なお、雨除去処理を実施するフレームでの距離データだけを生成し、生成した距離データを記憶させる構成としてもよい。つまり、前のフレームにおける距離データは、記憶された距離データを参照すればよい。
In step S901, the detected
ステップS902では、雨除去処理部30cによって、複数の生成周期SCにおける距離データのうち、測定点毎の最大値を取得する。本実施の形態では、3フレームでの最大値を取得する構成としたが、これに限定されず、比較するフレームの数は適宜設定すればよい。
In step S902, the rain
ステップS903では、雨除去処理部30cによって、測定点毎の最大値を示す最大値データ(例えば、第6距離データDT6)を生成し、処理を終了する。その後の障害物判定は、最大値データを対象として実施される。
In step S903, the rain
第6実施形態および第7実施形態では、図5に示す処理フローが実施される構成としたが、これに限定されず、図13または図15に示す処理フローを実施し、複数フレーム毎に降雨判定を行う構成としてもよい。 In the sixth embodiment and the seventh embodiment, the processing flow shown in FIG. 5 is implemented. However, the present invention is not limited to this, and the processing flow shown in FIG. It is good also as a structure which performs determination.
なお、今回開示した実施の形態は全ての点で例示であって、限定的な解釈の根拠となるものではない。従って、本発明の技術的範囲は、上記した実施の形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれる。 It should be noted that the embodiment disclosed herein is illustrative in all respects and does not serve as a basis for limited interpretation. Therefore, the technical scope of the present invention is not interpreted only by the above-described embodiment, but is defined based on the description of the scope of claims. Moreover, all the changes within the meaning and range equivalent to a claim are included.
1 移動体
10 障害物検知装置
11 測距センサ
20 駆動部
30 CPU
30a 検知画像生成部
30b 降雨判定部
30c 雨除去処理部
30d 障害物判定部
30e 走行制御部
50 被検知物
51 障害物
52 雨粒
100 走行面
KL 検知距離
KH 検知範囲
DESCRIPTION OF
30a Detected
Claims (15)
前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成する検知画像生成部と、
前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をする降雨判定部と、
前記検知画像から前記孤立点を除去する雨除去処理を行う雨除去処理部と、
前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をする障害物判定部とを備え、
前記障害物判定部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記雨除去処理部によって前記雨除去処理された検知画像に基づいて、前記障害物判定を実施すること
を特徴とする障害物検知装置。 A ranging sensor that transmits a detection wave to the object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected;
A detection image generation unit that generates a detection image indicating the presence or absence of the detection object in a detection range in which the detection wave is transmitted based on a distance measurement result of the distance sensor;
A rain determining unit that determines whether or not the detection range is in a rain state based on the presence or absence of discrete points located discretely among the detected objects in the detection image;
A rain removal processing unit for performing rain removal processing to remove the isolated points from the detected image;
An obstacle determination unit that determines whether or not the detected object is an obstacle based on the detected image;
The obstacle determination unit performs the obstacle determination based on the detection image subjected to the rain removal processing by the rain removal processing unit when the rain determination unit determines that the rain state is present. Obstacle detection device characterized.
前記検知範囲は、立体空間とされており、
前記検知画像生成部は、前記検知画像として、立体空間とされた検知範囲に対応する3次元画像を生成し、
前記降雨判定部は、前記3次元画像に対して、前記降雨判定を行うこと
を特徴とする障害物検知装置。 The obstacle detection device according to claim 1,
The detection range is a three-dimensional space,
The detection image generation unit generates a three-dimensional image corresponding to a detection range as a three-dimensional space as the detection image,
The obstacle detection device, wherein the rain determination unit performs the rain determination on the three-dimensional image.
前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の分散値を算出すること
を特徴とする障害物検知装置。 The obstacle detection device according to claim 1 or 2,
The obstacle detection device, wherein the rain determination unit calculates a variance value of the detected object in the detection image at the time of the rain determination.
前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の周囲との前記検知距離の差を算出すること
を特徴とする障害物検知装置。 The obstacle detection device according to claim 1 or 2,
The obstacle detection device, wherein the rain determination unit calculates a difference in the detection distance from the periphery of the detected object in the detection image at the time of the rain determination.
前記検知画像生成部は、予め設定された生成周期毎に前記検知画像を周期的に生成すること
を特徴とする障害物検知装置。 The obstacle detection device according to any one of claims 1 to 4, wherein
The obstacle detection device, wherein the detection image generation unit periodically generates the detection image every preset generation cycle.
前記雨除去処理部は、メディアンフィルタを用いて前記雨除去処理を行うこと
を特徴とする障害物検知装置。 The obstacle detection device according to any one of claims 1 to 5, wherein
The said rain removal process part performs the said rain removal process using a median filter. The obstacle detection apparatus characterized by the above-mentioned.
前記降雨判定部は、前記検知画像と、該検知画像に対しメディアンフィルタを用いて前記孤立点を除去したメディアン処理画像とを比較して、前記降雨判定を行うこと
を特徴とする障害物検知装置。 The obstacle detection device according to any one of claims 1 to 6,
The obstacle determination unit compares the detected image with a median-processed image from which the isolated point is removed using a median filter with respect to the detected image, and performs the rainfall determination. .
前記降雨判定部は、それぞれ異なる生成周期において生成された2つの検知画像を比較して、前記降雨判定を行うこと
を特徴とする障害物検知装置。 The obstacle detection device according to claim 5,
The obstacle detection device, wherein the rain determination unit performs the rain determination by comparing two detection images generated in different generation cycles.
前記降雨判定部は、複数の前記生成周期毎に前記降雨判定を行うこと
を特徴とする障害物検知装置。 The obstacle detection device according to claim 5 or claim 8,
The obstacle detection device, wherein the rain determination unit performs the rain determination for each of the plurality of generation periods.
前記降雨判定部は、複数の前記生成周期で前記降雨判定を行い、複数回連続して同じ判定をした際に、該降雨判定の結果を出力すること
を特徴とする障害物検知装置。 The obstacle detection device according to claim 5, claim 8, or claim 9,
The obstacle detection device, wherein the rain determination unit performs the rain determination in a plurality of the generation cycles, and outputs the result of the rain determination when the same determination is made a plurality of times in succession.
前記雨除去処理部は、前記検知画像に対し、複数の前記生成周期毎の前記検知距離を比較して、前記孤立点を除去すること
を特徴とする障害物検知装置。 The obstacle detection device according to claim 5, claim 8, claim 9, or claim 10,
The said rain removal process part removes the said isolated point by comparing the said detection distance for every said several production | generation period with respect to the said detection image.
前記走行面で走行する走行速度を制御する走行制御部を備え、
前記走行制御部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記走行速度を減速させる制御をすること
を特徴とする移動体。 The moving body according to claim 12,
A travel control unit for controlling a travel speed of traveling on the travel surface;
The travel control unit performs control to decelerate the travel speed when the rain determination unit determines that the rain state is present.
検知画像生成部に、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成させる検知画像生成ステップと、
降雨判定部に、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、
雨除去処理部に、前記検知画像から前記孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、
障害物判定部に、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をさせる障害物判定ステップとを含み、
前記障害物判定ステップは、前記降雨判定ステップで前記降雨状態であると判定された場合、前記雨除去処理ステップで前記雨除去処理された検知画像に基づいて、前記障害物判定を実施すること
を特徴とする障害物検知方法。 Obstacle detection in an obstacle detection device having a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected A method,
A detection image generation step of causing the detection image generation unit to generate a detection image indicating the presence or absence of the detection object in the detection range in which the detection wave is transmitted, based on a distance measurement result of the distance sensor;
A rainfall determination step for causing a rainfall determination unit to determine whether or not the detection range is in a rainfall state based on the presence or absence of discrete points located discretely among the detected objects in the detection image; ,
A rain removal processing step for causing a rain removal processing unit to perform rain removal processing for removing the isolated points from the detected image;
An obstacle determination step for causing the obstacle determination unit to determine whether the detected object is an obstacle based on the detected image;
In the obstacle determination step, when it is determined in the rain determination step that the rain state is present, the obstacle determination is performed based on the detected image that has been subjected to the rain removal process in the rain removal processing step. A featured obstacle detection method.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015014074A JP6418961B2 (en) | 2015-01-28 | 2015-01-28 | Obstacle detection device, moving object, obstacle detection method, and obstacle detection program |
PCT/JP2016/052142 WO2016121741A1 (en) | 2015-01-28 | 2016-01-26 | Obstacle detection device, mobile body, obstacle detection method, and obstacle detection program |
US15/546,016 US10921429B2 (en) | 2015-01-28 | 2016-01-26 | Obstacle detection device, moving body, and obstacle detection method |
CN201680007959.5A CN107209268A (en) | 2015-01-28 | 2016-01-26 | Obstacle detector, moving body, obstacle detection method and detection of obstacles program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015014074A JP6418961B2 (en) | 2015-01-28 | 2015-01-28 | Obstacle detection device, moving object, obstacle detection method, and obstacle detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016138818A JP2016138818A (en) | 2016-08-04 |
JP6418961B2 true JP6418961B2 (en) | 2018-11-07 |
Family
ID=56543352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015014074A Active JP6418961B2 (en) | 2015-01-28 | 2015-01-28 | Obstacle detection device, moving object, obstacle detection method, and obstacle detection program |
Country Status (4)
Country | Link |
---|---|
US (1) | US10921429B2 (en) |
JP (1) | JP6418961B2 (en) |
CN (1) | CN107209268A (en) |
WO (1) | WO2016121741A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6900214B2 (en) * | 2017-03-22 | 2021-07-07 | 株式会社Ihiエアロスペース | Obstacle detection device and obstacle detection method |
JP2019102047A (en) * | 2017-11-28 | 2019-06-24 | Thk株式会社 | Image processor, mobile robot control system, and mobile robot control method |
US11112504B2 (en) * | 2018-02-20 | 2021-09-07 | Mitsubishi Electric Corporation | Measurement monitoring device and computer readable medium |
WO2019181096A1 (en) | 2018-03-19 | 2019-09-26 | ソニー株式会社 | Image processing device, image processing method, and program |
JP2019163001A (en) * | 2018-03-20 | 2019-09-26 | シャープ株式会社 | Movable body |
DE102018126506A1 (en) * | 2018-10-24 | 2020-04-30 | Valeo Schalter Und Sensoren Gmbh | Rain detection with an environment sensor for point-by-point detection of an environment of a vehicle, in particular with a LiDAR-based environment sensor |
CN110031823B (en) * | 2019-04-22 | 2020-03-24 | 上海禾赛光电科技有限公司 | Noise point identification method for laser radar and laser radar system |
KR102112585B1 (en) * | 2019-06-20 | 2020-05-19 | 인천대학교 산학협력단 | Smart stroller capable of preventing collisions through obstacle detection and operating method thereof |
CN113075933B (en) * | 2021-03-30 | 2023-08-29 | 北京布科思科技有限公司 | Robot passing control method, device and equipment |
CN113625261B (en) * | 2021-08-10 | 2024-04-12 | 厦门市弘威崇安科技有限公司 | Unattended node of microwave radar-microphone array acoustic wave detector |
WO2023181948A1 (en) * | 2022-03-24 | 2023-09-28 | 株式会社デンソー | Noise eliminating device, object detecting device, and noise eliminating method |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2903746B2 (en) * | 1991-03-20 | 1999-06-14 | トヨタ自動車株式会社 | Inter-vehicle distance detection device |
JPH1010233A (en) * | 1996-06-24 | 1998-01-16 | Mitsui Eng & Shipbuild Co Ltd | Method for laser obstruction detection and sensor therefor |
US6127965A (en) * | 1998-07-23 | 2000-10-03 | Eaton-Vorad Technologies, L.L.C. | Method and apparatus for rejecting rain clutter in a radar system |
DE10142459A1 (en) * | 2001-08-31 | 2003-03-20 | Adc Automotive Dist Control | Motor vehicle radar system for determination of distances to obstacles or vehicles, whereby a weighing function is used that takes into account weather conditions, so that system reliability and sensitivity is improved |
JP3994941B2 (en) * | 2003-07-22 | 2007-10-24 | オムロン株式会社 | Radar equipment for vehicles |
JP2006285548A (en) | 2005-03-31 | 2006-10-19 | Secom Co Ltd | Mobile robot and remote control system |
SG139579A1 (en) * | 2006-07-20 | 2008-02-29 | Cyclect Electrical Engineering | A foreign object detection system |
JP4757148B2 (en) | 2006-08-28 | 2011-08-24 | 本田技研工業株式会社 | Vehicle contact avoidance support device |
CN100494900C (en) * | 2007-07-03 | 2009-06-03 | 北京控制工程研究所 | Environment sensing one-eye visual navigating method adapted to self-aid moving vehicle |
JP5507135B2 (en) * | 2009-07-08 | 2014-05-28 | Jr東日本メカトロニクス株式会社 | Obstacle detection device, platform door system provided with the same, and obstacle detection method |
CN101975951B (en) * | 2010-06-09 | 2013-03-20 | 北京理工大学 | Field environment barrier detection method fusing distance and image information |
CN102540193B (en) * | 2010-12-24 | 2014-04-30 | 无锡物联网产业研究院 | Laser radar monitoring system |
CN202294308U (en) * | 2011-10-31 | 2012-07-04 | 富士重工业株式会社 | Travel control device for vehicle |
CN102510482A (en) * | 2011-11-29 | 2012-06-20 | 蔡棽 | Image splicing reconstruction and overall monitoring method for improving visibility and visual distance |
CN102589515B (en) * | 2012-01-12 | 2014-12-17 | 安科智慧城市技术(中国)有限公司 | Foggy-weather distance measurement method and device thereof as well as distance pre-warning method and device thereof |
TWI480810B (en) * | 2012-03-08 | 2015-04-11 | Ind Tech Res Inst | Method and apparatus for rain removal based on a single image |
RU2572952C1 (en) * | 2012-07-27 | 2016-01-20 | Ниссан Мотор Ко., Лтд. | Device for detecting three-dimensional objects and method of detecting three-dimensional objects |
BR112015001825B1 (en) * | 2012-07-27 | 2021-10-26 | Nissan Motor Co., Ltd. | THREE-DIMENSIONAL OBJECT DETECTION DEVICE, THREE-DIMENSIONAL OBJECT DETECTION METHOD |
TWI494899B (en) * | 2012-12-19 | 2015-08-01 | Ind Tech Res Inst | Method for in-image periodic noise reparation |
JP6091294B2 (en) * | 2013-04-02 | 2017-03-08 | 株式会社神戸製鋼所 | Train head position detection method and detection apparatus |
KR101683984B1 (en) * | 2014-10-14 | 2016-12-07 | 현대자동차주식회사 | System for filtering Lidar data in vehicle and method thereof |
-
2015
- 2015-01-28 JP JP2015014074A patent/JP6418961B2/en active Active
-
2016
- 2016-01-26 WO PCT/JP2016/052142 patent/WO2016121741A1/en active Application Filing
- 2016-01-26 CN CN201680007959.5A patent/CN107209268A/en active Pending
- 2016-01-26 US US15/546,016 patent/US10921429B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107209268A (en) | 2017-09-26 |
WO2016121741A1 (en) | 2016-08-04 |
JP2016138818A (en) | 2016-08-04 |
US20180024229A1 (en) | 2018-01-25 |
US10921429B2 (en) | 2021-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6418961B2 (en) | Obstacle detection device, moving object, obstacle detection method, and obstacle detection program | |
JP4721279B2 (en) | Lane tracking support device | |
JP6226896B2 (en) | A method for minimizing brake intervention based on collision certainty | |
JP5167051B2 (en) | Vehicle driving support device | |
JP6222785B2 (en) | Steering support device | |
JP5904286B2 (en) | Driving assistance device | |
JP2009286279A (en) | Drive support device for vehicle | |
KR102057428B1 (en) | Driving control method and driving control device of vehicle | |
JP2017027202A (en) | Driving support system | |
GB2541354A (en) | Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system | |
JP5205997B2 (en) | Driving operation support device for vehicle | |
JP2009116790A (en) | Vehicular driving support apparatus and driving support method | |
CN109725328B (en) | AGV obstacle detection system and method based on laser radar sensor | |
EP3686066B1 (en) | Vehicle control apparatus | |
KR20170000569A (en) | Method for detecting collision of vehicle | |
US9741251B2 (en) | Collision avoidance assistance device and collision avoidance assistance method | |
JP6325927B2 (en) | Object detection apparatus and vehicle control system using the same | |
US11753002B2 (en) | Vehicular control system | |
JP5804373B2 (en) | Target travel position setting device and steering control system | |
JP6075168B2 (en) | Vehicle object detection device | |
JP5900651B2 (en) | Driving support device and driving support method | |
JP2006047057A (en) | Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device | |
US8364341B2 (en) | Method for controlling a driver assistance system | |
JP4923766B2 (en) | Braking force control device for vehicle | |
JP5900649B2 (en) | Driving assistance device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6418961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |