Nothing Special   »   [go: up one dir, main page]

JP6418961B2 - Obstacle detection device, moving object, obstacle detection method, and obstacle detection program - Google Patents

Obstacle detection device, moving object, obstacle detection method, and obstacle detection program Download PDF

Info

Publication number
JP6418961B2
JP6418961B2 JP2015014074A JP2015014074A JP6418961B2 JP 6418961 B2 JP6418961 B2 JP 6418961B2 JP 2015014074 A JP2015014074 A JP 2015014074A JP 2015014074 A JP2015014074 A JP 2015014074A JP 6418961 B2 JP6418961 B2 JP 6418961B2
Authority
JP
Japan
Prior art keywords
rain
detection
obstacle
image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015014074A
Other languages
Japanese (ja)
Other versions
JP2016138818A (en
Inventor
大平 雅和
雅和 大平
大輔 谷
大輔 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015014074A priority Critical patent/JP6418961B2/en
Priority to PCT/JP2016/052142 priority patent/WO2016121741A1/en
Priority to US15/546,016 priority patent/US10921429B2/en
Priority to CN201680007959.5A priority patent/CN107209268A/en
Publication of JP2016138818A publication Critical patent/JP2016138818A/en
Application granted granted Critical
Publication of JP6418961B2 publication Critical patent/JP6418961B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、被検知物までの距離を測定する測距センサを備えた障害物検知装置および移動体、並びに、その障害物検知方法および障害物検知プログラムに関する。   The present invention relates to an obstacle detection device and a moving body that include a distance measuring sensor that measures a distance to an object to be detected, and an obstacle detection method and an obstacle detection program thereof.

従来、走行面を自律走行するシステムでは、センサなどで障害物を検知して、動作を制御していた。例えば、自動車などの車両においては、運転者を補佐するシステムとして、障害物との接触回避を支援する車両の接触回避支援装置が開発されている(例えば、特許文献1参照。)。   Conventionally, in a system that autonomously travels on a traveling surface, an obstacle is detected by a sensor or the like to control the operation. For example, in a vehicle such as an automobile, a vehicle contact avoidance support device that supports contact avoidance with an obstacle has been developed as a system for assisting a driver (see, for example, Patent Document 1).

また、移動ロボットでは、遠隔操作によって指示した方向へ移動させ、センサによって検知した障害物との距離に基づいて、移動速度を算出させることで、障害物との接触を防止する方法が提案されている(例えば、特許文献2参照。)。   In mobile robots, a method for preventing contact with an obstacle by moving in a direction instructed by remote operation and calculating a moving speed based on a distance from the obstacle detected by a sensor has been proposed. (For example, refer to Patent Document 2).

特開2008−49932号公報JP 2008-49932 A 特開2006−285548号公報JP 2006-285548 A

特許文献1に記載の車両の接触回避支援装置は、前方障害物センサによって車両前方の障害物までの距離を検知しており、障害物までの距離に応じて車両の目標速度を算出し、目標速度に基づいて制動力を制御して、車速を自動制動により減速している。従って、接触回避支援装置では、運転者による車両の操作状態に応じて目標速度を補正し、運転者の自発的な接触回避操作を支援することで、運転者に違和感を与えずに、障害物との接触回避を促している。   The vehicle contact avoidance assistance device described in Patent Document 1 detects a distance to an obstacle ahead of the vehicle by a front obstacle sensor, calculates a target speed of the vehicle according to the distance to the obstacle, The braking force is controlled based on the speed, and the vehicle speed is reduced by automatic braking. Therefore, in the contact avoidance support device, the target speed is corrected according to the operation state of the vehicle by the driver, and the driver avoids a sense of incongruity by assisting the driver's spontaneous contact avoidance operation. To avoid contact with

また、特許文献2に記載の移動ロボットは、移動方向前方の障害物を検出する検出部を備え、障害物までの距離を算出しており、監視センタから通信によって移動する方向や速度が指示される。移動ロボットは、自律移動モードにおいて、前方の障害物を検出した際に、異常信号を監視センタに送信する。監視センタでは、管制員によって移動ロボットに対する遠隔操作が行われる。そして、移動ロボットは、遠隔操作モードにおいて、監視センタからの指示に応じて、障害物に接触する前に停止可能な走行速度で移動する。このように遠隔操作を用いた移動ロボットでは、伝送遅延による指示の遅れに対応できるように、障害物の回避を考慮した移動速度とされている。   In addition, the mobile robot described in Patent Document 2 includes a detection unit that detects an obstacle ahead of the movement direction, calculates the distance to the obstacle, and is instructed by the monitoring center about the direction and speed of movement. The When the mobile robot detects a front obstacle in the autonomous movement mode, the mobile robot transmits an abnormal signal to the monitoring center. In the monitoring center, remote control of the mobile robot is performed by the controller. Then, in the remote operation mode, the mobile robot moves at a traveling speed that can be stopped before it touches the obstacle in accordance with an instruction from the monitoring center. As described above, in the mobile robot using the remote operation, the moving speed is set in consideration of obstacle avoidance so that the instruction delay due to the transmission delay can be dealt with.

ところで、移動ロボットや車両などの自律走行を用いたシステムは、屋内に留まらず、屋外でも使用されており、様々な環境に対応することが求められている。屋外においては天候の変化が考慮され、降雨の際の雨粒などを障害物として誤検知してしまう問題がある。上述した特許文献1および特許文献2には、雨粒などによって障害物を誤検知することが考慮されておらず、接触を回避すべき障害物と移動を妨げない雨粒等とを区別できないという課題がある。また、雨粒などを障害物と誤検知しないように、検知結果に対してノイズなどを取り除く処理が提案されているが、このような処理を通常時に実施すると、小さい障害物などを見落とす虞がある。   By the way, a system using autonomous traveling such as a mobile robot or a vehicle is used not only indoors but also outdoors, and is required to cope with various environments. In the outdoors, changes in the weather are taken into account, and there is a problem that raindrops and the like at the time of rainfall are erroneously detected as obstacles. Patent Document 1 and Patent Document 2 described above do not consider misdetecting an obstacle due to raindrops or the like, and there is a problem that it is not possible to distinguish between an obstacle that should avoid contact and a raindrop that does not prevent movement. is there. In addition, a process for removing noise from the detection result has been proposed so that raindrops and the like are not erroneously detected as an obstacle, but if such a process is performed during normal times, a small obstacle may be overlooked. .

本発明は、上記の課題を解決するためになされたものであり、降雨中には、雨粒を障害物として誤検知することを避けることができる障害物検知装置、移動体、障害物検知方法、および障害物検知プログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and during rainfall, an obstacle detection device, a moving body, an obstacle detection method capable of avoiding erroneous detection of raindrops as an obstacle, And to provide an obstacle detection program.

本発明に係る障害物検知装置は、被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサと、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成する検知画像生成部と、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をする降雨判定部と、前記検知画像から前記孤立点を除去する雨除去処理を行う雨除去処理部と、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をする障害物判定部とを備え、前記障害物判定部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記雨除去処理部によって前記雨除去処理された検知画像に基づいて、前記障害物判定を実施することを特徴とする。   An obstacle detection device according to the present invention includes a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected; A detection image generation unit that generates a detection image indicating the presence or absence of the detection object in the detection range in which the detection wave is transmitted based on a distance measurement result of the distance measurement sensor; and the object to be detected in the detection image. A rain determining unit that determines whether or not the detection range is in a rain state based on the presence or absence of discrete points that are discretely located among the detected objects, and a rain that removes the isolated points from the detected image A rain removal processing unit that performs a removal process, and an obstacle determination unit that determines whether the detected object is an obstacle based on the detected image, and the obstacle determination unit includes: If it is determined by the rain determination unit that the rain state is present, the rain It based the processed section into the rain removing processed sensed image, which comprises carrying out the obstacle determining.

本発明に係る障害物検知装置では、前記検知範囲は、立体空間とされており、前記検知画像生成部は、前記検知画像として、立体空間とされた検知範囲に対応する3次元画像を生成し、前記降雨判定部は、前記3次元画像に対して、前記降雨判定を行う構成としてもよい。   In the obstacle detection device according to the present invention, the detection range is a three-dimensional space, and the detection image generation unit generates a three-dimensional image corresponding to the detection range that is a three-dimensional space as the detection image. The rain determination unit may perform the rain determination on the three-dimensional image.

本発明に係る障害物検知装置では、前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の分散値を算出する構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit may calculate a variance value of the detected object in the detection image at the time of the rain determination.

本発明に係る障害物検知装置では、前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の周囲との前記検知距離の差を算出する構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit may calculate a difference in the detection distance from the periphery of the detection object in the detection image at the time of the rain determination.

本発明に係る障害物検知装置では、前記検知画像生成部は、予め設定された生成周期毎に前記検知画像を周期的に生成する構成としてもよい。   In the obstacle detection device according to the present invention, the detection image generation unit may be configured to periodically generate the detection image for each preset generation cycle.

本発明に係る障害物検知装置では、前記雨除去処理部は、メディアンフィルタを用いて前記雨除去処理を行う構成としてもよい。   In the obstacle detection device according to the present invention, the rain removal processing unit may perform the rain removal processing using a median filter.

本発明に係る障害物検知装置では、前記降雨判定部は、前記検知画像と、該検知画像に対しメディアンフィルタを用いて前記孤立点を除去したメディアン処理画像とを比較して、前記降雨判定を行う構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit compares the detection image with a median-processed image obtained by removing the isolated points using a median filter with respect to the detection image, and performs the rain determination. It is good also as a structure to perform.

本発明に係る障害物検知装置では、前記降雨判定部は、それぞれ異なる生成周期において生成された2つの検知画像を比較して、前記降雨判定を行う構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit may perform the rain determination by comparing two detection images generated in different generation periods.

本発明に係る障害物検知装置では、前記降雨判定部は、複数の前記生成周期毎に前記降雨判定を行う構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit may perform the rain determination for each of the plurality of generation periods.

本発明に係る障害物検知装置では、前記降雨判定部は、複数の前記生成周期で前記降雨判定を行い、複数回連続して同じ判定をした際に、該降雨判定の結果を出力する構成としてもよい。   In the obstacle detection device according to the present invention, the rain determination unit performs the rain determination at a plurality of the generation periods, and outputs the result of the rain determination when the same determination is made a plurality of times in succession. Also good.

本発明に係る障害物検知装置では、前記雨除去処理部は、前記検知画像に対し、複数の前記生成周期毎の前記検知距離を比較して、前記孤立点を除去する構成としてもよい。   In the obstacle detection device according to the present invention, the rain removal processing unit may be configured to remove the isolated points by comparing the detection distances for each of the plurality of generation periods with respect to the detection image.

本発明に係る移動体は、本発明に係る障害物検知装置を備え、走行面を走行することを特徴とする。   A moving body according to the present invention includes the obstacle detection device according to the present invention and travels on a traveling surface.

本発明に係る移動体では、前記走行面で走行する走行速度を制御する走行制御部を備え、前記走行制御部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記走行速度を減速させる制御をする構成としてもよい。   The mobile body according to the present invention includes a travel control unit that controls a travel speed that travels on the travel surface, and the travel control unit, when the rain determination unit determines that the rain state is present, the travel speed It is good also as a structure which controls to decelerate.

本発明に係る障害物検知方法は、被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサを備えた障害物検知装置における障害物検知方法であって、検知画像生成部に、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成させる検知画像生成ステップと、降雨判定部に、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、雨除去処理部に、前記検知画像から前記孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、障害物判定部に、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をさせる障害物判定ステップとを含み、前記障害物判定ステップは、前記降雨判定ステップで前記降雨状態であると判定された場合、前記雨除去処理ステップで前記雨除去処理された検知画像に基づいて、前記障害物判定を実施することを特徴とする。   The obstacle detection method according to the present invention includes a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected. An obstacle detection method in an obstacle detection apparatus provided, wherein the presence or absence of the detection object in a detection range in which the detection wave is transmitted to a detection image generation unit based on a distance measurement result of the distance measurement sensor The detection range is generated in a rainy state based on the presence or absence of isolated points discretely located among the detected objects in the detection image. A rain determining step for determining whether there is a rain, a rain removing processing step for causing a rain removing processing unit to perform a rain removing process for removing the isolated point from the detected image, and an obstacle judging unit for detecting the detection Based on the image, the detected object An obstacle determination step for making an obstacle determination as to whether or not the object is an obstacle, and when the obstacle determination step is determined to be in the rain state in the rain determination step, the rain removal processing step includes the step The obstacle determination is performed based on the detection image subjected to the rain removal process.

本発明に係る障害物検知プログラムは、本発明に係る障害物検知方法の各ステップをコンピュータに実行させることを特徴とする。   The obstacle detection program according to the present invention causes a computer to execute each step of the obstacle detection method according to the present invention.

本発明によると、降雨中には、検知画像に雨除去処理を施すことで、障害物だけを示す検知画像とすることができ、雨粒を障害物として誤検知することを避けることができる。   According to the present invention, it is possible to obtain a detection image showing only an obstacle by performing rain removal processing on the detection image during the rain, and it is possible to avoid erroneous detection of raindrops as an obstacle.

本発明の第1実施形態に係る移動体の外観図である。It is an external view of the moving body which concerns on 1st Embodiment of this invention. 図1に示す移動体の構成図である。It is a block diagram of the moving body shown in FIG. 検知画像生成部によって生成された第1検知画像を示す説明図である。It is explanatory drawing which shows the 1st detection image produced | generated by the detection image generation part. 検知画像生成部によって生成された第2検知画像を示す説明図である。It is explanatory drawing which shows the 2nd detection image produced | generated by the detection image generation part. 検知画像生成部によって生成された第3検知画像を示す説明図である。It is explanatory drawing which shows the 3rd detection image produced | generated by the detection image generation part. 雨除去処理部によって雨除去処理された第4検知画像を示す説明図である。It is explanatory drawing which shows the 4th detection image by which the rain removal process part performed the rain removal process. 雨除去処理部によって雨除去処理された第5検知画像を示す説明図である。It is explanatory drawing which shows the 5th detection image by which the rain removal process part performed the rain removal process. 本発明の第1実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the obstacle detection method of the obstacle detection apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態における降雨判定処理1の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the rain determination process 1 in 1st Embodiment of this invention. 本発明の第1実施形態における雨除去処理1の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the rain removal process 1 in 1st Embodiment of this invention. 本発明の第2実施形態における検知画像生成部で生成された第6検知画像を示す説明図である。It is explanatory drawing which shows the 6th detection image produced | generated by the detection image generation part in 2nd Embodiment of this invention. 本発明の第3実施形態における検知画像生成部で生成された第7検知画像を示す説明図である。It is explanatory drawing which shows the 7th detection image produced | generated by the detection image generation part in 3rd Embodiment of this invention. 第1検知画像と第7検知画像とを比較した差分画像を示す説明図である。It is explanatory drawing which shows the difference image which compared the 1st detection image and the 7th detection image. 本発明の第3実施形態における降雨判定処理2の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the rain determination process 2 in 3rd Embodiment of this invention. 本発明の第4実施形態における生成周期と降雨判定周期との関係を示す説明図である。It is explanatory drawing which shows the relationship between the production | generation period and rainfall determination period in 4th Embodiment of this invention. 本発明の第4実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the obstacle detection method of the obstacle detection apparatus which concerns on 4th Embodiment of this invention. 本発明の第5実施形態における降雨判定の繰り返しと判定結果の出力との関係を示す説明図である。It is explanatory drawing which shows the relationship between the repetition of the rain determination in 5th Embodiment of this invention, and the output of a determination result. 本発明の第5実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the obstacle detection method of the obstacle detection apparatus which concerns on 5th Embodiment of this invention. 本発明の第5実施形態における連続判定処理の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the continuous determination process in 5th Embodiment of this invention. 検知距離を示す第1距離データの説明図である。It is explanatory drawing of the 1st distance data which shows a detection distance. 検知距離を示す第2距離データの説明図である。It is explanatory drawing of the 2nd distance data which shows a detection distance. 検知画像生成部によって生成された第9検知画像を示す説明図である。It is explanatory drawing which shows the 9th detection image produced | generated by the detection image generation part. 検知画像生成部によって生成された第10検知画像を示す説明図である。It is explanatory drawing which shows the 10th detection image produced | generated by the detection image generation part. 本発明の第3実施形態における降雨判定処理3の処理フローを示すフロー図である。It is a flowchart which shows the processing flow of the rain determination process 3 in 3rd Embodiment of this invention. 第1フレームでの第3距離データを示す説明図である。It is explanatory drawing which shows the 3rd distance data in a 1st frame. 第2フレームでの第4距離データを示す説明図である。It is explanatory drawing which shows the 4th distance data in a 2nd frame. 第3フレームでの第5距離データを示す説明図である。It is explanatory drawing which shows the 5th distance data in a 3rd frame. 検知距離の最大値を取得した第6距離データを示す説明図である。It is explanatory drawing which shows the 6th distance data which acquired the maximum value of the detection distance. 本発明の第7実施形態における雨除去処理2の処理フローを示すフロー図である。It is a flowchart which shows the process flow of the rain removal process 2 in 7th Embodiment of this invention.

(第1実施形態)
以下、本発明の第1実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。
(First embodiment)
Hereinafter, an obstacle detection device and a moving body according to a first embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施形態に係る移動体の外観図であって、図2は、図1に示す移動体の構成図である。   FIG. 1 is an external view of a moving body according to the first embodiment of the present invention, and FIG. 2 is a configuration diagram of the moving body shown in FIG.

本発明の第1実施形態に係る移動体1は、被検知物50に対する検知波を送波し、被検知物50からの反射波を受波して、被検知物50までの検知距離KLを測定する測距センサ11が設けられた障害物検知装置10を備え、走行面100を走行する。具体的に、移動体1は、予め設定された経路に沿って移動する四輪の車両であって、測距センサ11、駆動部20、およびCPU30を備えた構成とされている。   The moving body 1 according to the first embodiment of the present invention transmits a detection wave to the detected object 50, receives a reflected wave from the detected object 50, and sets a detection distance KL to the detected object 50. The vehicle includes an obstacle detection device 10 provided with a distance measuring sensor 11 to be measured, and travels on a traveling surface 100. Specifically, the moving body 1 is a four-wheeled vehicle that moves along a preset route, and includes a distance measuring sensor 11, a drive unit 20, and a CPU 30.

駆動部20は、4つの車輪とモータ等の駆動源とによって構成されている。なお、駆動部20は、これに限定されず、車輪の数を変更したり、ベルト等を用いたりしてもよく、移動体1を走行させ、適宜走行する速度を調整できる構成とされていればよい。駆動部20は、走行制御部30eによって、走行する速度や方向が制御される。   The drive unit 20 includes four wheels and a drive source such as a motor. The drive unit 20 is not limited to this, and the number of wheels may be changed, a belt or the like may be used, and the driving unit 20 may be configured to travel and adjust the traveling speed as appropriate. That's fine. The drive unit 20 is controlled in speed and direction of travel by the travel control unit 30e.

測距センサ11は、LIDAR(Light Detection and Ranging)を用いた光学センサであって、検知波であるレーザ光を広範囲に照射し、物体からの反射光(反射波)を受光している。それによって、測距センサ11は、被検知物50の位置や被検知物50までの距離を検知している。なお、測距センサ11の検知結果については、後述する図3Aないし図3Cを参照して、詳細に説明する。   The distance measuring sensor 11 is an optical sensor using LIDAR (Light Detection and Ranging), irradiates a laser beam as a detection wave over a wide range, and receives reflected light (reflected wave) from an object. Thereby, the distance measuring sensor 11 detects the position of the detected object 50 and the distance to the detected object 50. The detection result of the distance measuring sensor 11 will be described in detail with reference to FIGS. 3A to 3C described later.

CPU30は、検知画像生成部30a、降雨判定部30b、雨除去処理部30c、障害物判定部30d、および走行制御部30eを予め組み込まれたプログラムとして記憶しており、記憶したプログラムを実行することにより、後述する処理を実行する。なお、CPU30は、移動体1と障害物検知装置10とで共通に用いられている。また、図2では、省略されているが、移動体1には、測距センサ11の検知結果や、走行速度等の各種設定を記憶させるための記憶装置が設けられていてもよい。   The CPU 30 stores the detected image generation unit 30a, the rain determination unit 30b, the rain removal processing unit 30c, the obstacle determination unit 30d, and the travel control unit 30e as preinstalled programs, and executes the stored program. Thus, the processing described later is executed. The CPU 30 is used in common by the moving body 1 and the obstacle detection device 10. Although omitted in FIG. 2, the moving body 1 may be provided with a storage device for storing the detection result of the distance measuring sensor 11 and various settings such as the traveling speed.

図1では、雨が降っている降雨状態において、走行している移動体1を示している。測距センサ11は、移動体1の進行方向に沿って検知範囲KHが設定されており、検知範囲KH内の障害物51に加えて、雨粒52も被検知物50として検知する。   FIG. 1 shows a moving body 1 that is traveling in a raining state where it is raining. The distance measuring sensor 11 has a detection range KH set along the traveling direction of the moving body 1, and detects the raindrop 52 as the detected object 50 in addition to the obstacle 51 in the detection range KH.

図3Aは、検知画像生成部によって生成された第1検知画像を示す説明図であって、図3Bは、検知画像生成部によって生成された第2検知画像を示す説明図であって、図3Cは、検知画像生成部によって生成された第3検知画像を示す説明図である。   FIG. 3A is an explanatory diagram illustrating a first detection image generated by the detection image generation unit, and FIG. 3B is an explanatory diagram illustrating a second detection image generated by the detection image generation unit, and FIG. These are explanatory drawings which show the 3rd detection image produced | generated by the detection image generation part.

測距センサ11は、検知範囲KHにおける被検知物50の位置を出力する構成とされており、検知画像生成部30aは、測距センサ11の測距結果に基づいて、検知範囲KHにおける被検知物50の有無を示す検知画像(例えば、第1検知画像GZ1)を生成する。検知画像は、検知範囲KHにおける被検知物50の有無と、被検知物50の位置とを関連付けた画像とされている。本実施の形態において、検知画像は、移動体1の進行方向に対し直交する平面を示し、矩形状とされている。検知画像では、被検知物50が位置に応じた座標(画素)に反射点として配置され、被検知物50が有る画素(反射点)を「1」とし、被検知物50が無い画素を「0」として示しており、2値化された画像データとみなされる。なお、以下に示す検知画像(第1検知画像GZ1ないし第10検知画像GZ10)では、水平な方向を横方向Xとし、横方向Xに対して垂直な方向を縦方向Yとして示している。また、以下では説明の簡略化のため、被検知物50が無い画素(反射点では無い画素)を空白点と呼ぶ。   The distance measuring sensor 11 is configured to output the position of the detected object 50 in the detection range KH, and the detection image generating unit 30a is detected in the detection range KH based on the distance measurement result of the distance measuring sensor 11. A detection image (for example, first detection image GZ1) indicating the presence or absence of the object 50 is generated. The detected image is an image in which the presence / absence of the detected object 50 in the detection range KH is associated with the position of the detected object 50. In the present embodiment, the detected image shows a plane orthogonal to the traveling direction of the moving body 1 and has a rectangular shape. In the detected image, the detected object 50 is arranged as a reflection point at coordinates (pixels) corresponding to the position, the pixel (reflective point) where the detected object 50 exists is “1”, and the pixel without the detected object 50 is “ 0 ”, which is regarded as binarized image data. In the detection images shown below (first detection image GZ1 to tenth detection image GZ10), the horizontal direction is indicated as the horizontal direction X, and the direction perpendicular to the horizontal direction X is indicated as the vertical direction Y. In the following, for simplification of description, a pixel without the object 50 (a pixel that is not a reflection point) is referred to as a blank point.

検知画像生成部30aは、予め設定された生成周期SC(後述する図12参照)毎に検知画像を周期的に生成する構成とされている。つまり、検知画像生成部30aは、生成周期SCとして予め設定された時間が経過するたびに、検知画像を生成している。屋外においては、時間の経過によって降雨状態が変化するため、周期的に検知画像を生成して、雨が降っているかどうかを判定している。なお、測距センサ11が検知波を送波するタイミングについては、特に限定されておらず、常に検知波を送波してもよいし、生成周期SCに応じて、定期的に送波して測距を行う構成としてもよい。以下では説明のために、生成周期SCとして設定された時間をフレームと呼ぶことがある。例えば、検知画像を生成した生成周期SCに対して2つ前の周期を、2フレーム前とのように呼ぶことがある。   The detection image generation unit 30a is configured to periodically generate a detection image for each preset generation cycle SC (see FIG. 12 described later). That is, the detected image generation unit 30a generates a detected image every time when a time set in advance as the generation cycle SC elapses. Since the rain condition changes with the passage of time outdoors, detection images are periodically generated to determine whether it is raining. Note that the timing at which the distance measuring sensor 11 transmits the detection wave is not particularly limited, and the detection wave may always be transmitted, or may be periodically transmitted according to the generation cycle SC. It is good also as a structure which performs ranging. Hereinafter, for the sake of explanation, the time set as the generation cycle SC may be referred to as a frame. For example, the two cycles before the generation cycle SC that generated the detected image may be referred to as two frames before.

図3Aは、降雨状態で雨粒52が検知された第1検知画像GZ1を示しており、反射点HK1の数は「11」である。反射点HK1は、第1検知画像GZ1内に離散的に位置しており、それぞれ独立している。つまり、降雨中には、検知範囲KH内に多数の雨粒52が存在しており、多数の雨粒52は、それぞれサイズが小さいため、1つの画素で示されている。   FIG. 3A shows a first detection image GZ1 in which raindrops 52 are detected in a rainy state, and the number of reflection points HK1 is “11”. The reflection points HK1 are discretely located in the first detection image GZ1, and are independent from each other. That is, during the rain, a large number of raindrops 52 exist within the detection range KH, and each of the many raindrops 52 has a small size, and is represented by one pixel.

図3Bは、細長い障害物51が検知された第2検知画像GZ2を示しており、反射点HK2の数は「11」である。なお、第2検知画像GZ2は、降雨状態ではないため、雨粒52による反射点は存在しない。反射点HK2は、縦方向Yに並んで位置しており、横方向Xでの座標が全て同じである。第2検知画像GZ2では、測距センサ11によって棒状の障害物51が検知されている。障害物51のようにサイズが大きい塊は、複数の連続した画素で示される。   FIG. 3B shows the second detection image GZ2 in which the elongated obstacle 51 is detected, and the number of reflection points HK2 is “11”. Since the second detection image GZ2 is not in a rainy state, there are no reflection points due to the raindrops 52. The reflection points HK2 are located side by side in the vertical direction Y, and all the coordinates in the horizontal direction X are the same. In the second detection image GZ2, the rod-shaped obstacle 51 is detected by the distance measuring sensor 11. A block having a large size such as the obstacle 51 is indicated by a plurality of continuous pixels.

図3Cは、降雨状態で雨粒52と障害物51とが検知された第3検知画像GZ3を示しており、反射点の総数は「26」である。なお、第3検知画像GZ3に示された反射点のうち、雨粒52に対応する反射点HK3の数は「12」であって、障害物51に対応する反射点HK4は「14」である。そして、雨粒52に対応する反射点HK3は、第3検知画像GZ3内に離散的に位置しており、障害物51に対応する反射点HK4は、第3検知画像GZ3の中央に集まって位置している。なお、図3Cでは、実線で示した反射点HK3との違いを明確にするために、反射点HK4を太線で示しているが、いずれも画像データでは、「1」として扱われ、両者に違いは無い。   FIG. 3C shows a third detection image GZ3 in which raindrops 52 and obstacles 51 are detected in a rainy state, and the total number of reflection points is “26”. Of the reflection points shown in the third detection image GZ3, the number of reflection points HK3 corresponding to the raindrops 52 is “12”, and the reflection point HK4 corresponding to the obstacle 51 is “14”. The reflection points HK3 corresponding to the raindrops 52 are discretely located in the third detection image GZ3, and the reflection points HK4 corresponding to the obstacle 51 are located in the center of the third detection image GZ3. ing. In FIG. 3C, in order to clarify the difference from the reflection point HK3 indicated by the solid line, the reflection point HK4 is indicated by a thick line, but both are treated as “1” in the image data, and the difference between the two is the difference. There is no.

障害物判定部30dは、検知画像に基づいて、被検知物50が障害物51であるか否かの障害物判定をする。具体的には、予め反射点の数に関する障害物閾値が設定されており、障害物判定部30dは、検知画像内の反射点の数が障害物閾値を超えていると、被検知物50が障害物51であると判定する。   The obstacle determination unit 30d determines whether the detected object 50 is an obstacle 51 based on the detected image. Specifically, an obstacle threshold value related to the number of reflection points is set in advance, and the obstacle determination unit 30d determines that the detected object 50 is detected when the number of reflection points in the detection image exceeds the obstacle threshold value. It is determined that the obstacle 51 is present.

例えば、反射点閾値が「10」に設定されていた場合、第1検知画像GZ1ないし第3検知画像GZ3は、全て被検知物50が障害物51であると判定される。しかしながら、第1検知画像GZ1では、小さな雨粒52が検知されているだけであって、第2検知画像GZ2および第3検知画像GZ3と同様に、障害物51であると判定されるのは好ましくない。そこで、障害物検知装置10では、雨除去処理部30cによって、検知画像に対し雨粒52による反射点を除去して、雨を誤検知することを回避している。   For example, when the reflection point threshold is set to “10”, the first detection image GZ1 to the third detection image GZ3 are all determined that the detected object 50 is the obstacle 51. However, in the first detection image GZ1, only the small raindrops 52 are detected, and it is not preferable to determine that the obstacle 51 is the same as the second detection image GZ2 and the third detection image GZ3. . Therefore, in the obstacle detection device 10, the rain removal processing unit 30c removes the reflection points due to the raindrops 52 from the detected image, thereby avoiding erroneous detection of rain.

具体的に、雨除去処理部30cは、検知画像から孤立点を除去する雨除去処理を行っており、本実施の形態において、雨除去処理では、メディアンフィルタ(メディアン処理)を用いている。一般的に、メディアン処理は、各画素の値を周辺画素の中央値に置き換える処理である。これによって、確実に孤立点を検知画像から除去することができる。以下では、第1検知画像GZ1ないし第3検知画像GZ3に対して、メディアン処理を行った検知画像を参照して、メディアン処理を説明する。   Specifically, the rain removal processing unit 30c performs rain removal processing for removing isolated points from the detected image. In the present embodiment, the rain removal processing uses a median filter (median processing). In general, the median processing is processing for replacing the value of each pixel with the median value of surrounding pixels. Thereby, the isolated point can be reliably removed from the detected image. Hereinafter, the median process will be described with reference to a detection image obtained by performing the median process on the first detection image GZ1 to the third detection image GZ3.

図4Aは、雨除去処理部によって雨除去処理された第4検知画像を示す説明図であって、図4Bは、雨除去処理部によって雨除去処理された第5検知画像を示す説明図である。   FIG. 4A is an explanatory diagram illustrating a fourth detection image that has been subjected to rain removal processing by the rain removal processing unit, and FIG. 4B is an explanatory diagram illustrating a fifth detection image that has been subjected to rain removal processing by the rain removal processing unit. .

図4Aは、第1検知画像GZ1および第2検知画像GZ2に対して、メディアン処理を行った第4検知画像GZ4を示しており、反射点の数は「0」である。   FIG. 4A shows a fourth detection image GZ4 obtained by performing median processing on the first detection image GZ1 and the second detection image GZ2, and the number of reflection points is “0”.

先ず、第1検知画像GZ1(図3A参照)において、反射点HK1は、それぞれ独立しており、周囲を空白点に囲まれているので、全ての反射点HK1が、空白点に置き換えられる。その結果、第1検知画像GZ1は、反射点が存在しない第4検知画像GZ4とされる。   First, in the first detection image GZ1 (see FIG. 3A), the reflection points HK1 are independent of each other and are surrounded by blank points, so that all the reflection points HK1 are replaced with blank points. As a result, the first detection image GZ1 is a fourth detection image GZ4 in which no reflection point exists.

次に、第2検知画像GZ2(図3B参照)では、反射点HK2が連続しているが、反射点HK2の周囲には、空白点が多く存在しており、メディアン処理を行うと、反射点HK2が空白点に置き換えられる。その結果、第2検知画像GZ2は、第1検知画像GZ1と同様に、反射点が存在しない第4検知画像GZ4とされる。   Next, in the second detection image GZ2 (see FIG. 3B), the reflection points HK2 are continuous, but there are many blank points around the reflection point HK2, and when the median processing is performed, the reflection point HK2 Is replaced with a blank point. As a result, the second detection image GZ2 is a fourth detection image GZ4 that does not have a reflection point, like the first detection image GZ1.

図4Bは、第3検知画像GZ3に対して、メディアン処理を行った第5検知画像GZ5を示しており、反射点HK4の数は「14」である。第3検知画像GZ3(図3C参照)では、雨粒52に対応する反射点HK3と障害物51に対応する反射点HK4とが存在していたが、雨粒52に対応する反射点HK3は、第1検知画像GZ1と同様にして、全て空白点に置き換えられる。これに対し、障害物51に対応する反射点HK4は、位置(座標)が集中しており、周囲に多くの反射点HK4が存在するため、メディアン処理を行っても、空白点に置き換えられず、反射点HK4として残る。その結果、第3検知画像GZ3は、雨粒52に対応する反射点HK3だけが除去されて、障害物51に対応する反射点HK4だけが存在する第5検知画像GZ5とされる。   FIG. 4B shows a fifth detection image GZ5 obtained by performing median processing on the third detection image GZ3, and the number of reflection points HK4 is “14”. In the third detection image GZ3 (see FIG. 3C), there is a reflection point HK3 corresponding to the raindrop 52 and a reflection point HK4 corresponding to the obstacle 51. However, the reflection point HK3 corresponding to the raindrop 52 is the first point. In the same manner as the detected image GZ1, all are replaced with blank points. On the other hand, the reflection point HK4 corresponding to the obstacle 51 is concentrated in position (coordinates), and there are many reflection points HK4 in the surroundings. Therefore, even if median processing is performed, the reflection point HK4 is not replaced with a blank point. It remains as a reflection point HK4. As a result, the third detection image GZ3 is a fifth detection image GZ5 in which only the reflection point HK3 corresponding to the raindrop 52 is removed and only the reflection point HK4 corresponding to the obstacle 51 is present.

ところで、第2検知画像GZ2については、細長い障害物51を検知した画像であるため、被検知物50が障害物51であると判定されることが望ましい。しかしながら、第2検知画像GZ2は、メディアン処理が行われると、第4検知画像GZ4とされるが、第4検知画像GZ4を対象として障害物判定を行うと、反射点が存在しないため、被検知物50が障害物51であると判定されない。従って、降雨中には、雨粒52を除去するために雨除去処理を行うことが望ましいが、降雨していないときには、雨除去処理を行わないことが望ましく、状況に応じて、雨除去処理を行うか否かを選択することが望ましい。そこで、障害物検知装置10では、降雨判定部30bによって、降雨状態であるか否かを判定し、状態に応じて、雨除去処理の要否を指示している。   By the way, since the second detection image GZ2 is an image in which the elongated obstacle 51 is detected, it is desirable to determine that the detected object 50 is the obstacle 51. However, when the median process is performed, the second detection image GZ2 is the fourth detection image GZ4. However, when the obstacle determination is performed on the fourth detection image GZ4, there is no reflection point. The object 50 is not determined to be the obstacle 51. Therefore, it is desirable to perform rain removal processing to remove the raindrops 52 during rainfall, but it is desirable not to perform rain removal processing when it is not raining, and to perform rain removal processing depending on the situation. It is desirable to select whether or not. Therefore, in the obstacle detection device 10, the rain determination unit 30b determines whether or not it is a rain state, and instructs whether or not rain removal processing is necessary according to the state.

具体的に、降雨判定部30bは、検知画像内の被検知物50のうち、離散的に位置する孤立点の有無に基づいて、検知範囲KHが降雨状態であるか否かの降雨判定をしている。本実施の形態では、降雨判定の際に、検知画像における被検知物50の分散値を算出する構成とされている。   Specifically, the rain determination unit 30b determines whether or not the detection range KH is in a rain state based on the presence or absence of discretely located isolated points in the detected object 50 in the detection image. ing. In the present embodiment, the configuration is such that the variance value of the detected object 50 in the detected image is calculated at the time of rainfall determination.

例えば、第1検知画像GZ1に対して、降雨判定を行う場合、先ず、第1検知画像GZ1にメディアン処理が行われ、上述した第4検知画像GZ4(メディアン処理画像)が生成される。   For example, when performing rainfall determination on the first detection image GZ1, first, median processing is performed on the first detection image GZ1, and the above-described fourth detection image GZ4 (median processing image) is generated.

次に、第1検知画像GZ1とメディアン処理画像との差分を算出した差分画像が生成される。ここで、第4検知画像GZ4は、全て空白点であるため、第1検知画像GZ1との差分は、第1検知画像GZ1と略同じとなる。つまり、第1検知画像GZ1における差分画像は、第1検知画像GZ1に相当し、図面を省略する。   Next, a difference image in which a difference between the first detection image GZ1 and the median processed image is calculated is generated. Here, since all the fourth detection images GZ4 are blank points, the difference from the first detection image GZ1 is substantially the same as that of the first detection image GZ1. That is, the difference image in the first detection image GZ1 corresponds to the first detection image GZ1, and the drawing is omitted.

そして、差分画像に対して、横方向Xと縦方向Yとのそれぞれでの分散値が算出される。降雨判定では、予め分散値の数に関する分散閾値が設定されており、降雨判定部30bは、算出した分散値が分散閾値を超えていると、降雨状態であると判定する。なお、本実施の形態では、横方向Xでの横分散値Vxに対して、横方向Xの横分散閾値Thxが設定されており、縦方向Yでの縦分散値Vyに対して、縦方向Yの縦分散閾値Thyが設定されている。さらに、降雨判定において、「Vx>Thx」、且つ「Vy>Thy」である場合に、降雨状態であると判定される。つまり、横方向Xと縦方向Yとのいずれかの分散値が、対応する分散閾値を超えていない場合には、降雨状態ではない(通常状態である)と判定される。   Then, the variance value in each of the horizontal direction X and the vertical direction Y is calculated for the difference image. In the rain determination, a dispersion threshold regarding the number of dispersion values is set in advance, and the rain determination unit 30b determines that the rain state is present when the calculated dispersion value exceeds the dispersion threshold. In this embodiment, a horizontal dispersion threshold value Thx in the horizontal direction X is set for the horizontal dispersion value Vx in the horizontal direction X, and the vertical direction is set for the vertical dispersion value Vy in the vertical direction Y. A Y vertical dispersion threshold Thy is set. Furthermore, in the rain determination, if “Vx> Thx” and “Vy> Thy”, it is determined that the vehicle is in a rain state. That is, when the variance value in either the horizontal direction X or the vertical direction Y does not exceed the corresponding variance threshold value, it is determined that the rain state is not present (normal state).

第1検知画像GZ1の場合には、反射点HK1がそれぞれ独立しており、1箇所に集まらずにばらついているため、分散値は分散閾値を超えるような大きな値となる。従って、第1検知画像GZ1は、降雨状態であると判定される。   In the case of the first detection image GZ1, since the reflection points HK1 are independent of each other and vary without being collected at one place, the dispersion value becomes a large value exceeding the dispersion threshold. Therefore, it is determined that the first detection image GZ1 is in a rainy state.

上述したように、降雨判定部30bは、検知画像と、検知画像に対しメディアンフィルタを用いて孤立点を除去したメディアン処理画像とを比較して、降雨判定を行っている。従って、障害物51と雨粒52との両方が検知された場合であっても、メディアンフィルタを用いて雨粒52を抽出し、雨粒52だけを降雨判定の対象とすることができる。   As described above, the rain determination unit 30b performs the rain determination by comparing the detected image with the median processed image from which the isolated point is removed using the median filter. Therefore, even when both the obstacle 51 and the raindrop 52 are detected, the raindrop 52 can be extracted using the median filter, and only the raindrop 52 can be the target of the rain determination.

ところで、第2検知画像GZ2に対して降雨判定を行うと、第2検知画像GZ2における差分画像は、第2検知画像GZ2と略同じとなる。そして、第2検知画像GZ2での分散値を算出した場合、反射点HK2は、縦方向Yに並んでおり、それぞれの反射点HK2で縦方向Yの座標が異なるため、縦分散値Vyは大きな値となる。これに対し、横方向Xでは、反射点HK2の座標が同じであるため、横分散値Vxが横分散閾値Thxより小さい値となる。その結果、第2検知画像GZ2は、降雨状態ではないと判定される。   By the way, when the rain detection is performed on the second detection image GZ2, the difference image in the second detection image GZ2 is substantially the same as the second detection image GZ2. When the dispersion value in the second detection image GZ2 is calculated, the reflection points HK2 are arranged in the vertical direction Y, and the vertical dispersion value Vy is large because the coordinates in the vertical direction Y are different at each reflection point HK2. Value. On the other hand, in the horizontal direction X, since the coordinates of the reflection point HK2 are the same, the lateral dispersion value Vx is smaller than the lateral dispersion threshold Thx. As a result, it is determined that the second detection image GZ2 is not in a rain state.

上述したように、分散値を算出して、反射点のばらつきを把握することで、被検知物50が離散的に位置する孤立点であるかどうかを判別することができる。   As described above, it is possible to determine whether or not the detected object 50 is an isolated point discretely located by calculating the dispersion value and grasping the variation of the reflection point.

次に、障害物検知装置10(移動体1)における障害物検知方法の処理フローについて、図面を参照して説明する。   Next, the processing flow of the obstacle detection method in the obstacle detection apparatus 10 (moving body 1) will be described with reference to the drawings.

図5は、本発明の第1実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。   FIG. 5 is a flowchart showing a processing flow of the obstacle detection method of the obstacle detection device according to the first embodiment of the present invention.

移動体1は、処理開始時において、予め設定された走行速度で走行面100を走行している状態とされている。   The mobile body 1 is in a state of traveling on the traveling surface 100 at a preset traveling speed at the start of processing.

ステップS101では、検知画像生成部30aによって、検知画像が生成される。検知画像は、例えば、記憶装置などに一次保存しておく構成とし、複数フレームの検知画像を蓄積させてもよい。   In step S101, a detection image is generated by the detection image generation unit 30a. For example, the detected image may be temporarily stored in a storage device or the like, and a plurality of frames of detected images may be accumulated.

ステップS102では、降雨判定部30bによって、後述する降雨判定処理(図6参照)が行われる。   In step S102, a rain determination process (see FIG. 6) described later is performed by the rain determination unit 30b.

ステップS103では、降雨判定部30bによって、降雨状態であると判定されたかどうかが判断される。つまり、降雨判定部30bから出力された結果が、降雨状態であるか否かで判断される。その結果、降雨状態であると判定された場合(ステップS103:Yes)には、ステップS104へ進む。一方、降雨状態ではないと判定された場合(ステップS103:No)には、ステップS106へ進む。   In step S103, it is determined whether or not the rain determination unit 30b determines that the rain state is present. That is, it is determined whether or not the result output from the rain determination unit 30b is in a rain state. As a result, when it is determined that it is raining (step S103: Yes), the process proceeds to step S104. On the other hand, when it is determined that it is not raining (step S103: No), the process proceeds to step S106.

ステップS104では、走行制御部30eによって、徐行走行へ切り換えられる。つまり、走行制御部30eは、駆動部20に対し、走行速度を減速させる指示をする。走行制御部30eでは、予め徐行走行に対応する徐行速度が設定されていてもよいし、通常時の走行速度に対して、所定の数値だけ減算した走行速度としてもよい。なお、既に、徐行走行にして減速されている場合には、設定を変更する必要は無い。   In step S104, the traveling control unit 30e switches to slow traveling. That is, the traveling control unit 30e instructs the driving unit 20 to reduce the traveling speed. In the travel control unit 30e, a slow speed corresponding to slow travel may be set in advance, or may be a travel speed obtained by subtracting a predetermined value from the normal travel speed. Note that if the vehicle has already been decelerated by slow travel, there is no need to change the setting.

ステップS105では、雨除去処理部30cによって、後述する雨除去処理(図7参照)が行われ、ステップS108へ進む。   In step S105, a rain removal process (see FIG. 7) described later is performed by the rain removal processing unit 30c, and the process proceeds to step S108.

ステップS106では、走行制御部30eによって、通常走行へ切り換えられる。つまり、移動体1の走行速度が、徐行速度のように減速されている場合には、処理開始時の走行速度へ戻す。また、通常走行とされており、初期の走行速度とされている場合には、設定を変更する必要は無い。   In step S106, the travel control unit 30e switches to normal travel. That is, when the traveling speed of the moving body 1 is decelerated like the slow speed, it returns to the traveling speed at the start of the process. Moreover, when it is set as normal driving | running and it is set as the initial driving speed, it is not necessary to change a setting.

ステップS107では、雨除去処理部30cによって、雨除去処理が停止される。つまり、前のフレームで雨除去処理を行っていた場合には、雨除去処理を停止し、ステップS101で生成した検知画像に対して、雨除去処理を行わずに出力する。   In step S107, the rain removal processing unit 30c stops the rain removal processing. That is, if rain removal processing has been performed in the previous frame, the rain removal processing is stopped, and the detection image generated in step S101 is output without performing rain removal processing.

ステップS108では、障害物判定部30dによって、障害物判定処理が行われる。障害物判定処理では、検知画像に対して障害物判定が行われるが、ステップS105で雨除去処理を行った場合には、雨除去処理された処理済画像に対して障害物判定を行う。   In step S108, the obstacle determination unit 30d performs an obstacle determination process. In the obstacle determination process, the obstacle determination is performed on the detected image. However, when the rain removal process is performed in step S105, the obstacle determination is performed on the processed image subjected to the rain removal process.

ステップS109では、障害物判定部30dによって、障害物51があると判定されたかどうかが判断される。つまり、検知画像内の被検知物50が障害物51であるかどうかによって判断される。その結果、障害物51がないと判定された場合(ステップS109:No)には、ステップS110へ進む。一方、障害物51があると判定された場合(ステップS109:Yes)には、ステップS111へ進む。   In step S109, the obstacle determination unit 30d determines whether it is determined that there is the obstacle 51. That is, the determination is made based on whether or not the detected object 50 in the detected image is the obstacle 51. As a result, when it is determined that there is no obstacle 51 (step S109: No), the process proceeds to step S110. On the other hand, if it is determined that there is an obstacle 51 (step S109: Yes), the process proceeds to step S111.

ステップS110では、検知画像生成部30aによって、次の生成周期まで待機した後、ステップS101へ戻る。つまり、障害物検知装置10は、1フレーム経過するのを待ち、ステップS101ないしステップS109に示す処理を繰り返す。なお、移動体1は、1フレーム経過する間、待機せずに走行し続けている。従って、移動体1が走行している状態で、障害物検知装置10は、周期的に障害物の検知を行っている。また、処理の途中で走行速度を変更した場合には、変更された速度を、再度変更されるまで維持する。   In step S110, the detected image generation unit 30a waits for the next generation cycle, and then returns to step S101. That is, the obstacle detection device 10 waits for one frame to elapse and repeats the processes shown in steps S101 to S109. Note that the moving body 1 continues to travel without waiting while one frame elapses. Therefore, the obstacle detection device 10 periodically detects an obstacle while the moving body 1 is traveling. In addition, when the traveling speed is changed during the process, the changed speed is maintained until it is changed again.

ステップS111では、走行制御部30eによって、走行が停止され、処理を終了する。つまり、検知範囲KH内に障害物51があると判定された場合、移動体1は、停止して指示を待つ。   In step S111, the traveling control unit 30e stops traveling and ends the process. That is, when it is determined that the obstacle 51 is within the detection range KH, the moving body 1 stops and waits for an instruction.

次に、ステップS102における降雨判定処理について、詳細に説明する。なお、本発明では、降雨判定および雨除去処理として複数の方法を用いることができる。そこで、複数の降雨判定処理および雨除去処理を区別するため、本発明の第1実施形態における降雨判定処理および雨除去処理を、降雨判定処理1および雨除去処理1と呼ぶ。   Next, the rain determination process in step S102 will be described in detail. In the present invention, a plurality of methods can be used as rain determination and rain removal processing. Therefore, in order to distinguish between a plurality of rain determination processes and rain removal processes, the rain determination process and the rain removal process in the first embodiment of the present invention are referred to as a rain determination process 1 and a rain removal process 1.

図6は、本発明の第1実施形態における降雨判定処理1の処理フローを示すフロー図である。   FIG. 6 is a flowchart showing a process flow of the rain determination process 1 in the first embodiment of the present invention.

ステップS201では、降雨判定部30bによって、メディアン処理画像が生成される。つまり、ステップS101で生成された検知画像に対して、メディアン処理を施し、メディアン処理画像とする。   In step S201, the median processing image is generated by the rain determination unit 30b. That is, the median process is performed on the detected image generated in step S101 to obtain a median processed image.

ステップS202では、降雨判定部30bによって、検知画像とメディアン処理画像とを比較した差分画像が生成される。   In step S202, the rain determination unit 30b generates a difference image that compares the detected image with the median processed image.

ステップS203では、降雨判定部30bによって、差分画像の分散値が分散閾値を超えているかどうかが判断される。つまり、差分画像における横分散値Vxおよび縦分散値Vyを算出して、横分散閾値Thxおよび縦分散閾値Thyと比較する。その結果、分散値が分散閾値を超えている場合(ステップS203:Yes)には、ステップS204へ進む。一方、分散値が分散閾値を超えていない場合(ステップS203:No)には、ステップS205へ進む。   In step S203, the rain determining unit 30b determines whether or not the variance value of the difference image exceeds the variance threshold. That is, the lateral dispersion value Vx and the longitudinal dispersion value Vy in the difference image are calculated and compared with the lateral dispersion threshold Thx and the longitudinal dispersion threshold Thy. As a result, when the variance value exceeds the variance threshold (step S203: Yes), the process proceeds to step S204. On the other hand, if the variance value does not exceed the variance threshold (step S203: No), the process proceeds to step S205.

なお、分散値と分散閾値とを比較する前に、差分画像における反射点の数に対して、予め設定された反射点閾値と比較して、反射点の数が反射点閾値を超えていない場合には、分散値に拘わらず、ステップS205へ進んでもよい。つまり、反射点が少ないと、分散値の精度が低くなり、実際に反射点がばらついているかどうかを判断するのが困難なためである。また、反射点が少なければ、雨が降っていたとしても、雨除去処理を要する程度の大雨では無いと推測できるためである。   When the number of reflection points does not exceed the reflection point threshold, compared to the reflection point threshold set in advance for the number of reflection points in the difference image before comparing the dispersion value and the dispersion threshold. However, the process may proceed to step S205 regardless of the variance value. That is, if the number of reflection points is small, the accuracy of the dispersion value is low, and it is difficult to determine whether the reflection points actually vary. Moreover, if there are few reflection points, even if it is raining, it can be estimated that it is not heavy rain that requires rain removal processing.

ステップS204では、降雨判定部30bによって、降雨状態であると判定され、降雨判定処理1を終了する。   In step S204, the rain determination unit 30b determines that it is in a rain state, and the rain determination process 1 ends.

ステップS205では、降雨判定部30bによって、降雨状態ではないと判定され、降雨判定処理1を終了する。   In step S205, the rain determination unit 30b determines that the rain state is not present, and the rain determination process 1 is terminated.

図7は、本発明の第1実施形態における雨除去処理1の処理フローを示すフロー図である。   FIG. 7 is a flowchart showing the process flow of the rain removal process 1 in the first embodiment of the present invention.

ステップS301では、雨除去処理部30cによって、検知画像にメディアン処理をする。なお、上述した降雨判定処理(例えば、ステップS201)において、メディアン処理画像が生成されていれば、これを用いることができ、新たな画像を生成する必要は無いため、処理時間を短縮することができる。   In step S301, the rain removal processing unit 30c performs median processing on the detected image. Note that if a median-processed image is generated in the above-described rainfall determination process (for example, step S201), it can be used, and it is not necessary to generate a new image, so that the processing time can be shortened. it can.

ステップS302では、雨除去処理部30cによって、メディアン処理した検知画像を処理済画像に指定し、処理を終了する。つまり、上述した障害物判定は、ここで指定された処理済画像に対して行われる。   In step S302, the rain removal processing unit 30c designates the detected image that has undergone the median process as a processed image, and the process ends. That is, the above-described obstacle determination is performed on the processed image designated here.

本実施の形態では、上述した処理をしており、以下では、具体例として、ステップS101で第1検知画像GZ1ないし第3検知画像GZ3が生成された場合について、それぞれ説明する。   In the present embodiment, the above-described processing is performed, and hereinafter, as specific examples, cases where the first detection image GZ1 to the third detection image GZ3 are generated in step S101 will be described.

第1検知画像GZ1が生成された場合、ステップS102の降雨判定処理では、降雨状態であると判定される(図6のステップ204)。その結果、移動体1は、徐行走行とされ、第1検知画像GZ1に対して雨除去処理(図5のステップ105)が行われる。雨除去処理の結果、第1検知画像GZ1は、反射点HK1が除去された第4検知画像GZ4とされ、第4検知画像GZ4に対して障害物判定が行われる。第4検知画像GZ4は、障害物51がないと判定されるので、ステップS110へ進む。その後、移動体1は、徐行走行した状態で、再度、検知画像が生成され、障害物51の検知が行われる。   When the first detection image GZ1 is generated, it is determined in the rain determination process in step S102 that it is in a rain state (step 204 in FIG. 6). As a result, the moving body 1 is set to travel slowly, and rain removal processing (step 105 in FIG. 5) is performed on the first detection image GZ1. As a result of the rain removal process, the first detection image GZ1 is the fourth detection image GZ4 from which the reflection point HK1 has been removed, and obstacle determination is performed on the fourth detection image GZ4. Since it is determined that the fourth detected image GZ4 has no obstacle 51, the process proceeds to step S110. Thereafter, the moving body 1 travels slowly, and a detection image is generated again, and the obstacle 51 is detected.

第2検知画像GZ2が生成された場合、降雨判定処理では、降雨状態ではないと判定される(図6のステップ205)。その結果、移動体1は、通常走行とされ、雨除去処理は実施されない。障害物判定では、第2検知画像GZ2を対象とし、障害物51があると判定される(図5のステップS111)。そして、移動体1は、走行を停止する。   When the second detection image GZ2 is generated, it is determined in the rain determination process that the rain state is not present (step 205 in FIG. 6). As a result, the moving body 1 is in a normal travel, and no rain removal process is performed. In the obstacle determination, it is determined that there is an obstacle 51 for the second detection image GZ2 (step S111 in FIG. 5). Then, the moving body 1 stops traveling.

第3検知画像GZ3が生成された場合、降雨判定処理では、降雨状態であると判定される。そして、第3検知画像GZ3は、雨除去処理がされ、障害物判定の対象が第5検知画像GZ5とされる。障害物判定では、障害物51があると判定され、移動体1を停止させる。   When the third detection image GZ3 is generated, it is determined that it is raining in the rain determination process. The third detection image GZ3 is subjected to rain removal processing, and the obstacle determination target is the fifth detection image GZ5. In the obstacle determination, it is determined that there is an obstacle 51 and the moving body 1 is stopped.

上述したように、測距センサ11の測距結果では、雨粒52と障害物51とがいずれも被検知物50とみなされてしまい、両者を区別することができない。そこで、降雨中には、検知画像に雨除去処理を施すことで、障害物51だけを示す検知画像とすることができ、雨粒52を障害物51として誤検知することを避けることができる。   As described above, in the distance measurement result of the distance measurement sensor 11, both the raindrop 52 and the obstacle 51 are regarded as the detected object 50 and cannot be distinguished from each other. Therefore, by performing rain removal processing on the detection image during the rain, a detection image showing only the obstacle 51 can be obtained, and erroneous detection of the raindrop 52 as the obstacle 51 can be avoided.

また、走行制御部30eは、降雨判定部30bによって降雨状態であると判定された場合、走行速度を減速させる制御をする構成とされている。従って、降雨中には、雨除去処理などによって処理に要する時間が長くなることを考慮し、移動体1を減速させることで、障害物51等に近接するまでの時間を長くして、障害物51等との衝突を回避することができる。例えば、降雨状態において、図3Bに示すような細長い障害物51が存在する場合、雨除去処理によって、障害物51が除去される可能性があるが、移動体1を減速させることで、障害物51に近接するまでに、再度、障害物判定が行われる。その結果、近接してから検知することで、検知画像内で障害物51が占める範囲が大きくなり、雨除去処理によって障害物51が除去されず、障害物51があると判定できる。   In addition, the traveling control unit 30e is configured to control to reduce the traveling speed when the rain determining unit 30b determines that it is in a raining state. Accordingly, in consideration of the fact that the time required for the processing becomes longer due to the rain removal processing or the like during the rain, the moving body 1 is decelerated to increase the time until it approaches the obstacle 51 and the like. Collision with 51 etc. can be avoided. For example, when a slender obstacle 51 as shown in FIG. 3B exists in a rainy state, the obstacle 51 may be removed by the rain removal process. Obstacle determination is performed again before approaching 51. As a result, by detecting after approaching, the area occupied by the obstacle 51 in the detection image becomes large, and it can be determined that the obstacle 51 is not removed by the rain removal process and the obstacle 51 is present.

本発明に係る障害物検知方法は、被検知物50に対する検知波を送波し、被検知物50からの反射波を受波して、被検知物50までの検知距離KLを測定する測距センサ11を備えた障害物検知装置10における障害物検知方法であって、検知画像生成部30aに、測距センサ11の測距結果に基づいて、検知波が送波された検知範囲KHにおける被検知物50の有無を示す検知画像を生成させる検知画像生成ステップと、降雨判定部30bに、検知画像内の被検知物50のうち、離散的に位置する孤立点の有無に基づいて、検知範囲KHが降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、雨除去処理部30cに、検知画像から孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、障害物判定部30dに、検知画像に基づいて、被検知物50が障害物51であるか否かの障害物判定をさせる障害物判定ステップとを含んでいる。障害物判定ステップは、降雨判定ステップで降雨状態であると判定された場合、雨除去処理ステップで雨除去処理された検知画像に基づいて、障害物判定を実施する。   The obstacle detection method according to the present invention transmits a detection wave to the detected object 50, receives a reflected wave from the detected object 50, and measures a detection distance KL to the detected object 50. An obstacle detection method in the obstacle detection apparatus 10 provided with the sensor 11, wherein the detected image is generated in the detection range KH where the detection wave is transmitted to the detection image generation unit 30 a based on the distance measurement result of the distance measurement sensor 11. Based on the detection image generation step for generating a detection image indicating the presence or absence of the detection object 50 and the presence / absence of isolated points discretely located among the detection objects 50 in the detection image in the rain determination unit 30b. A rain determination step for determining whether or not KH is in a rain state, a rain removal processing step for causing the rain removal processing unit 30c to perform a rain removal process for removing isolated points from the detected image, and an obstacle determination unit 30d, detected image Based on, and a obstacle determining step of the obstacle determines whether the detection object 50 is an obstacle 51. In the obstacle determination step, when it is determined in the rain determination step that the vehicle is in the rain state, the obstacle determination is performed based on the detected image subjected to the rain removal process in the rain removal processing step.

(第2実施形態)
次に、本発明の第2実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第2実施形態は、第1実施形態に対して、略同様の形状とされているので、外観図や構成図を省略し、第1実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Second Embodiment)
Next, an obstacle detection device and a moving body according to a second embodiment of the present invention will be described with reference to the drawings. Since the second embodiment has substantially the same shape as the first embodiment, the external view and the configuration diagram are omitted, and the components having substantially the same functions as those of the first embodiment are omitted. The same reference numerals are given and the description is omitted.

図8は、本発明の第2実施形態における検知画像生成部で生成された第6検知画像を示す説明図である。   FIG. 8 is an explanatory diagram illustrating a sixth detection image generated by the detection image generation unit according to the second embodiment of the present invention.

第2実施形態は、第1実施形態に対して、検知画像生成部30aで生成される検知画像の形式が異なる。具体的に、検知画像は、第1実施形態において、2次元で示された平面的な画像であったのに対し、第2実施形態では、3次元で示された立体的な画像とされている。つまり、検知画像生成部30aは、検知画像として、立体空間とされた検知範囲に対応する3次元画像(例えば、第6検知画像GZ6)を生成する。   The second embodiment differs from the first embodiment in the format of the detection image generated by the detection image generation unit 30a. Specifically, the detected image is a two-dimensional planar image in the first embodiment, whereas in the second embodiment, the detected image is a three-dimensional stereoscopic image. Yes. That is, the detection image generation unit 30a generates a three-dimensional image (for example, the sixth detection image GZ6) corresponding to the detection range that is a three-dimensional space as the detection image.

図8は、第2実施形態において生成された第6検知画像GZ6であって、立体的な空間に反射点HK5を配置した画像とされている。第6検知画像GZ6は、横方向Xおよび縦方向Yに加えて、両者と直交する奥行方向Zが示されている。反射点HK5を配置する際には、被検知物50の検知距離KLに基づいて、奥行方向Zでの位置を決めればよい。第6検知画像GZ6は、降雨中に検知された雨粒52を反射点HK5として示しており、反射点HK5は、横方向Xおよび縦方向Yでそれぞれ離間しているのに加えて、奥行方向Zでも離間している。   FIG. 8 is the sixth detection image GZ6 generated in the second embodiment, and is an image in which the reflection point HK5 is arranged in a three-dimensional space. In the sixth detection image GZ6, in addition to the horizontal direction X and the vertical direction Y, a depth direction Z orthogonal to both is shown. When the reflection point HK5 is arranged, the position in the depth direction Z may be determined based on the detection distance KL of the detection object 50. The sixth detection image GZ6 shows the raindrop 52 detected during the rain as the reflection point HK5, and the reflection point HK5 is separated in the horizontal direction X and the vertical direction Y, respectively, in addition to the depth direction Z. But it is far away.

第2実施形態では、第1実施形態と同様の障害物検知方法が実施される。降雨判定では、第6検知画像GZ6に対し、横方向Xおよび縦方向Yと伴に、奥行方向Zでも分散値が算出される。算出された分散値において、横方向X、縦方向Y、および奥行方向Zのうちのいずれかで、対応する分散閾値を超えていない場合には、降雨状態ではない(通常状態である)と判定される。従って、立体空間に対して雨を検知する処理を行うことで、より確実に雨が降っているかどうかを判定することができる。つまり、複数の反射点HK5が隣接して大きな障害物51のような形状となっている場合でも、それぞれの反射点HK5までの距離を比較することで、互いに離間した位置関係であることが把握できる。   In the second embodiment, the same obstacle detection method as that in the first embodiment is implemented. In the rain determination, the variance value is calculated in the depth direction Z along with the horizontal direction X and the vertical direction Y with respect to the sixth detection image GZ6. If the calculated dispersion value does not exceed the corresponding dispersion threshold value in any one of the horizontal direction X, the vertical direction Y, and the depth direction Z, it is determined that the rain state is not present (normal state). Is done. Therefore, it is possible to determine whether or not it is raining more reliably by performing the process of detecting rain on the three-dimensional space. That is, even when a plurality of reflection points HK5 are adjacent to each other and have a shape like a large obstacle 51, it is grasped that they are separated from each other by comparing the distances to the respective reflection points HK5. it can.

検知画像生成部30aは、第6検知画像GZ6を生成する際、3次元画像だけでなく、検知結果を平面に示した画像(例えば、第1検知画像GZ1)を生成してもよい。雨除去処理や障害物判定は、平面的な検知画像を対象として実施することで、画像処理を簡略化し、処理時間を短縮することができる。また、3次元画像を対象として、障害物判定などをした場合では、被検知物50の形状をより正確に把握できるので、判定の精度を向上させることができる。   When generating the sixth detection image GZ6, the detection image generation unit 30a may generate not only a three-dimensional image but also an image (for example, the first detection image GZ1) showing the detection result on a plane. The rain removal process and the obstacle determination are performed on a planar detection image, thereby simplifying the image process and shortening the processing time. In addition, when an obstacle is determined for a three-dimensional image, the shape of the detected object 50 can be grasped more accurately, so that the determination accuracy can be improved.

(第3実施形態)
次に、本発明の第3実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第3実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態および第2実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Third embodiment)
Next, an obstacle detection device and a moving body according to a third embodiment of the present invention will be described with reference to the drawings. Since the third embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first embodiment and the second embodiment. The description will be omitted.

図9は、本発明の第3実施形態における検知画像生成部で生成された第7検知画像を示す説明図であって、図10は、第1検知画像と第7検知画像とを比較した差分画像を示す説明図である。   FIG. 9 is an explanatory diagram illustrating a seventh detection image generated by the detection image generation unit according to the third embodiment of the present invention, and FIG. 10 illustrates a difference between the first detection image and the seventh detection image. It is explanatory drawing which shows an image.

第3実施形態は、第1実施形態に対して、降雨判定に用いられている方法が異なる。第1実施形態では、検知画像に対してメディアン処理をしたメディアン処理画像との差分を算出していたが、第3実施形態において、降雨判定部30bは、それぞれ異なる生成周期SCにおいて生成された2つの検知画像を比較して、降雨判定を行う構成とされている。   The third embodiment differs from the first embodiment in the method used for rainfall determination. In the first embodiment, the difference between the detected image and the median-processed image obtained by performing the median process is calculated. However, in the third embodiment, the rainfall determination unit 30b is generated at different generation cycles SC. It is set as the structure which compares two detection images and performs rain judgment.

図9は、降雨状態で雨粒52が検知された第7検知画像GZ7を示しており、反射点HK6の数は「10」である。反射点HK6は、第7検知画像GZ7内に離散的に位置しており、それぞれ独立している。また、第7検知画像GZ7は、第1検知画像GZ1の1フレーム前に生成された検知画像とされている。つまり、設置された障害物51は、移動しないため、時間が経過しても位置が変わらないが、雨粒52は、時間の経過によって移動するため、検知範囲KH内での位置が変化する。そのため、第7検知画像GZ7は、第1検知画像GZ1に対して、反射点HK6(雨粒52)の配置が異なっている。なお、図9および図10では、実線で示した反射点HK1との違いを明確にするために、反射点HK6を破線で示しているが、いずれも画像データでは、「1」として扱われ、両者に違いは無い。   FIG. 9 shows a seventh detection image GZ7 in which raindrops 52 are detected in a rainy state, and the number of reflection points HK6 is “10”. The reflection points HK6 are discretely located in the seventh detection image GZ7 and are independent from each other. The seventh detection image GZ7 is a detection image generated one frame before the first detection image GZ1. That is, since the installed obstacle 51 does not move, the position does not change even if time elapses. However, since the raindrop 52 moves as time elapses, the position in the detection range KH changes. Therefore, the seventh detection image GZ7 is different from the first detection image GZ1 in the arrangement of the reflection points HK6 (raindrops 52). In FIGS. 9 and 10, in order to clarify the difference from the reflection point HK1 indicated by the solid line, the reflection point HK6 is indicated by a broken line, but both are treated as “1” in the image data. There is no difference between the two.

図10は、第1検知画像GZ1と第7検知画像GZ7との差分を算出した第8検知画像GZ8(差分画像)を示しており、第1検知画像GZ1の反射点HK1と第7検知画像GZ7の反射点HK6とが示されている。なお、差分画像において、重複した反射点は除去される。第3実施形態において、降雨判定は、第8検知画像GZ8を対象として実施され、第8検知画像GZ8での分散値に基づいて、降雨しているかどうかが判定される。このように、生成周期SCが異なる検知画像を比較することで、時間の経過によって移動した雨粒を把握できる。また、検知画像に対する画像処理等が行われないので、小さな障害物などを除去することなく、降雨判定を行うことができる。   FIG. 10 shows an eighth detection image GZ8 (difference image) obtained by calculating the difference between the first detection image GZ1 and the seventh detection image GZ7. The reflection point HK1 of the first detection image GZ1 and the seventh detection image GZ7. The reflection point HK6 is shown. In the difference image, the overlapping reflection points are removed. In the third embodiment, the rain determination is performed on the eighth detection image GZ8, and it is determined whether it is raining based on the variance value in the eighth detection image GZ8. Thus, by comparing the detection images having different generation cycles SC, it is possible to grasp the raindrops that have moved over time. In addition, since image processing or the like is not performed on the detected image, it is possible to perform rainfall determination without removing a small obstacle or the like.

次に、第3実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第3実施形態では、第1実施形態に対して、降雨判定処理が異なっているが、その他は、同様の処理がされる。つまり、第3実施形態では、上述した図5に示す処理フローが実施され、ステップS102において、以下に示す降雨判定処理2が実施される。   Next, a processing flow of the obstacle detection method in the third embodiment will be described with reference to the drawings. In the third embodiment, the rain determination process is different from the first embodiment, but the other processes are the same. That is, in the third embodiment, the above-described process flow shown in FIG. 5 is performed, and the rain determination process 2 shown below is performed in step S102.

図11は、本発明の第3実施形態における降雨判定処理2の処理フローを示すフロー図である。   FIG. 11 is a flowchart showing the process flow of the rain determination process 2 in the third embodiment of the present invention.

ステップS401では、降雨判定部30bによって、前の生成周期で生成された検知画像が比較検知画像として指定される。つまり、1フレーム前のステップS101で生成された検知画像を比較検知画像とする。   In step S401, the rain detection unit 30b designates the detection image generated in the previous generation cycle as a comparative detection image. That is, the detection image generated in step S101 one frame before is set as a comparative detection image.

ステップS402では、降雨判定部30bによって、検知画像と比較検知画像とを比較した差分画像が生成される。つまり、第1検知画像GZ1が検知画像とされ、第7検知画像GZ7が比較検知画像とされた場合は、差分画像として第8検知画像GZ8が生成される。   In step S402, the rain determination unit 30b generates a difference image that compares the detected image with the comparatively detected image. That is, when the first detection image GZ1 is a detection image and the seventh detection image GZ7 is a comparison detection image, an eighth detection image GZ8 is generated as a difference image.

ステップS403ないしステップS405の処理については、上述したステップS203ないしステップS205と同様であるので、説明を省略する。   Since the processing from step S403 to step S405 is the same as that from step S203 to step S205 described above, description thereof will be omitted.

(第4実施形態)
次に、本発明の第4実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第4実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第3実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Fourth embodiment)
Next, an obstacle detection device and a moving body according to a fourth embodiment of the present invention will be described with reference to the drawings. Since the fourth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to third embodiments. The description will be omitted.

図12は、本発明の第4実施形態における生成周期と降雨判定周期との関係を示す説明図である。   FIG. 12 is an explanatory diagram showing the relationship between the generation period and the rain determination period in the fourth embodiment of the present invention.

第4実施形態は、第1実施形態に対して、降雨判定を行う周期が異なる。第1実施形態では、検知画像を生成した生成周期SC毎に降雨判定を行っていたが、第4実施形態では、複数の生成周期SC毎に降雨判定を行っている。   The fourth embodiment is different from the first embodiment in the period for performing rainfall determination. In the first embodiment, the rain determination is performed for each generation cycle SC in which the detection image is generated. In the fourth embodiment, the rain determination is performed for each of the plurality of generation cycles SC.

図12は、時間の経過に応じて、降雨判定を行うタイミングを示している。図12において、時間T1ないし時間T11は、検知画像を生成した時間を示しており、例えば、時間T1と時間T2との間隔が、1つの生成周期SC(1フレーム)に相当する。   FIG. 12 shows the timing of performing rainfall determination as time elapses. In FIG. 12, time T1 to time T11 indicate the time when the detected image is generated. For example, the interval between time T1 and time T2 corresponds to one generation cycle SC (one frame).

時間の経過に沿って説明すると、先ず、時間T1において、検知画像を生成し、降雨判定がされる。次に、時間T2および時間T3において、検知画像は生成されるが、降雨判定はされない。そして、時間T4では、検知画像を生成すると伴に、降雨判定がされる。その後、降雨判定は、時間T7および時間T10にのみ実施され、他のフレームでは実施されない。このように、検知画像が毎フレーム生成されるのに対し、降雨判定は、3フレーム毎に実施され、時間T10以降は、同様の処理が繰り返される。   Explaining along the passage of time, first, at time T1, a detection image is generated, and rainfall determination is performed. Next, at time T2 and time T3, a detection image is generated, but rain determination is not performed. Then, at time T4, the rain detection is made while the detection image is generated. Thereafter, the rain determination is performed only at time T7 and time T10, and is not performed in other frames. Thus, while the detection image is generated every frame, the rain determination is performed every three frames, and the same processing is repeated after time T10.

上述したように、降雨判定部30bは、複数の生成周期SC毎に降雨判定を行っており、降雨判定を行う間隔は、予め降雨判定周期KCとして設定されている。本実施の形態において、降雨判定周期KCは3フレームとされているが、これに限定されず、降雨判定を行う間隔は、適宜変更してもよい。このように、時間をあけて降雨判定を行うことで、降雨判定による処理時間の増加を必要最小限に抑えることができる。つまり、障害物検知装置10では、障害物51に素早く対応できるように、生成周期SCが短く設定されているが、天候の変化は、障害物51等と比較すると緩やかである。そのため、降雨判定の頻度を下げて、過剰な処理を抑制してもよい。   As described above, the rain determination unit 30b performs the rain determination for each of the plurality of generation cycles SC, and the interval for performing the rain determination is set in advance as the rain determination cycle KC. In the present embodiment, the rain determination period KC is set to 3 frames. However, the present invention is not limited to this, and the rain determination interval may be changed as appropriate. As described above, by performing the rain determination after a certain period of time, an increase in processing time due to the rain determination can be minimized. That is, in the obstacle detection device 10, the generation cycle SC is set to be short so that the obstacle 51 can be quickly dealt with, but the change in weather is gentle compared to the obstacle 51 and the like. For this reason, the frequency of rain determination may be lowered to suppress excessive processing.

次に、第4実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第4実施形態では、第1実施形態と略同様の処理がされるので、異なる点について詳細に説明し、他の点については説明を省略する。   Next, a processing flow of the obstacle detection method in the fourth embodiment will be described with reference to the drawings. In the fourth embodiment, substantially the same processing as in the first embodiment is performed, so that different points will be described in detail, and descriptions of other points will be omitted.

図13は、本発明の第4実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図である。   FIG. 13: is a flowchart which shows the processing flow of the obstruction detection method of the obstruction detection apparatus concerning 4th Embodiment of this invention.

移動体1は、第1実施形態と同様に、処理開始時に走行速度で走行面100を走行している状態とされている。   Similar to the first embodiment, the moving body 1 is in a state of traveling on the traveling surface 100 at the traveling speed at the start of processing.

ステップS501では、第1実施形態と同様に、検知画像生成部30aによって、検知画像が生成される。   In step S501, similarly to the first embodiment, a detection image is generated by the detection image generation unit 30a.

ステップS502では、降雨判定部30bによって、降雨判定周期KCに到達したかどうかが判断される。ここでは、前に降雨判定を実施してから、降雨判定周期KCとして設定された時間を経過したかどうかが判断される。その結果、降雨判定周期KCに到達した場合(ステップS502:Yes)には、ステップS503へ進む。一方、降雨判定周期KCに到達していない場合(ステップS502:No)には、ステップS509へ進む。   In step S502, the rain determination unit 30b determines whether or not the rain determination period KC has been reached. Here, it is determined whether or not the time set as the rainfall determination period KC has elapsed since the previous rain determination was performed. As a result, when the rainfall determination period KC is reached (step S502: Yes), the process proceeds to step S503. On the other hand, if the rainfall determination period KC has not been reached (step S502: No), the process proceeds to step S509.

ステップS503ないしステップS512の処理については、上述したステップS102ないしステップS111と同様とされているので、具体的な説明は省略する。つまり、降雨判定周期KCに到達した場合には、ステップS102に相当するステップS503において、降雨判定処理が実施される。一方、降雨判定周期KCに到達していない場合には、ステップS108に相当するステップS509において、障害物判定処理が実施される。従って、降雨判定周期KCに到達したかどうかによって、降雨判定の要否が判断される。なお、ステップS503の降雨判定処理では、図6に示す降雨判定処理1を適用してもよいし、図11に示す降雨判定処理2を適用してもよい。   The processing from step S503 to step S512 is the same as that from step S102 to step S111 described above, and a specific description thereof will be omitted. That is, when the rainfall determination period KC is reached, the rain determination process is performed in step S503 corresponding to step S102. On the other hand, if the rainfall determination period KC has not been reached, an obstacle determination process is performed in step S509 corresponding to step S108. Therefore, whether or not the rain determination is necessary is determined depending on whether or not the rain determination cycle KC has been reached. In the rain determination process in step S503, the rain determination process 1 shown in FIG. 6 may be applied, or the rain determination process 2 shown in FIG. 11 may be applied.

(第5実施形態)
次に、本発明の第5実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第5実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第4実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Fifth embodiment)
Next, an obstacle detection device and a moving body according to a fifth embodiment of the present invention will be described with reference to the drawings. Since the fifth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the components that have substantially the same functions as those of the first to fourth embodiments are the same. The description will be omitted.

図14は、本発明の第5実施形態における降雨判定の繰り返しと判定結果の出力との関係を示す説明図である。   FIG. 14 is an explanatory diagram showing a relationship between repetition of rainfall determination and output of determination results in the fifth embodiment of the present invention.

第5実施形態は、第4実施形態に対して、降雨判定を繰り返してから判定結果を出力する点で異なる。第4実施形態では、降雨判定を行った判定結果を直ぐに出力していたが、第5実施形態では、同じ判定結果が連続した際に、判定結果を出力している。   The fifth embodiment is different from the fourth embodiment in that the determination result is output after the rain determination is repeated. In the fourth embodiment, the determination result of the rain determination is immediately output. In the fifth embodiment, the determination result is output when the same determination result is continued.

図14は、図12と同様に、時間の経過に応じて、降雨判定を行うタイミングを示している。図14では、図12と同じように、3フレーム毎に降雨判定が行われており、時間T1、時間T4、時間T7、および時間T10で降雨判定が行われている。降雨判定の結果、時間T1では、降雨していないと判定され、時間T4、時間T7、および時間T10では、降雨していると判定されている。本実施の形態では、同じ判定が3回連続した際に、判定結果を出力する構成とされており、時間T10において、降雨状態であるとの判定結果が出力される。なお、具体的な処理については、図15および図16に示す処理フローと併せて説明する。   FIG. 14 shows the timing for performing the rain determination as time elapses, as in FIG. In FIG. 14, as in FIG. 12, the rain determination is performed every three frames, and the rain determination is performed at time T <b> 1, time T <b> 4, time T <b> 7, and time T <b> 10. As a result of the rain determination, it is determined that it is not raining at time T1, and it is determined that it is raining at time T4, time T7, and time T10. In the present embodiment, the determination result is output when the same determination is repeated three times. At time T10, the determination result indicating that it is in a rainy state is output. Specific processing will be described in conjunction with the processing flows shown in FIGS. 15 and 16.

次に、第5実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第5実施形態では、第4実施形態と略同様の処理がされるので、異なる点について詳細に説明し、他の点については説明を省略する。   Next, a processing flow of the obstacle detection method in the fifth embodiment will be described with reference to the drawings. In 5th Embodiment, since the process substantially the same as 4th Embodiment is performed, a different point is demonstrated in detail and description is abbreviate | omitted about another point.

図15は、本発明の第5実施形態に係る障害物検知装置の障害物検知方法の処理フローを示すフロー図であって、図16は、本発明の第5実施形態における連続判定処理の処理フローを示すフロー図である。   FIG. 15 is a flowchart showing a process flow of the obstacle detection method of the obstacle detection apparatus according to the fifth embodiment of the present invention, and FIG. 16 is a process of the continuous determination process in the fifth embodiment of the present invention. It is a flowchart which shows a flow.

ステップS601ないしステップS603の処理は、上述したステップS501ないしステップS503と同様とされており、ステップS605ないしステップS613の処理は、上述したステップS504ないしステップS512と同様とされており、具体的な説明は省略する。つまり、第5実施形態は、第4実施形態に対し、ステップS603の後、ステップS604として図16に示す連続判定処理を実施する点で異なる。そこで、図16を参照して、連続判定処理について説明する。   Steps S601 to S603 are the same as steps S501 to S503 described above, and steps S605 to S613 are similar to steps S504 to S512 described above. Is omitted. That is, the fifth embodiment is different from the fourth embodiment in that the continuous determination process shown in FIG. 16 is performed as step S604 after step S603. Therefore, the continuous determination process will be described with reference to FIG.

ステップS701では、降雨判定部30bによって、降雨判定処理(ステップS603)での判定結果が、前回の降雨判定処理での判定結果と同じかどうかが判断される。例えば、図14の時間T4での降雨判定であれば、時間T1での降雨判定に対して、判定結果を比較する。その結果、判定結果が前回と同じである場合(ステップS701:Yes)には、ステップS702へ進む。一方、判定結果が前回と異なる場合(ステップS701:No)には、ステップS703へ進む。   In step S701, the rain determination unit 30b determines whether the determination result in the rain determination process (step S603) is the same as the determination result in the previous rain determination process. For example, if it is rain determination at time T4 in FIG. 14, the determination result is compared with the rain determination at time T1. As a result, when the determination result is the same as the previous time (step S701: Yes), the process proceeds to step S702. On the other hand, if the determination result is different from the previous time (step S701: No), the process proceeds to step S703.

ステップS702では、降雨判定部30bによって、判定回数を1回増加する。本実施の形態では、降雨判定の結果を判定回数として数えて記憶する構成とされている。例えば、判定回数が1回として記憶されている場合には、ステップS702を経ることで、2回として記憶される。   In step S702, the number of determinations is increased by one by the rain determination unit 30b. In the present embodiment, the result of rain determination is counted and stored as the number of determinations. For example, when the number of determinations is stored as one, it is stored as two through step S702.

ステップS703では、降雨判定部30bによって、判定回数をリセットする。ここでは、記憶されている判定回数に拘わらず、判定回数を1回として記憶させる。   In step S703, the number of determinations is reset by the rain determination unit 30b. Here, regardless of the stored number of determinations, the number of determinations is stored as one.

ステップS704では、降雨判定部30bによって、判定回数が規定値を超えたかどうかが判断される。規定値は、予め3回に設定されており、判定回数が3回となったとき、規定値を超えたと判断される。その結果、判定回数が規定値を超えた場合(ステップS704:Yes)には、ステップS705へ進む。一方、判定回数が規定値を超えていない場合(ステップS704:No)には、ステップS706へ進む。なお、本実施の形態では、規定値を3回に設定していたが、規定値は適宜設定すればよい。   In step S704, the rain determination unit 30b determines whether the number of determinations exceeds a specified value. The specified value is set to 3 times in advance, and when the number of determinations is 3, it is determined that the specified value has been exceeded. As a result, when the number of determinations exceeds the specified value (step S704: Yes), the process proceeds to step S705. On the other hand, when the number of determinations does not exceed the specified value (step S704: No), the process proceeds to step S706. In the present embodiment, the specified value is set to 3 times, but the specified value may be set as appropriate.

ステップS705では、降雨判定部30bによって、今回の生成周期SCでの判定結果を出力し、処理を終了する。   In step S705, the rain determination unit 30b outputs the determination result in the current generation cycle SC, and the process ends.

ステップS706では、降雨判定部30bによって、前回出力した判定結果を出力し、処理を終了する。   In step S706, the determination result output last time is output by the rain determination unit 30b, and the process ends.

連続判定処理の後、ステップS605では、降雨判定部30bによって、出力された判定結果が降雨状態であるかどうかが判断される。つまり、ステップS605では、ステップS504と同様の処理がされ、降雨状態であれば、ステップS606へ進み、移動体1の徐行走行等の対処がされる。また、降雨状態でなければ、ステップS608へ進み、移動体1に通常走行をさせる。   After the continuous determination process, in step S605, the rain determination unit 30b determines whether the output determination result is in a rain state. In other words, in step S605, the same processing as in step S504 is performed. If it is raining, the process proceeds to step S606, and measures such as slow running of the moving body 1 are taken. On the other hand, if it is not raining, the process proceeds to step S608, and the moving body 1 is caused to travel normally.

本実施の形態では、上述した処理をしており、以下では、連続判定処理について、図14に示す場合を具体例として説明する。なお、時間T1以前では、降雨状態ではないとの判定結果が連続して出力されていると想定する。   In the present embodiment, the above-described processing is performed, and in the following, the continuous determination processing will be described by taking a case illustrated in FIG. 14 as a specific example. In addition, before time T1, it is assumed that the determination result that it is not raining is continuously output.

時間T1では、降雨状態ではないと判定されており、判定結果が前回と同じであるので、判定回数が1回増加される(ステップS702)。そして、判定回数が規定値を超えており、降雨状態ではないとの判定結果が出力される(ステップS705)。   At time T1, it is determined that it is not raining, and the determination result is the same as the previous time, so the determination count is increased by one (step S702). And the determination result that the frequency | count of determination exceeds the regulation value and it is not a rainy state is output (step S705).

時間T4では、降雨状態であると判定され、前回の判定結果と異なるので、判定回数がリセットされる(ステップS703)。そして、判定回数は1回となり、規定値を超えていないので、時間T1と同じ判定結果(降雨状態ではない)が出力される(ステップS706)。   At time T4, it is determined that it is raining and is different from the previous determination result, so the determination count is reset (step S703). Then, since the number of times of determination is one and does not exceed the specified value, the same determination result (not in the rain state) as the time T1 is output (step S706).

時間T7では、降雨状態であると判定され、判定結果が前回と同じであるので、判定回数は、1回増加されて2回となる。そして、判定回数は、規定値を超えていないので、時間T4と同じ判定結果が出力される。   At time T7, it is determined that it is raining, and the determination result is the same as the previous time, so the number of determinations is increased by 1 to 2 times. Since the number of determinations does not exceed the specified value, the same determination result as that at time T4 is output.

時間T10では、降雨状態であると判定され、判定結果が前回と同じであるので、判定回数は、1回増加されて3回となる。その結果、判定回数は、規定値を超え、時間T10での判定結果(降雨状態である)が出力される(ステップS705)。   At time T10, it is determined that it is raining, and since the determination result is the same as the previous time, the number of determinations is increased by 1 to 3 times. As a result, the number of determinations exceeds the specified value, and the determination result at time T10 (in a rainy state) is output (step S705).

上述したように、時間T4において、降雨していると判定されるが、その前の時間T1において、降雨していないと判定されているため、同じ判定が連続しておらず、降雨状態であるとの判定結果は出力されない。そして、時間T7でも降雨していると判定されるが、判定が連続した回数が2回であるため、判定結果は出力されない。さらに、時間T10で降雨していると判定された際、判定が連続した回数が3回となり、降雨状態であるとの判定結果が出力される。降雨判定を繰り返した場合、雨などは、ある程度継続して降るため、同じ結果が連続するが、一時的なノイズであれば異なる結果となる。同じ結果が連続した場合に、雨か否かを判断することで、検知画像のノイズなどを雨粒であると誤検知することを防止することができる。   As described above, it is determined that it is raining at time T4. However, since it is determined that it is not raining at the previous time T1, the same determination is not continuous and it is raining. Is not output. Then, although it is determined that it is raining at time T7, the determination result is not output because the number of continuous determinations is two. Furthermore, when it is determined that it is raining at time T10, the number of consecutive determinations is 3, and a determination result indicating that it is raining is output. When the rain judgment is repeated, rain or the like continues to some extent, so the same result continues, but if it is temporary noise, the result will be different. When the same result continues, it is possible to prevent erroneous detection of noise or the like in the detected image as raindrops by determining whether or not it is raining.

なお、第5実施形態では、複数フレーム毎に降雨判定を行う構成としたが、これに限定されず、第1実施形態と同様に、1フレーム毎に降雨判定を行う構成としてもよい。   In the fifth embodiment, the rain determination is performed for each of a plurality of frames. However, the present invention is not limited to this, and the rain determination may be performed for each frame as in the first embodiment.

(第6実施形態)
次に、本発明の第6実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第6実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第5実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Sixth embodiment)
Next, an obstacle detection device and a moving body according to a sixth embodiment of the present invention will be described with reference to the drawings. Since the sixth embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to fifth embodiments. The description will be omitted.

図17Aは、検知距離を示す第1距離データの説明図であって、図17Bは、検知距離を示す第2距離データの説明図である。なお、図17Aおよび図17Bでは、一部を強調するために、ハッチングしている。   FIG. 17A is an explanatory diagram of first distance data indicating a detection distance, and FIG. 17B is an explanatory diagram of second distance data indicating a detection distance. In FIG. 17A and FIG. 17B, hatching is performed to emphasize a part.

第6実施形態において、降雨判定部30bは、降雨判定の際に、検知画像における被検知物50の周囲との検知距離KLの差を算出する構成とされている。そして、降雨判定では、周囲との検知距離KLの差が大きい測定点(画素)を孤立点とし、孤立点の数に基づいて、降雨しているかどうかを判定する。   In the sixth embodiment, the rain determination unit 30b is configured to calculate a difference in the detection distance KL from the surroundings of the detected object 50 in the detection image at the time of the rain determination. In the rain determination, a measurement point (pixel) having a large difference in the detection distance KL from the surroundings is set as an isolated point, and it is determined whether it is raining based on the number of isolated points.

本実施の形態では、検知画像を生成する際、座標毎の検知距離KLを示す距離データを生成する構成とされている。図17Aおよび図17Bに示す第1距離データDT1および第2距離データDT2は、生成された距離データの一部を拡大して示した具体例である。距離データは、行列によって座標が示されており、座標と検知距離KLとが関連付けられている。第1距離データDT1および第2距離データDT2は、「3×3」の行列とされている。横方向Xでは、「1列」、「2列」、および「3列」が並んでおり、縦方向Yでは、「A行」、「B行」、および「C行」が並んでいる。以下では、説明の簡略化のため、行と列とを併せて座標を示している。例えば、左上段(1行1列目)の座標であれば、「A1」と呼び、右中段(2行3列目)の座標であれば、「B3」と呼ぶ。なお、第1距離データDT1および第2距離データDT2は、距離データの一部を拡大して示した図面であって、距離データは「3×3」より多い行と列とで構成されていてもよい。   In the present embodiment, when generating a detection image, distance data indicating a detection distance KL for each coordinate is generated. The first distance data DT1 and the second distance data DT2 shown in FIGS. 17A and 17B are specific examples in which a part of the generated distance data is enlarged. In the distance data, coordinates are indicated by a matrix, and the coordinates and the detection distance KL are associated with each other. The first distance data DT1 and the second distance data DT2 are “3 × 3” matrices. In the horizontal direction X, “1 column”, “2 columns”, and “3 columns” are arranged, and in the vertical direction Y, “A row”, “B row”, and “C row” are arranged. In the following, for simplification of description, coordinates are shown together with rows and columns. For example, if the coordinates are in the upper left (first row, first column), they are called “A1”, and if the coordinates are in the middle right (second row, third column), they are called “B3”. The first distance data DT1 and the second distance data DT2 are enlarged views of a part of the distance data, and the distance data is composed of more rows and columns than “3 × 3”. Also good.

図17Aに示す第1距離データDT1における検知距離KLは、「B2」が1m(メートル)であって、その他の座標は、10〜13mである。具体的には、検知距離KLの差に関する距離閾値が予め設定されており、本実施の形態において、距離閾値は、5mとされている。そして、「B2」と周囲の座標とにおける検知距離KLを比較した際、検知距離KLの差が距離閾値を超えているため、「B2」が孤立点であると判定される。   As for the detection distance KL in the first distance data DT1 shown in FIG. 17A, “B2” is 1 m (meters), and other coordinates are 10 to 13 m. Specifically, a distance threshold relating to the difference in the detection distance KL is set in advance, and in this embodiment, the distance threshold is 5 m. Then, when the detection distance KL between “B2” and the surrounding coordinates is compared, the difference between the detection distances KL exceeds the distance threshold value, so that “B2” is determined to be an isolated point.

図17Bに示す第2距離データDT2における検知距離KLは、「B2」が1mであって、「B2」に隣接する「B1」の検知距離KLが4mであり、その他の座標は、10〜13mである。第2距離データDT2において、「B2」と「B1」との検知距離KLの差が距離閾値を超えていないため、「B2」および「B1」は、孤立点ではないと判定される。   The detection distance KL in the second distance data DT2 shown in FIG. 17B is “B2” is 1 m, the detection distance KL of “B1” adjacent to “B2” is 4 m, and other coordinates are 10 to 13 m. It is. In the second distance data DT2, since the difference in the detection distance KL between “B2” and “B1” does not exceed the distance threshold, “B2” and “B1” are determined not to be isolated points.

図18Aは、検知画像生成部によって生成された第9検知画像を示す説明図であって、図18Bは、検知画像生成部によって生成された第10検知画像を示す説明図である。   FIG. 18A is an explanatory diagram illustrating a ninth detection image generated by the detection image generation unit, and FIG. 18B is an explanatory diagram illustrating a tenth detection image generated by the detection image generation unit.

検知画像生成部30aでは、上述した孤立点を反射点として示した検知画像を生成する。つまり、画像データにおいて、孤立点に対応する画素が「1」として示され、それ以外の画素が「0」として示される。具体的に、図18Aに示す第9検知画像GZ9では、反射点HK7は、第9検知画像GZ9内に離散的に位置しており、数は「13」である。また、図18Bに示す第10検知画像GZ10では、反射点HK8は、第10検知画像GZ10内に離散的に位置しており、数は「4」である。降雨判定において、孤立点の数に関する孤立点閾値が予め設定されており、本実施の形態において、孤立点閾値は、「10」とされている。つまり、第9検知画像GZ9は、反射点HK7(孤立点)の数が孤立点閾値を超えているため、降雨状態であると判定され、第10検知画像GZ10は、反射点HK8の数が孤立点閾値を超えていないため、降雨状態ではないと判定される。なお、距離閾値および孤立点閾値については、適宜設定すればよい。   The detection image generation unit 30a generates a detection image that shows the isolated points described above as reflection points. That is, in the image data, the pixel corresponding to the isolated point is indicated as “1”, and the other pixels are indicated as “0”. Specifically, in the ninth detection image GZ9 shown in FIG. 18A, the reflection points HK7 are discretely located in the ninth detection image GZ9, and the number is “13”. In the tenth detection image GZ10 shown in FIG. 18B, the reflection points HK8 are discretely located in the tenth detection image GZ10, and the number is “4”. In the rain determination, an isolated point threshold relating to the number of isolated points is set in advance, and in this embodiment, the isolated point threshold is set to “10”. That is, since the number of reflection points HK7 (isolated points) exceeds the isolated point threshold, the ninth detection image GZ9 is determined to be in a rain state, and the tenth detection image GZ10 has the number of reflection points HK8 isolated. Since the point threshold value is not exceeded, it is determined that it is not raining. Note that the distance threshold and the isolated point threshold may be set as appropriate.

次に、第6実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第6実施形態では、第1実施形態に対して、降雨判定処理が異なっているが、その他は、同様の処理がされる。つまり、第6実施形態では、上述した図5に示す処理フローが実施され、ステップS102において、以下に示す降雨判定処理3が実施される。   Next, a processing flow of the obstacle detection method in the sixth embodiment will be described with reference to the drawings. In the sixth embodiment, the rain determination process is different from the first embodiment, but the other processes are the same. That is, in the sixth embodiment, the above-described process flow shown in FIG. 5 is performed, and the rain determination process 3 shown below is performed in step S102.

図19は、本発明の第3実施形態における降雨判定処理3の処理フローを示すフロー図である。   FIG. 19 is a flowchart showing a process flow of the rain determination process 3 in the third embodiment of the present invention.

ステップS801では、検知画像生成部30aによって、被検知物50毎の検知距離KLを示した距離データ(例えば、第1距離データDT1および第2距離データDT2)を生成する。   In step S801, distance data (for example, first distance data DT1 and second distance data DT2) indicating the detection distance KL for each detection object 50 is generated by the detection image generation unit 30a.

ステップS802では、降雨判定部30bによって、距離データにおける孤立点の数をカウントする。孤立点については、距離閾値に基づいて判定される。ここで、距離データにおける孤立点を数えてもよいし、距離データに対応する検知画像の反射点を数えてもよい。   In step S802, the rain determination unit 30b counts the number of isolated points in the distance data. An isolated point is determined based on a distance threshold. Here, the isolated points in the distance data may be counted, or the reflection points of the detected image corresponding to the distance data may be counted.

ステップS803では、降雨判定部30bによって、孤立点の数が孤立点閾値を超えているかどうかが判断される。その結果、孤立点の数が孤立点閾値を超えている場合(ステップS803:Yes)には、ステップS804へ進む。一方、孤立点の数が孤立点閾値を超えていない場合(ステップS803:No)には、ステップS805へ進む。   In step S803, the rain determination unit 30b determines whether the number of isolated points exceeds the isolated point threshold. As a result, when the number of isolated points exceeds the isolated point threshold (step S803: Yes), the process proceeds to step S804. On the other hand, if the number of isolated points does not exceed the isolated point threshold (step S803: No), the process proceeds to step S805.

ステップS804では、降雨判定部30bによって、降雨状態であると判定され、降雨判定処理3を終了する。   In step S804, the rain determination unit 30b determines that it is in a rain state, and the rain determination process 3 ends.

ステップS805では、降雨判定部30bによって、降雨状態ではないと判定され、降雨判定処理3を終了する。   In step S805, the rain determination unit 30b determines that it is not in a rain state, and the rain determination process 3 ends.

上述したように、検知距離KLに基づいて比較することで、離散的に位置している雨粒52かどうかを判断することができる。また、障害物51が存在するなどして、被検知物50が局所的に集中している場合でも、統計的な偏りに影響されることなく、検知距離KLの差を把握することができる。   As described above, it is possible to determine whether or not the raindrops 52 are discretely located by making a comparison based on the detection distance KL. Further, even when the detected object 50 is locally concentrated due to the presence of the obstacle 51, the difference in the detection distance KL can be grasped without being affected by the statistical bias.

(第7実施形態)
次に、本発明の第7実施形態に係る障害物検知装置および移動体について、図面を参照して説明する。なお、第7実施形態は、第1実施形態と略同様であるので、外観図や構成図を省略すし、第1実施形態ないし第6実施形態と機能が実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Seventh embodiment)
Next, an obstacle detection device and a moving body according to a seventh embodiment of the present invention will be described with reference to the drawings. Since the seventh embodiment is substantially the same as the first embodiment, the external view and the configuration diagram are omitted, and the same components are substantially the same in function as the first to sixth embodiments. The description will be omitted.

図20Aは、第1フレームでの第3距離データを示す説明図であって、図20Bは、第2フレームでの第4距離データを示す説明図であって、図20Cは、第3フレームでの第5距離データを示す説明図であって、図20Dは、検知距離の最大値を取得した第6距離データを示す説明図である。なお、図20Aないし図20Dでは、一部を強調するために、ハッチングしている。   FIG. 20A is an explanatory diagram illustrating third distance data in the first frame, FIG. 20B is an explanatory diagram illustrating fourth distance data in the second frame, and FIG. 20C is a diagram illustrating the third frame. FIG. 20D is an explanatory diagram illustrating the sixth distance data obtained from the maximum detected distance. In FIGS. 20A to 20D, hatching is performed to emphasize a part.

第7実施形態は、第1実施形態に対して、雨除去処理に用いられている方法が異なる。第7実施形態において、雨除去処理部30cは、検知画像に対し、複数の生成周期SC毎の検知距離KLを比較して、孤立点を除去する構成とされている。本実施の形態では、検知画像を生成したフレームに対して、1フレーム前と2フレーム前とを併せた3フレームで、検知距離KLを比較している。なお、以下では説明のため、3つの連続したフレームを時間の経過に沿って、第1フレーム、第2フレーム、および第3フレームと呼ぶ。   The seventh embodiment is different from the first embodiment in the method used for the rain removal process. In 7th Embodiment, the rain removal process part 30c is set as the structure which compares the detection distance KL for every some production | generation periods SC with respect to a detection image, and removes an isolated point. In the present embodiment, the detection distance KL is compared with three frames including the previous frame and the previous two frames with respect to the frame in which the detection image is generated. In the following, for the sake of explanation, three consecutive frames are referred to as a first frame, a second frame, and a third frame over time.

第3距離データDT3、第4距離データDT4、および第5距離データDT5は、それぞれ第1フレーム、第2フレーム、および第3フレームでの検知画像に対応する距離データの一部とされており、第1距離データDT1と同様に、「3×3」の行列とされている。なお、第3距離データDT3、第4距離データDT4、および第5距離データDT5は、検知範囲KHにおいて、同じ座標を示している。   The third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5 are part of the distance data corresponding to the detected images in the first frame, the second frame, and the third frame, respectively. Similar to the first distance data DT1, it is a “3 × 3” matrix. The third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5 indicate the same coordinates in the detection range KH.

第3距離データDT3の検知距離KLは、「A1」が2m、「A2」が10m、「A3」が9m、「B1」が13m、「B2」が10m、「B3」が2m、「C1」が12m、「C2」が4m、「C3」が9mである。   The detection distance KL of the third distance data DT3 is “A1” is 2 m, “A2” is 10 m, “A3” is 9 m, “B1” is 13 m, “B2” is 10 m, “B3” is 2 m, “C1”. Is 12 m, “C2” is 4 m, and “C3” is 9 m.

第4距離データDT4の検知距離KLは、「A1」が8m、「A2」が1m、「A3」が6m、「B1」が4m、「B2」が2m、「B3」が2m、「C1」が13m、「C2」が6m、「C3」が3mである。   The detection distance KL of the fourth distance data DT4 is 8m for "A1", 1m for "A2", 6m for "A3", 4m for "B1", 2m for "B2", 2m for "B3", "C1" Is 13 m, “C2” is 6 m, and “C3” is 3 m.

第5距離データDT5の検知距離KLは、「A1」が7m、「A2」が15m、「A3」が3m、「B1」が4m、「B2」が10m、「B3」が2m、「C1」が8m、「C2」が11m、「C3」が5mである。   The detection distance KL of the fifth distance data DT5 is “A1” 7 m, “A2” 15 m, “A3” 3 m, “B1” 4 m, “B2” 10 m, “B3” 2 m, “C1”. Is 8 m, “C2” is 11 m, and “C3” is 5 m.

雨除去処理では、それぞれの測定点において最大となる検知距離KLを取得し、測定点毎の最大値を示す最大値データを生成する。例えば、「A1」の場合には、第4距離データDT4の8mを最大値として取得する。他の座標も同様に最大値が取得され、第3距離データDT3、第4距離データDT4、および第5距離データDT5の最大値データとして、図20Dに示す第6距離データDT6が生成される。   In the rain removal process, the maximum detection distance KL at each measurement point is acquired, and maximum value data indicating the maximum value for each measurement point is generated. For example, in the case of “A1”, 8 m of the fourth distance data DT4 is acquired as the maximum value. Similarly, the maximum value is acquired for the other coordinates, and the sixth distance data DT6 shown in FIG. 20D is generated as the maximum value data of the third distance data DT3, the fourth distance data DT4, and the fifth distance data DT5.

第6距離データDT6の検知距離KLは、「A1」が8m、「A2」が15m、「A3」が9m、「B1」が13m、「B2」が10m、「B3」が2m、「C1」が13m、「C2」が11m、「C3」が9mである。   The detection distance KL of the sixth distance data DT6 is 8m for "A1", 15m for "A2", 9m for "A3", 13m for "B1", 10m for "B2", 2m for "B3", "C1" Is 13 m, “C2” is 11 m, and “C3” is 9 m.

このようにして生成された最大値データに対して、障害物判定を行う場合には、検知距離KLに関して予め設定された閾値を基準として、反射点かどうかを判断すればよい。例えば、閾値が5mとされていた場合、第6距離データDT6では、「B3」が被検知物50に対応する反射点であると判断される。そして、距離データにおける反射点の数と障害物閾値とを比較して、被検知物50が障害物51であると判定される。   When obstacle determination is performed on the maximum value data generated in this way, it is only necessary to determine whether or not it is a reflection point with reference to a threshold set in advance with respect to the detection distance KL. For example, when the threshold is 5 m, it is determined that “B3” is a reflection point corresponding to the detected object 50 in the sixth distance data DT6. Then, the number of reflection points in the distance data is compared with the obstacle threshold value, and it is determined that the detected object 50 is the obstacle 51.

第3距離データDT3ないし第5距離データDT5の検知距離について、「B3」以外では、閾値より小さい座標も存在しており、障害物51と雨粒52とのいずれかを判別できない。しかしながら、他のフレームと比較すると、検知距離KLが変動している。これに対し、「B3」では、いずれのフレームでも2mとなっており、検知距離KLが変わらない。このように、生成周期SC毎の検知距離KLを比較して、同じ箇所に位置しているものと、雨粒52のように高速で動くものとを区別することができる。雨粒52等が存在する座標については、検知距離KLの最大値を取得することで、障害物検知の妨げとなるノイズを除去することができる。また、検知距離KLを比較するといった簡素な演算を用いた処理とされているので、処理の高速化を図ることができる。   Regarding the detection distance of the third distance data DT3 to the fifth distance data DT5, coordinates other than “B3” are also present, and coordinates smaller than the threshold exist, and it is not possible to determine either the obstacle 51 or the raindrop 52. However, the detection distance KL varies compared to other frames. On the other hand, in “B3”, it is 2 m in any frame, and the detection distance KL does not change. In this way, by comparing the detection distance KL for each generation cycle SC, it is possible to distinguish between those that are located at the same place and those that move at high speed like the raindrops 52. For the coordinates where raindrops 52 and the like exist, the noise that hinders obstacle detection can be removed by obtaining the maximum value of the detection distance KL. In addition, since the processing is performed using a simple calculation such as comparing the detection distance KL, the processing speed can be increased.

次に、第7実施形態での障害物検知方法の処理フローについて、図面を参照して説明する。第7実施形態では、第1実施形態に対して、雨除去判定処理が異なっているが、その他は、同様の処理がされる。つまり、第7実施形態では、上述した図5に示す処理フローが実施され、ステップS105において、以下に示す雨除去処理2が実施される。   Next, a processing flow of the obstacle detection method in the seventh embodiment will be described with reference to the drawings. In the seventh embodiment, the rain removal determination process is different from the first embodiment, but the other processes are the same. That is, in the seventh embodiment, the above-described processing flow shown in FIG. 5 is performed, and in step S105, the rain removal processing 2 shown below is performed.

図21は、本発明の第7実施形態における雨除去処理2の処理フローを示すフロー図である。   FIG. 21 is a flowchart showing the process flow of the rain removal process 2 in the seventh embodiment of the present invention.

ステップS901では、検知画像生成部30aによって、被検知物50毎の検知距離KLを示した距離データ(例えば、第3距離データDT3ないし第5距離データDT5)を生成する。なお、雨除去処理を実施するフレームでの距離データだけを生成し、生成した距離データを記憶させる構成としてもよい。つまり、前のフレームにおける距離データは、記憶された距離データを参照すればよい。   In step S901, the detected image generation unit 30a generates distance data (for example, third distance data DT3 to fifth distance data DT5) indicating the detection distance KL for each detected object 50. In addition, it is good also as a structure which produces | generates only the distance data in the flame | frame which implements rain removal processing, and memorize | stores the produced | generated distance data. That is, the distance data in the previous frame may be referred to the stored distance data.

ステップS902では、雨除去処理部30cによって、複数の生成周期SCにおける距離データのうち、測定点毎の最大値を取得する。本実施の形態では、3フレームでの最大値を取得する構成としたが、これに限定されず、比較するフレームの数は適宜設定すればよい。   In step S902, the rain removal processing unit 30c acquires the maximum value for each measurement point among the distance data in the plurality of generation cycles SC. In the present embodiment, the maximum value in three frames is obtained. However, the present invention is not limited to this, and the number of frames to be compared may be set as appropriate.

ステップS903では、雨除去処理部30cによって、測定点毎の最大値を示す最大値データ(例えば、第6距離データDT6)を生成し、処理を終了する。その後の障害物判定は、最大値データを対象として実施される。   In step S903, the rain removal processing unit 30c generates maximum value data (for example, sixth distance data DT6) indicating the maximum value for each measurement point, and the process ends. Subsequent obstacle determination is performed on the maximum value data.

第6実施形態および第7実施形態では、図5に示す処理フローが実施される構成としたが、これに限定されず、図13または図15に示す処理フローを実施し、複数フレーム毎に降雨判定を行う構成としてもよい。   In the sixth embodiment and the seventh embodiment, the processing flow shown in FIG. 5 is implemented. However, the present invention is not limited to this, and the processing flow shown in FIG. It is good also as a structure which performs determination.

なお、今回開示した実施の形態は全ての点で例示であって、限定的な解釈の根拠となるものではない。従って、本発明の技術的範囲は、上記した実施の形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれる。   It should be noted that the embodiment disclosed herein is illustrative in all respects and does not serve as a basis for limited interpretation. Therefore, the technical scope of the present invention is not interpreted only by the above-described embodiment, but is defined based on the description of the scope of claims. Moreover, all the changes within the meaning and range equivalent to a claim are included.

1 移動体
10 障害物検知装置
11 測距センサ
20 駆動部
30 CPU
30a 検知画像生成部
30b 降雨判定部
30c 雨除去処理部
30d 障害物判定部
30e 走行制御部
50 被検知物
51 障害物
52 雨粒
100 走行面
KL 検知距離
KH 検知範囲
DESCRIPTION OF SYMBOLS 1 Moving body 10 Obstacle detection apparatus 11 Distance sensor 20 Drive part 30 CPU
30a Detected image generation unit 30b Rain determination unit 30c Rain removal processing unit 30d Obstacle determination unit 30e Travel control unit 50 Detected object 51 Obstacle 52 Raindrop 100 Traveling surface KL Detection distance KH Detection range

Claims (15)

被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサと、
前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成する検知画像生成部と、
前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をする降雨判定部と、
前記検知画像から前記孤立点を除去する雨除去処理を行う雨除去処理部と、
前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をする障害物判定部とを備え、
前記障害物判定部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記雨除去処理部によって前記雨除去処理された検知画像に基づいて、前記障害物判定を実施すること
を特徴とする障害物検知装置。
A ranging sensor that transmits a detection wave to the object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected;
A detection image generation unit that generates a detection image indicating the presence or absence of the detection object in a detection range in which the detection wave is transmitted based on a distance measurement result of the distance sensor;
A rain determining unit that determines whether or not the detection range is in a rain state based on the presence or absence of discrete points located discretely among the detected objects in the detection image;
A rain removal processing unit for performing rain removal processing to remove the isolated points from the detected image;
An obstacle determination unit that determines whether or not the detected object is an obstacle based on the detected image;
The obstacle determination unit performs the obstacle determination based on the detection image subjected to the rain removal processing by the rain removal processing unit when the rain determination unit determines that the rain state is present. Obstacle detection device characterized.
請求項1に記載の障害物検知装置であって、
前記検知範囲は、立体空間とされており、
前記検知画像生成部は、前記検知画像として、立体空間とされた検知範囲に対応する3次元画像を生成し、
前記降雨判定部は、前記3次元画像に対して、前記降雨判定を行うこと
を特徴とする障害物検知装置。
The obstacle detection device according to claim 1,
The detection range is a three-dimensional space,
The detection image generation unit generates a three-dimensional image corresponding to a detection range as a three-dimensional space as the detection image,
The obstacle detection device, wherein the rain determination unit performs the rain determination on the three-dimensional image.
請求項1または請求項2に記載の障害物検知装置であって、
前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の分散値を算出すること
を特徴とする障害物検知装置。
The obstacle detection device according to claim 1 or 2,
The obstacle detection device, wherein the rain determination unit calculates a variance value of the detected object in the detection image at the time of the rain determination.
請求項1または請求項2に記載の障害物検知装置であって、
前記降雨判定部は、前記降雨判定の際に、前記検知画像における前記被検知物の周囲との前記検知距離の差を算出すること
を特徴とする障害物検知装置。
The obstacle detection device according to claim 1 or 2,
The obstacle detection device, wherein the rain determination unit calculates a difference in the detection distance from the periphery of the detected object in the detection image at the time of the rain determination.
請求項1から請求項4までのいずれか1つに記載の障害物検知装置であって、
前記検知画像生成部は、予め設定された生成周期毎に前記検知画像を周期的に生成すること
を特徴とする障害物検知装置。
The obstacle detection device according to any one of claims 1 to 4, wherein
The obstacle detection device, wherein the detection image generation unit periodically generates the detection image every preset generation cycle.
請求項1から請求項5までのいずれか1つに記載の障害物検知装置であって、
前記雨除去処理部は、メディアンフィルタを用いて前記雨除去処理を行うこと
を特徴とする障害物検知装置。
The obstacle detection device according to any one of claims 1 to 5, wherein
The said rain removal process part performs the said rain removal process using a median filter. The obstacle detection apparatus characterized by the above-mentioned.
請求項1から請求項6までのいずれか1つに記載の障害物検知装置であって、
前記降雨判定部は、前記検知画像と、該検知画像に対しメディアンフィルタを用いて前記孤立点を除去したメディアン処理画像とを比較して、前記降雨判定を行うこと
を特徴とする障害物検知装置。
The obstacle detection device according to any one of claims 1 to 6,
The obstacle determination unit compares the detected image with a median-processed image from which the isolated point is removed using a median filter with respect to the detected image, and performs the rainfall determination. .
請求項5に記載の障害物検知装置であって、
前記降雨判定部は、それぞれ異なる生成周期において生成された2つの検知画像を比較して、前記降雨判定を行うこと
を特徴とする障害物検知装置。
The obstacle detection device according to claim 5,
The obstacle detection device, wherein the rain determination unit performs the rain determination by comparing two detection images generated in different generation cycles.
請求項5または請求項8に記載の障害物検知装置であって、
前記降雨判定部は、複数の前記生成周期毎に前記降雨判定を行うこと
を特徴とする障害物検知装置。
The obstacle detection device according to claim 5 or claim 8,
The obstacle detection device, wherein the rain determination unit performs the rain determination for each of the plurality of generation periods.
請求項5、請求項8、または請求項9に記載の障害物検知装置であって、
前記降雨判定部は、複数の前記生成周期で前記降雨判定を行い、複数回連続して同じ判定をした際に、該降雨判定の結果を出力すること
を特徴とする障害物検知装置。
The obstacle detection device according to claim 5, claim 8, or claim 9,
The obstacle detection device, wherein the rain determination unit performs the rain determination in a plurality of the generation cycles, and outputs the result of the rain determination when the same determination is made a plurality of times in succession.
請求項5、請求項8、請求項9、または請求項10に記載の障害物検知装置であって、
前記雨除去処理部は、前記検知画像に対し、複数の前記生成周期毎の前記検知距離を比較して、前記孤立点を除去すること
を特徴とする障害物検知装置。
The obstacle detection device according to claim 5, claim 8, claim 9, or claim 10,
The said rain removal process part removes the said isolated point by comparing the said detection distance for every said several production | generation period with respect to the said detection image.
請求項1から請求項11までのいずれか1つに記載の障害物検知装置を備え、走行面を走行する移動体。   A moving body comprising the obstacle detection device according to any one of claims 1 to 11 and traveling on a traveling surface. 請求項12に記載の移動体であって、
前記走行面で走行する走行速度を制御する走行制御部を備え、
前記走行制御部は、前記降雨判定部によって前記降雨状態であると判定された場合、前記走行速度を減速させる制御をすること
を特徴とする移動体。
The moving body according to claim 12,
A travel control unit for controlling a travel speed of traveling on the travel surface;
The travel control unit performs control to decelerate the travel speed when the rain determination unit determines that the rain state is present.
被検知物に対する検知波を送波し、該被検知物からの反射波を受波して、該被検知物までの検知距離を測定する測距センサを備えた障害物検知装置における障害物検知方法であって、
検知画像生成部に、前記測距センサの測距結果に基づいて、前記検知波が送波された検知範囲における前記被検知物の有無を示す検知画像を生成させる検知画像生成ステップと、
降雨判定部に、前記検知画像内の前記被検知物のうち、離散的に位置する孤立点の有無に基づいて、前記検知範囲が降雨状態であるか否かの降雨判定をさせる降雨判定ステップと、
雨除去処理部に、前記検知画像から前記孤立点を除去する雨除去処理を行わせる雨除去処理ステップと、
障害物判定部に、前記検知画像に基づいて、前記被検知物が障害物であるか否かの障害物判定をさせる障害物判定ステップとを含み、
前記障害物判定ステップは、前記降雨判定ステップで前記降雨状態であると判定された場合、前記雨除去処理ステップで前記雨除去処理された検知画像に基づいて、前記障害物判定を実施すること
を特徴とする障害物検知方法。
Obstacle detection in an obstacle detection device having a distance measuring sensor that transmits a detection wave to an object to be detected, receives a reflected wave from the object to be detected, and measures a detection distance to the object to be detected A method,
A detection image generation step of causing the detection image generation unit to generate a detection image indicating the presence or absence of the detection object in the detection range in which the detection wave is transmitted, based on a distance measurement result of the distance sensor;
A rainfall determination step for causing a rainfall determination unit to determine whether or not the detection range is in a rainfall state based on the presence or absence of discrete points located discretely among the detected objects in the detection image; ,
A rain removal processing step for causing a rain removal processing unit to perform rain removal processing for removing the isolated points from the detected image;
An obstacle determination step for causing the obstacle determination unit to determine whether the detected object is an obstacle based on the detected image;
In the obstacle determination step, when it is determined in the rain determination step that the rain state is present, the obstacle determination is performed based on the detected image that has been subjected to the rain removal process in the rain removal processing step. A featured obstacle detection method.
請求項14に記載の各ステップをコンピュータに実行させるための障害物検知プログラム。   An obstacle detection program for causing a computer to execute each step according to claim 14.
JP2015014074A 2015-01-28 2015-01-28 Obstacle detection device, moving object, obstacle detection method, and obstacle detection program Active JP6418961B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015014074A JP6418961B2 (en) 2015-01-28 2015-01-28 Obstacle detection device, moving object, obstacle detection method, and obstacle detection program
PCT/JP2016/052142 WO2016121741A1 (en) 2015-01-28 2016-01-26 Obstacle detection device, mobile body, obstacle detection method, and obstacle detection program
US15/546,016 US10921429B2 (en) 2015-01-28 2016-01-26 Obstacle detection device, moving body, and obstacle detection method
CN201680007959.5A CN107209268A (en) 2015-01-28 2016-01-26 Obstacle detector, moving body, obstacle detection method and detection of obstacles program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015014074A JP6418961B2 (en) 2015-01-28 2015-01-28 Obstacle detection device, moving object, obstacle detection method, and obstacle detection program

Publications (2)

Publication Number Publication Date
JP2016138818A JP2016138818A (en) 2016-08-04
JP6418961B2 true JP6418961B2 (en) 2018-11-07

Family

ID=56543352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015014074A Active JP6418961B2 (en) 2015-01-28 2015-01-28 Obstacle detection device, moving object, obstacle detection method, and obstacle detection program

Country Status (4)

Country Link
US (1) US10921429B2 (en)
JP (1) JP6418961B2 (en)
CN (1) CN107209268A (en)
WO (1) WO2016121741A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900214B2 (en) * 2017-03-22 2021-07-07 株式会社Ihiエアロスペース Obstacle detection device and obstacle detection method
JP2019102047A (en) * 2017-11-28 2019-06-24 Thk株式会社 Image processor, mobile robot control system, and mobile robot control method
US11112504B2 (en) * 2018-02-20 2021-09-07 Mitsubishi Electric Corporation Measurement monitoring device and computer readable medium
WO2019181096A1 (en) 2018-03-19 2019-09-26 ソニー株式会社 Image processing device, image processing method, and program
JP2019163001A (en) * 2018-03-20 2019-09-26 シャープ株式会社 Movable body
DE102018126506A1 (en) * 2018-10-24 2020-04-30 Valeo Schalter Und Sensoren Gmbh Rain detection with an environment sensor for point-by-point detection of an environment of a vehicle, in particular with a LiDAR-based environment sensor
CN110031823B (en) * 2019-04-22 2020-03-24 上海禾赛光电科技有限公司 Noise point identification method for laser radar and laser radar system
KR102112585B1 (en) * 2019-06-20 2020-05-19 인천대학교 산학협력단 Smart stroller capable of preventing collisions through obstacle detection and operating method thereof
CN113075933B (en) * 2021-03-30 2023-08-29 北京布科思科技有限公司 Robot passing control method, device and equipment
CN113625261B (en) * 2021-08-10 2024-04-12 厦门市弘威崇安科技有限公司 Unattended node of microwave radar-microphone array acoustic wave detector
WO2023181948A1 (en) * 2022-03-24 2023-09-28 株式会社デンソー Noise eliminating device, object detecting device, and noise eliminating method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2903746B2 (en) * 1991-03-20 1999-06-14 トヨタ自動車株式会社 Inter-vehicle distance detection device
JPH1010233A (en) * 1996-06-24 1998-01-16 Mitsui Eng & Shipbuild Co Ltd Method for laser obstruction detection and sensor therefor
US6127965A (en) * 1998-07-23 2000-10-03 Eaton-Vorad Technologies, L.L.C. Method and apparatus for rejecting rain clutter in a radar system
DE10142459A1 (en) * 2001-08-31 2003-03-20 Adc Automotive Dist Control Motor vehicle radar system for determination of distances to obstacles or vehicles, whereby a weighing function is used that takes into account weather conditions, so that system reliability and sensitivity is improved
JP3994941B2 (en) * 2003-07-22 2007-10-24 オムロン株式会社 Radar equipment for vehicles
JP2006285548A (en) 2005-03-31 2006-10-19 Secom Co Ltd Mobile robot and remote control system
SG139579A1 (en) * 2006-07-20 2008-02-29 Cyclect Electrical Engineering A foreign object detection system
JP4757148B2 (en) 2006-08-28 2011-08-24 本田技研工業株式会社 Vehicle contact avoidance support device
CN100494900C (en) * 2007-07-03 2009-06-03 北京控制工程研究所 Environment sensing one-eye visual navigating method adapted to self-aid moving vehicle
JP5507135B2 (en) * 2009-07-08 2014-05-28 Jr東日本メカトロニクス株式会社 Obstacle detection device, platform door system provided with the same, and obstacle detection method
CN101975951B (en) * 2010-06-09 2013-03-20 北京理工大学 Field environment barrier detection method fusing distance and image information
CN102540193B (en) * 2010-12-24 2014-04-30 无锡物联网产业研究院 Laser radar monitoring system
CN202294308U (en) * 2011-10-31 2012-07-04 富士重工业株式会社 Travel control device for vehicle
CN102510482A (en) * 2011-11-29 2012-06-20 蔡棽 Image splicing reconstruction and overall monitoring method for improving visibility and visual distance
CN102589515B (en) * 2012-01-12 2014-12-17 安科智慧城市技术(中国)有限公司 Foggy-weather distance measurement method and device thereof as well as distance pre-warning method and device thereof
TWI480810B (en) * 2012-03-08 2015-04-11 Ind Tech Res Inst Method and apparatus for rain removal based on a single image
RU2572952C1 (en) * 2012-07-27 2016-01-20 Ниссан Мотор Ко., Лтд. Device for detecting three-dimensional objects and method of detecting three-dimensional objects
BR112015001825B1 (en) * 2012-07-27 2021-10-26 Nissan Motor Co., Ltd. THREE-DIMENSIONAL OBJECT DETECTION DEVICE, THREE-DIMENSIONAL OBJECT DETECTION METHOD
TWI494899B (en) * 2012-12-19 2015-08-01 Ind Tech Res Inst Method for in-image periodic noise reparation
JP6091294B2 (en) * 2013-04-02 2017-03-08 株式会社神戸製鋼所 Train head position detection method and detection apparatus
KR101683984B1 (en) * 2014-10-14 2016-12-07 현대자동차주식회사 System for filtering Lidar data in vehicle and method thereof

Also Published As

Publication number Publication date
CN107209268A (en) 2017-09-26
WO2016121741A1 (en) 2016-08-04
JP2016138818A (en) 2016-08-04
US20180024229A1 (en) 2018-01-25
US10921429B2 (en) 2021-02-16

Similar Documents

Publication Publication Date Title
JP6418961B2 (en) Obstacle detection device, moving object, obstacle detection method, and obstacle detection program
JP4721279B2 (en) Lane tracking support device
JP6226896B2 (en) A method for minimizing brake intervention based on collision certainty
JP5167051B2 (en) Vehicle driving support device
JP6222785B2 (en) Steering support device
JP5904286B2 (en) Driving assistance device
JP2009286279A (en) Drive support device for vehicle
KR102057428B1 (en) Driving control method and driving control device of vehicle
JP2017027202A (en) Driving support system
GB2541354A (en) Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system
JP5205997B2 (en) Driving operation support device for vehicle
JP2009116790A (en) Vehicular driving support apparatus and driving support method
CN109725328B (en) AGV obstacle detection system and method based on laser radar sensor
EP3686066B1 (en) Vehicle control apparatus
KR20170000569A (en) Method for detecting collision of vehicle
US9741251B2 (en) Collision avoidance assistance device and collision avoidance assistance method
JP6325927B2 (en) Object detection apparatus and vehicle control system using the same
US11753002B2 (en) Vehicular control system
JP5804373B2 (en) Target travel position setting device and steering control system
JP6075168B2 (en) Vehicle object detection device
JP5900651B2 (en) Driving support device and driving support method
JP2006047057A (en) Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
US8364341B2 (en) Method for controlling a driver assistance system
JP4923766B2 (en) Braking force control device for vehicle
JP5900649B2 (en) Driving assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6418961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150