JP6301440B2 - Object detection system and object detection method - Google Patents
Object detection system and object detection method Download PDFInfo
- Publication number
- JP6301440B2 JP6301440B2 JP2016252936A JP2016252936A JP6301440B2 JP 6301440 B2 JP6301440 B2 JP 6301440B2 JP 2016252936 A JP2016252936 A JP 2016252936A JP 2016252936 A JP2016252936 A JP 2016252936A JP 6301440 B2 JP6301440 B2 JP 6301440B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- signal
- object detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 168
- 238000010801 machine learning Methods 0.000 claims description 57
- 238000000034 method Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 25
- 239000000284 extract Substances 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本発明は検出システム及び検出方法に関し、より具体的には、適応学習可能な対象物検出システム及び対象物を検出でき且つ適応学習可能な方法に関する。 The present invention relates to a detection system and a detection method, and more particularly to an object detection system capable of adaptive learning and a method capable of detecting an object and adaptive learning.
先進運転支援システム(Advanced Driver Assistance Systems、略称ADAS)は、交通事故を防止するために人工知能の採用が進んでいる。目下、多くの企業が、人工知能の機械学習能力を応用した車線検出システム、駐車支援システム、衝突回避システムといった技術の開発に注力している(例えば特許文献1参照)。 Advanced Driver Assistance Systems (abbreviated as ADAS) are adopting artificial intelligence to prevent traffic accidents. At present, many companies are focusing on developing technologies such as a lane detection system, a parking assistance system, and a collision avoidance system that apply the machine learning ability of artificial intelligence (see, for example, Patent Document 1).
前述の各システムにおいて、画像識別技術は不可欠な技術であり、画像識別の精度を向上することが、前述の各システムにおける課題となっている。このため、主に機械学習に関連するアルゴリズムを構築して、これにより分類器のパラメータを機械的に訓練することによって、画像識別の誤判定率の低減が図られている。 In each of the aforementioned systems, the image identification technique is an indispensable technique, and improving the accuracy of image identification is a problem in each of the aforementioned systems. For this reason, an algorithm related to machine learning is mainly constructed, and the parameters of the classifier are mechanically trained thereby, thereby reducing the misjudgment rate of image identification.
このように、多様な道路環境において誤判定率をいかに効果的に低減するかは、現在の運転支援システムの研究開発における重要なポイントとなっている。 Thus, how to effectively reduce the misjudgment rate in various road environments is an important point in the current research and development of driving assistance systems.
しかしながら、車両に搭載される車両組み込みシステム(vehicle embedded system)の性能には限界があるため、車両組み込みシステムに設けられる識別装置の性能も限りがある。 However, since the performance of a vehicle embedded system mounted on a vehicle is limited, the performance of an identification device provided in the vehicle embedded system is also limited.
そこで、本発明の目的は、車両組み込みシステムの限られた性能によっても、機械学習を通して誤判定率の効果的な低減を図ることができる対象物検出システム及び対象物検出方法を提供することにある。 Accordingly, an object of the present invention is to provide an object detection system and an object detection method capable of effectively reducing an erroneous determination rate through machine learning even with limited performance of a vehicle embedded system.
上記目的を達成するための手段として、本発明は、以下の対象物検出システムを提供する。 As means for achieving the above object, the present invention provides the following object detection system.
即ち、画像を取得し、前記画像の一部が所定の対象物に類似するか否かを弱分類器パラメータを用いた分類処理により判定すると共に、前記画像を出力し、類似すると判定した際には対象物検出信号を出力するように構成された検出ユニットと、
前記画像を受信するように前記検出ユニットと通信可能に接続され、前記画像の前記一部が前記対象物に類似するか否かを弱分類器パラメータ用いた分類処理と強分類器パラメータを用いた分類処理とによりそれぞれ判定するように構成された機械学習ユニットとを具え、
前記機械学習ユニットは更に、前記弱分類器パラメータによる判定と前記強分類器パラメータによる判定の結果が異なる場合に、当該判定の対象となった前記画像を用いて訓練処理を行って新たな弱分類器パラメータを取得し、当該新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの前記弱分類器パラメータを更新するように構成されていることを特徴とする、対象物検出システム対象物検出システムを提供する。
That is, when an image is acquired and whether or not a part of the image is similar to a predetermined object is determined by a classification process using weak classifier parameters, and the image is output and determined to be similar Is a detection unit configured to output an object detection signal;
The detection unit is communicatively connected to receive the image, and a classification process using a weak classifier parameter and a strong classifier parameter are used to determine whether the part of the image is similar to the object. A machine learning unit configured to determine each by a classification process;
The machine learning unit further performs a training process using the image subjected to the determination when the determination based on the weak classifier parameter and the determination based on the strong classifier parameter are different, and performs a new weak classification. An object detection system, wherein the weak classifier parameter of each of the detection unit and the machine learning unit is updated with the new weak classifier parameter. Provide a detection system.
また、本発明は、以下の対象物検出方法を提供する。即ち、検出ユニットと機械学習ユニットとを具える対象物検出システムによって実行される対象物検出方法であって、
(A)前記検出ユニットによって、画像を取得し、取得した前記画像の一部が所定の対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理を実行して判定を行うステップと、
(B)前記画像の一部が所定の対象物に類似すると判定したときに、前記検出ユニットによって対象物検出信号を出力するステップと、
(C)前記検出ユニットによって、前記画像を前記機械学習ユニットに出力するステップと、
(D)前記機械学習ユニットによって、前記画像を受信してから、受信した前記画像の一部が対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理と、強分類器パラメータを用いた分類処理とをそれぞれ実行して2つの判定を行うステップと、
(E)前記2つの判定の結果が異なるときに、前記機械学習ユニットによって、前記2つの判定の対象となった前記画像を用いて訓練処理を行うことにより新たな弱分類器パラメータを取得し、前記新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの弱分類器パラメータを更新するステップと、を含むことを特徴とする対象物検出方法を提供する。
The present invention also provides the following object detection method. That is, an object detection method executed by an object detection system including a detection unit and a machine learning unit,
(A) A step of acquiring an image by the detection unit and performing a classification process using weak classifier parameters to determine whether a part of the acquired image is similar to a predetermined object. When,
(B) outputting a target detection signal by the detection unit when it is determined that a part of the image is similar to a predetermined target;
(C) outputting the image to the machine learning unit by the detection unit;
(D) After the image is received by the machine learning unit, whether or not a part of the received image is similar to an object is classified using a weak classifier parameter, and a strong classifier parameter Performing two determinations by performing each of the classification processes using
(E) When the results of the two determinations are different, the machine learning unit acquires a new weak classifier parameter by performing a training process using the images subjected to the two determinations, And updating a weak classifier parameter of each of the detection unit and the machine learning unit with the new weak classifier parameter.
上記手段によれば、検出ユニットを具えることで、取得した画像に対して分類処理が行われ、画像に対象物が含まれているかを即時に判定することができる上に、検出ユニットと共に更に機械学習ユニットを具えることで、検出ユニットによる判定の結果に誤りがないかどうかを機械的に確かめて、誤判定があった場合にはその画像を用いて分類器のパラメータに対して訓練処理を自動的に行って誤判定率の低下を図ることができるので、人手による補助判定やラベル付けなどの作業を必要とせずに、効率よく且つ速やかに対象物検出精度が向上する。 According to the above means, by providing the detection unit, classification processing is performed on the acquired image, and it is possible to immediately determine whether the object is included in the image, and further together with the detection unit. By including a machine learning unit, it is mechanically checked whether there is an error in the result of the determination by the detection unit, and if there is an error, training processing is performed on the parameters of the classifier using the image. Since the erroneous determination rate can be reduced by automatically performing the above, the object detection accuracy can be improved efficiently and promptly without requiring manual operations such as auxiliary determination and labeling.
以下、図面を参照しながら本発明の具体的な実施形態を説明する。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
<対象物検出システム> <Object detection system>
(第1の実施形態) (First embodiment)
図1及び図2には、本発明に係る対象物検出システムの第1の実施形態が示されている。対象物検出システムは、検出ユニット2と、機械学習ユニット3を具える。
1 and 2 show a first embodiment of an object detection system according to the present invention. The object detection system includes a
検出ユニット2は、自動車などの車両9(図2参照)に配置され、画像を取得し、取得した画像の一部が対象物に類似するか否かを弱分類器パラメータ(一組のパラメータグループ)を用いた分類処理により判定し、その画像を出力する上に、画像の一部が対象物に類似すると判定した場合、即ち画像に対象物が含まれると判定した場合には対象物検知信号を出力し、且つ、新たな弱分類器パラメータ(一組のパラメータグループ)を受信した際にはこれにより元の弱分類器パラメータを更新するように構成されたものである。以下、検出ユニット2の構造をより具体的に説明する。
The
なお、本実施形態において、上記画像は、車両9に設置されていて車両9の周辺の映像を記録するドライブレコーダー(図示せず)により撮影された動画から取り出されるものとして例示されており、車両9の近辺における対象物の有無の判定のために検出ユニット2に提供される。ここで対象物とは、対象物検出システムにおいて予め定義されているものであり、車両9が自動車である場合には、例えば接近しすぎると運転の障害となる歩行者や他の車両などであるが、これに限らず、対象物検出システムは自動車以外の車両にも適用することができ、車両及び対象物の種類は本例示に限定されるものではない。
In the present embodiment, the image is illustrated as being taken from a moving image that is installed in the
検出ユニット2は、画像取得モジュール21、第1の画像処理モジュール22、第1の分類器モジュール23、出力モジュール24、パラメータモジュール25を含む。
The
画像取得モジュール21は、ドライブレコーダーにより撮影された動画を受信して該動画から静止画としての画像を取り出すように構成されている。なお、以下の説明で単に画像と記載する場合にはこの画像取得モジュール21により取得された画像を指す。
The
第1の画像処理モジュール22は、画像を受信するように画像取得モジュール21と電気的に接続されていて、受信した画像から該画像の一部分である第1の部分画像を抽出する。第1の部分画像は、検出ユニット2による判定に供する部分画像とされる。
The first
第1の分類器モジュール23は、第1の部分画像を受信するように第1の画像処理モジュール22に電気的に接続され、弱分類器パラメータ(一組のパラメータグループ)を用いた分類処理を行い、第1の部分画像が対象物に類似するか否かを判定する。第1の部分画像が対象物に類似すると判定した場合、第1の分類器モジュール23は、車両9の近辺に対象物が存在すると判断し、車両9の運転者に対象物の存在を通知するための対象物検出信号を出力する。
The
出力モジュール24は、画像を受信するように画像取得モジュール21と電気的に接続されていて、画像を機械学習ユニット3に出力するように構成されている。
The
パラメータモジュール25は、第1の分類器モジュール23に電気的に接続されていて、第1の分類器モジュール23が上述の分類処理を行うために使用する上記弱分類器パラメータを格納できるように構成されている。
The
機械学習ユニット3は、画像を受信するように検出ユニット2と通信可能に接続されており、分類に関連する処理を、弱分類器パラメータ及び強分類器パラメータ(いずれも一組のパラメータグループ)を用いてそれぞれ実行し、画像の一部が対象物に類似するか否かの2つの判定(即ち、弱分類器パラメータを用いた分類処理による判定と強分類器パラメータを用いた分類処理による判定)をそれぞれ行うように構成されている。この2つの判定の結果が異なる場合には、その画像を用いて訓練処理を行い、新たな弱分類器パラメータを求めて、求められた新たな弱分類器パラメータによって、検出ユニット2のパラメータモジュール25に格納されている弱分類器パラメータを更新する。
The
本実施形態において、機械学習ユニット3は、図2に示すように例えば図示しないリモートサーバーに設置されているが、これに限らず、図5に示すように検出ユニット2と共に車両9に設置されるよう構成されてもよい。また、機械学習ユニット3は、出力モジュール24から画像を受信し且つパラメータモジュール25に新たな弱分類器パラメータを送信することができるように、検出ユニット2に無線又は有線で接続される。以下、機械学習ユニット3の構造をより具体的に説明する。
In the present embodiment, the
機械学習ユニット3は、第2の画像処理モジュール31、第2の分類器モジュール32、訓練モジュール33、更新モジュール34を含む
The
第2の画像処理モジュール31は、検出ユニット2の出力モジュール24から画像を受信し、その画像から第1の部分画像と同一の内容を含む第2の部分画像を抽出するように構成されている。第2の部分画像は、機械学習ユニット3の前述した2つの判定の対象とされる。
The second
第2の分類器モジュール32は、第2の部分画像及び検出ユニット2からの元の画像を受信するように第2の画像処理モジュール31に電気的に接続され、機械学習ユニット3が有する弱分類器パラメータ及び強分類器パラメータをそれぞれ用いて分類に関連する演算処理を行い、第2の部分画像が対象物に類似するか否かの2つの判定をそれぞれ行うように構成されている。ここで、第2の分類器モジュール32及び第1の分類器モジュール23がそれぞれ上述の分類処理を実行するに当たって使用する弱分類器パラメータは相同するものなので、第2の分類器モジュール32による弱分類器パラメータを用いた判定結果は、第1の分類器モジュール23による判定結果と同じになる。また、強分類器パラメータの総数が弱分類器パラメータの総数よりも多いので、強分類器パラメータによる判定結果はより高い精度を有する。よって、強分類器パラメータによる判定結果は正しい結果とみなされる。弱分類器パラメータ及び強分類器パラメータをそれぞれ用いて行われた2つの判定結果が異なる場合には、弱分類器パラメータを用いた判定結果が誤っていることになり、誤判定が起きた画像が第2の分類器モジュール32から訓練モジュール33に出力される。
The
訓練モジュール33は、上述の誤判定が起きた画像を受信するように第2の分類器モジュール32に電気的に接続されており、その画像を第2の分類器モジュール32のパラメータを訓練するための訓練サンプルとして使用し、これにより新たな弱分類器パラメータ(一組のパラメータグループ)を求めて(以下、「訓練処理」とも言う。)、更新モジュール34に出力する。
The
更新モジュール34は、新たな弱分類器パラメータを受信するように訓練モジュール33に電気的に接続されていて、新たな弱分類器パラメータによって第2の分類器モジュール32の弱分類器パラメータを更新する上に、第1の分類器モジュール23によって使用される弱分類器パラメータを更新するために新たな弱分類器パラメータを検出ユニット2のパラメータモジュール25に送信するように構成されている。本実施形態では、上述の誤判定が起きた画像が収集され、収集された画像は第2の分類器モジュール32のパラメータを訓練するために利用され、その結果元の弱分類器パラメータを更新するために使用される新たな弱分類器パラメータが得られる。
The
なお、更新モジュール34は、上述の構成に加えて、所定の画像サンプルセットを用いて新たな弱分類器パラメータの信頼度スコアを計算し、対象物検出システムに予め定義された対象物(歩行者やその他の車両など)を検出する精度において当該新たな弱分類器パラメータが元の弱分類器パラメータよりも実際に優れているかどうかを判断できるように更に構成されてもよい。この場合、新たな弱分類器パラメータの信頼度スコアが元の弱分類器パラメータの信頼度スコアよりも大きいときにのみ、更新モジュール34は、新たな弱分類器パラメータによって第2の分類器モジュール32の弱分類器パラメータを更新し、また、第1の分類器モジュール23の弱分類器パラメータを更新するために新たな弱分類器パラメータを検出ユニット2のパラメータモジュール25に送信する。
In addition to the above-described configuration, the
また、一実施形態において、第1の分類器モジュール23は弱分類器231を有してもよく、弱分類器231は、分類処理を実行するために弱分類器パラメータと組み合わせて利用される。また、第2の分類器モジュール32は図3に示すような強分類器321を有してもよく、強分類器321は、分類処理を実行するために強分類器パラメータと組み合わせて利用される。そして、第2の分類器モジュール32において強分類器321の最初からM段階までが弱分類器322を形成し、弱分類器322は分類処理を実行するために弱分類器パラメータと組み合わせて利用される。このようにして、第2の分類器モジュール32は、強分類器321と弱分類器322とによる2つの判定結果をそれぞれ出力することができる。
In one embodiment, the
本実施形態によれば、対象物検出システムは以下の利点を有する。 According to this embodiment, the object detection system has the following advantages.
まず、検出ユニット2を設けることにより、ドライブレコーダーが出力する動画から取り出された各画像に対してリアルタイム演算が行われ、画像の一部が対象物と類似している、即ち、対象物が存在すると判定された場合には、運転者に対象物の存在を通知するための対象物検出信号が出力される。また、弱分類器パラメータを継続的に更新することにより、第1の分類器モジュール23による判定の精度をさらに向上させることができる。
First, by providing the
更に、検出ユニット2に通信可能に接続された機械学習ユニット3を有する上に、2つの判定結果を得るために弱分類器パラメータと強分類器パラメータをそれぞれ用いて分類処理を行う第2の分類器モジュール32を設けることにより、第1の分類器モジュール23による判定結果に誤りがないかを確かめることが可能となる。誤判定であると判断された場合には、誤判定を起こした画像が学習モジュール33に出力される。学習モジュール33は、この画像を基に第2の分類器モジュール32のパラメータを訓練して新たな弱分類器パラメータを取得する。そして更新モジュール34は、この新しい弱分類器パラメータを用いて元の弱分類器パラメータを更新する。このように、第1の分類器モジュール23による誤判定の結果となった画像が自動的に判別され、この画像が機械学習に用いられることで、次回の画像判定における誤判定率が低減される。上記の手順は本発明に係る対象物検出システムにおいて自動的に行われるため、人手による作業やタグ付け等による補助的な判定を必要とせず、大量の学習サンプルを速やかに集めて弱分類器パラメータを訓練することができる。このように、本発明に係る対象物検出システムによれば、検出ユニット2の誤判定率を迅速に低減することができ、対象物検出の精度が大幅に向上することで車両9の運転の安全性をより確かなものとすることができる。
Furthermore, in addition to having a
また、図2に示されているように、車両9に搭載された車両組み込みシステム(図示せず)に検出ユニット2を設けると共に、検出ユニット2にワイヤレス接続されたサーバー(図示せず)に機械学習ユニット3を設けることにより、機械学習ユニット3は、車両組み込みシステムの性能に影響されることがなく、より優れた演算能力を有する第2の分類器モジュール32を具えることができる。そのため、強分類器パラメータを利用することで分類に係るリアルタイム処理を行って第1の分類器モジュール23による判定結果に誤りがないかどうかを迅速に確認することができ、弱分類器パラメータの精度をその確認の後に行われる訓練や更新を経て更に向上することができる。但し、これは一実施例であり、例えば図5に示される他の実施例においては、機械学習ユニット3を、検出ユニット2と共に車両9に搭載された車両組み込みシステムに配置することも可能である。
Further, as shown in FIG. 2, the
加えて、更新モジュール34が元の弱分類器パラメータを新たな弱分類器パラメータによって後者の信頼度スコアがより高い場合においてのみ更新するよう構成されているので、それぞれ弱分類器パラメータが更新されると、第1の分類器モジュール23及び第2の分類器モジュール32の精度が更に向上する。一方、誤判定を起こした画像が第2の分類器モジュール32のパラメータを訓練するのに適さない場合、第1の分類器モジュール23及び第2の分類器モジュール32のパラメータは新しい弱分類器パラメータによって更新されないので、検出性能の劣化が防がれる。
In addition, the
(第2の実施形態) (Second Embodiment)
図4及び図5には、本発明に係る対象物検出システムの第2の実施形態が示されている。第2の実施形態は、上述の第1の実施形態と同様であるが、第1の実施形態と比較して以下の相違点を有する。 4 and 5 show a second embodiment of the object detection system according to the present invention. The second embodiment is the same as the first embodiment described above, but has the following differences compared to the first embodiment.
本実施形態において、検出ユニット2の第1の分類器モジュール23は、距離算出モジュール232を更に有する。距離算出モジュール232は、弱分類器231が車両9の近辺に対象物が存在すると判定した場合に、上述の第1の部分画像を取得し、第1の部分画像に含まれる対象物の大きさに基づいて車両9から対象物までの距離を算出し、当該距離を示す対象物距離信号を出力するように構成されている。
In the present embodiment, the
また、本実施形態において対象物検出システムは、上記対象物検出信号を受信できるように検出ユニット2に電気的に接続されている上に、検出ユニット2が設けられた車両9の運転状態に関連する車両信号と、車両9に設けられる衝突センサ(図示せず)によって車両9が物体と衝突した際に出力される衝突信号と、上記対象物距離信号とを更に受信できるように構成されたフィードバックユニット4を更に具える。フィードバックユニット4は、車両信号、衝突信号、対象物距離信号および対象物検出信号の内の1つ以上に基づいて、誤判定フィードバック信号を出力モジュール24に出力するように構成されている。出力モジュール24は、誤判定フィードバック信号の受信に応じて、画像を機械学習ユニット3の第2の画像処理モジュール31に出力する。
In the present embodiment, the object detection system is electrically connected to the
なお、車両信号は、本実施形態では走行速度とブレーキペダルの移動量との両方を示すものであるが、これに限らず、走行速度及びブレーキペダルの移動量のいずれか一方を示すものでもよく、本実施形態に限られない。 In the present embodiment, the vehicle signal indicates both the traveling speed and the amount of movement of the brake pedal. However, the vehicle signal is not limited to this, and may indicate either the traveling speed or the amount of movement of the brake pedal. It is not limited to this embodiment.
フィードバックユニット4は、以下の状況の内の少なくとも1つにおいて誤判定フィードバック信号を出力するように構成されている。
The
第1の状況は、フィードバックユニット4が対象物検出信号を受信しているのに対して車両9の走行速度の減速率が予め設定された減速率閾値以下である状況、あるいはフィードバックユニット4が対象物検出信号を受信しているのに対して車両9のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況である。
The first situation is a situation where the deceleration rate of the traveling speed of the
この状況は、第1の分類器モジュール23による判定結果では対象物が存在する(即ち、第1の部分画像が対象物に類似する)とされているのに関わらず、車両9が急速に減速していないか、または運転者がブレーキペダルを踏み込んでいないことを意味する。従って、この場合、フィードバックユニット4は第1の分類器モジュール23による判定が誤りであると判断する。
In this situation, the
第2の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して車両9の走行速度の減速率が予め設定された減速率閾値よりも大きい状況、あるいはフィードバックユニット4が対象物検出信号を受信していないのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況である。
In the second situation, the
この状況は、第1の分類器モジュール23による判定結果では対象物が存在していない(即ち、第1の部分画像が対象物に類似しない)とされているのに関わらず、車両9が急速に減速したか、または運転者がブレーキペダルを踏み込んだことを意味する。従って、この場合、第1の状況と同様に、フィードバックユニット4は、第1の分類器モジュール23による判定が誤りであると判断する。
In this situation, the
第3の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して衝突信号を受信した場合である。
The third situation is when the
この状況は、車両9の近辺に対象物が存在したにも関わらず第1の分類器モジュール23が対象物検出信号を出力しなかったこと、または第1の分類器モジュール23による対象物検出信号の出力が遅すぎて運転者が十分な応答時間を有しなかったことを意味する。
This situation is due to the fact that the
第4の状況は、対象物距離信号が示す車両9から対象物までの距離が下述する計算により得られる車両9の制動距離を下回る状況である。
The fourth situation is a situation in which the distance from the
この状況において、フィードバックユニット4は、第1の分類器モジュール23により対象物が存在すると判定されている上に距離算出部232により算出された車両9から対象物までの距離が安全に制動できる距離である制動距離未満であるのに関わらず、車両9が引き続き対象物に接近していると判断する。この場合、フィードバックユニット4は、第1の分類器モジュール23による判定が誤りであると判断する。
In this situation, the
なお、上述の制動距離は、以下の式により求められる。 Note that the above-described braking distance is obtained by the following equation.
式中、S'は算出される制動距離であり、vは予め設定された終了速度であり、ここではゼロに設定され、voは制動開始時の車速である初速であり、aは所定の制動力0.4gに基づいて得られる加速度であり、sは式1により得られる理論上の制動距離、Sは運転者の応答時間内での車両9の変位、tは運転者の応答時間であり、実質的には0.8秒として計算する。
In the equation, S ′ is a calculated braking distance, v is a preset end speed, which is set to zero here, v o is an initial speed which is a vehicle speed at the start of braking, and a is a predetermined speed The acceleration obtained based on the braking force of 0.4 g, s is the theoretical braking distance obtained by
このように、対象物検出システムの第2の実施形態は、第1の実施形態と同様の効果を得ることができる上に、更に以下の利点を有する。 As described above, the second embodiment of the object detection system can obtain the same effects as those of the first embodiment, and further has the following advantages.
フィードバックユニット4は、対象物検出信号、車両信号、対象物距離信号及び衝突信号を受信することにより、第1の分類器モジュール23による判定に誤りがあったか否かを判断することができる。また、出力モジュール24は、誤判定フィードバック信号を受信した場合にのみ、機械学習ユニット3に画像を出力するように構成されているため、出力モジュール24が出力する画像は、第1の分類器モジュール23による誤判定に関連する有効な訓練サンプルとなる。このように、第2の分類器モジュール32に必要なデータスループットを大幅に低減することができる。即ち、第2の分類器モジュール32に対するスペック要求が低くなるので、第2の分類器モジュール32の設計をより単純にすることができる。よって、一般的な演算能力を有するアーキテクチャによっても第2の分類器モジュール32を構成することが可能となる。また、例として機械学習ユニット3を検出ユニット2と共に車両9の車両組み込みシステムに直接搭載すれば、設計コストを節約できるだけでなく、車両9に機械学習ユニット3を独立して設けるための設備も必要なくなる。また、機械学習ユニット3を検出ユニット2と共に車両9の車両組み込みシステムに直接搭載すれば、機械学習ユニット3をリモートサーバに設ける場合と比較して、リモートサーバへの接続を必要としないので、第1の分類器モジュール23のパラメータを即時に更新することができる。
The
なお、本発明に係る対象物検出システムにおいて、検出ユニット2、機械学習ユニット3、フィードバックユニット4は、ハードウェア方式(プロセッサ、ICチップ等)により構成されてもよいし、 例えばプロセッサによって実行されるコマンドを含むコードのようなソフトウェア方式により構成されてもよいことに注意されたい。
In the object detection system according to the present invention, the
<対象物検出方法> <Object detection method>
本発明に係る対象物検出方法は、図4及び図6に示されているように、その一実施形態において、本発明に係る上述の対象物検出システムによって実施され、以下のステップを含む。 As shown in FIGS. 4 and 6, the object detection method according to the present invention is implemented by the above-described object detection system according to the present invention in one embodiment, and includes the following steps.
ステップS51において、検出ユニット2は、動画を受信して受信した動画から画像を取り出す。また、検出ユニット2は、取得した画像から画像の一部である第1の部分画像を抽出し、誤判定フィードバック信号の受信に応じて、その画像を機械学習ユニット3に出力する。なお、上記動画は、例えば対象物検出システムが配置される車両9に設置されていて車両9の周辺の映像を記録するドライブレコーダー(図示せず)により撮影されたものである。
In step S51, the
ステップS52において、検出ユニット2は、検出ユニット2が有する弱分類器パラメータを用いて分類に関連する処理を実行し、上記第1の部分画像が所定の対象物に類似するか否かを判定する。第1の部分画像が対象物に類似すると判定した場合、検出ユニット2は対象物検出信号を出力する。
In step S52, the
ステップS53において、フィードバックユニット4は、車両9の運転状況に関連する車両信号を少なくとも受信し、誤判定フィードバック信号を検出ユニット2に出力するか否かを少なくとも車両信号に基づいて決定する。ここで、車両信号は、車両9の走行速度、または車両9のブレーキペダルの移動量の少なくともいずれかを示す信号である。
In step S <b> 53, the
このステップS53においては、フィードバックユニット4は、車両9の衝突センサが出力する衝突信号と、車両9から対象物までの距離を示す対象物距離信号とを更に受信するようにしてもよい。この場合、フィードバックユニット5は、以下の状況の内の少なくとも1つにおいて誤判定フィードバック信号を出力する。
In step S53, the
第1の状況は、フィードバックユニット4が対象物検出信号を受信しているのに対して車速の減速率が予め設定された減速率閾値以下である状況、あるいはフィードバックユニット4が対象物検出信号を受信しているのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況である。
The first situation is a situation where the
第2の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して車速の減速率が予め設定された減速率閾値よりも大きい状況、あるいはフィードバックユニット4が対象物検出信号を受信していないのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況である。
The second situation is a situation where the
第3の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して衝突信号を受信した場合である。
The third situation is when the
第4の状況は、対象物距離信号が示す車両9から対象物までの距離が車両9の制動距離を下回る状況である。なお、車両9の制動距離は走行速度を基にして上述した所定の算式により求められるものである。
The fourth situation is a situation in which the distance from the
フィードバックユニット4により誤判定フィードバック信号が検出ユニット2に出力されると、ステップS54に進む。
When an erroneous determination feedback signal is output to the
ステップS54において、機械学習ユニット3は、分類に関連する処理を弱分類器パラメータ及び強分類器パラメータを用いてそれぞれ行い、画像の一部が対象物に類似するか否かの2つの判定を行う。これら2つの判定結果が異なる場合には、その画像を用いて訓練処理を行い、検出ユニット2と機械学習ユニット3それぞれの弱分類器パラメータを更新するための新たな弱分類器パラメータを取得する。
In step S54, the
より具体的には、このステップS54において、機械学習ユニット3は、第1の部分画像と同一の内容を含み、画像の一部である第2の部分画像を画像から抽出し、弱分類器パラメータ及び強分類器パラメータを用いて分類に関連する処理をそれぞれ実行して、第2の部分画像が対象物に類似するか否かの2つの判定をそれぞれ行う。これら2つの判定結果が異なる場合は、その画像を機械学習ユニット3のパラメータを訓練するためのサンプルとして用い、これにより新たな弱分類器パラメータを得る。
More specifically, in this step S54, the
また、このステップS54では、機械学習ユニット3は、新たな弱分類器パラメータの信頼度スコアを計算する。算出された信頼度スコアが、元の弱分類器パラメータの信頼度スコアよりも大きい場合には、ステップS55に進む。
In step S54, the
ステップS55では、機械学習ユニット3は新たな弱分類器パラメータを用いて自身の弱分類器パラメータを更新し、更にこの新たな弱分類器パラメータを検出ユニット2の弱分類器パラメータの更新のために検出ユニット2に出力する。
In step S55, the
このように、本発明に係る対象物検出方法によれば、適応学習が可能となり、上述した対象物検出システムの実施形態と同様の効果を得ることができる。 As described above, according to the object detection method of the present invention, adaptive learning is possible, and the same effects as those of the above-described embodiment of the object detection system can be obtained.
以上、本発明の好ましい実施形態を説明したが、本発明はこれに限定されるものではなく、その要旨を逸脱しない範囲で種々の変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to this, A various change is possible in the range which does not deviate from the summary.
本発明は、例えば自動車に設置されて走行時の障害物を検出して運転者に障害物の存在を知らせるための対象物検出システムとして有用である他に、各種の先進運転支援システムに応用することが可能である。 The present invention is applied to various advanced driving support systems in addition to being useful as an object detection system for detecting obstacles during driving by being installed in a car and notifying the driver of the presence of obstacles, for example. It is possible.
2 検出ユニット
21 画像取得モジュール
22 第1の画像処理モジュール
23 第1の分類器モジュール
231 弱分類器
232 距離算出モジュール
24 出力モジュール
25 パラメータモジュール
3 機械学習ユニット
31 第2の画像処理モジュール
32 第2の分類器モジュール
321 強分類器
322 弱分類器
33 訓練モジュール
34 更新モジュール
4 フィードバックユニット
9 車両
2
Claims (18)
前記画像を受信するように前記検出ユニットと通信可能に接続され、前記画像の前記一部が前記対象物に類似するか否かを弱分類器パラメータ用いた分類処理と強分類器パラメータを用いた分類処理とによりそれぞれ判定するように構成された機械学習ユニットとを具え、
前記機械学習ユニットは更に、前記弱分類器パラメータによる判定と前記強分類器パラメータによる判定の結果が異なる場合に、当該判定の対象となった前記画像を用いて訓練処理を行って新たな弱分類器パラメータを取得し、当該新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットのそれぞれの前記弱分類器パラメータを更新するように構成されていることを特徴とする、対象物検出システム。 An image is acquired, and whether or not a part of the image is similar to a predetermined object is determined by a classification process using weak classifier parameters, and the image is output. A detection unit configured to output an object detection signal;
The detection unit is communicatively connected to receive the image, and a classification process using a weak classifier parameter and a strong classifier parameter are used to determine whether the part of the image is similar to the object. A machine learning unit configured to determine each by a classification process;
The machine learning unit further performs a training process using the image subjected to the determination when the determination based on the weak classifier parameter and the determination based on the strong classifier parameter are different, and performs a new weak classification. The object detection system is configured to acquire a classifier parameter and update the weak classifier parameter of each of the detection unit and the machine learning unit with the new weak classifier parameter.
受信した前記動画から前記画像を取り出す画像取得モジュールと、
前記画像を受信するように前記画像取得モジュールに電気的に接続されていて、前記画像から前記判定の対象である前記画像の一部とする第1の部分画像を抽出するように構成された第1の画像処理モジュールと、
前記第1の部分画像を受信するように前記第1の画像処理モジュールに電気的に接続されていて、前記弱分類器パラメータを用いた前記分類処理を行い、前記第1の部分画像が前記対象物に類似するか否かを判定し、前記第1の部分画像が前記対象物に類似すると判定した際に前記対象物検出信号を出力するように構成された第1の分類器モジュールと、
前記画像を受信するように前記画像取得モジュールと電気的に接続されていて、前記画像を前記機械学習ユニットに出力するように構成された出力モジュールと、を有する、請求項1に記載の対象物検出システム。 The detection unit is configured to receive a video, and
An image acquisition module for extracting the image from the received video;
A first partial image electrically connected to the image acquisition module to receive the image and configured to extract a first partial image as a part of the image to be determined from the image; 1 image processing module,
Electrically connected to the first image processing module to receive the first partial image, performing the classification process using the weak classifier parameters, wherein the first partial image is the target A first classifier module configured to determine whether the object is similar to an object, and to output the object detection signal when it is determined that the first partial image is similar to the object;
The object of claim 1, further comprising: an output module electrically connected to the image acquisition module to receive the image and configured to output the image to the machine learning unit. Detection system.
前記検出ユニットの前記出力モジュールから前記画像を受信し、受信した前記画像から前記第1の部分画像と同一の内容を含む部分画像であって前記機械学習ユニットによる各前記判定の対象である前記画像の一部とする第2の部分画像を抽出するように構成された第2の画像処理モジュールと、
前記第2の部分画像及び前記画像を受信するように前記第2の画像処理モジュールに電気的に接続されていて、前記弱分類器パラメータ用いた分類処理と前記強分類器パラメータを用いた分類処理とによる各前記判定を行い、各前記判定の結果が異なる場合に、当該判定の対象となった前記画像を出力するように構成された第2の分類器モジュールと、
前記画像を受信するように前記第2の分類器モジュールに電気的に接続されていて、前記画像を訓練サンプルとして用いて前記第2の分類器モジュールのパラメータを訓練して新たな弱分類器パラメータを取得するように構成された訓練モジュールと、
前記新たな弱分類器パラメータを受信するように前記訓練モジュールに電気的に接続されていて、前記第2の分類器モジュールの前記弱分類器パラメータを前記新たな弱分類器パラメータによって更新し、更に前記検出ユニットの前記第1の分類器モジュールの前記弱分類器パラメータを前記新たな弱分類器パラメータによって更新するよう前記新たな弱分類器パラメータを前記検出ユニットに送信するように構成された更新モジュールと、を有する、請求項2に記載の対象物検出システム。 The machine learning unit is
The image received from the output module of the detection unit, the partial image including the same content as the first partial image from the received image, and the image to be determined by the machine learning unit A second image processing module configured to extract a second partial image as a part of
Classification processing using the weak classifier parameter and classification processing using the strong classifier parameter electrically connected to the second image processing module so as to receive the second partial image and the image A second classifier module configured to output each of the determination target images when the determination results are different and the determination results are different from each other;
New weak classifier parameters that are electrically connected to the second classifier module to receive the image and train the parameters of the second classifier module using the image as a training sample. A training module configured to obtain,
Electrically connected to the training module to receive the new weak classifier parameter, updating the weak classifier parameter of the second classifier module with the new weak classifier parameter; An update module configured to send the new weak classifier parameter to the detection unit to update the weak classifier parameter of the first classifier module of the detection unit with the new weak classifier parameter. The object detection system according to claim 2, further comprising:
前記フィードバックユニットは、前記検出ユニットが設けられた車両の運転状態に関連する車両信号を受信する上に、受信した前記車両信号に基づいて誤判定フィードバック信号を前記出力モジュールに出力できるように構成されていて、
前記出力モジュールは、前記誤判定フィードバック信号の受信に応じて、前記画像を前記機械学習ユニットの前記第2の画像処理モジュールに出力する、請求項3に記載の対象物検出システム。 A feedback unit electrically connected to the detection unit to receive the object detection signal;
The feedback unit is configured to receive a vehicle signal related to a driving state of a vehicle provided with the detection unit and to output an erroneous determination feedback signal to the output module based on the received vehicle signal. And
The object detection system according to claim 3, wherein the output module outputs the image to the second image processing module of the machine learning unit in response to reception of the erroneous determination feedback signal.
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。 The vehicle signal is a signal indicating a traveling speed of the vehicle,
The feedback unit is configured so that the feedback unit receives the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is equal to or less than a preset deceleration rate threshold, and the feedback In a situation where the unit has not received the object detection signal but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is greater than a preset deceleration rate threshold, the erroneous determination The target object detection system according to claim 4 which outputs a feedback signal.
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。 The vehicle signal is a signal indicating a movement amount of a brake pedal of the vehicle,
The feedback unit is configured such that the feedback unit receives the object detection signal, but the amount of movement of the brake pedal of the vehicle indicated by the vehicle signal is equal to or less than a preset brake pedal movement amount threshold; In any of the situations where the feedback unit does not receive the object detection signal but the amount of movement of the brake pedal of the vehicle indicated by the vehicle signal is greater than a preset brake pedal movement amount threshold The object detection system according to claim 4, wherein the erroneous determination feedback signal is output.
前記フィードバックユニットは、前記車両に設けられる衝突センサにより出力される衝突信号と、前記車両から前記対象物までの距離を示す対象物距離信号との少なくともいずれかを更に受信できるように構成され、
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信していないが前記衝突信号を受信した状況と、前記対象物距離信号により示される前記距離が前記車両の制動距離よりも小さい状況とのいずれかの状況においても、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。 The object is an obstacle to driving the vehicle in proximity to the vehicle,
The feedback unit is configured to further receive at least one of a collision signal output by a collision sensor provided in the vehicle and an object distance signal indicating a distance from the vehicle to the object,
The feedback unit includes a situation in which the feedback unit has not received the object detection signal but has received the collision signal, and a situation in which the distance indicated by the object distance signal is smaller than a braking distance of the vehicle. 5. The object detection system according to claim 4, wherein the erroneous determination feedback signal is output even in any of the situations described above.
前記車両の制動距離は、前記車両信号が示す前記走行速度に基づいて算出されたものである、請求項7に記載の対象物検出システム。 The vehicle signal is a signal indicating a traveling speed of the vehicle,
The object detection system according to claim 7, wherein the braking distance of the vehicle is calculated based on the traveling speed indicated by the vehicle signal.
(A)前記検出ユニットによって、画像を取得し、取得した前記画像の一部が所定の対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理を実行して判定を行うステップと、
(B)前記画像の一部が所定の対象物に類似すると判定したときに、前記検出ユニットによって対象物検出信号を出力するステップと、
(C)前記検出ユニットによって、前記画像を前記機械学習ユニットに出力するステップと、
(D)前記機械学習ユニットによって、前記画像を受信してから、受信した前記画像の一部が対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理と、強分類器パラメータを用いた分類処理とをそれぞれ実行して2つの判定を行うステップと、
(E)前記2つの判定の結果が異なるときに、前記機械学習ユニットによって、前記2つの判定の対象となった前記画像を用いて訓練処理を行うことにより新たな弱分類器パラメータを取得し、前記新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの弱分類器パラメータを更新するステップと、
を含むことを特徴とする対象物検出方法。 An object detection method executed by an object detection system comprising a detection unit and a machine learning unit,
(A) A step of acquiring an image by the detection unit and performing a classification process using weak classifier parameters to determine whether a part of the acquired image is similar to a predetermined object. When,
(B) outputting a target detection signal by the detection unit when it is determined that a part of the image is similar to a predetermined target;
(C) outputting the image to the machine learning unit by the detection unit;
(D) After the image is received by the machine learning unit, whether or not a part of the received image is similar to an object is classified using a weak classifier parameter, and a strong classifier parameter Performing two determinations by performing each of the classification processes using
(E) When the results of the two determinations are different, the machine learning unit acquires a new weak classifier parameter by performing a training process using the images subjected to the two determinations, Updating the weak classifier parameters of each of the detection unit and the machine learning unit with the new weak classifier parameters;
The object detection method characterized by including.
前記(B)ステップにおいては、前記第1の部分画像が前記対象物に類似すると判定したときに前記対象物検出信号を出力する、請求項10に記載の対象物検出方法。 In the step (A), the detection unit receives a moving image, extracts the image from the received moving image, acquires the image, extracts a first partial image from the acquired image, and extracts the image As part
The object detection method according to claim 10, wherein in the step (B), the object detection signal is output when it is determined that the first partial image is similar to the object.
前記(E)ステップにおいては、前記画像を訓練サンプルとして用いて前記訓練処理を行い、前記新たな弱分類器パラメータを前記更新のため前記検出ユニットに送信する、請求項11に記載の対象物検出方法。 In the step (D), a second partial image including the same content as the first partial image is extracted from the image and made a part of the image,
The object detection according to claim 11, wherein in the step (E), the training process is performed using the image as a training sample, and the new weak classifier parameter is transmitted to the detection unit for the update. Method.
前記(B)ステップと前記(C)ステップの間に、前記フィードバックユニットによってそれぞれ行われるステップであって、
(a)前記検出ユニットが設けられた車両の運転状態に関連する車両信号を受信するステップと、
(b)受信した前記車両信号に基づいて誤判定フィードバック信号を前記検出ユニットに出力するステップと、を更に含み、
前記(C)ステップにおいては、前記誤判定フィードバック信号の受信に応じて、前記画像を前記機械学習ユニットに出力する、請求項12に記載の対象物検出方法。 The object detection system further comprises a feedback unit,
The steps performed by the feedback unit between the step (B) and the step (C), respectively.
(A) receiving a vehicle signal related to a driving state of a vehicle provided with the detection unit;
(B) outputting a false determination feedback signal to the detection unit based on the received vehicle signal;
The object detection method according to claim 12, wherein in the step (C), the image is output to the machine learning unit in response to reception of the erroneous determination feedback signal.
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。 The vehicle signal in the step (a) is a signal indicating a traveling speed of the vehicle,
In the step (b), the feedback unit receives the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is not more than a preset deceleration rate threshold value; In any of the situations where the feedback unit has not received the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is greater than a preset deceleration rate threshold value, The object detection method according to claim 13, wherein the erroneous determination feedback signal is output.
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。 The vehicle signal in the step (a) is a signal indicating a movement amount of a brake pedal of the vehicle,
In the step (b), the feedback unit receives the object detection signal, but the movement amount of the brake pedal of the vehicle indicated by the vehicle signal is equal to or less than a preset brake pedal movement amount threshold value. Either the situation or the situation where the feedback unit does not receive the object detection signal but the movement amount of the brake pedal of the vehicle indicated by the vehicle signal is larger than a preset brake pedal movement amount threshold value The object detection method according to claim 13, wherein the erroneous determination feedback signal is output in the situation described above.
前記(a)ステップにおいては、前記フィードバックユニットが、前記車両に設けられる衝突センサにより出力される衝突信号と、前記車両から前記対象物までの距離を示す対象物距離信号との少なくともいずれかを更に受信し、
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信していないが前記衝突信号を受信した状況と、前記対象物距離信号により示される前記距離が前記車両の制動距離よりも小さい状況とのいずれかの状況においても、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。 The object is an obstacle to driving the vehicle in proximity to the vehicle,
In the step (a), the feedback unit further outputs at least one of a collision signal output from a collision sensor provided in the vehicle and an object distance signal indicating a distance from the vehicle to the object. Receive
In the step (b), the feedback unit does not receive the object detection signal but receives the collision signal, and the distance indicated by the object distance signal is greater than the braking distance of the vehicle. The object detection method according to claim 13, wherein the erroneous determination feedback signal is output even in any of the small situations.
前記(b)ステップにおける前記車両の制動距離は、前記車両信号が示す前記走行速度に基づいて算出される、請求項16に記載の対象物検出方法。 The vehicle signal in the step (a) is a signal indicating a traveling speed of the vehicle,
The object detection method according to claim 16, wherein the braking distance of the vehicle in the step (b) is calculated based on the traveling speed indicated by the vehicle signal.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105112559A TWI592883B (en) | 2016-04-22 | 2016-04-22 | Image recognition system and its adaptive learning method |
TW105112559 | 2016-04-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017194949A JP2017194949A (en) | 2017-10-26 |
JP6301440B2 true JP6301440B2 (en) | 2018-03-28 |
Family
ID=60021326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016252936A Active JP6301440B2 (en) | 2016-04-22 | 2016-12-27 | Object detection system and object detection method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6301440B2 (en) |
DE (1) | DE102016226204B4 (en) |
TW (1) | TWI592883B (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111542834A (en) * | 2017-12-27 | 2020-08-14 | 大众汽车(中国)投资有限公司 | Processing method, processing device, control equipment and cloud server |
US10467486B2 (en) | 2017-12-29 | 2019-11-05 | Automotive Research & Testing Center | Method for evaluating credibility of obstacle detection |
JP2019139316A (en) * | 2018-02-06 | 2019-08-22 | 国立大学法人 東京大学 | Discrimination system, discrimination device, discrimination method, and discrimination program |
JP7198599B2 (en) * | 2018-06-28 | 2023-01-04 | 株式会社カーメイト | Image processing device, image processing method, drive recorder |
CN112386249B (en) * | 2019-08-14 | 2023-09-19 | 中移(苏州)软件技术有限公司 | Fall detection method and device, equipment and storage medium |
JP7308775B2 (en) * | 2020-02-12 | 2023-07-14 | 株式会社日立ハイテク | Machine learning method and information processing device for machine learning |
US11390249B2 (en) | 2020-08-05 | 2022-07-19 | Ford Global Technologies, Llc | Vehicle vision system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5115390B2 (en) * | 2008-08-04 | 2013-01-09 | 住友電気工業株式会社 | Mobile object identification device, computer program, and learning method of mobile object identification device |
JP5388291B2 (en) * | 2009-09-14 | 2014-01-15 | 住友電気工業株式会社 | Discriminator generation method, computer program, discriminator generation device, and predetermined object detection device |
JP5401344B2 (en) | 2010-01-28 | 2014-01-29 | 日立オートモティブシステムズ株式会社 | Vehicle external recognition device |
JP2013152654A (en) * | 2012-01-26 | 2013-08-08 | Toyota Central R&D Labs Inc | Discriminator, discriminator construction device and program |
JP5922257B2 (en) * | 2012-12-25 | 2016-05-24 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
-
2016
- 2016-04-22 TW TW105112559A patent/TWI592883B/en active
- 2016-12-23 DE DE102016226204.1A patent/DE102016226204B4/en active Active
- 2016-12-27 JP JP2016252936A patent/JP6301440B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017194949A (en) | 2017-10-26 |
DE102016226204B4 (en) | 2019-03-07 |
TW201738806A (en) | 2017-11-01 |
DE102016226204A1 (en) | 2017-10-26 |
TWI592883B (en) | 2017-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6301440B2 (en) | Object detection system and object detection method | |
CN111103594B (en) | Device and method for distinguishing false targets in vehicle and vehicle comprising device and method | |
US11216676B2 (en) | Information processing system and information processing method | |
CN106485233B (en) | Method and device for detecting travelable area and electronic equipment | |
US11703860B2 (en) | Automated driving apparatus | |
US9842283B2 (en) | Target object detection system and a method for target object detection | |
KR102268032B1 (en) | Server device and vehicle | |
CN106985780A (en) | Vehicle safety accessory system | |
WO2016031523A1 (en) | Object recognition device and vehicle control system | |
US11488481B2 (en) | Method for assisting a motor vehicle | |
US11034293B2 (en) | System for generating warnings for road users | |
US11919544B2 (en) | Method and device for operating an automated vehicle | |
KR20150096924A (en) | System and method for selecting far forward collision vehicle using lane expansion | |
JP2019012481A (en) | Driving diagnostic device and driving diagnostic method | |
US9365195B2 (en) | Monitoring method of vehicle and automatic braking apparatus | |
US11420624B2 (en) | Vehicle control apparatus and vehicle control method | |
KR102545109B1 (en) | Apparatus and method for removing false target in vehicle and vehicle including the same | |
CN109195849B (en) | Image pickup apparatus | |
US20170349171A1 (en) | Controlling a protection device of a motor vehicle | |
JP7441839B2 (en) | Abnormality detection device, abnormality detection method, program and information processing system | |
CN115017967A (en) | Detecting and collecting accident-related driving experience event data | |
US20220237926A1 (en) | Travel management device, travel management method, and recording medium | |
KR101748271B1 (en) | Electronic System Mounted on Vehicle And Operating Method Therefor | |
JP2024112406A (en) | Server device | |
KR20190051464A (en) | Autonomous emergency braking apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6301440 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |