Nothing Special   »   [go: up one dir, main page]

JP4596566B2 - Self-vehicle information recognition device and self-vehicle information recognition method - Google Patents

Self-vehicle information recognition device and self-vehicle information recognition method Download PDF

Info

Publication number
JP4596566B2
JP4596566B2 JP2005102394A JP2005102394A JP4596566B2 JP 4596566 B2 JP4596566 B2 JP 4596566B2 JP 2005102394 A JP2005102394 A JP 2005102394A JP 2005102394 A JP2005102394 A JP 2005102394A JP 4596566 B2 JP4596566 B2 JP 4596566B2
Authority
JP
Japan
Prior art keywords
information
vehicle
feature
shadow
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005102394A
Other languages
Japanese (ja)
Other versions
JP2006284281A (en
Inventor
正樹 中村
孝幸 宮島
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2005102394A priority Critical patent/JP4596566B2/en
Publication of JP2006284281A publication Critical patent/JP2006284281A/en
Application granted granted Critical
Publication of JP4596566B2 publication Critical patent/JP4596566B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Description

本発明は、車両に搭載された撮像装置により撮像した画像情報を用いて、自車位置や自車方位を高精度に認識する自車情報認識装置及び自車情報認識方法に関する。   The present invention relates to a host vehicle information recognition apparatus and a host vehicle information recognition method for recognizing a host vehicle position and a host vehicle direction with high accuracy using image information captured by an imaging device mounted on a vehicle.

車両用のナビゲーション装置において車両の位置や方位を特定する方法として、これまでは主に次の2種類の方法が用いられている。一つは、GPS(グローバル・ポジショニング・システム)衛星からの電波信号を受信し、3角測量の原理で位置特定を行うGPS航法である。この航法を用いれば、車両の現在位置を絶対座標として検出することができる利点がある、もう一つは、ジャイロセンサ(方位センサ)や距離センサ等の各種センサを用いて車両の方位と走行距離を検出しながら、一定距離走行する毎に位置変化分を累積することにより位置特定を行う自律航法である。現在では、これら2つの航法を組み合わせたハイブリッド方式が多く用いられている。   As a method for specifying the position and direction of a vehicle in a vehicle navigation device, the following two methods have been mainly used so far. One is GPS navigation that receives a radio signal from a GPS (Global Positioning System) satellite and specifies a position by the principle of triangulation. If this navigation is used, there is an advantage that the current position of the vehicle can be detected as an absolute coordinate. Another is that the vehicle's azimuth and travel distance are measured using various sensors such as a gyro sensor (direction sensor) and a distance sensor. This is an autonomous navigation in which the position is specified by accumulating position changes every time a certain distance is traveled. At present, a hybrid system combining these two navigation methods is often used.

しかし、GPS航法では、GPS衛星からの電波信号を受信する必要があるためにトンネル内や高層ビルの陰などでは位置検出ができない、位置検出の精度に限界があり数m〜数十m程度の誤差を含んでいる、現在の検出位置と直前の検出位置とを結ぶ方向を車両の方位とするために車速が遅い場合に方位の検出精度が低くなるといった問題がある。また、自律航法では、走行距離が長くなる或いは進路変更の数が増えることによりセンサによる検出誤差が累積する問題がある。したがって、これらの2つの航法を組み合わせたハイブリッド方式であっても、車両の位置や方位の検出にはある程度の誤差が生じることは避けられなかった。   However, in GPS navigation, it is necessary to receive radio signals from GPS satellites, so position detection cannot be performed in tunnels or behind high-rise buildings. The accuracy of position detection is limited, and there are several meters to tens of meters. There is a problem that the direction detection accuracy becomes low when the vehicle speed is slow because the direction that includes the error and connects the current detection position and the previous detection position is the vehicle direction. In addition, in the autonomous navigation, there is a problem that detection errors due to sensors accumulate due to an increase in travel distance or an increase in the number of course changes. Therefore, even in the hybrid system combining these two navigation methods, it is inevitable that a certain amount of error occurs in the detection of the position and direction of the vehicle.

そこで、自車位置の検出精度を高めるための技術として、例えば下記特許文献1には、以下のような車両位置測定装置に関する技術が記載されている。すなわち、この車両位置測定装置は、車両に搭載されたカメラを用いて車両前方を撮影して交差点名称を含む案内標識の画像を撮影する。この案内標識としては、法令によって設置位置や大きさ(高さ)等が定まっているものを対象する。そして、撮影された画像情報から案内標識の画像を抽出し、文字認識処理により交差点名称を特定する。また、撮影された画像情報に含まれる案内標識の大きさに基づいて、車両位置(撮影位置)から当該案内標識までの距離を演算する。これにより、交差点名称から特定された交差点ノードから車両位置(撮影位置)までの距離を演算し、この演算結果を用いて車両位置の絶対座標を特定することができる。そして、この車両位置の絶対座標を用いて、GPS受信機、方位センサ、距離センサ等により検出された車両位置を補正する処理を行う。これにより自車位置の検出精度を高めることができる。   Therefore, as a technique for improving the detection accuracy of the vehicle position, for example, the following Patent Document 1 describes a technique related to a vehicle position measurement device as described below. That is, this vehicle position measuring device photographs the front of the vehicle using a camera mounted on the vehicle and photographs an image of a guide sign including an intersection name. As this guide sign, the one whose installation position, size (height), etc. are determined by law is targeted. And the image of a guide sign is extracted from the image | photographed image information, and an intersection name is specified by character recognition processing. Further, based on the size of the guide sign included in the photographed image information, the distance from the vehicle position (shooting position) to the guide sign is calculated. Thereby, the distance from the intersection node specified from the intersection name to the vehicle position (shooting position) can be calculated, and the absolute coordinates of the vehicle position can be specified using the calculation result. And the process which correct | amends the vehicle position detected by the GPS receiver, the direction sensor, the distance sensor, etc. is performed using the absolute coordinate of this vehicle position. Thereby, the detection accuracy of the own vehicle position can be improved.

また、自車方位の検出精度を高めるための技術として、例えば下記特許文献2には、以下のような車載ナビゲータに関する技術が記載されている。すなわち、この車載ナビゲータは、まず、GPS受信機により衛星航法で検出された車両位置を、車両位置修正部が地図データ記憶手段に記憶された地図データを用いてマップマッチングにより道路上に修正する。そして、表示用車両方位計算部により、マップマッチング後の車両位置が乗っている道路の方位を自車方位として計算する処理を行う。これにより、自車方位が、走行中の道路の方向と一致するので、不自然な自車方向の表示が行われることを防止できる。   Moreover, as a technique for improving the detection accuracy of the vehicle direction, for example, the following Patent Document 2 describes a technique related to the following in-vehicle navigator. That is, in this in-vehicle navigator, first, the vehicle position detected by satellite navigation by the GPS receiver is corrected on the road by map matching using the map data stored in the map data storage means by the vehicle position correction unit. Then, the display vehicle azimuth calculating unit performs a process of calculating the azimuth of the road on which the vehicle position after the map matching is on as the own vehicle azimuth. Thereby, since the direction of the own vehicle coincides with the direction of the road on which the vehicle is traveling, it is possible to prevent the display of the unnatural direction of the own vehicle.

特開2004−45227号公報(第7−10頁、第4−5図)Japanese Unexamined Patent Publication No. 2004-45227 (page 7-10, FIG. 4-5) 特開平6−242211号公報(第3−4頁、第2図)Japanese Unexamined Patent Publication No. 6-242221 (page 3-4, FIG. 2)

しかしながら、上記特許文献1に記載された技術は、立体物である案内標識の画像認識処理を行うものであって、案内標識を画像情報の中から抽出する処理に加えて、その大きさや高さ等を認識し、更には案内標識に含まれる文字の認識処理も行うことから、高度な画像認識処理を行う必要がある。そのため、車両の走行に合わせてリアルタイムで高精度に画像認識処理を行うためには装置の演算処理負荷が非常に大きくなるという問題がある。   However, the technique described in Patent Document 1 performs an image recognition process for a guide sign that is a three-dimensional object, and in addition to a process for extracting the guide sign from image information, its size and height Etc., and further, recognition processing of characters included in the guide signs is also performed, so that it is necessary to perform advanced image recognition processing. Therefore, there is a problem that the processing load on the apparatus becomes very large in order to perform image recognition processing in real time with high accuracy in accordance with the traveling of the vehicle.

また、上記特許文献2に記載された技術は、自車方位を正確に演算する技術ではなく、マップマッチングの結果を自車方位の表示に反映させるというだけの技術であるため、必ずしも自車方位を正確に表しているとは限らず、誤った方位を自車方位とする場合がある。したがって、例えば狭角分岐道路等のようにマップマッチングによる車両の進路の推定を正確に行うことが困難な状況においては、正確な自車方位を認識することが困難であるという問題がある。   In addition, the technique described in Patent Document 2 is not a technique for accurately calculating the vehicle direction, but a technique for only reflecting the map matching result in the display of the vehicle direction. Is not always accurately represented, and the wrong direction may be set as the vehicle direction. Therefore, in a situation where it is difficult to accurately estimate the course of the vehicle by map matching, such as a narrow-angle branch road, there is a problem that it is difficult to recognize the correct vehicle direction.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、演算処理負荷が少なく正確性が高い画像認識処理を用いて、自車位置及び自車方位の一方又は双方を高精度に認識することが可能な自車情報認識装置を提供する点にある。   The present invention has been made in view of the above-described problems, and its object is to highly accurately determine one or both of the vehicle position and the vehicle direction by using an image recognition process with a low calculation processing load and high accuracy. It is in providing the own vehicle information recognition device which can be recognized.

上記目的を達成するための本発明に係る自車情報認識装置の特徴構成は、自車両に搭載された撮像装置により撮像した画像情報を取り込む画像情報取得手段と、自車位置情報を取得する自車位置情報取得手段と、地物の位置及び高さの情報を含む地物情報を格納する地物情報格納手段と、年月日及び時刻の情報並びに前記地物情報を用いて前記地物の影の位置及び形状を演算する地物影演算手段と、前記画像情報に含まれる地物の影の画像を認識する影画像認識手段と、同一地物に対する前記地物影演算手段による演算結果と前記影画像認識手段による認識結果とに基づいて自車位置及び自車方位の一方又は双方の認識を行う自車情報認識手段と、を備える点にある。   In order to achieve the above object, the feature configuration of the host vehicle information recognition apparatus according to the present invention includes an image information acquisition unit that captures image information captured by an imaging device mounted on the host vehicle, and a host vehicle information acquisition unit. Vehicle position information acquisition means, feature information storage means for storing feature information including information on the position and height of the feature, date and time information, and the feature information using the feature information. Feature shadow calculation means for calculating the position and shape of the shadow, shadow image recognition means for recognizing the shadow image of the feature included in the image information, and the calculation result by the feature shadow calculation means for the same feature Vehicle information recognition means for recognizing one or both of the vehicle position and the vehicle direction based on the recognition result by the shadow image recognition means.

この特徴構成によれば、例えば道路の路面等に映る地物の影の画像を認識するという平面的な画像認識処理を行うものであり、更に濃淡が明確になり易い影の画像を認識対象とするためにエッジ抽出等の画像認識処理を正確に行うことが容易であるので、少ない演算処理負荷で正確性が高い画像認識を行うことができる。そして、そのような影の画像認識の結果と、予め用意された地物情報に基づいて演算される理論上の影の位置及び形状に基づいて、自車位置及び自車方位の一方又は双方を高精度に認識することができる。
この際、道路の路面等に映る地物の影の画像を認識できればよいので、車両に搭載されたバックカメラ等の各種の車載カメラの画像を好適に用いることができる。
また、地物の影の画像を用いるので、例えば高速道路のように道路の路面に横断歩道や停止線等のペイント表示が少なく、ペイント表示の画像認識による自車位置や自車方位の認識を行うことができない場合であっても自車位置や自車方位の認識を行うことができる。
According to this feature configuration, for example, a planar image recognition process of recognizing a shadow image of a feature reflected on a road surface or the like of a road is performed, and a shadow image whose gradation is easily clarified is recognized as a recognition target. Therefore, it is easy to accurately perform image recognition processing such as edge extraction, so that highly accurate image recognition can be performed with a small calculation processing load. Then, based on the result of such shadow image recognition and the theoretical position and shape of the shadow calculated based on the feature information prepared in advance, one or both of the vehicle position and the vehicle direction are determined. It can be recognized with high accuracy.
At this time, since it is only necessary to recognize a shadow image of a feature reflected on the road surface or the like of the road, images of various in-vehicle cameras such as a back camera mounted on the vehicle can be suitably used.
In addition, since shadow images of features are used, for example, there are few paint displays such as pedestrian crossings and stop lines on the road surface like an expressway, and recognition of the vehicle position and vehicle direction by image recognition of the paint display is possible. Even if it cannot be performed, the vehicle position and the vehicle direction can be recognized.

ここで、前記地物影演算手段は、前記年月日及び時刻の情報に基づいて太陽の位置を演算する太陽位置演算手段と、前記自車位置情報に示される位置周辺の地物についての前記地物情報を前記地物情報格納手段から取得する地物情報取得手段と、前記太陽位置演算手段による演算結果と前記地物情報取得手段により取得された前記地物情報とを用いて前記地物の理論上の影の位置及び形状を演算する理論影演算手段と、を備える構成とすると好適である。   Here, the feature shadow calculation means includes the sun position calculation means for calculating the position of the sun based on the date and time information, and the features around the position indicated by the vehicle position information. The feature information acquisition means for acquiring the feature information from the feature information storage means, the calculation result by the solar position calculation means, and the feature information acquired by the feature information acquisition means It is preferable to include a theoretical shadow calculation means for calculating the theoretical shadow position and shape.

この構成によれば、画像情報に含まれる少なくとも一部の地物の影の位置及び形状を理論上正確に演算することができる。   According to this configuration, the positions and shapes of the shadows of at least some of the features included in the image information can be calculated theoretically and accurately.

また、自車方位情報を取得する自車方位情報取得手段を備え、前記地物影演算手段は、年月日及び時刻の情報並びに前記地物情報に基づいて、地球側に固定された絶対座標上における前記地物の理論上の影の位置及び形状を演算し、前記自車情報認識手段は、前記影画像認識手段による認識結果に基づいて、前記自車位置情報に示される位置及び前記自車方位情報に示される方位に基づいて定まる撮像装置の位置及び方位をそれぞれ撮像位置及び撮像方位とした場合の前記絶対座標上における前記地物の影の位置及び形状を演算する影画像演算手段を備え、前記地物影演算手段による演算結果と前記影画像演算手段による演算結果とを対比して前記自車位置情報の位置誤差及び前記自車方位情報の方位誤差の一方又は双方を演算し、前記位置誤差に基づいて前記自車位置情報を補正し、前記方位誤差に基づいて前記自車方位情報を補正して、自車位置及び自車方位の一方又は双方の認識を行う構成とすると好適である。   Further, the vehicle is provided with own vehicle direction information acquisition means for acquiring own vehicle direction information, and the feature shadow calculation means is based on the date and time information and the feature information, and has absolute coordinates fixed on the earth side. A theoretical shadow position and shape of the feature above are calculated, and the vehicle information recognition unit is configured to detect the position indicated by the vehicle position information and the vehicle based on the recognition result by the shadow image recognition unit. Shadow image calculation means for calculating the position and shape of the shadow of the feature on the absolute coordinates when the position and orientation of the imaging device determined based on the orientation indicated in the vehicle orientation information are the imaging position and the imaging orientation, respectively. And calculating one or both of the position error of the vehicle position information and the direction error of the vehicle direction information by comparing the calculation result by the feature shadow calculation unit and the calculation result by the shadow image calculation unit, Said position Preferably, the vehicle position information is corrected based on the difference, the vehicle direction information is corrected based on the heading error, and one or both of the vehicle position and the vehicle direction are recognized. .

この構成によれば、地物情報に基づいて演算される理論上の地物の影の位置及び形状と、前記影画像認識手段による影画像の認識結果並びに自車位置情報及び自車方位情報に基づいて演算される地物の影の位置及び形状とを、絶対座標上で対比することができるので、前記自車位置情報の位置誤差及び前記自車方位情報の方位誤差の一方又は双方を容易に演算することができる。したがって、演算された位置誤差及び方位誤差の一方又は双方に基づいて、前記自車位置情報及び前記自車方位情報の一方又は双方を補正して自車位置及び自車方位の一方又は双方を高精度に認識することができる。   According to this configuration, the theoretical position and shape of the shadow of the feature calculated based on the feature information, the recognition result of the shadow image by the shadow image recognition means, the vehicle position information and the vehicle direction information are included. Since the position and shape of the shadow of the feature calculated based on the absolute coordinates can be compared, one or both of the position error of the vehicle position information and the direction error of the vehicle direction information can be easily obtained. Can be calculated. Therefore, one or both of the vehicle position information and the vehicle direction information is corrected based on one or both of the calculated position error and direction error, and one or both of the vehicle position and the vehicle direction are increased. It can be recognized with accuracy.

また、画像情報取得手段は、前記撮像装置により撮像した画像情報を所定の時間間隔で複数取り込み、前記自車情報認識手段は、前記影画像認識手段による認識結果に基づいて前記複数の画像情報に含まれる同一の地物の影の画像の時間経過に従う移動の状態を解析し、その解析結果に基づいて少なくとも自車方位の変化方向を演算する移動方向演算手段を備え、この移動方向演算手段による演算結果に基づいて自車方位の認識を行う構成とすると好適である。   The image information acquisition means captures a plurality of image information captured by the imaging device at a predetermined time interval, and the vehicle information recognition means converts the plurality of image information based on the recognition result by the shadow image recognition means. Analyzing the state of movement according to the passage of time of the shadow image of the same feature included, and equipped with a movement direction calculation means for calculating at least the direction of change of the vehicle direction based on the analysis result, the movement direction calculation means It is preferable that the vehicle direction is recognized based on the calculation result.

この構成によれば、移動方向演算手段により少なくとも自車方位の変化方向を演算し、演算された自車方位の変化方向を自車方位の認識や自車両の進路の推測に利用することができる。したがって、例えば、自車両が道路の狭角分岐等を通過する際などのように、従来の方法では自車両がいずれの方向に進行するかを判定する困難であった場合にも、自車方位の変化方向に基づいて自車両の進路の推測を良好に行うことが可能となる。またこれにより、自車位置及び自車方位の一方又は双方の認識の精度も高めることができる。   According to this configuration, at least the change direction of the vehicle direction can be calculated by the movement direction calculation means, and the calculated change direction of the vehicle direction can be used for recognition of the vehicle direction and estimation of the course of the vehicle. . Therefore, even when it is difficult to determine in which direction the host vehicle travels in the conventional method, such as when the host vehicle passes through a narrow-angle branch of the road, etc. It is possible to make a good estimation of the course of the host vehicle based on the change direction. Thereby, the recognition accuracy of one or both of the vehicle position and the vehicle direction can also be improved.

本発明に係るナビゲーション装置の特徴構成は、上記特徴を備えた自車情報認識装置と、地図情報を格納した地図情報格納手段と、前記地図情報格納手段から取得した地図上に自車マークを重ね合わせて表示する表示手段とを備え、前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方に基づいて、前記地図上に前記自車マークを重ね合わせて表示する点にある。   The characteristic configuration of the navigation device according to the present invention includes a vehicle information recognition device having the above characteristics, a map information storage unit storing map information, and a vehicle mark superimposed on a map acquired from the map information storage unit. A display means for displaying the vehicle mark, and displaying the vehicle mark superimposed on the map based on one or both of the vehicle position and the vehicle direction recognized by the vehicle information recognition device. It is in.

この特徴構成によれば、地図上に自車マークを重ね合わせて表示手段に表示する場合に、地図上により正確な自車位置及び自車方位を表す自車マークを表示することができる。   According to this characteristic configuration, when the vehicle mark is superimposed on the map and displayed on the display unit, the vehicle mark representing the vehicle position and the vehicle direction can be displayed more accurately on the map.

本発明に係るナビゲーション装置のもう一つの特徴構成は、上記特徴を備えた自車情報認識装置と、地図情報を格納した地図情報格納手段と、所定の誘導経路に従って進路案内を行う進路案内手段とを備え、前記地図情報格納手段から取得した地図情報と、前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方とに基づいて前記進路案内を行う点にある。   Another characteristic configuration of the navigation device according to the present invention is a host vehicle information recognition device having the above characteristics, a map information storage unit that stores map information, and a route guidance unit that performs route guidance according to a predetermined guidance route. The route guidance is performed based on the map information acquired from the map information storage means and one or both of the vehicle position and the vehicle direction recognized by the vehicle information recognition device.

この特徴構成によれば、所定の誘導経路に従って進路案内を行う場合に、高精度に認識された自車位置及び自車方位に基づいてより正確なタイミング及び内容で進路案内を行うことができる。   According to this characteristic configuration, when performing route guidance according to a predetermined guidance route, route guidance can be performed with more accurate timing and content based on the vehicle position and vehicle direction recognized with high accuracy.

本発明に係る車両制御装置の特徴構成は、上記特徴を備えた自車情報認識装置と、地図情報を格納した地図情報格納手段とを備え、前記地図情報格納手段から取得した地図情報と、前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方とに基づいて、車両の走行制御を行う点にある。   A characteristic configuration of the vehicle control device according to the present invention includes a host vehicle information recognition device having the above characteristics, a map information storage unit storing map information, map information acquired from the map information storage unit, The vehicle travel control is performed based on one or both of the vehicle position and the vehicle direction recognized by the vehicle information recognition device.

この特徴構成によれば、高精度に認識された自車位置及び自車方位に基づいてより正確で信頼性の高い車両制御を行うことができる。   According to this characteristic configuration, it is possible to perform more accurate and reliable vehicle control based on the vehicle position and the vehicle direction recognized with high accuracy.

本発明に係る自車情報認識方法の特徴構成は、自車両に搭載された撮像装置により撮像した画像情報を取り込む画像情報取得ステップと、自車位置情報を取得する自車位置情報取得ステップと、年月日及び時刻の情報並びに地物情報格納手段に格納された地物情報を用いて地物の影の位置及び形状を演算する地物影演算ステップと、前記画像情報に含まれる地物の影の画像を認識する影画像認識ステップと、同一地物に対する前記地物影演算ステップによる演算結果と前記影画像認識ステップによる認識結果とに基づいて自車位置及び自車方位の一方又は双方の認識を行う自車情報認識ステップと、を備える点にある。   The characteristic configuration of the vehicle information recognition method according to the present invention includes an image information acquisition step for capturing image information captured by an imaging device mounted on the vehicle, a vehicle position information acquisition step for acquiring the vehicle position information, A feature shadow calculation step for calculating the position and shape of the shadow of the feature using the date and time information and the feature information stored in the feature information storage means, and the feature shadow calculation step of the feature included in the image information Based on the shadow image recognition step for recognizing a shadow image, the calculation result of the feature shadow calculation step for the same feature and the recognition result of the shadow image recognition step, one or both of the vehicle position and the vehicle direction A vehicle information recognition step for performing recognition.

この特徴構成によれば、例えば道路の路面等に映る地物の影の画像を認識するという平面的な画像認識処理を行うものであり、更に濃淡が明確になり易い影の画像を認識対象とするためにエッジ抽出等の画像認識処理を正確に行うことが容易であるので、少ない演算処理負荷で正確性が高い画像認識を行うことができる。そして、そのような影の画像認識の結果と、予め用意された地物情報に基づいて演算される理論上の影の位置及び形状に基づいて、自車位置及び自車方位の一方又は双方を高精度に認識することができる。
この際、道路の路面等に映る地物の影の画像を認識できればよいので、車両に搭載されたバックカメラ等の各種の車載カメラの画像を好適に用いることができる。
また、地物の影の画像を用いるので、例えば高速道路のように道路の路面に横断歩道や停止線等のペイント表示が少なく、ペイント表示の画像認識による自車位置や自車方位の認識を行うことができない場合であっても自車位置や自車方位の認識を行うことができる。
According to this feature configuration, for example, a planar image recognition process of recognizing a shadow image of a feature reflected on a road surface or the like of a road is performed, and a shadow image whose gradation is easily clarified is recognized as a recognition target. Therefore, it is easy to accurately perform image recognition processing such as edge extraction, so that highly accurate image recognition can be performed with a small calculation processing load. Then, based on the result of such shadow image recognition and the theoretical position and shape of the shadow calculated based on the feature information prepared in advance, one or both of the vehicle position and the vehicle direction are determined. It can be recognized with high accuracy.
At this time, since it is only necessary to recognize a shadow image of a feature reflected on the road surface or the like of the road, images of various in-vehicle cameras such as a back camera mounted on the vehicle can be suitably used.
In addition, since shadow images of features are used, for example, there are few paint displays such as pedestrian crossings and stop lines on the road surface like an expressway, and recognition of the vehicle position and vehicle direction by image recognition of the paint display is possible. Even if it cannot be performed, the vehicle position and the vehicle direction can be recognized.

以下に、本発明の実施形態について図面に基づいて説明する。本実施形態においては、図1は、本実施形態に係る自車情報認識装置1並びにこれを備えたナビゲーション装置及び車両制御装置のハードウエア構成の概略を示すブロック図である。
本実施形態に係る自車情報認識装置1は、撮像装置2により撮像した画像情報Gから認識される地物の影の画像g1と、地図情報データベース3に格納された地物情報D1に基づいて演算される地物の理論上の影の位置及び形状とを対比することにより、GPS受信機4、方位センサ5及び距離センサ6に基づいてロケーション部7において取得される自車位置情報D3及び自車方位情報D4よりも高精度に自車位置及び自車方位を認識する処理を行う。
以下、各部の構成について詳細に説明する。なお、自車情報認識装置1の各機能部は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア或いはその両方で実装されて構成されている。
Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, FIG. 1 is a block diagram showing an outline of the hardware configuration of the host vehicle information recognition device 1 according to the present embodiment, a navigation device including the same, and a vehicle control device.
The own vehicle information recognition device 1 according to the present embodiment is based on the feature shadow image g1 recognized from the image information G captured by the imaging device 2 and the feature information D1 stored in the map information database 3. By comparing the theoretical shadow position and shape of the calculated feature, the vehicle position information D3 and the vehicle position information D3 acquired by the location unit 7 based on the GPS receiver 4, the direction sensor 5, and the distance sensor 6 are calculated. A process for recognizing the vehicle position and the vehicle direction with higher accuracy than the vehicle direction information D4 is performed.
Hereinafter, the configuration of each unit will be described in detail. In addition, each function part of the own vehicle information recognition apparatus 1 has hardware and / or software, or both as a function part for performing various processes with respect to the input data by using an arithmetic processing unit such as a CPU as a core member. It is implemented and configured.

撮像装置2は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置2は、自車両8の前方や後方に向けて搭載され、少なくとも自車両8が走行する道路9の路面が撮影されるように設けられる。ここでは、図2及び図3に示すように、自車両8の前方を撮像する場合を例として説明する。このような撮像装置2としては、自車両8の前方や後方等の映像を撮像するために既に設けられている車載カメラ等が好適に用いられる。   The imaging device 2 includes an imaging element such as a CCD sensor or a CMOS sensor, and a lens that constitutes an optical system for guiding light to the imaging element. The imaging device 2 is mounted toward the front or rear of the host vehicle 8 and is provided so that at least the road surface of the road 9 on which the host vehicle 8 travels is photographed. Here, as shown in FIGS. 2 and 3, a case where the front of the host vehicle 8 is imaged will be described as an example. As such an imaging device 2, an in-vehicle camera or the like that is already provided for capturing images of the front and rear of the host vehicle 8 is preferably used.

画像情報取得部10は、撮像装置2により撮像した画像情報Gを取り込む処理を行う。取り込まれた画像情報Gは、画像情報取得部10が備える図示しない画像メモリに格納される。本実施形態においては、この画像情報取得部10が、本発明における「画像情報取得手段」を構成する。   The image information acquisition unit 10 performs processing for capturing image information G captured by the imaging device 2. The captured image information G is stored in an image memory (not shown) provided in the image information acquisition unit 10. In the present embodiment, the image information acquisition unit 10 constitutes an “image information acquisition unit” in the present invention.

画像認識部11は、画像情報取得部10により取得された画像情報Gに含まれる地物の影の画像g1を認識する処理を行う。具体的には、画像認識部11は、二値化処理やエッジ抽出処理等による輪郭抽出の後、パターン認識処理等により、画像情報Gの中から地物の影の画像g1を抽出する処理を行う。例えば、図2に示すように、自車両8が走行する道路9の前方に太陽17の光による案内標識C1の影S1が存在する場合、図3に示すような画像情報Gが撮像装置2により撮像される。画像認識部11は、この画像情報Gから図4に示すように案内標識C1の影の画像g1のみを抽出する処理を行う。この画像認識部11において影の画像が認識される地物としては、例えば、各種の標識、信号機、ビルなどの建物等の立体物が含まれる。
本実施形態においては、この画像認識部11が、本発明における「影画像認識手段」を構成する。
The image recognition unit 11 performs a process of recognizing the shadow image g1 of the feature included in the image information G acquired by the image information acquisition unit 10. Specifically, the image recognition unit 11 performs a process of extracting a feature shadow image g1 from the image information G by the pattern recognition process or the like after the contour extraction by the binarization process or the edge extraction process. Do. For example, as shown in FIG. 2, when there is a shadow S <b> 1 of the guide sign C <b> 1 due to the light of the sun 17 in front of the road 9 on which the host vehicle 8 travels, the image information G as shown in FIG. Imaged. The image recognition unit 11 performs a process of extracting only the shadow image g1 of the guide sign C1 from the image information G as shown in FIG. The features for which the shadow image is recognized by the image recognition unit 11 include, for example, various signs, traffic lights, solid objects such as buildings such as buildings.
In the present embodiment, the image recognition unit 11 constitutes “shadow image recognition means” in the present invention.

ロケーション部7は、GPS受信機4、方位センサ5、距離センサ6、及び地図情報データベース3と接続さている。ここで、GPS受信機4は、GPS衛星12(図2参照)からの信号を受信する装置であり、受信した信号に基づいてGPS受信機4の位置(緯度及び経度)、年月日及び時刻の情報等の各種情報を取得する。このGPS受信機4により取得された年月日及び時刻の情報は、ロケーション部7の他に後述する太陽位置演算部13へも出力される。方位センサ5は、地磁気センサやジャイロセンサ、或いは、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、自車両8の進行方向を検知する。距離センサ6は、車輪の回転数を検知する車速センサや自車両8の加速度を検知するヨー・Gセンサと、検知された加速度を2回積分する回路との組み合わせ等により構成され、自車両8の移動距離を検知する。そして、ロケーション部7は、これらのGPS受信機4、方位センサ5及び距離センサ6からの出力に基づいて、公知の方法により自車両8の現在位置や方位を特定する演算を行う。また、ロケーション部7は、後述する地図情報データベース3から地図情報D2を取得し、それに基づいて公知のマップマッチングを行うことにより自車両8の現在位置や方位の修正も行う。そして、このロケーション部7により特定された自車両8の現在位置の情報が自車位置情報D3となり、自車両8の現在の方位の情報が自車方位情報D4となる。   The location unit 7 is connected to the GPS receiver 4, the direction sensor 5, the distance sensor 6, and the map information database 3. Here, the GPS receiver 4 is a device that receives a signal from the GPS satellite 12 (see FIG. 2), and the position (latitude and longitude), date, and time of the GPS receiver 4 based on the received signal. Acquire various information such as information. The date and time information acquired by the GPS receiver 4 is output to the solar position calculation unit 13 described later in addition to the location unit 7. The azimuth sensor 5 includes a geomagnetic sensor, a gyro sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like. Detect. The distance sensor 6 includes a combination of a vehicle speed sensor that detects the number of rotations of the wheel, a yaw / G sensor that detects the acceleration of the host vehicle 8, and a circuit that integrates the detected acceleration twice. Detect the moving distance of. And the location part 7 performs the calculation which pinpoints the present position and direction of the own vehicle 8 by a well-known method based on the output from these GPS receiver 4, the direction sensor 5, and the distance sensor 6. FIG. The location unit 7 also acquires map information D2 from a map information database 3 described later, and corrects the current position and direction of the host vehicle 8 by performing known map matching based on the map information D2. Then, the information on the current position of the host vehicle 8 specified by the location unit 7 becomes the host vehicle position information D3, and the information on the current direction of the host vehicle 8 becomes the host vehicle direction information D4.

ここで、自車位置情報D3は、地球側に固定された絶対座標上の位置としての緯度及び経度の情報として表される。また、自車方位情報D4は、地球側に固定された絶対座標上の方位として表される。なお、本実施形態の説明において、「位置」又は「方位」といった時には、特に断らない限り、地球側に固定された絶対座標上の位置(緯度及び経度)又は方位であるとする。   Here, the vehicle position information D3 is expressed as latitude and longitude information as positions on absolute coordinates fixed on the earth side. In addition, the vehicle direction information D4 is represented as a direction on absolute coordinates fixed to the earth side. In the description of the present embodiment, “position” or “azimuth” is assumed to be a position (latitude and longitude) or azimuth on an absolute coordinate fixed on the earth side, unless otherwise specified.

このロケーション部7により取得される自車位置情報D3及び自車方位情報D4の精度は、GPS受信機4や方位センサ5及び距離センサ6の精度に大きく影響を受ける。このため、自車位置情報D3は数十m程度の誤差を含んでいる可能性がある。また、自車方位情報D4については、特に自車両8の走行速度が低いときに誤差が非常に大きくなる場合がある。
本実施形態においては、このロケーション部7が、本発明における「自車位置情報取得手段」及び「自車方位情報取得手段」を構成する。
The accuracy of the vehicle position information D3 and the vehicle direction information D4 acquired by the location unit 7 is greatly influenced by the accuracy of the GPS receiver 4, the direction sensor 5, and the distance sensor 6. For this reason, the own vehicle position information D3 may include an error of about several tens of meters. Further, with respect to the vehicle direction information D4, the error may become very large particularly when the traveling speed of the vehicle 8 is low.
In the present embodiment, the location unit 7 constitutes “own vehicle position information acquisition means” and “own vehicle direction information acquisition means” in the present invention.

影画像演算部14は、画像認識部11による地物の影の画像g1の認識結果に基づいて、自車位置情報D3に示される位置及び自車方位情報D4に示される方位に基づいて定まる撮像装置2の位置及び方位をそれぞれ画像情報Gの撮像位置及び撮像方位とした場合の、地物の影の画像g1として認識された地物の影の位置及び形状を演算する処理を行う。すなわち、撮像装置2は自車両8に固定されているので、自車位置情報D3及び自車方位情報D4と撮像装置2による撮像位置及び撮像方位との関係は一定である。また、撮像装置2の撮像位置及び撮像方位が定まれば、撮像装置2の位置及び方位を基準とする画像情報G中に撮像された地物の影の実際の位置を求めることができる。したがって、自車位置情報D3及び自車方位情報D4を基準として画像認識部11で画像情報Gから認識された地物の影の位置及び形状を演算することができる。ここでは、図7に示すように、影画像演算部14は、地球側に固定された絶対座標上における地物の位置(緯度及び経度)及び形状を演算する。この影画像演算部14における処理については、後で具体例に従って詳細に説明する。
本実施形態においては、この影画像演算部14が、本発明における「影画像演算手段」を構成する。
Based on the recognition result of the feature shadow image g1 by the image recognition unit 11, the shadow image calculation unit 14 is determined based on the position indicated by the vehicle position information D3 and the direction indicated by the vehicle direction information D4. Processing for calculating the position and shape of the feature shadow recognized as the feature shadow image g1 when the position and orientation of the apparatus 2 are the imaging position and orientation of the image information G, respectively. In other words, since the imaging device 2 is fixed to the host vehicle 8, the relationship between the host vehicle position information D3 and the host vehicle orientation information D4 and the imaging position and imaging orientation by the imaging device 2 is constant. Moreover, if the imaging position and imaging direction of the imaging device 2 are determined, the actual position of the shadow of the feature imaged in the image information G based on the position and orientation of the imaging device 2 can be obtained. Therefore, the position and shape of the shadow of the feature recognized from the image information G by the image recognition unit 11 can be calculated using the vehicle position information D3 and the vehicle direction information D4 as a reference. Here, as illustrated in FIG. 7, the shadow image calculation unit 14 calculates the position (latitude and longitude) and shape of the feature on the absolute coordinates fixed on the earth side. The processing in the shadow image calculation unit 14 will be described later in detail according to a specific example.
In the present embodiment, the shadow image calculation unit 14 constitutes “shadow image calculation means” in the present invention.

地図情報データベース3には、地図情報D2及び地物情報D1が格納されている。図5は、地図情報データベース3に格納されている地図情報D2及び地物情報D1の内容を示す説明図である。この図に示すように、本実施形態に係る地図情報データベース3には、地図情報として、道路ネットワークレイヤL1、道路形状レイヤL2、地物レイヤL3が格納されている。
道路ネットワークレイヤL1は、道路9間の接続情報を格納するレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路9を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路9の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。
道路形状レイヤL2は、道路ネットワークレイヤL1に関連付けられて格納され、道路9の形状を格納するレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報や、各道路形状補完点Sにおける道路幅の情報等を有して構成されている。
The map information database 3 stores map information D2 and feature information D1. FIG. 5 is an explanatory diagram showing the contents of the map information D2 and the feature information D1 stored in the map information database 3. As shown in this figure, the map information database 3 according to this embodiment stores a road network layer L1, a road shape layer L2, and a feature layer L3 as map information.
The road network layer L1 is a layer that stores connection information between roads 9. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L that constitute the road 9 by connecting the two nodes N. Configured. Each link L has information such as the type of road 9 (type of highway, toll road, national road, prefectural road, etc.) and link length as link information.
The road shape layer L2 is stored in association with the road network layer L1 and stores the shape of the road 9. Specifically, information on a number of road shape complementary points S that are located between two nodes N (on the link L) and have position information on a map expressed in latitude and longitude, and each road shape complementary point The road width information in S and the like are included.

地物レイヤL3は、道路ネットワークレイヤL1及び道路形状レイヤL2に関連付けられて格納され、道路9上及び道路9の周辺に設けられた各種の地物に関する地物情報D1を格納するレイヤである。この地物レイヤL3に格納する地物情報D1としては、少なくとも理論影演算部15において演算対象となり得る地物に関する位置、形状、色彩等の情報が格納されている。本実施形態においては、具体的には、地物レイヤL3には、道路9上や道路9の周囲に設けられた各種の標識、信号機、建物、看板、モニュメント等の特に立体物の地物情報D1が、道路形状補完点S又はノードNを基準とした地図上の位置と関連付けて格納されている。このような地物情報D1の具体的な内容としては、各地物の基準点の位置(緯度及び経度)の情報、道路9の路面からの高さの情報、平面的及び立体的な形状の情報等が含まれる。ここで、標識には、例えば、案内標識、警戒標識、規制標識等が含まれる。また、建物には、高さが高いビル等が特に含まれ、看板やモニュメント等についても特に大規模なものが含まれる。また、地物情報D1として、道路9の路面に設けられたペイント表示等の立体物以外の各種地物の情報を格納することとしてもよい。このように、地物情報D1は、地物レイヤL3上において地図情報D2と関連付けられて地図情報データベース3に格納されている。   The feature layer L <b> 3 is a layer that is stored in association with the road network layer L <b> 1 and the road shape layer L <b> 2 and stores feature information D <b> 1 related to various features provided on the road 9 and around the road 9. As the feature information D1 stored in the feature layer L3, at least information on the position, shape, color, and the like related to the feature that can be calculated in the theoretical shadow calculation unit 15 is stored. In the present embodiment, specifically, the feature layer L3 has feature information on solid objects such as various signs, traffic lights, buildings, signboards, monuments, etc. provided on the road 9 or around the road 9. D1 is stored in association with the position on the map with the road shape complement point S or the node N as a reference. Specific contents of such feature information D1 include information on the position (latitude and longitude) of reference points of each feature, information on the height of the road 9 from the road surface, and information on planar and three-dimensional shapes. Etc. are included. Here, the sign includes, for example, a guide sign, a warning sign, a regulation sign, and the like. In addition, buildings particularly include tall buildings and the like, and particularly large-scale signs and monuments are included. Moreover, it is good also as storing the information of various features other than solid objects, such as a paint display provided on the road surface of the road 9, as the feature information D1. Thus, the feature information D1 is stored in the map information database 3 in association with the map information D2 on the feature layer L3.

なお、地図情報データベース3は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。
本実施形態においては、この地図情報データベース3が、本発明における「地物情報格納手段」及び「地図情報格納手段」を構成する。
The map information database 3 is an apparatus having a recording medium capable of storing information and its driving means, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and the like. Is provided as a hardware configuration.
In the present embodiment, this map information database 3 constitutes “feature information storage means” and “map information storage means” in the present invention.

地物情報取得部16は、ロケーション部7及び地図情報データベース3と接続されている。この地物情報取得部16は、ロケーション部7により特定された自車位置情報D3に基づいて、地図情報データベース3から自車位置情報D3に示される位置周辺の地物についての地物情報D1を取得する処理を行う。ここでは、地物情報取得部16は、自車位置情報D3に示される位置を撮像位置とした場合に撮像装置2による撮像領域に含まれる地物であって、理論影演算部15による演算に用いる立体物(各種の標識や信号機等)の位置、高さ、形状を含む地物情報D1を、地図情報データベース3の地物レイヤL3から抽出する処理を行う。
本実施形態においては、この地物情報取得部16が、本発明における「地物情報取得手段」を構成する。
The feature information acquisition unit 16 is connected to the location unit 7 and the map information database 3. The feature information acquisition unit 16 obtains feature information D1 about the feature around the position indicated by the vehicle position information D3 from the map information database 3 based on the vehicle position information D3 specified by the location unit 7. Perform the acquisition process. Here, the feature information acquisition unit 16 is a feature included in the imaging region by the imaging device 2 when the position indicated by the own vehicle position information D3 is set as the imaging position, and is used for the calculation by the theoretical shadow calculation unit 15. The feature information D1 including the position, height, and shape of the three-dimensional object to be used (various signs, traffic lights, etc.) is extracted from the feature layer L3 of the map information database 3.
In the present embodiment, the feature information acquisition unit 16 constitutes “feature information acquisition means” in the present invention.

太陽位置演算部13は、GPS受信機4により取得された年月日及び時刻の情報に基づいてその時点での太陽17の位置を演算する処理を行う。ここでは、太陽位置演算部13は、GPS受信機4及び地物情報取得部16に接続されている。そして、太陽位置演算部13は、GPS受信機4により取得された年月日及び時刻の情報に基づいて、地物情報取得部16において取得された各地物情報D1に含まれる各地物の位置(緯度及び経度)に対する太陽17の方位及び高さ(地表面に対する角度)を演算する処理を行う。
本実施形態においては、この太陽位置演算部13が、本発明における「太陽位置演算手段」を構成する。
The sun position calculation unit 13 performs a process of calculating the position of the sun 17 at that time based on the date and time information acquired by the GPS receiver 4. Here, the sun position calculation unit 13 is connected to the GPS receiver 4 and the feature information acquisition unit 16. And the solar position calculating part 13 is based on the date and time information acquired by the GPS receiver 4, and the position of each feature included in the feature information D1 acquired by the feature information acquiring unit 16 ( Processing to calculate the azimuth and height (angle with respect to the ground surface) of the sun 17 with respect to (latitude and longitude) is performed.
In the present embodiment, the solar position calculation unit 13 constitutes “solar position calculation means” in the present invention.

理論影演算部15は、太陽位置演算部13による演算結果と、地物情報取得部16により取得された地物情報D1とを用いて各地物の理論上の影Saの位置及び形状を演算する処理を行う。すなわち、上記のとおり、太陽位置演算部13の演算結果として、地物情報取得部16において取得された各地物情報D1に含まれる各地物の位置(緯度及び経度)に対する太陽の方位及び高さの情報が理論影演算部15に入力される。また、地物情報取得部16からは取得された各地物情報D1として、各地物の位置、高さ、形状等の情報が理論影演算部15に入力される。そして、理論影演算部15は、これらの入力情報に基づいて、各地物についての理論上の影の位置及び形状を演算する。本実施形態においては、一例として、図7に示すように、緯度(y軸)及び経度(x軸)により表される絶対座標上において、各地物情報D1に含まれる位置、高さ及び形状の地物が太陽位置演算部13により演算された方位及び高さ(地表面に対する角度)の仮想上の太陽からの平行光により、地表面(道路面)に投影される理論上の影Saの位置及び形状を演算することにより行う。ここで、理論上の影Saの位置及び形状としては、例えば、任意の基準点位置Sa1(例えば地物の基準点と一致する位置)を緯度及び経度で表す基準位置情報と、この基準位置を基準としてその地物の影の外縁形状を表す輪郭線Sa2上の各点の位置を表す輪郭線情報とにより表すことができる。
本実施形態においては、この理論影演算部15が、本発明における「理論影演算手段」を構成する。
The theoretical shadow calculation unit 15 calculates the position and shape of the theoretical shadow Sa of each feature using the calculation result by the sun position calculation unit 13 and the feature information D1 acquired by the feature information acquisition unit 16. Process. That is, as described above, as the calculation result of the sun position calculation unit 13, the azimuth and height of the sun with respect to the position (latitude and longitude) of each feature included in the feature information D1 acquired by the feature information acquisition unit 16 Information is input to the theoretical shadow calculator 15. In addition, information such as the position, height, and shape of each feature is input to the theoretical shadow calculation unit 15 from the feature information acquisition unit 16 as the acquired feature information D1. Then, the theoretical shadow calculation unit 15 calculates the theoretical shadow position and shape of each feature based on the input information. In the present embodiment, as an example, as shown in FIG. 7, the position, height, and shape included in the feature information D1 on the absolute coordinates represented by latitude (y-axis) and longitude (x-axis) are used. The position of the theoretical shadow Sa projected on the ground surface (road surface) by the parallel light from the imaginary sun with the azimuth and height (angle with respect to the ground surface) calculated by the solar position calculator 13 And calculating the shape. Here, as the position and shape of the theoretical shadow Sa, for example, reference position information representing an arbitrary reference point position Sa1 (for example, a position matching the reference point of the feature) with latitude and longitude, and this reference position As a reference, it can be represented by contour information representing the position of each point on the contour Sa2 representing the outer edge shape of the shadow of the feature.
In the present embodiment, the theoretical shadow calculator 15 constitutes “theoretical shadow calculator” in the present invention.

そして、本実施形態においては、これら太陽位置演算部13、地物情報取得部16及び理論影演算部15が、本発明における「地物影演算手段18」を構成している。   And in this embodiment, these solar position calculating part 13, the feature information acquisition part 16, and the theoretical shadow calculating part 15 comprise the "feature shadow calculating means 18" in this invention.

誤差算出部19は、同一地物に対する理論影演算部15による演算結果と影画像演算部14による演算結果とを対比して、ロケーション部7により特定された自車位置情報D3の位置誤差(Δx,Δy)及び自車方位情報D4の方位誤差Δθを算出する処理を行う。この誤差算出部19における処理については、後で具体例に従って詳細に説明する。   The error calculation unit 19 compares the calculation result of the theoretical shadow calculation unit 15 with the calculation result of the shadow image calculation unit 14 for the same feature, and compares the position error (Δx of the vehicle position information D3 specified by the location unit 7 with each other. , Δy) and the direction error Δθ of the vehicle direction information D4 are calculated. The processing in the error calculation unit 19 will be described in detail later according to a specific example.

自車情報補正部20は、誤差算出部19により算出された位置誤差(Δx,Δy)に基づいて自車位置情報D3を補正し、方位誤差Δθに基づいて自車方位情報D4を補正する演算処理を行う。この自車情報補正部20における処理については、後で具体例に従って詳細に説明する。
この自車情報補正部20による補正後の自車位置情報D3c及び補正後の自車方位情報D4cが、ロケーション部7により特定された自車位置情報D3及び自車方位情報D4より高精度に特定された自車位置及び自車方位の情報となる。したがって、本実施形態においては、影画像演算部14、誤差算出部19、及び自車情報補正部20が、本発明における「自車情報認識手段21」を構成する。この自車情報補正部20による補正後の自車位置情報D3c及び補正後の自車方位情報D4cは、ナビゲーション用演算処理部22及びこれを介して車両制御用演算処理部23へ出力される。
The own vehicle information correction unit 20 corrects the own vehicle position information D3 based on the position error (Δx, Δy) calculated by the error calculation unit 19, and corrects the own vehicle direction information D4 based on the direction error Δθ. Process. The processing in the vehicle information correction unit 20 will be described in detail later according to a specific example.
The vehicle position information D3c corrected by the vehicle information correction unit 20 and the vehicle direction information D4c after correction are specified with higher accuracy than the vehicle position information D3 and the vehicle direction information D4 specified by the location unit 7. It becomes the information of the made own vehicle position and own vehicle direction. Therefore, in the present embodiment, the shadow image calculation unit 14, the error calculation unit 19, and the own vehicle information correction unit 20 constitute the “own vehicle information recognition unit 21” in the present invention. The corrected vehicle position information D3c and the corrected vehicle direction information D4c corrected by the vehicle information correction unit 20 are output to the navigation calculation processing unit 22 and the vehicle control calculation processing unit 23 via the navigation calculation processing unit 22.

移動方向演算部24は、画像認識部11による画像情報Gの認識結果に基づいて複数の画像情報Gに含まれる同一の地物の影の画像g1の時間経過に従う移動の状態を解析し、その解析結果に基づいて自車方位の変化方向を演算して変化方向情報D5として出力する処理を行う。ここでは、所定の時間間隔で連続的に取り込まれた画像情報Gに共通して含まれる一又は二以上の地物の影の画像g1について、当該地物の影の画像g1が時間経過に従って移動する方向を解析し、その解析結果に基づいて自車方位の変化方向を演算する処理を行う。この移動方向演算部24における処理については、後で具体例に従って詳細に説明する。この移動方向演算部24の演算結果として変化方向情報D5は、ナビゲーション用演算処理部22及びこれを介して車両制御用演算処理部23へ出力される。なお、移動方向演算部24において自車方位の変化方向に加えてその変化量(変化角度等)をも演算して出力し、自車方位の認識に利用することも可能である。
本実施形態においては、この移動方向演算部24が、本発明における「移動方向演算手段」を構成する。そして、本実施形態においては、この移動方向演算部24も本発明における「自車情報認識手段21」を構成する。
Based on the recognition result of the image information G by the image recognition unit 11, the movement direction calculation unit 24 analyzes the state of movement of the same feature shadow image g1 included in the plurality of image information G over time, Based on the analysis result, a change direction of the vehicle direction is calculated and output as change direction information D5. Here, with respect to one or two or more feature shadow images g1 that are included in common in the image information G continuously captured at a predetermined time interval, the feature shadow image g1 moves with time. The direction to be analyzed is analyzed, and the process of calculating the direction of change of the vehicle direction is performed based on the analysis result. The processing in the movement direction calculation unit 24 will be described later in detail according to a specific example. The change direction information D5 as a calculation result of the movement direction calculation unit 24 is output to the navigation calculation processing unit 22 and the vehicle control calculation processing unit 23 via this. In addition to the change direction of the own vehicle direction, the movement direction calculation unit 24 also calculates and outputs the change amount (change angle, etc.), and can also be used for recognition of the own vehicle direction.
In the present embodiment, the movement direction calculation unit 24 constitutes “movement direction calculation means” in the present invention. And in this embodiment, this moving direction calculating part 24 also comprises the "own vehicle information recognition means 21" in this invention.

ナビゲーション用演算処理部22は、自車情報補正部20、移動方向演算部24、地図情報データベース3、表示装置25及び音声出力装置26に接続されている。そして、ナビゲーション用演算処理部22は、表示装置25を用いた自車位置及び自車方位の表示や、表示装置25及び音声出力装置26を用いた進路案内のための演算処理を行う。具体的には、ナビゲーション用演算処理部22は、地図情報データベース3から自車位置の周辺の地図情報D2を取得して表示装置25に地図の画像を表示するとともに、当該地図の画像上に、自車情報補正部20による補正後の自車位置情報D3c及び補正後の自車方位情報D4cに基づいて自車マークを重ね合わせて表示する処理を行う。この際、移動方向演算部24から出力された自車方位の変化方向情報D5に基づいた自車マークの表示の補正(自車方位や自車位置の補正)も行う。また、ナビゲーション用演算処理部22は、公知の方法により出発地点と目的地点とを結ぶように予め設定された案内経路と補正後の自車位置情報D3c及び自車方位情報D4c等に基づいて、表示装置25に進路を表示するとともに交差点等において音声出力装置26により進路案内のための音声を出力する処理を行う。また、図示は省略するが、ナビゲーション用演算処理部22は、この他にも、リモートコントローラやタッチパネルなどのユーザインタフェース等の、ナビゲーション装置として必要な公知の各種構成に接続されている。
本実施形態においては、表示装置25が本発明における「表示手段」を構成し、表示装置25及び音声出力装置26が本発明における「進路案内手段」を構成する。
The navigation calculation processing unit 22 is connected to the host vehicle information correction unit 20, the moving direction calculation unit 24, the map information database 3, the display device 25, and the audio output device 26. The navigation calculation processing unit 22 performs calculation processing for displaying the vehicle position and vehicle direction using the display device 25 and for route guidance using the display device 25 and the audio output device 26. Specifically, the navigation processing unit 22 acquires the map information D2 around the vehicle position from the map information database 3 and displays the map image on the display device 25. On the map image, Based on the corrected vehicle position information D3c and the corrected vehicle direction information D4c after correction by the vehicle information correction unit 20, a process of displaying the vehicle mark in an overlapping manner is performed. At this time, correction of the display of the vehicle mark (correction of the vehicle direction and the vehicle position) based on the change direction information D5 of the vehicle direction output from the movement direction calculation unit 24 is also performed. Further, the navigation calculation processing unit 22 is based on a guide route set in advance to connect the departure point and the destination point by a known method, the corrected vehicle position information D3c, the vehicle direction information D4c, and the like. A process of displaying a route on the display device 25 and outputting a voice for route guidance by the voice output device 26 at an intersection or the like is performed. Although not shown, the navigation processing unit 22 is connected to various other known configurations necessary for a navigation device such as a user interface such as a remote controller and a touch panel.
In the present embodiment, the display device 25 constitutes “display means” in the present invention, and the display device 25 and the audio output device 26 constitute “route guidance means” in the present invention.

車両制御用演算処理部23は、ナビゲーション用演算処理部22に接続されており、このナビゲーション用演算処理部22から、地図情報データベース3からの自車位置の周辺の地図情報D2、自車情報補正部20による補正後の自車位置情報D3c及び補正後の自車方位情報D4c、及び移動方向演算部24から出力された自車方位の変化方向情報D5が入力され、或いはこれらの情報をナビゲーション用演算処理部22において加工した結果の情報が入力される。そして、車両制御用演算処理部23は、ナビゲーション用演算処理部22から入力されるこれらの情報に基づいて自車両8の走行制御を行う。具体的には、車両制御用演算処理部23は、高精度に特定された自車位置及び自車方位と、自車位置の周囲の地図情報D2とに基づいて、例えばレーンキープや速度超過の防止等のための制御信号をブレーキ、ハンドル、スロットル等の車両の各部に対して出力する処理を行う。なお、車両制御用演算処理部23を自車情報補正部20、移動方向演算部24及び地図情報データベース3と直接接続し、それらから直接的に自車位置情報D3、自車方位情報D4及び地図情報D2等を取得する構成とすることも可能である。   The vehicle control arithmetic processing unit 23 is connected to the navigation arithmetic processing unit 22, and from the navigation arithmetic processing unit 22, map information D <b> 2 around the vehicle position from the map information database 3, vehicle information correction is performed. The vehicle position information D3c corrected by the unit 20 and the vehicle direction information D4c after correction and the vehicle direction change direction information D5 output from the moving direction calculation unit 24 are input, or these information are used for navigation. Information on the result of processing in the arithmetic processing unit 22 is input. The vehicle control arithmetic processing unit 23 performs traveling control of the host vehicle 8 based on these pieces of information input from the navigation arithmetic processing unit 22. Specifically, the vehicle control calculation processing unit 23, based on the own vehicle position and the vehicle direction specified with high accuracy, and the map information D2 around the own vehicle position, for example, lane keeping or overspeed. A process for outputting control signals for prevention or the like to each part of the vehicle such as a brake, a handle, and a throttle is performed. The vehicle control calculation processing unit 23 is directly connected to the vehicle information correction unit 20, the movement direction calculation unit 24, and the map information database 3, and directly from the vehicle position information D3, the vehicle direction information D4, and the map. It is also possible to obtain information D2 and the like.

外部状況判定部27は、GPS受信機4により取得された年月日及び時刻の情報、並びに明るさセンサ28により取得された自車両8の外部の明るさ情報に基づいて、自車両8の外部の状況が、地物の影の画像g1を認識できる状況であるか否かを判定する処理を行う。そして、地物の影の画像g1を認識できる状況と判定した場合には、影画像演算部14、理論影演算部15、地物情報取得部16、太陽位置演算部13等に対して処理の実行を許可する信号を出力し、地物の影の画像g1を認識できない状況と判定した場合には、これらに対して処理の実行を禁止する信号を出力する。   The external situation determination unit 27 is based on the date and time information acquired by the GPS receiver 4 and the brightness information outside the host vehicle 8 acquired by the brightness sensor 28. The process determines whether or not the situation is a situation where the shadow image g1 of the feature can be recognized. If it is determined that the shadow image g1 of the feature can be recognized, the shadow image calculation unit 14, the theoretical shadow calculation unit 15, the feature information acquisition unit 16, the sun position calculation unit 13, and the like are processed. When a signal permitting execution is output and it is determined that the shadow image g1 of the feature cannot be recognized, a signal prohibiting execution of the process is output.

次に、本実施形態に係る自車情報認識装置1における自車位置及び自車方位の認識処理の具体例について、図6に示すフローチャートに従って説明する。ここでは、図2に示すように、走行中の自車両8から前方にある案内標識C1の影S1の画像を認識して自車位置情報D3及び自車方位情報D4を補正する場合を例として説明する。なお、この図6に示すフローチャートの処理は、所定の時間間隔(例えば10〜50ms程度)で連続的に繰り返し行う。   Next, a specific example of the vehicle position and vehicle direction recognition processing in the vehicle information recognition apparatus 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. Here, as shown in FIG. 2, as an example, the vehicle position information D3 and the vehicle direction information D4 are corrected by recognizing the image of the shadow S1 of the guide sign C1 ahead of the traveling vehicle 8. explain. Note that the processing of the flowchart shown in FIG. 6 is continuously repeated at a predetermined time interval (for example, about 10 to 50 ms).

図6に示すように、自車情報認識装置1は、まず、外部状況判定部27において、外部状況の判定を行う(ステップ#01)。具体的には、自車情報認識装置1は、GPS受信機4により取得された年月日及び時刻の情報、並びに明るさセンサ28により取得された自車両8の外部の明るさ情報に基づいて、自車両8の外部の状況が、地物の影の画像g1を認識できる状況であるか否かを判定する処理を行う。すなわち、自車情報認識装置1は、現在の年月日に基づいて現在時刻が太陽17の出ている時刻であり、なおかつ自車両8の外部の明るさが地物の影ができるのに十分な明るさである場合には地物の影の画像g1を認識できる状況であると判定する。ここで、自車両8の外部の状況が、地物の影の画像g1を認識できる状況でないと判定された場合には(ステップ#01:NG)、以降の処理へは進まない。   As shown in FIG. 6, the vehicle information recognition apparatus 1 first determines an external situation in the external situation determination unit 27 (step # 01). Specifically, the host vehicle information recognition device 1 is based on the date and time information acquired by the GPS receiver 4 and the brightness information outside the host vehicle 8 acquired by the brightness sensor 28. Then, a process of determining whether or not the situation outside the host vehicle 8 is a situation where the shadow image g1 of the feature can be recognized is performed. That is, the own vehicle information recognition device 1 is based on the current date and time when the current time is the sun 17 and the brightness of the outside of the own vehicle 8 is sufficient to shadow the feature. If the brightness is high, it is determined that the feature shadow image g1 can be recognized. Here, if it is determined that the situation outside the host vehicle 8 is not a situation where the shadow image g1 of the feature can be recognized (step # 01: NG), the process does not proceed to the subsequent process.

そして、外部状況判定部27において自車両8の外部の状況が、地物の影の画像g1を認識できる状況であると判定された場合には(ステップ#01:OK)、次に、ロケーション部7において、自車位置情報D3及び自車方位情報D4を取得する(ステップ#02)。具体的には、上記のとおり、GPS受信機4により受信されるGPS衛星12からの情報や、方位センサ5及び距離センサ6からの出力に基づいて自車両8の現在位置や方位を特定し、更に地図情報データベース3から取得した地図情報D2に基づいてマップマッチングを行って自車両8の位置及び方位が道路9上に合致するように現在位置や方位の修正を行うことにより、自車位置情報D3及び自車方位情報D4を取得する。   If the external situation determination unit 27 determines that the situation outside the host vehicle 8 is a situation where the shadow image g1 of the feature can be recognized (step # 01: OK), then the location unit 7, own vehicle position information D3 and own vehicle direction information D4 are acquired (step # 02). Specifically, as described above, the current position and direction of the host vehicle 8 are specified based on the information from the GPS satellite 12 received by the GPS receiver 4 and the outputs from the direction sensor 5 and the distance sensor 6, Further, by performing map matching based on the map information D2 acquired from the map information database 3 and correcting the current position and direction so that the position and direction of the own vehicle 8 match the road 9, the own vehicle position information D3 and own vehicle direction information D4 are acquired.

次に、地物情報取得部16において自車位置周辺の立体物の地物情報D1を取得する(ステップ#03)。具体的には、ロケーション部7により特定された自車位置情報D3に基づいて、当該自車位置情報D3に示される位置を撮像位置とした場合に撮像装置2による撮像領域に含まれる立体物の地物情報D1を、地図情報データベース3の地物レイヤL3から抽出して取得する。ここで取得される地物情報D1の内容としては、各地物の位置、高さ、及び形状の情報が含まれる。図2の例に示す状況では、地物情報D1として案内標識C1の位置(緯度及び経度)、道路9の路面からの高さ、及び形状の情報が取得される。なお、このステップ#03において複数の地物情報D1が取得されることもあるが、ここでは説明の簡略化のために一の案内標識C1の地物情報D1のみが取得された場合を例として説明する。
このステップ#03の処理により地物情報D1が取得された場合には(ステップ#04:YES)、ステップ#05以降の処理に進み、地物情報D1が取得されない場合には、すなわち撮像装置2による撮像領域に立体物の地物情報D1が含まれていない場合には(ステップ#04:NO)、処理はステップ#01へ戻る。
Next, the feature information acquisition unit 16 acquires feature information D1 of a three-dimensional object around the vehicle position (step # 03). Specifically, based on the own vehicle position information D3 specified by the location unit 7, when the position indicated by the own vehicle position information D3 is set as the imaging position, the three-dimensional object included in the imaging region by the imaging device 2 The feature information D1 is extracted from the feature layer L3 of the map information database 3 and acquired. The contents of the feature information D1 acquired here include information on the position, height, and shape of each feature. In the situation shown in the example of FIG. 2, information on the position (latitude and longitude) of the guide sign C1, the height from the road surface of the road 9, and the shape is acquired as the feature information D1. In this step # 03, a plurality of feature information D1 may be acquired, but here, for simplification of explanation, only the feature information D1 of one guide sign C1 is acquired as an example. explain.
When the feature information D1 is acquired by the processing of step # 03 (step # 04: YES), the process proceeds to the processing after step # 05, and when the feature information D1 is not acquired, that is, the imaging device 2 When the three-dimensional feature information D1 is not included in the imaging region by (step # 04: NO), the process returns to step # 01.

ステップ#03の処理により地物情報D1が取得された場合には(ステップ#04:YES)、太陽位置演算部13において各地物の位置に対する太陽の方位及び高さを演算する(ステップ#05)。具体的には、GPS受信機4により取得された年月日及び時刻の情報に基づいて、地物情報取得部16において取得された各地物情報D1に含まれる各地物の位置(緯度及び経度)に対応する太陽の方位及び高さ(地表面に対する角度)をそれぞれ演算する。これにより、ステップ#03の処理により取得された各地物情報D1に対応する太陽の方位及び高さが演算される。図2に示す例では、案内標識C1の位置(緯度及び経度)を基準とする太陽17の方位及び高さ(地表面に対する角度)が演算される。   When the feature information D1 is acquired by the processing of step # 03 (step # 04: YES), the sun position calculation unit 13 calculates the azimuth and height of the sun with respect to the position of each feature (step # 05). . Specifically, based on the date and time information acquired by the GPS receiver 4, the position (latitude and longitude) of each feature included in the feature information D1 acquired by the feature information acquisition unit 16 The azimuth and height (angle with respect to the ground surface) of the sun corresponding to is calculated. Thereby, the azimuth | direction and height of the sun corresponding to the feature information D1 acquired by the process of step # 03 are calculated. In the example shown in FIG. 2, the azimuth and height (angle with respect to the ground surface) of the sun 17 with respect to the position (latitude and longitude) of the guide sign C1 are calculated.

そして、理論影演算部15において、ステップ#03の処理により取得された各地物情報D1に示される各地物の理論上の影Saの位置及び形状を演算する(ステップ#06)。具体的には、太陽位置演算部13による演算結果と、地物情報取得部16により取得された地物情報D1とを用いて各地物の理論上の影Saの位置及び形状を演算する。図2に示す例では、案内標識C1の位置(緯度及び経度)を基準とする太陽17の方位及び高さ(地表面に対する角度)と、地物情報取得部16により取得された案内標識C1の地物情報D1に含まれる位置、高さ、及び形状の情報とに基づいて、図7に示すように、緯度(y軸)及び経度(x軸)により表される絶対座標上において、仮想的な太陽からの平行光により、地表面(道路面)に投影される案内標識C1の理論上の影Saの位置及び形状を演算する。本例では、案内標識C1の理論上の影Saの位置及び形状は、図中左上の脚部先端に設定された基準点位置Sa1と、案内標識C1の影の外縁形状を表す輪郭線上の各点の位置を表す輪郭線Sa2とにより表されている。なお、ここでは案内標識C1の理論上の影Saの基準点位置Sa1は、案内標識C1の地物情報D1の基準点の位置(地物情報D1の位置情報として示される位置)と一致する位置としている。   Then, the theoretical shadow calculation unit 15 calculates the position and shape of the theoretical shadow Sa of each feature indicated by the feature information D1 acquired by the process of step # 03 (step # 06). Specifically, the position and shape of the theoretical shadow Sa of each feature are calculated using the calculation result by the sun position calculation unit 13 and the feature information D1 acquired by the feature information acquisition unit 16. In the example shown in FIG. 2, the direction and height (angle with respect to the ground surface) of the sun 17 with respect to the position (latitude and longitude) of the guide sign C1 and the guide sign C1 acquired by the feature information acquisition unit 16 Based on the position, height, and shape information included in the feature information D1, as shown in FIG. 7, on the absolute coordinates represented by latitude (y-axis) and longitude (x-axis), virtual The position and shape of the theoretical shadow Sa of the guide sign C1 projected on the ground surface (road surface) is calculated by parallel light from the sun. In this example, the position and shape of the theoretical shadow Sa of the guide sign C1 are the reference point position Sa1 set at the top end of the upper left leg in the figure, and the contour line representing the outer edge shape of the shadow of the guide sign C1. It is represented by an outline Sa2 representing the position of the point. Here, the reference point position Sa1 of the theoretical shadow Sa of the guide sign C1 matches the position of the reference point of the feature information D1 of the guide sign C1 (the position indicated as the position information of the feature information D1). It is said.

また、ステップ#03の処理により地物情報D1が取得された場合には(ステップ#04:YES)、画像情報取得部10において撮像装置2により撮像した画像情報Gを取り込む(ステップ#07)。図2に示す例では、図3に示すような画像情報Gが取り込まれる。   When the feature information D1 is acquired by the process of step # 03 (step # 04: YES), the image information acquisition unit 10 captures the image information G captured by the imaging device 2 (step # 07). In the example shown in FIG. 2, image information G as shown in FIG. 3 is captured.

次に、画像認識部11において画像情報Gに含まれる地物の影の画像g1を認識する(ステップ#08)。具体的には、二値化処理やエッジ抽出処理等による輪郭抽出の後、パターン認識処理等により、画像情報Gの中から地物の影の画像g1を抽出する処理を行う。図3に示す画像情報Gからは、図4に示すように案内標識C1の影の画像g1が抽出される。   Next, the image recognition unit 11 recognizes the shadow image g1 of the feature included in the image information G (step # 08). Specifically, after contour extraction by binarization processing, edge extraction processing, or the like, processing for extracting a shadow image g1 of a feature from the image information G is performed by pattern recognition processing or the like. From the image information G shown in FIG. 3, a shadow image g1 of the guide sign C1 is extracted as shown in FIG.

その後、影画像演算部14において、ロケーション部7で取得した自車位置情報D3に示される位置及び自車方位情報D4に示される方位に基づいて定まる撮像装置2の位置及び方位をそれぞれ画像情報Gの撮像位置及び撮像方位とした場合の画像認識部11で認識された地物の影(以下「ロケーション部基準の影Sb」という。)の位置及び形状を演算する(ステップ#09)。本例では、図2に示すように撮像装置2は自車両8の前方に向けて所定の上下方向角度で固定されている。そして、この撮像装置2により撮像された図3に示す画像情報Gから抽出された案内標識C1の影の画像g1は、図4に示すような画像情報G中の位置及び形状となっている。したがって、このような自車両8に対する撮像装置2の固定位置及び撮像方向と、案内標識C1の影の画像g1の画像情報G中の位置及び形状とに基づいて、自車位置情報D3及び自車方位情報D4を自車両8の位置及び方位とした場合における案内標識C1のロケーション部基準の影Sbの位置及び形状を演算できる。この際、本例では理論影演算部15による演算結果との対比を容易にするため、図7に示すように、緯度(y軸)及び経度(x軸)により表される絶対座標上において、案内標識C1のロケーション部基準の影Sbの位置及び形状を演算する。本例では、案内標識C1のロケーション部基準の影Sbの位置及び形状は、図中左上の脚部先端に設定された基準点位置Sb1と、案内標識C1の影の外縁形状を表す輪郭線上の各点の位置を表す輪郭線Sb2とにより表されている。   Thereafter, in the shadow image calculation unit 14, the position and orientation of the imaging device 2 determined based on the position indicated by the own vehicle position information D3 acquired by the location unit 7 and the orientation indicated by the own vehicle orientation information D4 are respectively displayed as image information G. The position and shape of the shadow of the feature recognized by the image recognition unit 11 (hereinafter referred to as “location portion reference shadow Sb”) when the imaging position and the imaging orientation are set (step # 09). In this example, as shown in FIG. 2, the imaging device 2 is fixed at a predetermined vertical angle toward the front of the host vehicle 8. The shadow image g1 of the guide sign C1 extracted from the image information G shown in FIG. 3 captured by the imaging device 2 has a position and shape in the image information G as shown in FIG. Therefore, based on the fixed position and imaging direction of the imaging device 2 with respect to the own vehicle 8 and the position and shape in the image information G of the shadow image g1 of the guide sign C1, the own vehicle position information D3 and the own vehicle The position and shape of the shadow Sb based on the location part of the guide sign C1 when the direction information D4 is the position and direction of the host vehicle 8 can be calculated. At this time, in this example, in order to facilitate the comparison with the calculation result by the theoretical shadow calculation unit 15, as shown in FIG. 7, on the absolute coordinates represented by the latitude (y axis) and the longitude (x axis), The position and shape of the shadow Sb based on the location portion of the guide sign C1 are calculated. In this example, the position and shape of the reference portion shadow Sb of the guide sign C1 are the reference point position Sb1 set at the top of the upper left leg in the figure and the contour line indicating the outer edge shape of the shadow of the guide sign C1. It is represented by an outline Sb2 representing the position of each point.

そして、誤差算出部19において、同一地物に対する理論影演算部15による演算結果と影画像演算部14による演算結果とを対比して、ロケーション部7により特定された自車位置情報D3の位置誤差(Δx,Δy)及び自車方位情報D4の方位誤差Δθを算出する(ステップ#10)。本例では、図7に示すように、理論影演算部15において演算された案内標識C1の理論上の影Saの位置及び形状と、影画像演算部14において演算された案内標識C1のロケーション部基準の影Sbの位置及び形状とを対比して、これらの位置及び方位(角度)の差に基づいて自車位置情報D3の位置誤差(Δx,Δy)及び自車方位情報D4の方位誤差Δθを算出する。すなわち、理論上の影Saの位置及び形状は、地図情報データベース3に格納された地物情報D1と仮想的な太陽の位置とに基づいて演算されたものであるので、ほぼ正確な影の位置及び形状を表している。一方、ロケーション部基準の影Sbの位置及び形状は、ロケーション部7により特定された自車位置情報D3及び自車方位情報D4を自車両8の位置及び方位とした場合における影の位置及び形状を表しており、自車位置情報D3の位置誤差(Δx,Δy)及び自車方位情報D4の方位誤差Δθを含んでいる。したがって、この理論上の影Saの位置及び形状に対するロケーション部基準の影Sbの位置及び形状のずれがロケーション部7により特定された自車位置情報D3及び自車方位情報D4の誤差として算出できる。   Then, the error calculation unit 19 compares the calculation result of the theoretical shadow calculation unit 15 and the calculation result of the shadow image calculation unit 14 with respect to the same feature, and the position error of the vehicle position information D3 specified by the location unit 7 (Δx, Δy) and the direction error Δθ of the vehicle direction information D4 are calculated (step # 10). In this example, as shown in FIG. 7, the position and shape of the theoretical shadow Sa of the guide sign C1 calculated by the theoretical shadow calculation unit 15, and the location part of the guide sign C1 calculated by the shadow image calculation unit 14 Comparing the position and shape of the reference shadow Sb, the position error (Δx, Δy) of the vehicle position information D3 and the direction error Δθ of the vehicle direction information D4 based on the difference between the position and the direction (angle). Is calculated. That is, since the theoretical position and shape of the shadow Sa are calculated based on the feature information D1 stored in the map information database 3 and the virtual sun position, the position of the shadow is almost accurate. And the shape. On the other hand, the position and shape of the shadow Sb based on the location part are the position and shape of the shadow when the own vehicle position information D3 and the own vehicle direction information D4 specified by the location part 7 are used as the position and direction of the own vehicle 8. The position error (Δx, Δy) of the own vehicle position information D3 and the direction error Δθ of the own vehicle direction information D4 are included. Therefore, the position and shape deviation of the location-based reference shadow Sb with respect to the theoretical position and shape of the shadow Sa can be calculated as an error of the vehicle position information D3 and the vehicle direction information D4 specified by the location unit 7.

ここでは、誤差算出部19は、まず、理論上の影Saとロケーション部基準の影Sbとの方位(角度)の差、すなわち方位誤差Δθを算出する。具体的には、理論上の影Saとロケーション部基準の影Sbとの対応する部分、特に輪郭線Sa2及びSb2の直線状の部分の絶対座標上での方位(角度)の差Δθを、理論上の影Saを基準として算出することにより行う。   Here, the error calculation unit 19 first calculates the difference in azimuth (angle) between the theoretical shadow Sa and the location-based reference shadow Sb, that is, the azimuth error Δθ. Specifically, the difference Δθ in the azimuth (angle) on the absolute coordinates of the corresponding portion of the theoretical shadow Sa and the location-based reference shadow Sb, in particular, the linear portions of the contour lines Sa2 and Sb2 This is done by calculating on the basis of the upper shadow Sa.

次に、誤差算出部19は、ロケーション部7により特定された自車位置情報D3に示される自車位置Mを基準としてロケーション部基準の影Sbの方位誤差Δθを修正し、理論上の影Saと方位誤差Δθの修正後のロケーション部基準の影Sbとの対応する点の位置の差、すなわち位置誤差(Δx,Δy)を算出する。具体的には、理論上の影Saの基準点位置Sa1の座標(x0,y0)と、方位誤差Δθの修正後のロケーション部基準の影Sbの基準点位置Sb1´の座標(x1,y1)との差を、理論上の影Saの基準点位置Sa1の座標(x0,y0)を基準として算出することにより行う。すなわち、位置誤差(Δx,Δy)は、経度方向の位置誤差Δx=x0−x1、緯度方向の位置誤差Δy=y0−y1となる。   Next, the error calculation unit 19 corrects the azimuth error Δθ of the location portion reference shadow Sb with reference to the vehicle position M indicated in the vehicle position information D3 specified by the location unit 7, and the theoretical shadow Sa. And the difference in position of the corresponding point between the shadow Sb of the location portion reference after correction of the azimuth error Δθ, that is, the position error (Δx, Δy) is calculated. Specifically, the coordinates (x0, y0) of the reference point position Sa1 of the theoretical shadow Sa and the coordinates (x1, y1) of the reference point position Sb1 ′ of the location-side reference shadow Sb after correcting the azimuth error Δθ. Is calculated using the coordinates (x0, y0) of the reference point position Sa1 of the theoretical shadow Sa as a reference. That is, the position error (Δx, Δy) is the position error Δx = x0−x1 in the longitude direction and the position error Δy = y0−y1 in the latitude direction.

次に、自車情報補正部20において、誤差算出部19により算出された位置誤差(Δx,Δy)に基づいて自車位置情報D3を補正し、方位誤差Δθに基づいて自車方位情報D4を補正する(ステップ#11)。本例では、自車位置情報D3の補正については、ロケーション部7により特定された自車位置情報D3に示される自車位置Mの座標を(X,Y)とすると、これに位置誤差(Δx,Δy)を加えた座標(X+Δx,Y+Δy)を補正後の自車位置情報D3cとする処理を行う。また、自車方位情報D4の補正については、ロケーション部7により特定された自車方位情報D4に示される自車方位をΘとすると、これに方位誤差Δθを加えた方位Θ+Δθを補正後の自車方位情報D4cとする処理を行う。   Next, in the own vehicle information correction unit 20, the own vehicle position information D3 is corrected based on the position error (Δx, Δy) calculated by the error calculation unit 19, and the own vehicle direction information D4 is calculated based on the direction error Δθ. Correction is performed (step # 11). In this example, regarding the correction of the vehicle position information D3, if the coordinates of the vehicle position M indicated by the vehicle position information D3 specified by the location unit 7 are (X, Y), the position error (Δx , Δy) is added to the corrected vehicle position information D3c (X + Δx, Y + Δy). Further, regarding the correction of the vehicle direction information D4, if the vehicle direction indicated by the vehicle direction information D4 specified by the location unit 7 is Θ, the direction Θ + Δθ obtained by adding the direction error Δθ to the direction is corrected. Processing to obtain vehicle direction information D4c is performed.

そして、このようにして演算された自車情報補正部20による補正後の自車位置情報D3c及び補正後の自車方位情報D4cは、ナビゲーション用演算処理部22及びこれを介して車両制御用演算処理部23へ出力する(ステップ#12)。
これにより、このような補正後の自車位置情報D3c及び補正後の自車方位情報D4cの入力を受けるナビゲーション用演算処理部22や車両制御用演算処理部23においては、自車位置及び自車方位をより高精度に認識することができる。したがって、ナビゲーション用演算処理部22においてより正確に自車位置及び自車方位の表示や進路案内を行い、或いは車両制御用演算処理部23においてより正確に自車両8の走行制御を行うことができる。
Then, the vehicle position information D3c corrected by the vehicle information correction unit 20 and the vehicle direction information D4c after correction calculated in this way are calculated for the vehicle control via the navigation calculation processing unit 22 and this. The data is output to the processing unit 23 (step # 12).
Accordingly, in the navigation calculation processing unit 22 and the vehicle control calculation processing unit 23 that receive the input of the corrected host vehicle position information D3c and the corrected host vehicle direction information D4c, the host vehicle position and the host vehicle are detected. The direction can be recognized with higher accuracy. Accordingly, the navigation calculation processing unit 22 can more accurately display the vehicle position and direction and the route guidance, or the vehicle control calculation processing unit 23 can more accurately control the traveling of the host vehicle 8. .

また、ステップ#08により画像情報Gに含まれる地物の影の画像g1を認識した後は、移動方向演算部24において、当該画像情報Gの認識結果に基づいて複数の画像情報Gに含まれる地物の影の画像g1の時間経過に従う移動の状態を解析する(ステップ#13)。そして、この解析結果に基づいて自車方位の変化方向を演算し、その演算結果は自車方位の変化方向情報D5としてナビゲーション用演算処理部22及びこれを介して車両制御用演算処理部23へ出力する(ステップ#14)。この移動方向演算部24によるステップ#13及びステップ#14の処理については、図8及び図9に基づいて以下に説明する。   Further, after the feature shadow image g1 included in the image information G is recognized in step # 08, the moving direction calculation unit 24 includes the image information G based on the recognition result of the image information G. The state of movement of the feature shadow image g1 over time is analyzed (step # 13). Then, based on the analysis result, the direction of change of the vehicle direction is calculated, and the result of the calculation is supplied to the navigation calculation processing unit 22 and the vehicle control calculation processing unit 23 as the change direction information D5 of the vehicle direction. Output (step # 14). The processing of step # 13 and step # 14 by the movement direction calculation unit 24 will be described below based on FIGS.

例えば、図8に示すように、自車両8が走行する道路9の前方に速度標識C2の影S2が存在する場合、撮像装置2により撮像された画像情報Gからは、例えば図9(a)に示すような影の画像g1が抽出される。そして、ステップ#07及びステップ#08の処理は、上記のとおり所定の時間間隔で連続的に繰り返し行われるので、連続的に撮像された複数枚の画像情報Gから、同一の地物の影の画像g1が時間経過に従ってどのように移動するかを解析することができる。例えば、図9(a)の後に撮像された画像情報Gから図9(b)に示されるような影の画像g1が抽出された場合、速度標識C2の影の画像g1は時計方向に回転しつつ接近する方向に移動していることから、自車方位は影の画像g1の移動方向と反対の左方向に変化していることがわかる。一方、図9(a)の後に撮像された画像情報Gから図9(c)に示されるような影の画像g1が抽出された場合、速度標識C2の影の画像g1は反時計方向に回転しつつ接近する方向に移動していることから、自車方位は影の画像g1の移動方向と反対の右方向に変化していることがわかる。このような解析結果に基づけば、自車方位の変化方向を求めることができる。なお、本例では、時間的に前後する2枚の画像情報Gに基づいて自車方位の変化方向を演算する場合について説明したが、3枚以上の連続する画像情報Gに基づいて変化の傾向を解析すれば、より正確に自車方位の変化方向を演算することができる。   For example, as shown in FIG. 8, when the shadow S2 of the speed sign C2 is present in front of the road 9 on which the host vehicle 8 travels, the image information G captured by the imaging device 2 can be obtained from, for example, FIG. A shadow image g1 as shown in FIG. Since the processes of step # 07 and step # 08 are continuously repeated at a predetermined time interval as described above, the shadow of the same feature is obtained from a plurality of pieces of image information G that are continuously captured. It is possible to analyze how the image g1 moves with time. For example, when a shadow image g1 as shown in FIG. 9B is extracted from the image information G captured after FIG. 9A, the shadow image g1 of the speed indicator C2 rotates clockwise. Since the vehicle is moving in the approaching direction, it can be seen that the direction of the vehicle has changed in the left direction opposite to the moving direction of the shadow image g1. On the other hand, when a shadow image g1 as shown in FIG. 9C is extracted from the image information G captured after FIG. 9A, the shadow image g1 of the speed indicator C2 rotates counterclockwise. However, since the vehicle is moving in the approaching direction, it can be seen that the direction of the vehicle has changed in the right direction opposite to the moving direction of the shadow image g1. Based on such an analysis result, the direction of change of the direction of the vehicle can be obtained. In this example, the case where the direction of change of the vehicle direction is calculated based on two pieces of image information G that move forward and backward in time has been described. However, the tendency of change based on three or more pieces of continuous image information G is described. Can be calculated more accurately.

このようにして、移動方向演算部24により自車方位の変化方向を演算し、その演算結果を自車方位の変化方向情報D5として出力することにより、この変化方向情報D5の入力を受けるナビゲーション用演算処理部22や車両制御用演算処理部23においては、自車両8の進行方向をより高精度に特定することができ、自車両8の進路の推測も良好に行うことができる。例えば、図8に示すように、自車両8が走行する道路9の前方に狭角分岐がある場合においても、自車方位の変化方向情報D5に基づいて自車両8が左右のいずれの方向に進行するかを良好に推測することができる。したがって、ナビゲーション用演算処理部22においてより正確に自車位置及び自車方位の表示や進路案内を行い、或いは車両制御用演算処理部23においてより正確に自車両8の走行制御を行うことができる。   In this way, the moving direction calculation unit 24 calculates the direction of change of the vehicle direction and outputs the calculation result as the direction of change information D5 of the vehicle direction. In the arithmetic processing unit 22 and the vehicle control arithmetic processing unit 23, the traveling direction of the host vehicle 8 can be specified with higher accuracy, and the course of the host vehicle 8 can be estimated well. For example, as shown in FIG. 8, even when there is a narrow-angle branch ahead of the road 9 on which the host vehicle 8 travels, the host vehicle 8 moves to the left or right direction based on the change direction information D5 of the host vehicle direction. It can be estimated well whether it progresses. Accordingly, the navigation calculation processing unit 22 can more accurately display the vehicle position and direction and the route guidance, or the vehicle control calculation processing unit 23 can more accurately control the traveling of the host vehicle 8. .

〔その他の実施形態〕
(1)上記実施形態においては、地物影演算手段を構成する理論影演算部15において演算した理論上の影Saの位置及び形状と、影画像演算手段を構成する影画像演算部14において演算したロケーション部基準の影Sbの位置及び形状とを絶対座標上で対比することにより、自車位置情報D3及び自車方位情報D4の誤差を算出して補正する場合について説明した。しかし、本発明の適用範囲はこれに限定されるものではない。例えば、以下のような自車情報認識装置1の構成とすることも好適な実施形態の一つである。すなわち、この自車情報認識装置1は、地物影演算手段において、年月日及び時刻の情報並びに地物情報D1に加えて、ロケーション部7からの自車位置情報D3及び自車方位情報D4を取得する。そして、これらの情報に基づいて、自車位置情報D3及び自車方位情報D4に示される自車位置及び自車方位から仮想的な撮像装置により撮像した場合の地物の理論上の影の画像情報を生成する。一方、画像認識手段において、撮像装置2により撮像した画像情報Gから同一の地物についての実際の影の画像情報を生成する。そして、理論上の影の画像情報中の影の位置と実際の影の画像情報中の影の位置とを対比することにより、自車位置情報D3及び自車方位情報D4の誤差を算出して補正する。すなわち、この自車情報認識装置1は、画像情報G中の影の位置に基づいて自車位置情報D3及び自車方位情報D4を補正する構成となっている。
[Other Embodiments]
(1) In the above embodiment, the position and shape of the theoretical shadow Sa calculated in the theoretical shadow calculation unit 15 constituting the feature shadow calculation means, and the calculation in the shadow image calculation unit 14 constituting the shadow image calculation means. The case where the error of the vehicle position information D3 and the vehicle direction information D4 is calculated and corrected by comparing the position and shape of the shadow Sb based on the location part on the absolute coordinates has been described. However, the scope of application of the present invention is not limited to this. For example, the configuration of the vehicle information recognition device 1 as described below is also one preferred embodiment. That is, the vehicle information recognition device 1 uses the feature shadow calculation means to add the vehicle position information D3 and the vehicle direction information D4 from the location unit 7 in addition to the date and time information and the feature information D1. To get. Based on these information, an image of a theoretical shadow of a feature when the virtual image pickup device captures an image from the vehicle position and the vehicle direction indicated by the vehicle position information D3 and the vehicle direction information D4. Generate information. On the other hand, the image recognition means generates image information of actual shadows for the same feature from the image information G captured by the imaging device 2. Then, by comparing the position of the shadow in the theoretical shadow image information and the position of the shadow in the actual shadow image information, the error of the vehicle position information D3 and the vehicle direction information D4 is calculated. to correct. That is, the vehicle information recognition device 1 is configured to correct the vehicle position information D3 and the vehicle direction information D4 based on the position of the shadow in the image information G.

(2)上記実施形態においては、同一地物に対する理論影演算部15による演算結果と影画像演算部14による演算結果とを対比することにより、ロケーション部7により特定された自車位置情報D3の位置誤差(Δx,Δy)及び自車方位情報D4の方位誤差Δθを算出し、自車位置情報D3及び自車方位情報D4の双方を補正して認識する場合について説明した。しかし、本発明の実施形態はこれに限定されるものではなく、上記実施形態と同様の方法により自車位置情報D3の位置誤差(Δx,Δy)又は自車方位情報D4の方位誤差Δθのいずれか一方を算出し、自車位置情報D3又は自車方位情報D4のいずれか一方のみを補正して認識することも好適な実施形態の一つである。 (2) In the above embodiment, by comparing the calculation result of the theoretical shadow calculation unit 15 with the calculation result of the shadow image calculation unit 14 for the same feature, the vehicle position information D3 specified by the location unit 7 A case has been described in which the position error (Δx, Δy) and the direction error Δθ of the vehicle direction information D4 are calculated, and both the vehicle position information D3 and the vehicle direction information D4 are corrected and recognized. However, the embodiment of the present invention is not limited to this, and either the position error (Δx, Δy) of the vehicle position information D3 or the direction error Δθ of the vehicle direction information D4 is performed by the same method as the above embodiment. One of the preferred embodiments is to calculate one of them and correct and recognize only one of the vehicle position information D3 and the vehicle direction information D4.

(3)上記の実施形態においては、太陽位置演算部13が、各地物情報D1に含まれる各地物の位置(緯度及び経度)に対する太陽の方位及び高さ(地表面に対する角度)を演算する処理を行う場合について説明した。しかし、自車位置の周辺の撮像領域内という限られた範囲内では、いずれの位置であっても太陽の方位及び高さはほぼ同じと考えることができる。そこで、演算処理の簡略化のために、このロケーション部7により取得された自車位置情報D3に示される自車位置や、任意の一の地物情報D1に含まれる地物の位置を基準として太陽の方位及び高さを演算する処理を行うことも好適な実施形態の一つである。 (3) In said embodiment, the solar position calculating part 13 calculates the azimuth | direction and height (angle with respect to the ground surface) of the sun with respect to the position (latitude and longitude) of each feature included in each feature information D1. Explained the case of performing. However, it can be considered that the azimuth and height of the sun are almost the same at any position within a limited range in the imaging region around the vehicle position. Therefore, in order to simplify the calculation process, the vehicle position indicated in the vehicle position information D3 acquired by the location unit 7 or the position of the feature included in any one feature information D1 is used as a reference. It is also a preferred embodiment to perform processing for calculating the azimuth and height of the sun.

本発明の実施形態に係る自車情報認識装置並びにこれを備えたナビゲーション装置及び車両制御装置のハードウエア構成の概略を示すブロック図The block diagram which shows the outline of the hardware constitutions of the own vehicle information recognition apparatus which concerns on embodiment of this invention, a navigation apparatus provided with the same, and a vehicle control apparatus 本発明の実施形態に係る自車情報認識装置が搭載された自車両及びその周囲の状態の一例を示す図The figure which shows an example of the own vehicle by which the own vehicle information recognition apparatus which concerns on embodiment of this invention is mounted, and its surrounding state 図2に示す自車両から撮像した画像情報を示す図The figure which shows the image information imaged from the own vehicle shown in FIG. 図3に示す画像情報から案内標識の影のみを抽出した画像を示す図The figure which shows the image which extracted only the shadow of the guidance sign from the image information shown in FIG. 本発明の実施形態に係る自車情報認識装置の地図情報データベースに格納されている地図情報及び地物情報の内容を示す説明図Explanatory drawing which shows the content of the map information stored in the map information database of the own vehicle information recognition apparatus which concerns on embodiment of this invention, and feature information 本発明の実施形態に係る自車情報認識装置における自車位置及び自車方位の認識処理の具体例を示すフローチャートThe flowchart which shows the specific example of the recognition process of the own vehicle position and the own vehicle direction in the own vehicle information recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る自車情報認識装置において演算した案内標識の理論上の影及びロケーション部基準の影の位置及び形状を、緯度(y軸)及び経度(x軸)により表される絶対座標上に表した説明図The absolute position represented by the latitude (y axis) and longitude (x axis) of the theoretical shadow of the guide sign calculated by the vehicle information recognition apparatus according to the embodiment of the present invention and the shadow position and shape of the location part reference Explanatory drawing expressed on coordinates 本発明の実施形態に係る自車情報認識装置が搭載された自車両及びその周囲の状態のもう一つの例を示す図The figure which shows another example of the own vehicle by which the own vehicle information recognition apparatus which concerns on embodiment of this invention is mounted, and its surrounding state 図8に示す自車両から撮像した画像情報が時間経過に従って変化する様子を示す図The figure which shows a mode that the image information imaged from the own vehicle shown in FIG. 8 changes with time passage.

符号の説明Explanation of symbols

1:自車情報認識装置
2:撮像装置
3:地図情報データベース(地物情報格納手段、地図情報格納手段)
7:ロケーション部(自車位置情報取得手段、自車方位情報取得手段)
8:自車両
10:画像情報取得部(画像情報取得手段)
11:画像認識部(影画像認識手段)
13:太陽位置演算部(太陽位置演算手段)
14:影画像演算部(影画像演算手段)
15:理論影演算部(理論影演算手段)
16:地物情報取得部(地物情報取得手段)
18:地物影演算手段
19:誤差算出部
20:自車情報補正部
21:自車情報認識手段
22:ナビゲーション用演算処理部
23:車両制御用演算処理部
24:移動方向演算部(移動方向演算手段)
25:表示装置(表示手段、進路案内手段)
26:音声出力装置(進路案内手段)
G:画像情報
g1:地物の影の画像
D1:地物情報
D2:地図情報
D3:自車位置情報
D3c:補正後の自車位置情報
D4:自車方位情報
D4c:補正後の自車方位情報
D5:変化方向情報
Sa:理論上の影
Sb:ロケーション部基準の影
1: Vehicle information recognition device 2: Imaging device 3: Map information database (feature information storage means, map information storage means)
7: Location part (own vehicle position information acquisition means, own vehicle direction information acquisition means)
8: Own vehicle 10: Image information acquisition unit (image information acquisition means)
11: Image recognition unit (shadow image recognition means)
13: Solar position calculator (solar position calculator)
14: Shadow image calculation unit (shadow image calculation means)
15: Theoretical shadow calculation unit (theoretical shadow calculation means)
16: Feature information acquisition unit (feature information acquisition means)
18: feature shadow calculation means 19: error calculation section 20: own vehicle information correction section 21: own vehicle information recognition means 22: calculation processing section for navigation 23: calculation processing section for vehicle control 24: movement direction calculation section (movement direction Calculation means)
25: Display device (display means, route guidance means)
26: Audio output device (course guidance means)
G: Image information g1: Image of shadow of feature D1: Feature information D2: Map information D3: Own vehicle position information D3c: corrected vehicle position information D4: own vehicle direction information D4c: corrected vehicle direction Information D5: Change direction information Sa: Theoretical shadow Sb: Location part reference shadow

Claims (8)

自車両に搭載された撮像装置により撮像した画像情報を取り込む画像情報取得手段と、
自車位置情報を取得する自車位置情報取得手段と、
地物の位置及び高さの情報を含む地物情報を格納する地物情報格納手段と、
年月日及び時刻の情報並びに前記地物情報を用いて前記地物の影の位置及び形状を演算する地物影演算手段と、
前記画像情報に含まれる地物の影の画像を認識する影画像認識手段と、
同一地物に対する前記地物影演算手段による演算結果と前記影画像認識手段による認識結果とに基づいて自車位置及び自車方位の一方又は双方の認識を行う自車情報認識手段と、
を備える自車情報認識装置。
Image information acquisition means for capturing image information captured by an imaging device mounted on the host vehicle;
Own vehicle position information acquisition means for acquiring own vehicle position information;
Feature information storage means for storing feature information including information on the position and height of the feature;
Feature shadow calculation means for calculating the position and shape of the shadow of the feature using the date and time information and the feature information;
A shadow image recognition means for recognizing a shadow image of a feature included in the image information;
Vehicle information recognition means for recognizing one or both of the vehicle position and the vehicle direction based on the calculation result of the feature shadow calculation means for the same feature and the recognition result of the shadow image recognition means;
A vehicle information recognition device comprising:
前記地物影演算手段は、
前記年月日及び時刻の情報に基づいて太陽の位置を演算する太陽位置演算手段と、
前記自車位置情報に示される位置周辺の地物についての前記地物情報を前記地物情報格納手段から取得する地物情報取得手段と、
前記太陽位置演算手段による演算結果と前記地物情報取得手段により取得された前記地物情報とを用いて前記地物の理論上の影の位置及び形状を演算する理論影演算手段と、
を備える請求項1に記載の自車情報認識装置。
The feature shadow calculation means includes:
Solar position calculating means for calculating the position of the sun based on the date and time information;
Feature information acquisition means for acquiring the feature information about the features around the position indicated by the vehicle position information from the feature information storage means;
Theoretical shadow calculation means for calculating the theoretical shadow position and shape of the feature using the calculation result by the solar position calculation means and the feature information acquired by the feature information acquisition means;
The vehicle information recognition device according to claim 1, comprising:
自車方位情報を取得する自車方位情報取得手段を備え、
前記地物影演算手段は、年月日及び時刻の情報並びに前記地物情報に基づいて、地球側に固定された絶対座標上における前記地物の理論上の影の位置及び形状を演算し、
前記自車情報認識手段は、前記影画像認識手段による認識結果に基づいて、前記自車位置情報に示される位置及び前記自車方位情報に示される方位に基づいて定まる撮像装置の位置及び方位をそれぞれ撮像位置及び撮像方位とした場合の前記絶対座標上における前記地物の影の位置及び形状を演算する影画像演算手段を備え、前記地物影演算手段による演算結果と前記影画像演算手段による演算結果とを対比して前記自車位置情報の位置誤差及び前記自車方位情報の方位誤差の一方又は双方を演算し、前記位置誤差に基づいて前記自車位置情報を補正し、前記方位誤差に基づいて前記自車方位情報を補正して、自車位置及び自車方位の一方又は双方の認識を行う請求項1又は2に記載の自車情報認識装置。
A vehicle direction information acquisition means for acquiring the vehicle direction information is provided,
The feature shadow calculation means calculates the theoretical shadow position and shape of the feature on absolute coordinates fixed on the earth side based on the date and time information and the feature information;
The own vehicle information recognizing means determines the position and orientation of the imaging device determined based on the position indicated by the own vehicle position information and the orientation indicated by the own vehicle direction information based on the recognition result by the shadow image recognizing means. Shadow image calculation means for calculating the position and shape of the shadow of the feature on the absolute coordinates when the imaging position and the imaging direction are set, respectively, and the calculation result by the feature shadow calculation means and the shadow image calculation means Comparing the calculation result to calculate one or both of the position error of the vehicle position information and the direction error of the vehicle direction information, correcting the vehicle position information based on the position error, and correcting the direction error The vehicle information recognition device according to claim 1 or 2, wherein the vehicle direction information is corrected based on the vehicle position to recognize one or both of the vehicle position and the vehicle direction.
画像情報取得手段は、前記撮像装置により撮像した画像情報を所定の時間間隔で複数取り込み、
前記自車情報認識手段は、前記影画像認識手段による認識結果に基づいて前記複数の画像情報に含まれる同一の地物の影の画像の時間経過に従う移動の状態を解析し、その解析結果に基づいて少なくとも自車方位の変化方向を演算する移動方向演算手段を備え、この移動方向演算手段による演算結果に基づいて自車方位の認識を行う請求項1から3の何れか一項に記載の自車情報認識装置。
The image information acquisition means captures a plurality of image information captured by the imaging device at a predetermined time interval,
The vehicle information recognizing unit analyzes the movement state of the image of the shadow of the same feature included in the plurality of pieces of image information over time based on the recognition result by the shadow image recognizing unit. 4. The vehicle according to claim 1, further comprising a movement direction calculation unit that calculates at least a change direction of the vehicle direction based on the vehicle direction, and recognizes the vehicle direction based on a calculation result of the movement direction calculation unit. Self-vehicle information recognition device.
前記請求項1から4の何れか一項に記載の自車情報認識装置と、地図情報を格納した地図情報格納手段と、前記地図情報格納手段から取得した地図上に自車マークを重ね合わせて表示する表示手段とを備え、
前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方に基づいて、前記地図上に前記自車マークを重ね合わせて表示するナビゲーション装置。
The own vehicle information recognition device according to any one of claims 1 to 4, a map information storage unit storing map information, and a vehicle mark superimposed on a map acquired from the map information storage unit. Display means for displaying,
A navigation device that displays the vehicle mark superimposed on the map based on one or both of the vehicle position and the vehicle direction recognized by the vehicle information recognition device.
前記請求項1から4の何れか一項に記載の自車情報認識装置と、地図情報を格納した地図情報格納手段と、所定の誘導経路に従って進路案内を行う進路案内手段とを備え、
前記地図情報格納手段から取得した地図情報と、前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方とに基づいて前記進路案内を行うナビゲーション装置。
The host vehicle information recognition device according to any one of claims 1 to 4, a map information storage unit that stores map information, and a route guidance unit that performs route guidance according to a predetermined guidance route,
A navigation device that performs the route guidance based on map information acquired from the map information storage means and one or both of a vehicle position and a vehicle direction recognized by the vehicle information recognition device.
前記請求項1から4の何れか一項に記載の自車情報認識装置と、地図情報を格納した地図情報格納手段とを備え、
前記地図情報格納手段から取得した地図情報と、前記自車情報認識装置により認識された自車位置及び自車方位の一方又は双方とに基づいて、車両の走行制御を行う車両制御装置。
The vehicle information recognition device according to any one of claims 1 to 4, and a map information storage unit that stores map information,
A vehicle control device that performs vehicle travel control based on map information acquired from the map information storage means and one or both of a vehicle position and a vehicle direction recognized by the vehicle information recognition device.
自車両に搭載された撮像装置により撮像した画像情報を取り込む画像情報取得ステップと、
自車位置情報を取得する自車位置情報取得ステップと、
年月日及び時刻の情報並びに地物情報格納手段に格納された地物情報を用いて地物の影の位置及び形状を演算する地物影演算ステップと、
前記画像情報に含まれる地物の影の画像を認識する影画像認識ステップと、
同一地物に対する前記地物影演算ステップによる演算結果と前記影画像認識ステップによる認識結果とに基づいて自車位置及び自車方位の一方又は双方の認識を行う自車情報認識ステップと、
を備える自車情報認識方法。
An image information acquisition step for capturing image information captured by an imaging device mounted on the host vehicle;
Own vehicle position information acquisition step for acquiring own vehicle position information;
A feature shadow calculation step for calculating the position and shape of the shadow of the feature using the date and time information and the feature information stored in the feature information storage means;
A shadow image recognition step for recognizing a shadow image of a feature included in the image information;
A vehicle information recognition step for recognizing one or both of the vehicle position and the vehicle direction based on the calculation result of the feature shadow calculation step for the same feature and the recognition result of the shadow image recognition step;
A vehicle information recognition method comprising:
JP2005102394A 2005-03-31 2005-03-31 Self-vehicle information recognition device and self-vehicle information recognition method Expired - Fee Related JP4596566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005102394A JP4596566B2 (en) 2005-03-31 2005-03-31 Self-vehicle information recognition device and self-vehicle information recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005102394A JP4596566B2 (en) 2005-03-31 2005-03-31 Self-vehicle information recognition device and self-vehicle information recognition method

Publications (2)

Publication Number Publication Date
JP2006284281A JP2006284281A (en) 2006-10-19
JP4596566B2 true JP4596566B2 (en) 2010-12-08

Family

ID=37406372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005102394A Expired - Fee Related JP4596566B2 (en) 2005-03-31 2005-03-31 Self-vehicle information recognition device and self-vehicle information recognition method

Country Status (1)

Country Link
JP (1) JP4596566B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100815153B1 (en) * 2006-11-08 2008-03-19 한국전자통신연구원 Apparatus and method for guiding a cross road of car navigation using a camera
JP2008145247A (en) * 2006-12-08 2008-06-26 Toyota Motor Corp Current position specifying device for vehicle
JP4914726B2 (en) * 2007-01-19 2012-04-11 クラリオン株式会社 Current position calculation device, current position calculation method
JP4569837B2 (en) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 Feature information collecting apparatus and feature information collecting method
JP4497424B2 (en) * 2007-05-31 2010-07-07 アイシン・エィ・ダブリュ株式会社 Feature recognition device, feature recognition method, lane determination device and lane determination method using the same
JP5323560B2 (en) * 2009-03-31 2013-10-23 株式会社パスコ Spatial information integrated database generation device and spatial information integrated database generation program
JP5066558B2 (en) * 2009-09-17 2012-11-07 日立オートモティブシステムズ株式会社 Vehicle shadow recognition device
JP5088592B2 (en) * 2010-04-28 2012-12-05 アイシン・エィ・ダブリュ株式会社 Own vehicle position recognition device and own vehicle position recognition program
CN103363916B (en) * 2012-03-26 2016-03-02 联想(北京)有限公司 A kind of information processing method and treatment facility
KR102627453B1 (en) * 2018-10-17 2024-01-19 삼성전자주식회사 Method and device to estimate position

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03282707A (en) * 1990-03-30 1991-12-12 Mazda Motor Corp Environment recognition device for mobile vehicle
JPH10171966A (en) * 1996-12-05 1998-06-26 Nissan Motor Co Ltd On-vehicle image processor
JP2000097714A (en) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd Car navigation apparatus
JP2002168634A (en) * 2000-09-19 2002-06-14 Alpine Electronics Inc Display method for three-dimensional map of on-vehicle navigation system
JP2003014477A (en) * 2001-04-26 2003-01-15 Mitsubishi Electric Corp Image navigation device
JP2003178309A (en) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc Moving amount estimating device
JP2004226199A (en) * 2003-01-22 2004-08-12 Denso Corp Navigation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03282707A (en) * 1990-03-30 1991-12-12 Mazda Motor Corp Environment recognition device for mobile vehicle
JPH10171966A (en) * 1996-12-05 1998-06-26 Nissan Motor Co Ltd On-vehicle image processor
JP2000097714A (en) * 1998-09-21 2000-04-07 Sumitomo Electric Ind Ltd Car navigation apparatus
JP2002168634A (en) * 2000-09-19 2002-06-14 Alpine Electronics Inc Display method for three-dimensional map of on-vehicle navigation system
JP2003014477A (en) * 2001-04-26 2003-01-15 Mitsubishi Electric Corp Image navigation device
JP2003178309A (en) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc Moving amount estimating device
JP2004226199A (en) * 2003-01-22 2004-08-12 Denso Corp Navigation system

Also Published As

Publication number Publication date
JP2006284281A (en) 2006-10-19

Similar Documents

Publication Publication Date Title
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
US9448074B2 (en) Curve modeling device, curve modeling method, and vehicular navigation device
JP4366664B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP4600357B2 (en) Positioning device
US8112222B2 (en) Lane determining device, method, and program
US8239131B2 (en) Navigation device, navigation method, and navigation program
EP2372304B1 (en) Vehicle position recognition system
CN102208035B (en) Image processing system and position measuring system
Gruyer et al. Map-aided localization with lateral perception
US20100121569A1 (en) Lane determining device, lane determining method and navigation apparatus using the same
US20180273031A1 (en) Travel Control Method and Travel Control Apparatus
EP2113746A1 (en) Feature information collecting device and feature information collecting program, and vehicle position recognizing device and navigation device
CN108627175A (en) The system and method for vehicle location for identification
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
WO2013149149A1 (en) Method to identify driven lane on map and improve vehicle position estimate
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP4986883B2 (en) Orientation device, orientation method and orientation program
JP2009099125A (en) Image recognition device, image recognition program, and point information collection device and navigation device using them
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP4731380B2 (en) Self-vehicle position recognition device and self-vehicle position recognition method
CN110018503B (en) Vehicle positioning method and positioning system
KR20200002257A (en) Corner detection-based road sign detecting method and apparatus
JP2019120629A (en) Position calculation device, position calculation program, and coordinate marker
Hu et al. Fusion of vision, GPS and 3D gyro data in solving camera registration problem for direct visual navigation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100920

R150 Certificate of patent or registration of utility model

Ref document number: 4596566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees