JP2006040123A - Recognition support device for vehicle - Google Patents
Recognition support device for vehicle Download PDFInfo
- Publication number
- JP2006040123A JP2006040123A JP2004221787A JP2004221787A JP2006040123A JP 2006040123 A JP2006040123 A JP 2006040123A JP 2004221787 A JP2004221787 A JP 2004221787A JP 2004221787 A JP2004221787 A JP 2004221787A JP 2006040123 A JP2006040123 A JP 2006040123A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- display device
- driver
- risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の認知支援装置に関する。 The present invention relates to a vehicle recognition support apparatus.
従来、例えばカメラやレーダにより自車両の外部に存在する物体を検知し、この検知結果に基づき、例えばフロントウィンドシールド上や運転者の頭部に装着した透過型液晶表示装置において、運転者から見て物体に重畳する位置に輝点表示を行う情報表示装置が知られている(例えば、特許文献1参照)。
また、従来、例えば自車両の運転者の死角領域を撮影し、この死角領域の撮影画像を表示装置に表示すると共に、警報音の出力や警報情報を表示装置に重畳することで、死角領域の撮影画像に対して運転者の注意を喚起する車両周辺監視装置が知られている(例えば、特許文献2参照)。
Conventionally, for example, a blind spot area of a driver of the host vehicle is photographed, and a captured image of the blind spot area is displayed on a display device, and an alarm sound output and warning information are superimposed on the display device, thereby A vehicle periphery monitoring device that alerts a driver to a captured image is known (for example, see Patent Document 2).
ところで、上記従来技術に係る装置においては、単に、運転者の視線位置が自車両の外部の物体や死角領域に無い場合に、運転者の注意を促す輝点表示や警報出力を行うだけでは、例えば相対的に交通量の多い走行路等において過剰な輝点表示や警報出力が実行されてしまう虞がある。また、フロントウィンドシールド上や表示画面上において、自車両に対して障害物となりうる物体の周辺位置に輝点表示を行うだけでは、例えば運転者の視線方向に沿って重畳するようにして複数の物体が存在する場合に、これらの複数の物体に対して輝点表示が行われることになり、複数の物体の何れが自車両に対して危険度が高いかを運転者に瞬時に認識させることができないという問題が生じる。
本発明は上記事情に鑑みてなされたもので、自車両に対して相対的に危険度の高い物体の存在を運転者に適切に認識させることが可能な車両の認知支援装置を提供することを目的とする。
By the way, in the device according to the above-described prior art, when the driver's line-of-sight position is not in an object outside the host vehicle or the blind spot area, simply performing a bright spot display and an alarm output to alert the driver, For example, there is a risk that excessive bright spot display or warning output may be executed on a road with a relatively heavy traffic. Further, on the front windshield or on the display screen, if only bright spots are displayed at positions around an object that can be an obstacle to the host vehicle, for example, a plurality of points are superimposed so as to be superimposed along the driver's line of sight. When there is an object, bright spots are displayed on these multiple objects, and the driver can instantly recognize which of the multiple objects is more dangerous than the host vehicle. The problem that cannot be done.
The present invention has been made in view of the above circumstances, and provides a vehicle recognition support device that can allow a driver to appropriately recognize the presence of an object having a relatively high degree of danger with respect to the host vehicle. Objective.
上記課題を解決して係る目的を達成するために、請求項1に記載の本発明の車両の認知支援装置は、自車両の外部を撮影する撮影手段(例えば、実施の形態での外界撮影カメラ12a)と、自車両の内部に設けられた表示装置(例えば、実施の形態での前方表示装置15、後方表示装置16)と前記撮影手段の撮影により得られる撮影画像を前記表示装置に表示する車両の認知支援装置であって、前記撮影手段の撮影により得られる撮影画像から対象物を抽出する対象物抽出手段(例えば、実施の形態での対象物抽出部21)と、前記対象物抽出手段にて抽出された対象物の画像を前記撮影画像から切り出す画像切出手段(例えば、実施の形態での対象物画像切出部23)と、前記対象物の自車両に対する危険度を判定する危険度判定手段(例えば、実施の形態での危険度判定部28)と、前記表示装置とは異なる位置に設けられた副表示装置(例えば、実施の形態での副表示装置17)とを備え、前記危険度判定手段にて判定された危険度が、予め設定した所定値を超えた場合に前記画像切出手段にて切り出した対象物の画像を前記副表示装置に表示することを特徴としている。
In order to solve the above-described problems and achieve the object, the vehicle recognition support apparatus according to the first aspect of the present invention is a photographing means for photographing the outside of the own vehicle (for example, an outside-field photographing camera in the embodiment). 12a), and a display device (for example, the
上記構成の車両の認知支援装置によれば、撮影手段の撮影により得られる撮影画像を表示する表示装置に加えて副表示装置を備え、危険度が所定値を超えた場合に、対象物抽出手段にて抽出された対象物の切出画像を副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。 According to the vehicle recognition support device having the above-described configuration, in addition to the display device that displays the captured image obtained by the photographing of the photographing unit, the auxiliary display device is provided, and when the degree of danger exceeds a predetermined value, the object extraction unit By displaying the cut-out image of the object extracted in step 3 on the sub-display device, it is possible to prevent the driver from overlooking or mistaken the object and to recognize the object by the driver. Can be supported accurately.
さらに、請求項2に記載の本発明の車両の認知支援装置では、前記副表示装置は運転者の頭部に装着されることを特徴としている。 Furthermore, in the vehicle recognition support device according to the second aspect of the present invention, the auxiliary display device is mounted on a driver's head.
上記構成の車両の認知支援装置によれば、運転者の頭部の向きが変化する場合であっても、副表示装置の表示内容を運転者に常に視認させることができる。 According to the vehicle recognition support device having the above-described configuration, even if the orientation of the driver's head changes, the display content of the sub-display device can always be visually recognized by the driver.
さらに、請求項3に記載の本発明の車両の認知支援装置は、対象物が存在する方向を検知する方向検知手段(例えば、実施の形態での方向センサ18および対象物方向算出部29および切出画像表示制御部32)を備え、前記画像切出手段にて切り出した対象物の画像と共に、前記方向検知手段にて検知した方向を、前記副表示装置に表示することを特徴としている。
Furthermore, the vehicle recognition support apparatus according to the third aspect of the present invention is directed to direction detection means for detecting the direction in which the object is present (for example, the
上記構成の車両の認知支援装置によれば、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。 According to the vehicle recognition support apparatus having the above-described configuration, even if the relative position of the target object with respect to the host vehicle changes, the driver can accurately recognize the actual position of the target object.
さらに、請求項4に記載の本発明の車両の認知支援装置は、前記対象物を拡大撮影あるいは前記対象物の画像を拡大可能な拡大画像取得手段(例えば、実施の形態での拡大画像取得部22)を備えることを特徴としている。 Furthermore, the vehicle recognition support apparatus according to the fourth aspect of the present invention is an enlarged image acquisition unit (for example, an enlarged image acquisition unit according to an embodiment) capable of enlarging an image of the object or enlarging an image of the object. 22).
上記構成の車両の認知支援装置によれば、対象物抽出手段にて抽出された対象物の拡大画像を、表示装置や副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。 According to the vehicle recognition support apparatus configured as described above, the driver may miss an object by displaying an enlarged image of the object extracted by the object extraction unit on the display device or the sub display device. Thus, it is possible to prevent the driver from making a mistake and to accurately support the recognition operation of the object by the driver.
本発明の車両の認知支援装置によれば、対象物抽出手段にて抽出された対象物の切出画像を副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
さらに、請求項2に記載の発明の車両の認知支援装置によれば、運転者の頭部の向きが変化する場合であっても、副表示装置の表示内容を運転者に常に視認させることができる。
さらに、請求項3に記載の発明の車両の認知支援装置によれば、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。
さらに、請求項4に記載の発明の車両の認知支援装置によれば、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
According to the vehicle recognition support apparatus of the present invention, the driver can overlook the object or make a mistake by displaying the cut-out image of the object extracted by the object extraction unit on the sub-display device. It is possible to accurately support the driver's recognition of the object.
Furthermore, according to the vehicle recognition support device of the invention described in claim 2, even if the orientation of the driver's head changes, the driver can always make the display content of the sub-display device visible. it can.
Furthermore, according to the vehicle recognition support device of the invention described in claim 3, even if the relative position of the object with respect to the host vehicle changes, the driver can accurately recognize the actual position of the object. be able to.
Furthermore, according to the vehicle recognition support device of the invention described in claim 4, it is possible to prevent the driver from overlooking the object or to make a mistake, thereby accurately recognizing the object by the driver. Can help.
以下、本発明の一実施形態に係る車両の認知支援装置について添付図面を参照しながら説明する。
本実施の形態による車両の認知支援装置10は、例えば図1に示すように、自車両の外界を検出するためにCPU等を含む電子回路により構成された処理装置11と、外界センサ12と、対象物センサ13と、車両状態量センサ14と、前方表示装置15と、後方表示装置16と、副表示装置17と、方向センサ18とを備えて構成されている。
Hereinafter, a vehicle recognition support apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.
For example, as shown in FIG. 1, the vehicle
外界センサ12は、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラやC−MOSカメラ等からなる外界撮影カメラ12aおよび画像処理部12bを備えて構成されている。
外界撮影カメラ12aは、例えばフロントウィンドウ越しに自車両の進行方向前方および側方の所定検知範囲の外界を撮影する前方撮影用のカメラや、例えばリアウィンドウ越しに自車両の進行方向後方および側方の所定検知範囲の外界を撮影する後方撮影用のカメラ等を備えて構成されている。
画像処理部12bは、外界撮影カメラ12aにより撮影して得た撮影画像に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成して処理装置11へ出力する。
The
The
The
対象物センサ13は、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラやC−MOSカメラ等からなる対象物撮影カメラ13aおよび画像処理部13bを備えて構成され、処理装置11から入力される制御信号に応じて、検知範囲を変更可能であり、さらに、この検知範囲内の対象物を適宜の倍率で撮影可能である。
対象物撮影カメラ13aは、例えばフロントウィンドウやリアウィンドウ越しに自車両の外界に存在する適宜の対象物を撮影する。
画像処理部13bは、対象物撮影カメラ13aにより撮影して得た撮影画像に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成して処理装置11へ出力する。
The
The
The
車両状態量センサ14は、例えば人工衛星を利用して自車両の位置を測定するためのGPS(Global Positioning Systems)信号等の測位信号や自車両の外部の情報発信装置から発信される位置信号の受信や、例えば道路上に配置された基点マーカとの磁気作用等によって自車両の現在位置を検知する位置センサや、自車両の走行状態に係る車両状態量を検出するセンサ、例えば車速センサ、舵角センサ等を備えて構成され、各装置およびセンサから出力される検出信号は処理装置11へ出力されている。
なお、車速センサは、例えば車輪の回転速度等に基づいて所定の単位処理時間毎における車両移動距離つまり自車両の速度(車速)を検出し、舵角センサは、例えばステアリングシャフト(図示略)に設けられたロータリエンコーダ等からなり、運転者が入力した操舵角度の方向と大きさを検出する。ジャイロセンサは、水平面内での自車両の向きや鉛直方向に対する傾斜角度(例えば、車両重心の上下方向軸回りの回転角であるヨー角等)および傾斜角度の変化量(例えば、ヨーレート)等を検出する。
The vehicle
The vehicle speed sensor detects, for example, the vehicle travel distance per predetermined unit processing time, that is, the speed (vehicle speed) of the host vehicle based on, for example, the rotational speed of the wheels, and the steering angle sensor is, for example, a steering shaft (not shown). It consists of a provided rotary encoder or the like, and detects the direction and magnitude of the steering angle input by the driver. The gyro sensor indicates the direction of the host vehicle in a horizontal plane, a tilt angle with respect to the vertical direction (for example, a yaw angle that is a rotation angle about the vertical axis of the center of gravity of the vehicle), a change amount of the tilt angle (for example, a yaw rate), and the like. To detect.
前方表示装置15は、例えば図2に示すように、車室内のインストルメントパネルの上部に配置された液晶表示装置等であって、外界撮影カメラ12aの撮影により得られた画像データのうち、特に、自車両の進行方向前方および側方の所定検知範囲の外界の画像データを表示すると共に、後述するように、処理装置11での制御処理に応じて対象物撮影カメラ13aの撮影により得られた画像データを表示する。
後方・側方表示装置16は、例えば図2に示すように、ルーフパネル前方部の車室内側でルームミラー近傍の位置に配置された液晶表示装置等であって、外界撮影カメラ12aの撮影により得られた画像データのうち、特に、自車両の進行方向後方および側方の所定検知範囲の外界の画像データを表示すると共に、後述するように、処理装置11での制御処理に応じて対象物撮影カメラ13aの撮影により得られた画像データを表示する。
なお、後方・側方表示装置16には、例えば、運転者がルームミラーを介して自車両の後方を視認する状態と同等の状態を想定して、外界撮影カメラ12aの後方撮影用のカメラの撮影により得られた撮影画像に対して鏡映変換を行って得た画像が表示される。
For example, as shown in FIG. 2, the
For example, as shown in FIG. 2, the rear /
Note that the rear /
副表示装置17は、例えば図3に示すように、運転者Dの頭部に装着可能なヘッドセット19の先端部に配置された液晶表示装置等であって、後述するように、外界撮影カメラ12aの撮影により得られた画像データのうち、処理装置11にて切り出された切出画像を表示する。
そして、ヘッドセット19には、例えばジャイロセンサ等からなる方向センサ18が備えられ、方向センサ18から出力される検出信号は処理装置11へ出力されている。この検出信号は、ヘッドセット19を装着した運転者Dの頭部の向きを検知する処理において利用される。
For example, as shown in FIG. 3, the
The
処理装置11は、対象物抽出部21と、拡大画像取得部22と、対象物画像切出部23と、標識判定部24と、視認難易度判定部25と、自車両移動状態算出部26と、対象物移動状態算出部27と、危険度判定部28と、対象物方向算出部29と、合成画像生成部30と、画像表示制御部31と、切出画像表示制御部32とを備えて構成されている。
The
対象物抽出部21は、外界センサ12から入力される画像データに対して、例えば他車両や歩行者や標識等を検知対象物とした特徴量算出および形状判別等の認識処理を行う。
なお、画像データの認識処理において、特徴量算出の処理では、例えば二値化処理後の画像データに対して、画素の連続性に基づく検知対象物の抽出およびラベリングを行い、抽出した検知対象物の重心および面積および外接四角形の縦横比等を算出する。また、形状判別の処理では、例えば予め記憶している所定パターン(例えば輪郭等)に基づき画像データ上の検索を行い、所定パターンとの類似性に応じて検知対象物を抽出する。
The
In the image data recognition processing, in the feature amount calculation processing, for example, extraction and labeling of detection objects based on pixel continuity is performed on the image data after binarization processing, and the extracted detection objects The center of gravity and area of the image, the aspect ratio of the circumscribed rectangle, and the like are calculated. In the shape determination process, for example, a search on image data is performed based on a predetermined pattern (for example, an outline) stored in advance, and a detection target is extracted according to the similarity to the predetermined pattern.
拡大画像取得部22は、対象物抽出部21にて抽出された対象物の拡大画像を取得するようにして、対象物センサ13の対象物撮影カメラ13aの撮影方向および撮影倍率を指示する制御信号を対象物センサ13へ出力し、対象物撮影カメラ13aの撮影により得られた画像データ、つまり対象物の拡大画像を取得し、画像表示制御部31へ出力する。
対象物画像切出部23は、対象物抽出部21にて抽出された対象物の画像を外界センサ12から入力される画像データから切り出して切出画像を生成し、切出画像表示制御部32へ出力する。
The magnified
The object
標識判定部24は、対象物抽出部21にて抽出された対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であるか否かを判定し、この判定結果を画像表示制御部31へ出力する。
視認難易度判定部25は、外界センサ12から入力される画像データにおいて、照度や色彩のコントラストを検知したり、対象物抽出部21にて抽出された対象物と対象物の周辺領域との間の輪郭部のエッジ画像の形状の複雑度を検知し、これらの検知結果に応じて視認性の難易度を算出する。
例えば、視認難易度判定部25は、照度や色彩のコントラストが低下することに伴い、あるいは、エッジ画像の形状の複雑度が増大することに伴い、視認性の難度が増大傾向に変化するように設定する。そして、視認難易度判定部25は、算出した視認性の難度が、所定難度を超えているか否かを判定し、この判定結果を画像表示制御部31へ出力する。
The
The visual recognition difficulty
For example, the visibility difficulty
自車両移動状態算出部26は、車両状態量センサ14から出力される測位信号に基づく算出処理や、車両状態量センサ14の車速センサおよびジャイロセンサから出力される検出信号に基づく自律航法の算出処理によって自車両の現在位置を算出する。さらに、自車両移動状態算出部26は、車両状態量センサ14の車速センサおよびジャイロセンサから出力される検出信号(例えば、車速およびヨーレート等)に基づき、自車両の進行軌跡を推定し、危険度判定部28へ出力する。
対象物移動状態算出部27は、対象物抽出部21にて抽出された対象物の画像データ内での位置の変化および自車両移動状態算出部26にて算出された自車両の現在位置に基づき、対象物の移動状態として自車両に対する相対位置および相対速度を算出すると共に、対象物の進行軌跡を推定し、危険度判定部28へ出力する。
The own vehicle movement
The object movement
危険度判定部28は、自車両移動状態算出部26から入力される自車両の現在位置や進行軌跡の推定値と、対象物移動状態算出部27から入力される対象物の進行軌跡の推定値や相対位置や相対速度とに基づき、対象物が自車両の走行の支障となる度合、つまり危険度を算出する。例えば、危険度判定部28は、対象物の相対速度が増大することに伴い、危険度が増大傾向に変化するように設定する。
そして、危険度判定部28は、算出した危険度が所定危険度を超えているか否かを判定し、この判定結果を画像表示制御部31および切出画像表示制御部32へ出力する。
The degree-of-
Then, the
対象物方向算出部29は、対象物抽出部21にて抽出された対象物の画像データ内での位置に基づき、自車両から見た対象物の存在方向を算出し、切出画像表示制御部32へ出力する。
The target object
合成画像生成部30は、例えば画像表示制御部31に具備され、外界センサ12から入力される画像データに拡大画像取得部22から入力される対象物の拡大画像を合成して合成画像を生成する。
例えば、図4に示すように、外界センサ12から入力される自車両の進行方向前方の画像データPにおいて対象物として、自車両の走行路Rを横断しようとしている歩行者A1や、停車車両C1の陰から自車両の走行路R内へと侵入しようとしている歩行者A2や、建造物C2の陰から自車両の走行路R内へと侵入しようとしている他車両A3や、自車両の走行路Rの前方に配置された規制標識A4や、自車両の走行路Rの前方に配置された案内標識A5が抽出された場合、各対象物A1,…,A5の拡大画像B1,…,B5が画像データP内の適宜の位置、例えば走行路Rの認識に支障のない位置等に合成される。
The composite
For example, as shown in FIG. 4, a pedestrian A1 trying to cross the traveling path R of the own vehicle or a stopped vehicle C1 as an object in the image data P ahead of the traveling direction of the own vehicle input from the external sensor 12 A pedestrian A2 who is about to enter the travel path R of the own vehicle from behind the vehicle, another vehicle A3 who is about to enter the travel path R of the own vehicle from behind the building C2, and a travel path of the own vehicle When a regulation sign A4 arranged in front of R and a guide sign A5 arranged in front of the traveling path R of the host vehicle are extracted, enlarged images B1,..., B5 of the objects A1,. It is synthesized at an appropriate position in the image data P, for example, a position that does not hinder recognition of the traveling path R.
そして、画像表示制御部31は、少なくとも、視認難易度判定部25にて算出した視認性の難度が所定難度を超えていると判定された場合、または、危険度判定部28にて算出した危険度が所定危険度を超えていると判定された場合には、合成画像生成部30にて生成された合成画像を前方表示装置15または後方表示装置16へ出力する。一方、視認難易度判定部25にて算出した視認性の難度が所定難度以下であり、かつ、危険度判定部28にて算出した危険度が所定危険度以下であると判定された場合には、外界センサ12から入力される画像データのみを前方表示装置15または後方表示装置16へ出力する。
Then, the image
例えば、図4において、自車両に対して推定された進行軌跡αと、各対象物A1,A2,A3に対して推定された進行軌跡β1,β2,β3とが交差する場合には、各対象物A1,A2,A3に対して算出される危険度は所定危険度を超えることになり、また、例えば対象物A1のように、夜間走行時等において、対象物の周辺領域に対する照度や色彩のコントラストが低い場合、あるいは、対象物A2,A3のように、他の物体により遮られることで歩行者や他車両等の対象物の形状の一部のみが検知され、輪郭部のエッジ画像の形状の複雑度が増大する場合には、対象物A1,A2,A3に対して算出される視認性の難度は所定難度を超えることになり、画像データP内の適宜の位置に各対象物A1,A2,A3の拡大画像B1,B2,B3が合成された合成画像が前方表示装置15または後方表示装置16に表示される。
For example, in FIG. 4, when the travel trajectory α estimated for the host vehicle and the travel trajectories β1, β2, β3 estimated for the objects A1, A2, A3 intersect, The risk calculated for the objects A1, A2 and A3 exceeds a predetermined risk, and the illuminance and color of the surrounding area of the object during night driving, for example, the object A1, When the contrast is low, or by being blocked by other objects such as the objects A2 and A3, only a part of the shape of the object such as a pedestrian or another vehicle is detected, and the shape of the edge image of the contour portion The complexity of visibility calculated for the objects A1, A2, A3 exceeds the predetermined difficulty, and the objects A1, A1 are placed at appropriate positions in the image data P. Enlarged images B1, B2, B of A2, A3 There synthesized image synthesized is displayed on the
なお、例えば対象物A1のように周辺領域に対する照度や色彩のコントラストが低いことで視認性の難度が所定難度を超えていると判定された場合には、適宜の画像処理によって対象物A1の周辺領域に対する照度や色彩のコントラストが高くされた拡大画像B1が画像データPに合成されるようになっている。
また、例えば各対象物A1,A2,A3に対して算出される危険度が所定危険度を超えていると判定された場合には、各対象物A1,A2,A3の危険度に応じて各拡大画像B1,B2,B3の外周部D1,D2,D3の表示状態が変化するようになっており、例えば相対的に危険度が低い場合には各外周部D1,D2,D3の色が黄色に設定され、相対的に危険度が中程度の場合には各外周部D1,D2,D3の色が赤色に設定され、例えば相対的に危険度が高い場合には各外周部D1,D2,D3の色が赤色に設定されると共に所定周期で点滅するように設定される。
For example, when it is determined that the visibility difficulty exceeds a predetermined difficulty due to low illuminance and color contrast with respect to the surrounding area as in the object A1, the periphery of the object A1 is appropriately processed. An enlarged image B1 having a high illuminance and color contrast with respect to the region is combined with the image data P.
Further, for example, when it is determined that the risk calculated for each of the objects A1, A2, and A3 exceeds a predetermined risk, each of the objects A1, A2, and A3 is set according to the risk of each object. The display states of the outer peripheral portions D1, D2, and D3 of the enlarged images B1, B2, and B3 are changed. For example, when the danger level is relatively low, the colors of the outer peripheral portions D1, D2, and D3 are yellow. When the degree of danger is relatively medium, the color of each outer peripheral part D1, D2, D3 is set to red. For example, when the degree of danger is relatively high, each outer peripheral part D1, D2, The color of D3 is set to red and is set to blink at a predetermined cycle.
また、画像表示制御部31は、標識判定部24にて対象物抽出部21で抽出された対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であると判定された場合には、合成画像生成部30にて生成された合成画像を前方表示装置15または後方表示装置16へ出力し、自車両が道路標識の位置を通過した以後であっても、通過後の所定時間に亘って合成画像の出力を継続する。
例えば、図4において、自車両の走行路Rの進行方向前方の位置に規制標識の対象物A4と、案内標識の対象物A5とが検知された場合には、画像データP内の適宜の位置に各対象物A4,A5の拡大画像B4,B5が合成された合成画像が前方表示装置15または後方表示装置16に表示される。そして、この合成画像の表示は、自車両が各対象物A4,A5を通過した以後の所定時間に亘って継続される。
Further, the image
For example, in FIG. 4, when the target object A4 of the restriction sign and the target object A5 of the guide sign are detected at a position ahead of the traveling path R of the host vehicle, an appropriate position in the image data P is detected. A combined image obtained by combining the enlarged images B4 and B5 of the objects A4 and A5 is displayed on the
切出画像表示制御部32は、少なくとも、視認難易度判定部25にて算出した視認性の難度が所定難度を超えていると判定された場合、または、危険度判定部28にて算出した危険度が所定危険度を超えていると判定された場合には、対象物画像切出部23にて生成された切出画像を副表示装置17へ出力する。ここで、切出画像表示制御部32は、対象物方向算出部29にて算出された対象物の存在方向の情報と、方向センサ18から出力される運転者Dの頭部の向きに係る検出信号とに基づき、運転者Dから見た対象物の存在方向を算出し、この存在方向の情報を副表示装置17へ出力する。
The clipped image
例えば図4および図5に示すように、自車両に対して推定された進行軌跡αと、対象物A1に対して推定された進行軌跡β1とが交差する場合には、対象物A1に対して算出される危険度は所定危険度を超えることになり、また、例えば対象物A1のように、夜間走行時等において、対象物の周辺領域に対する照度や色彩のコントラストが低い場合には、対象物A1に対して算出される視認性の難度は所定難度を超えることになり、画像データPから切り出された対象物A1の切出画像E1が、運転者Dから見た対象物A1の存在方向を示す矢印画像F1と共に副表示装置17に表示される。
なお、例えば対象物A1のように周辺領域に対する照度や色彩のコントラストが低いことで視認性の難度が所定難度を超えていると判定された場合には、適宜の画像処理によって対象物A1の周辺領域に対する照度や色彩のコントラストが高くされた切出画像E1が副表示装置17へ出力されるようになっている。
For example, as shown in FIGS. 4 and 5, when the traveling locus α estimated for the host vehicle and the traveling locus β1 estimated for the object A1 intersect, The calculated risk level exceeds the predetermined risk level, and when the illuminance or color contrast with respect to the surrounding area of the target object is low, such as when the target object A1 is running at night, the target object The visibility difficulty calculated for A1 exceeds a predetermined difficulty, and the cut-out image E1 of the object A1 cut out from the image data P indicates the direction of presence of the object A1 as seen from the driver D. It is displayed on the
For example, when it is determined that the visibility difficulty exceeds a predetermined difficulty due to low illuminance and color contrast with respect to the surrounding area as in the object A1, the periphery of the object A1 is appropriately processed. A cutout image E <b> 1 with high illuminance and color contrast for the region is output to the
例えば図6に示すように、交差点を左折する自車両VのフロントピラーFPによって運転者の死角となる領域に、自車両Vが左折動作後に走行する走行路Rを横断する歩行者G1が存在する場合には、この歩行者G1に対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、前方表示装置15において、運転者から歩行者G1へと向かう視線方向H1と略同等の方向と交差する位置近傍に歩行者G1の画像J1が表示される。さらに、副表示装置17には、歩行者G1の切出画像K1と、運転者から見た歩行者G1の存在方向を示す矢印画像L1とが表示される。
この場合、例えば、歩行者G1は相対的に危険度が中程度であると判定されると、歩行者G1の画像J1の外周部の色が赤色に設定されると共に、歩行者G1の存在方向を示す矢印画像L1の色が赤色に設定される。
For example, as shown in FIG. 6, there is a pedestrian G1 that crosses a traveling path R on which the host vehicle V travels after a left turn in a region where the driver's blind spot is caused by the front pillar FP of the host vehicle V that turns left at an intersection. In this case, it is determined that the visibility difficulty calculated by the visual
In this case, for example, if it is determined that the pedestrian G1 has a relatively moderate risk, the color of the outer periphery of the image J1 of the pedestrian G1 is set to red, and the direction in which the pedestrian G1 exists Is set to red.
また、例えば図7に示すように、交差点に侵入する自車両VのフロントピラーFPによって運転者の死角となる領域に、この交差点に侵入する他車両VAが存在する場合には、この他車両VAに対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、前方表示装置15において、運転者から他車両VAへと向かう視線方向H2と略同等の方向と交差する位置近傍に他車両VAの画像J2が表示される。さらに、副表示装置17には、他車両VAの切出画像K2と、運転者から見た他車両VAの存在方向を示す矢印画像L2とが表示される。
この場合、他車両VAは、例えば自車両Vに対する相対速度の大きさ等に応じて危険度が判定され、例えば相対的に危険度が低い場合には他車両VAの画像J2の外周部の色および他車両VAの存在方向を示す矢印画像L2の色が黄色に設定され、相対的に危険度が中程度の場合には画像J2の外周部の色および矢印画像L2の色が赤色に設定され、例えば相対的に危険度が高い場合には画像J2の外周部の色および矢印画像L2の色が赤色に設定されると共に所定周期で点滅するように設定される。
For example, as shown in FIG. 7, when there is another vehicle VA that enters the intersection in the area where the driver's blind spot is caused by the front pillar FP of the host vehicle V that enters the intersection, the other vehicle VA On the other hand, it is determined that the visibility difficulty level calculated by the visibility difficulty
In this case, the danger level of the other vehicle VA is determined according to, for example, the magnitude of the relative speed with respect to the host vehicle V. For example, when the danger level is relatively low, the color of the outer peripheral portion of the image J2 of the other vehicle VA. And the color of the arrow image L2 indicating the direction in which the other vehicle VA exists is set to yellow, and when the degree of danger is relatively medium, the color of the outer periphery of the image J2 and the color of the arrow image L2 are set to red. For example, when the degree of risk is relatively high, the color of the outer peripheral portion of the image J2 and the color of the arrow image L2 are set to red and set to blink at a predetermined cycle.
また、例えば図8に示すように、片側複数車線の走行路において自車両Vが車線変更を実行する際、自車両Vが車線変更後に走行する車線を自車両Vよりも後方の位置で走行中の他車両VBが存在する場合には、この他車両VBに対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、後方表示装置16において、例えば後方表示装置16をルームミラーとして後方を見た場合に他車両VBが存在する位置近傍に他車両VBの画像J3が表示される。さらに、副表示装置17には、他車両VBの切出画像K3と、運転者から見た他車両VBの存在方向を示す矢印画像L3とが表示される。
この場合、他車両VBは、例えば自車両Vに対する相対速度の大きさ等に応じて危険度が判定され、例えば相対的に危険度が低い場合には他車両VBの画像J2の外周部の色および他車両VBの存在方向を示す矢印画像L3の色が黄色に設定される。
For example, as shown in FIG. 8, when the host vehicle V performs a lane change on a one-side multiple lane travel path, the host vehicle V is traveling in a lane behind the host vehicle V after the lane change. When the other vehicle VB exists, it is determined that the visibility difficulty calculated by the visibility
In this case, the danger level of the other vehicle VB is determined according to, for example, the magnitude of the relative speed with respect to the host vehicle V. For example, when the danger level is relatively low, the color of the outer periphery of the image J2 of the other vehicle VB. The color of the arrow image L3 indicating the direction in which the other vehicle VB is present is set to yellow.
本実施の形態による車両の認知支援装置10は上記構成を備えており、次に、この車両の認知支援装置10の動作、特に、副表示装置17に切出画像を表示する動作について説明する。
The vehicle
先ず、例えば図9に示すステップS01においては、外界センサ12の外界撮影カメラ12aにより撮影して得た撮影画像の画像データを取得する。
次に、ステップS02においては、取得した撮影画像の画像データを前方表示装置15または後方表示装置16に表示する。
次に、ステップS03においては、外界センサ12から入力される画像データに対して、例えば他車両や歩行者や標識等を検知対象物とした特徴量算出および形状判別等の認識処理を行い、自車両の外界に対象物が存在するか否かを判定する。
この判定結果が「NO」の場合には、一連の処理を終了する。
一方、この判定結果が「YES」の場合には、ステップS04に進む。
First, for example, in step S01 shown in FIG. 9, image data of a photographed image obtained by photographing with the
Next, in step S02, the acquired image data of the captured image is displayed on the
In step S03, the image data input from the
When the determination result is “NO”, the series of processes is terminated.
On the other hand, if this determination is “YES”, the flow proceeds to step S 04.
ステップS04においては、画像データから抽出した対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であるか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS11に進む。
一方、この判定結果が「YES」の場合には、ステップS05に進む。
そして、ステップS05においては、抽出された道路標識の画像を外界センサ12から入力される画像データから切り出して切出画像を取得する。
次に、ステップS06においては、切出画像を副表示装置17に表示する。
In step S04, it is determined whether or not the object extracted from the image data is a road sign composed of signs such as guidance, warning, regulation, instruction, and assistance.
If this determination is “NO”, the flow proceeds to step
On the other hand, if this determination is “YES”, the flow proceeds to step
In step S05, the extracted road sign image is cut out from the image data input from the
Next, in step S06, the cut image is displayed on the
次に、ステップS07においては、自車両と、対象物として抽出された道路標識との相対位置を算出する。
次に、ステップS08においては、自車両が道路標識の設置位置を通過したか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS06に戻る。
一方、この判定結果が「YES」の場合には、ステップS09に進む。
そして、ステップS09においては、所定時間に亘って切出画像を副表示装置17に継続して表示する。
そして、ステップS10においては、副表示装置17での切出画像の表示を終了し、一連の処理を終了する。
Next, in step S07, a relative position between the host vehicle and the road sign extracted as the object is calculated.
Next, in step S08, it is determined whether or not the host vehicle has passed the installation position of the road sign.
If this determination is “NO”, the flow returns to step S 06 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S 09.
In step S09, the cut image is continuously displayed on the
In step S10, the display of the cut image on the
また、ステップS11においては、抽出された道路標識以外の対象物(例えば、歩行者や他車両等)の画像を外界センサ12から入力される画像データから切り出して切出画像を取得する。
次に、ステップS12においては、対象物方向算出部29にて算出された自車両から見た対象物の存在方向の情報と、方向センサ18から出力される運転者の頭部の向きに係る検出信号とに基づき、運転者から見た対象物の存在方向を検知する。
次に、ステップS13においては、対象物の移動状態(例えば、自車両に対する相対速度や進行軌跡の推定値)を算出する。
次に、ステップS14においては、自車両の進行軌跡の推定値と、対象物の進行軌跡の推定値や相対速度とに基づき、対象物が自車両の走行の支障となる度合、つまり危険度を算出する。
次に、ステップS15においては、外界センサ12から入力される画像データにおいて、照度や色彩のコントラストを検知したり、抽出された対象物と対象物の周辺領域との間の輪郭部のエッジ画像の形状の複雑度を検知し、これらの検知結果に応じて視認性の難易度を算出する。
In step S11, an image of an object other than the extracted road sign (for example, a pedestrian or another vehicle) is cut out from the image data input from the
Next, in step S <b> 12, information on the direction of presence of the object viewed from the host vehicle calculated by the object
Next, in step S13, the movement state of the target object (for example, the relative speed with respect to the host vehicle or the estimated value of the traveling locus) is calculated.
Next, in step S14, based on the estimated value of the traveling locus of the host vehicle, the estimated value of the traveling locus of the target object, and the relative speed, the degree to which the target object hinders the traveling of the host vehicle, that is, the risk level is determined. calculate.
Next, in step S15, illuminance or color contrast is detected in the image data input from the
次に、ステップS16においては、算出した視認性の難度が所定難度を超えているか否か、または、算出した危険度が所定危険度を超えているか否かを判定する。
この判定結果が「YES」の場合には、ステップS17に進み、対象物の切出画像と、運転者から見た対象物の存在方向を示す矢印画像とを、副表示装置17に表示し、上述したステップS12に戻る。
一方、この判定結果が「NO」の場合には、ステップS18に進み、この時点で切出画像の表示状態であれば副表示装置17での切出画像および矢印画像の表示を停止し、一連の処理を終了する。
Next, in step S <b> 16, it is determined whether the calculated visibility difficulty level exceeds a predetermined difficulty level, or whether the calculated risk level exceeds a predetermined risk level.
If the determination result is “YES”, the process proceeds to step S17, where the cut-out image of the object and the arrow image indicating the direction of the object viewed from the driver are displayed on the
On the other hand, if this determination is “NO”, the flow proceeds to step
上述したように、本実施の形態による車両の認知支援装置10によれば、少なくとも、視認性の難度が所定値を超えた場合、または、危険度が所定値を超えた場合に、抽出された対象物の拡大画像を、外界センサ12から入力される画像データに合成して表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
さらに、外界センサ12から入力される画像データを表示する前方表示装置15および後方表示装置16に加えて副表示装置17を備え、少なくとも、視認性の難度が所定値を超えた場合、または、危険度が所定値を超えた場合に、抽出された対象物の切出画像を副表示装置17に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
As described above, according to the vehicle
Furthermore, in addition to the
さらに、抽出された対象物が道路標識である場合には、自車両が道路標識の位置を通過した以後であっても、通過後の所定時間に亘って、前方表示装置15または後方表示装置16での合成画像の表示および副表示装置17での切出画像の表示を継続することにより、道路標識に表示内容が複雑化している状態であっても、運転者が見間違えてしまうことを防止して、運転者による道路標識の認知動作を的確に支援することができる。
Further, when the extracted object is a road sign, the
しかも、副表示装置17を運転者の頭部に装着可能なヘッドセット19に備えたことにより、運転者の頭部の向きが変化する場合であっても、副表示装置17の表示内容を運転者に常に視認させることができる。
さらに、ヘッドセット19に運転者の頭部の向きを検知する方向センサ18を備え、対象物方向算出部29にて画像データに基づき算出される自車両から見た対象物の存在方向に、方向センサ18から出力される運転者の頭部の向きに係る検出信号を加味して、運転者から見た対象物の存在方向を算出し、この存在方向を示す矢印画像を、対象物の切出画像と共に副表示装置17に表示することにより、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。
In addition, by providing the
Furthermore, the
なお、上述した実施の形態においては、対象物センサ13の対象物撮影カメラ13aの撮影方向および撮影倍率を指示し、対象物撮影カメラ13aの焦点距離を変化させる光学ズームにより対象物の拡大画像を取得するとしたが、これに限定されず、例えば対象物センサ13を省略し、外界センサ12から入力される画像データのうち、対象物を含む画像領域を画像処理により補完拡大するデジタルズームにより対象物の拡大画像を取得してもよい。
In the above-described embodiment, an enlarged image of the object is obtained by optical zoom that instructs the shooting direction and magnification of the
なお、上述した実施の形態において、危険度判定部28は、算出した危険度が所定危険度を超えているか否かを判定するとしたが、これに限定されず、例えば図10に示すように、相対速度の増大に伴い、低下傾向に変化する判定閾値を設定し、算出した危険度が相対速度に応じた判定閾値を超えているか否かを判定してもよい。
In the embodiment described above, the
10 車両の認知支援装置
12a 外界撮影カメラ(撮影手段)
15 前方表示装置(表示装置)
16 後方表示装置(表示装置)
17 副表示装置
18 方向センサ(方向検知手段)
21 対象物抽出部(対象物抽出手段)
22 拡大画像取得部(拡大画像取得手段)
23 対象物画像切出部(画像切出手段)
28 危険度判定部(危険度判定手段)
29 対象物方向算出部(方向検知手段)
32 切出画像表示制御部(方向検知手段)
10. Vehicle
15 Front display device (display device)
16 Rear display device (display device)
17
21. Object extraction unit (object extraction means)
22 Enlarged image acquisition unit (enlarged image acquisition means)
23 Object image cutout part (image cutout means)
28 Risk determination unit (Danger determination means)
29 Object direction calculation unit (direction detection means)
32 Cutout image display control unit (direction detection means)
Claims (4)
前記撮影手段の撮影により得られる撮影画像を前記表示装置に表示する車両の認知支援装置であって、
前記撮影手段の撮影により得られる撮影画像から対象物を抽出する対象物抽出手段と、
前記対象物抽出手段にて抽出された対象物の画像を前記撮影画像から切り出す画像切出手段と、
前記対象物の自車両に対する危険度を判定する危険度判定手段と、
前記表示装置とは異なる位置に設けられた副表示装置とを備え、
前記危険度判定手段にて判定された危険度が、予め設定した所定値を超えた場合に前記画像切出手段にて切り出した対象物の画像を前記副表示装置に表示することを特徴とする車両の認知支援装置。 Photographing means for photographing the outside of the host vehicle, a display device provided inside the host vehicle,
A vehicle recognition support device for displaying a photographed image obtained by photographing by the photographing means on the display device,
An object extraction means for extracting an object from a photographed image obtained by photographing by the photographing means;
Image cutout means for cutting out the image of the object extracted by the object extraction means from the captured image;
A risk determination means for determining a risk of the object with respect to the host vehicle;
A sub-display device provided at a position different from the display device,
When the risk determined by the risk determination means exceeds a predetermined value set in advance, an image of the object cut out by the image cut-out means is displayed on the sub display device. Vehicle recognition support device.
前記画像切出手段にて切り出した対象物の画像と共に、前記方向検知手段にて検知した方向を、前記副表示装置に表示することを特徴とする請求項1に記載の車両の認知支援装置。 Provided with direction detecting means for detecting the direction in which the object exists,
The vehicle recognition support device according to claim 1, wherein a direction detected by the direction detection unit is displayed on the sub display device together with an image of the object cut out by the image cutout unit.
The vehicle recognition support device according to claim 1, further comprising an enlarged image acquisition unit capable of enlarging the object and enlarging an image of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004221787A JP2006040123A (en) | 2004-07-29 | 2004-07-29 | Recognition support device for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004221787A JP2006040123A (en) | 2004-07-29 | 2004-07-29 | Recognition support device for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006040123A true JP2006040123A (en) | 2006-02-09 |
Family
ID=35905022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004221787A Withdrawn JP2006040123A (en) | 2004-07-29 | 2004-07-29 | Recognition support device for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006040123A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206689A (en) * | 2008-02-27 | 2009-09-10 | Nissan Motor Co Ltd | Vehicle display device and vehicle display method |
JP2012069154A (en) * | 2011-12-08 | 2012-04-05 | Fujitsu Ten Ltd | Obstacle monitoring device |
DE102013020950A1 (en) * | 2013-12-12 | 2015-06-18 | Connaught Electronics Ltd. | Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle |
JP2016010255A (en) * | 2014-06-25 | 2016-01-18 | 三菱電機株式会社 | Information display device |
WO2017145645A1 (en) * | 2016-02-25 | 2017-08-31 | 富士フイルム株式会社 | Driving assistance apparatus, driving assistance method, and driving assistance program |
DE102017217852A1 (en) * | 2017-10-06 | 2019-04-11 | Bayerische Motoren Werke Aktiengesellschaft | Optical-acoustic assistance when turning |
DE102018203752A1 (en) * | 2018-03-13 | 2019-09-19 | Robert Bosch Gmbh | Method and device for detecting a wrong-way driver for a vehicle |
JP2020161988A (en) * | 2019-03-27 | 2020-10-01 | 日産自動車株式会社 | Information processing device and information processing method |
CN114954243A (en) * | 2022-03-25 | 2022-08-30 | Oppo广东移动通信有限公司 | Rearview mirror visual field expanding method and related device |
-
2004
- 2004-07-29 JP JP2004221787A patent/JP2006040123A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206689A (en) * | 2008-02-27 | 2009-09-10 | Nissan Motor Co Ltd | Vehicle display device and vehicle display method |
JP2012069154A (en) * | 2011-12-08 | 2012-04-05 | Fujitsu Ten Ltd | Obstacle monitoring device |
DE102013020950A1 (en) * | 2013-12-12 | 2015-06-18 | Connaught Electronics Ltd. | Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle |
DE102013020950B4 (en) | 2013-12-12 | 2023-11-23 | Connaught Electronics Ltd. | Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle |
JP2016010255A (en) * | 2014-06-25 | 2016-01-18 | 三菱電機株式会社 | Information display device |
JPWO2017145645A1 (en) * | 2016-02-25 | 2018-12-27 | 富士フイルム株式会社 | Driving support device, driving support method, and driving support program |
JP6410987B2 (en) * | 2016-02-25 | 2018-10-24 | 富士フイルム株式会社 | Driving support device, driving support method, and driving support program |
US20180359429A1 (en) * | 2016-02-25 | 2018-12-13 | Fujifilm Corporation | Driving assistance device, driving assistance method, and driving assistance program |
CN108701415A (en) * | 2016-02-25 | 2018-10-23 | 富士胶片株式会社 | Drive assistance device, driving assistance method and driving auxiliary program |
US11025836B2 (en) | 2016-02-25 | 2021-06-01 | Fujifilm Corporation | Driving assistance device, driving assistance method, and driving assistance program |
WO2017145645A1 (en) * | 2016-02-25 | 2017-08-31 | 富士フイルム株式会社 | Driving assistance apparatus, driving assistance method, and driving assistance program |
DE102017217852A1 (en) * | 2017-10-06 | 2019-04-11 | Bayerische Motoren Werke Aktiengesellschaft | Optical-acoustic assistance when turning |
DE102018203752A1 (en) * | 2018-03-13 | 2019-09-19 | Robert Bosch Gmbh | Method and device for detecting a wrong-way driver for a vehicle |
JP2020161988A (en) * | 2019-03-27 | 2020-10-01 | 日産自動車株式会社 | Information processing device and information processing method |
JP7278829B2 (en) | 2019-03-27 | 2023-05-22 | 日産自動車株式会社 | Information processing device and information processing method |
CN114954243A (en) * | 2022-03-25 | 2022-08-30 | Oppo广东移动通信有限公司 | Rearview mirror visual field expanding method and related device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4401890B2 (en) | Vehicle recognition support device | |
US8461976B2 (en) | On-vehicle device and recognition support system | |
JP4749958B2 (en) | Driving assistance device | |
US10564434B2 (en) | Display control device for vehicle | |
US10269331B2 (en) | Display control device for vehicle | |
EP2487906B1 (en) | Control device and vehicle surrounding monitoring device | |
CN107848416B (en) | Display control device, display device, and display control method | |
EP2369552B1 (en) | Approaching object detection system | |
JP4855158B2 (en) | Driving assistance device | |
US8174375B2 (en) | Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices | |
US9505346B1 (en) | System and method for warning a driver of pedestrians and other obstacles | |
US9514650B2 (en) | System and method for warning a driver of pedestrians and other obstacles when turning | |
US11987239B2 (en) | Driving assistance device | |
US20080198226A1 (en) | Image Processing Device | |
JP4719590B2 (en) | In-vehicle peripheral status presentation device | |
JP6379779B2 (en) | Vehicle display device | |
US11074818B2 (en) | Drive assist device and drive assist method | |
JPWO2015037117A1 (en) | Information display system and information display device | |
JP2000259998A (en) | Back monitoring device for vehicle | |
JP5888339B2 (en) | Display control device | |
JP2017536621A (en) | Method for operating driver assistance system for motor vehicle, driver assistance system, and motor vehicle | |
JP2008222153A (en) | Merging support device | |
JP6448714B2 (en) | Information display system | |
JP2009122825A (en) | Traveling state determination device | |
JP2006040123A (en) | Recognition support device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071002 |