JP5825713B2 - Dangerous scene reproduction device for vehicles - Google Patents
Dangerous scene reproduction device for vehicles Download PDFInfo
- Publication number
- JP5825713B2 JP5825713B2 JP2011201587A JP2011201587A JP5825713B2 JP 5825713 B2 JP5825713 B2 JP 5825713B2 JP 2011201587 A JP2011201587 A JP 2011201587A JP 2011201587 A JP2011201587 A JP 2011201587A JP 5825713 B2 JP5825713 B2 JP 5825713B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- image
- video
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、車両に設置され、車両の走行中に、歩行者の飛び出しや先行車の急減速等の仮想的な危険な場面を再現する車両用危険場面再現装置に関する。 The present invention relates to a vehicle dangerous scene reproduction device that is installed in a vehicle and reproduces a virtual dangerous scene such as a pedestrian jumping out or a sudden deceleration of a preceding vehicle while the vehicle is running.
車両走行中に危険な場面に遭遇した際の運転者の行動を取得し、それを分析することは、交通事故の発生原因を解明する上で、重要かつ効果的な手法である。 Obtaining and analyzing the behavior of the driver when encountering a dangerous scene while driving a vehicle is an important and effective technique for elucidating the cause of a traffic accident.
そのため、車両走行中に危険な場面を再現する手法として、近年、ドライビングシミュレータがよく利用されている(特許文献1)。 Therefore, in recent years, a driving simulator is often used as a method for reproducing a dangerous scene while the vehicle is traveling (Patent Document 1).
しかしながら、特許文献1に開示されたドライビングシミュレータでは、仮想的に作成した道路環境を走行するため、運転者によっては、「現実ではない」という意識が働く場合がある。そして、現実感欠如は運転者の慢心感を増大させ、危険な場面に遭遇した際の運転者の行動を正しく評価することができなくなってしまうという問題が生じる。 However, since the driving simulator disclosed in Patent Document 1 travels in a virtually created road environment, some drivers may be aware that it is not real. In addition, lack of reality increases the driver's sense of pride and causes a problem that it becomes impossible to correctly evaluate the driver's behavior when encountering a dangerous scene.
本発明は上記事情に鑑みなされたもので、車両走行中に、高い現実感をもって、運転者に対して仮想的な危険場面を再現することができる車両用危険場面再現装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a vehicular danger scene reproduction device that can reproduce a virtual danger scene for a driver with a high sense of reality while the vehicle is running. And
特に、本願発明は、実際に走行する車両を用いて、車両の走行位置や進行方向によらずに、運転者に対して現実感の高い仮想的な危険場面を再現することができる車両用危険場面再現装置を提供するものである。 In particular, the present invention relates to a vehicle danger that can reproduce a realistic virtual danger scene for a driver using a vehicle that actually travels, regardless of the travel position or traveling direction of the vehicle. A scene reproduction device is provided.
本発明に係る車両用危険場面再現装置は、実際に走行する車両において、運転者の直接視界を遮る位置に置かれた映像表示部に、仮想的な危険場面を構成する静止画像や動画像がスーパーインポーズ(以下、重畳と呼ぶ)された車両進行方向の映像を表示して、車両走行中に、運転者に対して仮想的な危険場面を再現するものである。 The vehicular danger scene reproduction device according to the present invention includes a still image or a moving image that constitutes a virtual danger scene on a video display unit placed at a position that obstructs a driver's direct field of view in an actually traveling vehicle. An image of the vehicle traveling direction superimposed (hereinafter referred to as superimposition) is displayed to reproduce a virtual danger scene for the driver while the vehicle is traveling.
すなわち、本発明に係る車両用危険場面再現装置は、車両の進行方向に向けて設置され、車両の進行方向の映像を撮影する映像撮影部と、車両の位置と進行方向とを算出する車両位置、進行方向算出部と、車両の挙動を算出する車両挙動算出部と、映像に重畳する仮想物体を表す画像を、予め記憶しておく画像情報記憶部と、映像の中の、車両位置、進行方向算出部で算出された車両の位置と進行方向と、車両挙動算出部で算出された車両の挙動とに基づいて算出された位置に、画像を重畳する重畳映像作成部と、車両位置、進行方向算出部で算出された車両の位置と進行方向と、車両挙動算出部で算出された車両の挙動とに基づいて、重畳映像作成部に対して、画像の重畳を行うことを指示する重畳タイミング算出部と、車両の運転者の直接視界を遮るように配置され、重畳映像作成部で作成された映像を、略リアルタイムで表示する映像表示部と、を備えることを特徴とする。 That is, the vehicular danger scene reproduction device according to the present invention is installed in the traveling direction of the vehicle, and an image capturing unit that captures an image of the traveling direction of the vehicle, and a vehicle position that calculates the position and the traveling direction of the vehicle. A traveling direction calculation unit, a vehicle behavior calculation unit that calculates the behavior of the vehicle, an image information storage unit that stores in advance an image representing a virtual object to be superimposed on the video, and the vehicle position and travel in the video A superimposed video creation unit that superimposes an image on a position calculated based on the position and traveling direction of the vehicle calculated by the direction calculating unit and the behavior of the vehicle calculated by the vehicle behavior calculating unit, the vehicle position, and the traveling the position and the traveling direction of the vehicle calculated by the direction calculation unit, based on the behavior of the vehicle calculated by the vehicle behavior calculation unit, with respect to superimposed image creation unit, an instruction to perform the superimposition of the image superimposing timing The calculation unit and the driver of the vehicle It is arranged so as to block the view, an image created by superimposing image generator, to an image display unit for displaying substantially real time, comprising: a.
このように構成された本発明に係る車両用危険場面再現装置によれば、映像撮影部が、車両前方の映像を撮影し、車両位置、進行方向算出部と車両挙動算出部が算出した車両の位置と進行方向に基づいて、重畳タイミング算出部が算出したタイミングで、画像情報記憶部に予め記憶された仮想物体を表す画像が、重畳映像作成部において、映像撮影部が撮影した映像の中の、車両位置、進行方向算出部で算出された車両の位置と進行方向と、車両挙動算出部で算出された車両の挙動と、に応じた位置に重畳されて仮想的な危険場面が作成され、こうして作成された映像が、運転者の直接視界を遮る位置に置かれた映像表示部に略リアルタイムで表示されて、走行中の運転者に提示されるため、車両走行中に、車両の走行位置や進行方向によらずに、現実感の高い仮想的な危険場面を再現することができる。 According to the vehicular danger scene reproduction device according to the present invention configured as described above, the image capturing unit captures the image in front of the vehicle, and the vehicle position, the traveling direction calculating unit, and the vehicle behavior calculating unit calculate the vehicle. An image representing a virtual object stored in advance in the image information storage unit at the timing calculated by the superimposition timing calculation unit based on the position and the traveling direction is included in the video captured by the video imaging unit in the superimposed video creation unit. , vehicle position, and the position and traveling direction of the vehicle calculated by the moving direction calculation unit, and the behavior of the vehicle calculated, virtual hazardous situations are superimposed at a position corresponding to that created in the vehicle behavior calculation unit, Since the image created in this way is displayed in a substantially real-time on the image display unit placed at a position that obstructs the driver's direct field of view and presented to the driving driver, the driving position of the vehicle Or depending on the direction of travel In, it is possible to reproduce the high realistic virtual dangerous scene.
本発明に係る車両用危険場面再現装置によれば、運転者の直接視界を遮る位置に置かれた映像表示部に、車両の走行位置や進行方向に応じた位置に仮想物体を表す静止画像や動画像が重畳された、車両進行方向の映像を表示する構成としたため、車両走行中に、運転者に対して、仮想的な危険場面を高い現実感をもって再現することができる。 According to the danger scene reproduction device for a vehicle according to the present invention, a still image representing a virtual object at a position corresponding to the traveling position or traveling direction of the vehicle on the video display unit placed at a position that obstructs the driver's direct view. Since it is configured to display a video in the vehicle traveling direction on which a moving image is superimposed, a virtual danger scene can be reproduced with high realism to the driver while the vehicle is traveling.
以下、本発明に係る車両用危険場面再現装置の実施形態について、図面を参照して説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a vehicular dangerous scene reproduction device according to the present invention will be described with reference to the drawings.
本実施例は、本発明を、運転者の直接視界を遮る位置に置かれた映像表示部に、進行方向前方の映像に仮想物体を表す静止画像や動画像を重畳して表示することにより、車両走行中に、運転者に対して、仮想的な危険場面を高い現実感をもって再現することができる、車両用危険場面再現装置に適用したものである。 In this embodiment, the present invention is displayed by superimposing a still image or a moving image representing a virtual object on a video in front of the traveling direction on a video display unit placed at a position that blocks the driver's direct view. The present invention is applied to a vehicular danger scene reproduction device that can reproduce a virtual danger scene with high realism for a driver while the vehicle is traveling.
本実施例に係る車両用危険場面再現装置1は、図1に示す通り、車両10に設置され、進行方向を撮影する映像撮影部100と、予め作成された、歩行者や車両等の仮想物体を表す画像を、静止画像や動画像として記憶しておく画像情報記憶部130と、画像情報記憶部130に記憶された画像情報を、映像撮影部100によって撮影された映像に重畳する重畳映像作成部120と、道路に設置した基準マーカ142を映像撮影部100で撮影した結果に基づいて、車両10の位置と進行方向を算出する車両位置、進行方向算出部150と、車速センサ192とヨーレートセンサ193で算出した車速と角速度に基づいて、車両10の挙動を算出する車両挙動算出部160と、重畳映像作成部120にて重畳を開始するタイミングを算出する重畳タイミング算出部140と、重畳映像作成部120にて静止画像や動画像が重畳された映像を表示する映像表示部110と、車両の挙動を記録する車両情報記録部190と、運転者の挙動を記録する運転者情報記録部200と、運転者のホーン吹鳴操作を検出する操作検出部210と、ホーンスイッチ220と、車両10の進行方向前方に、車両10の進行方向と直交する方向の道路に設けられた、歩行者用信号機の作動状態を検出する交通環境検出部230と、からなる。 As shown in FIG. 1, a vehicular danger scene reproduction device 1 according to the present embodiment is installed in a vehicle 10, and an image photographing unit 100 that photographs a traveling direction, and a virtual object such as a pedestrian or a vehicle created in advance. An image information storage unit 130 that stores an image representing the image as a still image or a moving image, and a superimposed video creation that superimposes the image information stored in the image information storage unit 130 on the video captured by the video imaging unit 100 Unit 120, vehicle position for calculating the position and traveling direction of the vehicle 10 based on the result of photographing the reference marker 142 installed on the road by the video photographing unit 100, the traveling direction calculating unit 150, the vehicle speed sensor 192, and the yaw rate sensor Based on the vehicle speed and the angular velocity calculated in 193, the vehicle behavior calculation unit 160 that calculates the behavior of the vehicle 10 and the superimposed video creation unit 120 calculate the timing for starting the superimposition. The tatami mat timing calculation unit 140, the video display unit 110 that displays a video on which still images and moving images are superimposed by the superimposed video creation unit 120, the vehicle information recording unit 190 that records the behavior of the vehicle, and the driver's behavior A driver information recording unit 200 for recording the vehicle, an operation detection unit 210 for detecting a driver's horn sounding operation, a horn switch 220, and a road in a direction perpendicular to the traveling direction of the vehicle 10 in front of the traveling direction of the vehicle 10. And a traffic environment detection unit 230 that detects the operating state of the traffic light for pedestrians.
なお、映像撮影部100は、詳しくは、第1映像撮影部102と第2映像撮影部104と第3映像撮影部106からなり、具体的には3台のビデオカメラから構成される。 In detail, the video shooting unit 100 includes a first video shooting unit 102, a second video shooting unit 104, and a third video shooting unit 106, and specifically includes three video cameras.
また、映像表示部110は、詳しくは、第1映像表示部112と第2映像表示部114と第3映像表示部116からなり、具体的には3台の長方形状の液晶モニタから構成される。 The video display unit 110 includes a first video display unit 112, a second video display unit 114, and a third video display unit 116, and specifically includes three rectangular liquid crystal monitors. .
そして、重畳映像作成部120は、詳しくは、車両位置、進行方向算出部150と車両挙動算出部160で算出された車両状態に基づいて、静止画像や動画像を重畳する位置を算出する重畳位置算出部122と、静止画像や動画像の重畳サイズを算出する重畳サイズ算出部124と、静止画像や動画像を重畳する方向を算出する重畳方向算出部126と、実際に重畳を行う重畳処理部128とから構成される。 In detail, the superimposed image creating unit 120 calculates the position where the still image or the moving image is superimposed based on the vehicle position and the vehicle state calculated by the traveling direction calculating unit 150 and the vehicle behavior calculating unit 160 in detail. A calculating unit 122; a superimposing size calculating unit 124 that calculates a superimposing size of a still image or a moving image; a superimposing direction calculating unit 126 that calculates a direction in which the still image or moving image is superimposed; and a superimposing processing unit that actually performs superimposing. 128.
さらに、重畳タイミング算出部140は、詳しくは、車両10が走行する道路の路肩の所定位置に設置された、複数の基準マーカ142と、映像撮影部100で撮影された道路前方の映像の中から基準マーカ142の位置を抽出する基準マーカ抽出部144と、基準マーカ142の抽出結果に基づいて、映像撮影部100によって撮影された映像に、画像情報記憶部130に記憶された仮想物体を表す静止画像や動画像の重畳を開始するトリガ信号を、重畳映像作成部120に対して、出力するトリガ信号生成部146とからなる。 Further, the superimposition timing calculation unit 140 is more specifically selected from among a plurality of reference markers 142 installed at predetermined positions on the shoulders of the road on which the vehicle 10 travels, and images in front of the road captured by the image capturing unit 100. A reference marker extraction unit 144 that extracts the position of the reference marker 142, and a still image that represents a virtual object stored in the image information storage unit 130 in a video imaged by the video imaging unit 100 based on the extraction result of the reference marker 142 The trigger signal generation unit 146 outputs a trigger signal for starting superimposition of an image or a moving image to the superimposed video creation unit 120.
また、車両情報記録部190は、詳しくは、車両10の車速を測定する車速センサ192と、車両10の角速度を測定するヨーレートセンサ193と、車両10のピッチ角を測定するピッチ角センサ194と、車両10のロール角を測定するロール角センサ195と、アクセル開度を検出するアクセル開度センサ196と、ブレーキ踏力を検出するブレーキ踏力センサ197と、これらのセンサで検出した値を取得して記録する車両情報取得部191とからなる。 The vehicle information recording unit 190 includes a vehicle speed sensor 192 that measures the vehicle speed of the vehicle 10, a yaw rate sensor 193 that measures the angular velocity of the vehicle 10, a pitch angle sensor 194 that measures the pitch angle of the vehicle 10, A roll angle sensor 195 that measures the roll angle of the vehicle 10, an accelerator opening sensor 196 that detects the accelerator opening, a brake pedal force sensor 197 that detects the brake pedal force, and the values detected by these sensors are acquired and recorded. Vehicle information acquisition unit 191.
そして、運転者情報記録部200は、詳しくは、運転者の顔の画像を撮影する運転者顔撮影カメラ202と、アクセルやブレーキを操作している運転者の足元を撮影する運転者足元撮影カメラ203と、運転者の視線方向を計測する運転者視線計測センサ204と、これらのカメラやセンサで得られたデータを取得して記録する運転者情報取得部201とからなる。 In detail, the driver information recording unit 200 includes a driver face photographing camera 202 that photographs an image of the driver's face, and a driver foot photographing camera that photographs a driver's feet operating the accelerator and the brake. 203, a driver gaze measurement sensor 204 that measures the driver's gaze direction, and a driver information acquisition unit 201 that acquires and records data obtained by these cameras and sensors.
ここで、第1映像撮影部102、第2映像撮影部104、第3映像撮影部106、第1映像表示部112、第2映像表示部114、第3映像表示部116は、それぞれ、図2(1)、(2)に示すように車両10のボンネット上に設置されている。 Here, the first video shooting unit 102, the second video shooting unit 104, the third video shooting unit 106, the first video display unit 112, the second video display unit 114, and the third video display unit 116 are respectively shown in FIG. (1) As shown in (2), it is installed on the hood of the vehicle 10.
具体的には、第1映像撮影部102、第2映像撮影部104、第3映像撮影部106は、車両10のボンネット上に、第1映像撮影部102と第2映像撮影部104と第3映像撮影部106の光軸が、各々の撮影範囲が重ならないように、水平方向に所定の角度θをなして配置される。撮影範囲が重ならないようにするのは、第1映像撮影部102、第2映像撮影部104、第3映像撮影部106で撮影した映像を、第1映像表示部112、第2映像表示部114、第3映像表示部116に表示する際、同じ領域が重複して表示されるのを防ぐためである。 Specifically, the first video shooting unit 102, the second video shooting unit 104, and the third video shooting unit 106 are arranged on the hood of the vehicle 10 with the first video shooting unit 102, the second video shooting unit 104, and the third video shooting unit 104. The optical axes of the video photographing unit 106 are arranged at a predetermined angle θ in the horizontal direction so that the respective photographing ranges do not overlap. In order to prevent the shooting ranges from overlapping, the images shot by the first video shooting unit 102, the second video shooting unit 104, and the third video shooting unit 106 are the first video display unit 112 and the second video display unit 114. This is to prevent the same area from being displayed repeatedly when displayed on the third video display unit 116.
なお、第1映像撮影部102、第2映像撮影部104、第3映像撮影部106の撮影範囲が重ならないように配置するのが困難な場合は、実際に撮影した映像を第1映像表示部112、第2映像表示部114、第3映像表示部116に表示して、表示された映像を目視確認しながら、違和感が生じないように、第1映像撮影部102、第2映像撮影部104、第3映像表示部116の設置位置を調整すればよい。 In addition, when it is difficult to arrange the shooting ranges of the first video shooting unit 102, the second video shooting unit 104, and the third video shooting unit 106 so as not to overlap, the actually shot video is displayed as the first video display unit. 112, the second video display unit 114, the third video display unit 116, and the first video shooting unit 102 and the second video shooting unit 104 so as not to cause a sense of incongruity while visually confirming the displayed video. The installation position of the third video display unit 116 may be adjusted.
もしくは、撮影視野が互いに重複した複数の映像を合成して、パノラマ映像を生成する画像処理を行うことによって、重複のない映像を生成し、これを第1映像表示部112、第2映像表示部114、第3映像表示部116に表示してもよい。 Alternatively, a plurality of videos whose shooting fields of view overlap each other are combined to generate panoramic videos, thereby generating non-overlapping videos, which are displayed as the first video display unit 112 and the second video display unit. 114 may be displayed on the third video display unit 116.
また、第1映像表示部112、第2映像表示部114、第3映像表示部116は、車両10のボンネット上に、第1映像表示部112の短辺(縦辺)と第2映像表示部114の短辺(縦辺)が略接し、第2映像表示部114の短辺(縦辺)と第3映像表示部116の短辺(縦辺)が略接するように配置されている。そして、各々の映像表示面が、地面に対して略鉛直になるように設置されている。 The first video display unit 112, the second video display unit 114, and the third video display unit 116 are arranged on the hood of the vehicle 10 with the short side (vertical side) of the first video display unit 112 and the second video display unit. The short side (vertical side) of 114 is substantially in contact, and the short side (vertical side) of the second video display unit 114 and the short side (vertical side) of the third video display unit 116 are substantially in contact. Each video display surface is installed so as to be substantially vertical to the ground.
さらに、第2映像表示部114の映像表示面は、走行中に前方を注視した運転者に略正対するように設置され、第1映像表示部112の長辺(横辺)と第2映像表示部114の長辺(横辺)、および、第2映像表示部114の長辺(横辺)と第3映像表示部116の長辺(横辺)とは、それぞれ所定の角度θをなすように設置されている。 Furthermore, the video display surface of the second video display unit 114 is installed so as to face the driver who has watched the front while traveling, and the long side (horizontal side) of the first video display unit 112 and the second video display. The long side (horizontal side) of the unit 114, the long side (horizontal side) of the second video display unit 114, and the long side (horizontal side) of the third video display unit 116 each form a predetermined angle θ. Is installed.
ここで、第1映像表示部112の長辺と第2映像表示部114の長辺とがなす角度θは、第1映像撮影部102と第2映像撮影部104の光軸がなす角度θと略等しく、また、第2映像表示部114の長辺と第3映像表示部116の長辺とがなす角度θは、第2映像撮影部104と第3映像撮影部106の光軸がなす角度θと略等しいことが望ましい。 Here, the angle θ formed by the long side of the first video display unit 112 and the long side of the second video display unit 114 is the angle θ formed by the optical axes of the first video shooting unit 102 and the second video shooting unit 104. The angle θ formed between the long side of the second video display unit 114 and the long side of the third video display unit 116 is an angle formed by the optical axes of the second video shooting unit 104 and the third video shooting unit 106. It is desirable to be approximately equal to θ.
ただし、車両10のボンネットのスペース不足やボンネットの形状等の制約によって、映像表示部110の設置スペースが不足している場合には、第1映像表示部112の長辺と第2映像表示部114の長辺とがなす角度、および、第2映像表示部114の長辺と第3映像表示部116の長辺とがなす角度をθに設定できない場合もある。このような場合は、第1映像表示部112、第2映像表示部114、第3映像表示部116に表示される映像を確認しながら、違和感が生じないよう、適切な角度をなして、第1映像表示部112、第2映像表示部114、第3映像表示部116を配置すればよい。 However, when the installation space of the video display unit 110 is insufficient due to a lack of space in the hood of the vehicle 10 or the shape of the hood, the long side of the first video display unit 112 and the second video display unit 114 In some cases, the angle between the long side and the long side of the second video display unit 114 and the long side of the third video display unit 116 cannot be set to θ. In such a case, while confirming the images displayed on the first image display unit 112, the second image display unit 114, and the third image display unit 116, at an appropriate angle so as not to cause a sense of incongruity, The one video display unit 112, the second video display unit 114, and the third video display unit 116 may be arranged.
なお、第1映像表示部112、第2映像表示部114、第3映像表示部116は、運転者から見て、視野角が左右各55°以上の範囲を表示するように設置するのが望ましい。これは、運転者の左右の視線の動きが大きくなる右左折時であっても、運転者の視線の方向に、映像撮影部100で撮影した映像が表示されるようにするためである。 The first video display unit 112, the second video display unit 114, and the third video display unit 116 are preferably installed so as to display a range of viewing angles of 55 ° or more on the left and right sides as viewed from the driver. . This is because the video imaged by the video imaging unit 100 is displayed in the direction of the driver's line of sight even during a right or left turn when the driver's left and right line of sight moves greatly.
運転者は、このようにして配置された第1映像撮影部102、第2映像撮影部104、第3映像撮影部106によって撮影され、略リアルタイムで第1映像表示部112、第2映像表示部114、第3映像表示部116に表示される映像を見ながら、車両10を実際に走行させることができる。 The driver is photographed by the first video photographing unit 102, the second video photographing unit 104, and the third video photographing unit 106 arranged in this manner, and the first video display unit 112 and the second video display unit are provided in substantially real time. 114, the vehicle 10 can actually be run while watching the video displayed on the third video display unit 116.
次に、本実施例に係る車両用危険場面再現装置1の作用について、図9のフローチャートと図3〜8に基づいて説明する。本実施例に係る車両用危険場面再現装置1は、図8に示すように、交差点の手前にある壁801の影から、歩行者803や移動車両804が現れる場面を再現する装置に、本発明を適用したものである。 Next, the operation of the vehicular dangerous scene reproduction device 1 according to the present embodiment will be described based on the flowchart of FIG. 9 and FIGS. As shown in FIG. 8, the vehicular danger scene reproduction device 1 according to the present embodiment is an apparatus that reproduces a scene in which a pedestrian 803 and a moving vehicle 804 appear from the shadow of a wall 801 in front of an intersection. Is applied.
車両10は、予め用意されたテストコースを走行しているものとする。このテストコースは、他の交通の流れが制限されており、安全な状態で、以下に説明するように仮想的な危険場面を再現することができる。 It is assumed that the vehicle 10 is traveling on a test course prepared in advance. In this test course, the flow of other traffic is restricted, and a virtual danger scene can be reproduced as described below in a safe state.
まず、第1映像撮影部102と第2映像撮影部104と第3映像撮影部106が、車両10の前方の映像を同時に撮影する(図9のステップS1)。 First, the first image capturing unit 102, the second image capturing unit 104, and the third image capturing unit 106 simultaneously capture images in front of the vehicle 10 (step S1 in FIG. 9).
仮想的な危険場面の再現は、テストコースの所定の地点で行われる。所定の地点で確実に仮想的な危険場面を再現するため、図3に示す図柄の基準マーカ142を、図4に示すように、道路の複数の所定位置(M1〜M6)に設置し、第1映像撮影部102と第2映像撮影部104と第3映像撮影部106で撮影された映像の中から、基準マーカ抽出部144において、少なくとも2個の基準マーカ142を抽出して(図9のステップS2、S3)、2個の基準マーカ142が抽出されたとき(図9のステップS4がYESのとき)には、抽出された基準マーカ142の種類と、映像の中の基準マーカ142のサイズ(横辺長)と中心座標とから、車両位置、進行方向算出部150にて、車両の道路上での位置と進行方向とを算出する(図9のステップS7、S9)。 The reproduction of the virtual danger scene is performed at a predetermined point on the test course. In order to reliably reproduce a virtual danger scene at a predetermined point, as shown in FIG. 4, the reference markers 142 having the symbols shown in FIG. 3 are installed at a plurality of predetermined positions (M1 to M6) on the road. At least two reference markers 142 are extracted by the reference marker extraction unit 144 from the images captured by the one image capturing unit 102, the second image capturing unit 104, and the third image capturing unit 106 (see FIG. 9). Steps S2 and S3) When two reference markers 142 are extracted (when Step S4 in FIG. 9 is YES), the type of the extracted reference marker 142 and the size of the reference marker 142 in the video From the (lateral side length) and the center coordinates, the vehicle position / travel direction calculation unit 150 calculates the position and travel direction of the vehicle on the road (steps S7 and S9 in FIG. 9).
なお、配置されている基準マーカ(142−1〜142−6)の図柄は互いに異なっており、どの位置にどの図柄の基準マーカ142が設置されているかは、図4に示す道路モデルとして、予め車両位置、進行方向算出部150に記憶されているため、抽出された基準マーカ142の種類がわかれば、車両10の現在位置を算出することができる。 The symbols of the reference markers (142-1 to 142-6) that are arranged are different from each other, and the symbol marker 142 of which symbol is installed at which position is determined in advance as a road model shown in FIG. 4. Since it is stored in the vehicle position and traveling direction calculation unit 150, the current position of the vehicle 10 can be calculated if the type of the extracted reference marker 142 is known.
ここで、図3〜5を用いて、基準マーカ142の抽出方法を説明する。 Here, a method of extracting the reference marker 142 will be described with reference to FIGS.
ここでは、車両10が図4に示された位置を走行しており、第1映像撮影部102で撮影された映像の中から、道路左側に設置された車両10に最も近い基準マーカ142−1を抽出し、第3映像撮影部106で撮影された映像の中から、道路右側に設置された車両10に最も近い基準マーカ142−2を抽出するものとする。 Here, the vehicle 10 is traveling at the position shown in FIG. 4, and the reference marker 142-1 closest to the vehicle 10 installed on the left side of the road from the images captured by the first image capturing unit 102. And the reference marker 142-2 closest to the vehicle 10 installed on the right side of the road is extracted from the video imaged by the third video imaging unit 106.
基準マーカ142には、図3に示すように、黒地の正方形の中に描かれた白地の正方形の中に、基準マーカ142毎に異なる黒い2次元パターン(前述した図柄)が描かれている。 As shown in FIG. 3, the reference marker 142 has a black two-dimensional pattern (design described above) that is different for each reference marker 142 in a white square drawn in a black square.
また、第1映像撮影部102、第2映像撮影部104、第3映像撮影部106を構成するビデオカメラは、それぞれ、路面に水平に、路面から高さHの位置に設置されており、基準マーカ142は、道路の左右路肩の高さHの位置に、道路の進行方向に直交する方向に、車両10側を向いて設置されているものとする。 In addition, the video cameras constituting the first video shooting unit 102, the second video shooting unit 104, and the third video shooting unit 106 are respectively installed horizontally at the height H from the road surface. It is assumed that the marker 142 is installed at the position of the height H of the left and right shoulders of the road and facing the vehicle 10 side in a direction orthogonal to the traveling direction of the road.
基準マーカ抽出部144の中には、基準マーカ142の各々の図柄とその周囲の白地の正方形と黒地の正方形を1つのテンプレートとして、このテンプレートが、基準マーカ142の種類分だけ予め記憶されており、撮影された映像に対してテンプレートマッチングが行われて、基準マーカ142が写っている位置と、そこに写っている基準マーカ142の種類が検出される。 In the reference marker extraction unit 144, each template of the reference marker 142 and the surrounding white square and black square are used as one template, and this template is stored in advance for the type of the reference marker 142. Template matching is performed on the captured video, and the position where the reference marker 142 is reflected and the type of the reference marker 142 reflected there are detected.
例えば、第1映像撮影部102では、図5に示す映像が撮影される。 For example, the first video imaging unit 102 captures the video shown in FIG.
図5の映像に対して、用意されたテンプレートをそれぞれ当てはめてテンプレートマッチングを行い、基準マーカ142が写っている場所を検出する。 Template matching is performed by applying the prepared templates to the video in FIG. 5 to detect the location where the reference marker 142 is shown.
なお、基準マーカ142の中心は、映像撮影部100の設置条件、および基準マーカ142の設置条件により、路面からの高さHに対応した位置、すなわち、撮影された映像の縦方向の中央付近(線分GG’上)に写るから、テンプレートマッチングは、映像の縦方向の中央付近のみで行えばよい。 Note that the center of the reference marker 142 is located at a position corresponding to the height H from the road surface, that is, in the vicinity of the center in the vertical direction of the captured video (depending on the installation conditions of the video shooting unit 100 and the installation conditions of the reference marker 142. Therefore, template matching may be performed only near the center in the vertical direction of the video.
また、基準マーカ142は、車両10から遠方になるほど小さく写るので、予め用意しておくテンプレートとして、サイズの異なるテンプレートを揃えておく。そして、テンプレートの種類とサイズを変えながら、テンプレートマッチングを行う。 Further, since the reference marker 142 appears smaller as the distance from the vehicle 10 decreases, templates having different sizes are prepared as templates prepared in advance. Then, template matching is performed while changing the type and size of the template.
なお、このテンプレートマッチングは、映像撮影部100で撮影された濃淡画像で構成される映像に対して行ってもよいし、映像撮影部100で撮影された濃淡画像で構成される映像を、基準マーカ142の図柄がその周辺の白地と識別できるように設定されたしきい値で2値化して、この2値化された映像に対して行ってもよい。なお、2値化された映像に対してテンプレートマッチングを行う方が、計算量が低減できるため、処理の高速化が図れる。 Note that this template matching may be performed on a video composed of grayscale images photographed by the video photographing unit 100, or a video composed of grayscale images photographed by the video photographing unit 100 is used as a reference marker. The binarized image may be binarized with a threshold value set so that 142 symbols can be distinguished from the surrounding white background. Note that the amount of calculation can be reduced by performing template matching on the binarized video, so that the processing speed can be increased.
こうして、基準マーカ142の位置と図柄が検出された後で、車両10に最も近い位置にある基準マーカ、すなわち、抽出された最も大きな基準マーカ142−1の中心座標(x0、y0)と、最外部の黒地の正方形の横辺長L0を算出する。 Thus, after the position and design of the reference marker 142 are detected, the reference marker closest to the vehicle 10, that is, the center coordinate (x0, y0) of the extracted largest reference marker 142-1, The lateral side length L0 of the external black square is calculated.
同様にして、第3映像撮影部106で撮影された映像に対しても、基準マーカ抽出部144で、道路右側にある基準マーカ142の抽出を行い、車両10に最も近い位置にある基準マーカ、すなわち、抽出された最も大きな基準マーカ142−2の中心座標(x1、y1)と、最外部の黒地の正方形の横辺長L1を算出する。 Similarly, the reference marker 142 on the right side of the road is extracted by the reference marker extraction unit 144 for the video imaged by the third video imaging unit 106, and the reference marker closest to the vehicle 10 is That is, the center coordinate (x1, y1) of the extracted largest reference marker 142-2 and the lateral side length L1 of the outermost black square are calculated.
このとき、検出された基準マーカ142の図柄から、基準マーカ142−1と142−2が抽出されたことがわかる。 At this time, it can be seen that the reference markers 142-1 and 142-2 are extracted from the detected pattern of the reference marker 142.
なお、基準マーカ142の抽出方法は、前記した画像処理手法に限るものではない。すなわち、例えば、二次元バーコードリーダの読み取りに使われている信号処理を適用して、基準マーカ142を抽出してもよい。 Note that the method of extracting the reference marker 142 is not limited to the image processing method described above. That is, for example, the reference marker 142 may be extracted by applying signal processing used for reading by a two-dimensional barcode reader.
次に、車両位置、進行方向算出部150において、第1映像撮影部102で撮影された映像から抽出された、道路左側の基準マーカ142−1の横辺長L0から、第1映像撮影部102と基準マーカ142−1との距離d0を算出し、さらに、第3映像撮影部106で撮影された映像から抽出された、道路右側の基準マーカ142−2の横辺長L1から、第3映像撮影部106と基準マーカ142−2との距離d1を算出する。 Next, in the vehicle position / traveling direction calculation unit 150, the first video shooting unit 102 is calculated from the lateral side length L0 of the reference marker 142-1 on the left side of the road extracted from the video shot by the first video shooting unit 102. Is calculated from the horizontal length L1 of the reference marker 142-2 on the right side of the road extracted from the video captured by the third video imaging unit 106. A distance d1 between the imaging unit 106 and the reference marker 142-2 is calculated.
すなわち、映像撮影部100で、予め基準マーカ142の映像を、基準マーカ142までの距離を所定量ずつ変化させながら撮影して、基準マーカ142までの距離と撮影された基準マーカの横辺長との関係を測定しておく。 That is, the image capturing unit 100 captures an image of the reference marker 142 in advance while changing the distance to the reference marker 142 by a predetermined amount, and the distance to the reference marker 142 and the horizontal length of the captured reference marker Measure the relationship.
この測定結果を車両位置、進行方向算出部150に格納しておき、この格納されたデータに基づいて、算出された基準マーカ142−1の横辺長L0から基準マーカ142−1までの距離d0を算出し、基準マーカ142−2の横辺長L1から基準マーカ142−2までの距離d1を算出する(図9のステップS5)。 This measurement result is stored in the vehicle position / travel direction calculation unit 150, and based on the stored data, the calculated distance d0 from the lateral side length L0 of the reference marker 142-1 to the reference marker 142-1. And the distance d1 from the lateral side length L1 of the reference marker 142-2 to the reference marker 142-2 is calculated (step S5 in FIG. 9).
ここで、算出された距離d0、もしくはd1のうち、少なくともどちらか一方が、予め決めておいた所定距離dthよりも小さいとき(図9のステップS6がYESのとき)は、基準マーカ142の抽出結果に基づいて、車両の現在位置(xc、yc)が算出される(図9のステップS7)。 Here, when at least one of the calculated distances d0 and d1 is smaller than the predetermined distance dth determined in advance (when step S6 in FIG. 9 is YES), the reference marker 142 is extracted. Based on the result, the current position (xc, yc) of the vehicle is calculated (step S7 in FIG. 9).
ここで、第1映像撮影部102の設置位置、第2映像撮影部104の設置位置、第3映像撮影部106の設置位置は、全て等しいものとする。すなわち、それらの設置位置は、図2(2)の点Qにあるとする。 Here, it is assumed that the installation position of the first video photographing unit 102, the installation position of the second video photographing unit 104, and the installation position of the third video photographing unit 106 are all equal. That is, it is assumed that the installation position is at point Q in FIG.
このとき、図6に示すように、道路左側にある基準マーカ142−1を中心とする距離d0を半径とする円P1と、道路右側にある基準マーカ142−2を中心とする距離d1を半径とする円P2の交点のうち、車両10に近い側の点C0として、車両10の位置(xc、yc)が一意に定まる。そして、点C0は、点Qと一致する。 At this time, as shown in FIG. 6, a circle P1 having a radius d0 centered on the reference marker 142-1 on the left side of the road and a distance d1 centered on the reference marker 142-2 on the right side of the road have a radius The position (xc, yc) of the vehicle 10 is uniquely determined as a point C0 on the side closer to the vehicle 10 among the intersection points of the circle P2. The point C0 coincides with the point Q.
次に、車両位置、進行方向算出部150において、車両10の方向ωが算出される(図9のステップS9)。 Next, the vehicle position and traveling direction calculation unit 150 calculates the direction ω of the vehicle 10 (step S9 in FIG. 9).
ここでは、まず、基準マーカ142−1の中心座標(x0、y0)の値から、その点の、映像の中央位置(線分VV’上)から横方向への変位量xh0を算出する。 Here, first, the amount of displacement xh0 in the horizontal direction from the center position of the video (on the line segment VV ′) at that point is calculated from the value of the center coordinates (x0, y0) of the reference marker 142-1.
すなわち、xh0は、(式1)で算出される。
xh0=m/2−x0 (式1)
ここで、mは第1映像撮影部102で撮影された映像の横方向の画素数を表す。
That is, xh0 is calculated by (Equation 1).
xh0 = m / 2−x0 (Formula 1)
Here, m represents the number of pixels in the horizontal direction of the video shot by the first video shooting unit 102.
そして、算出された変位量xh0の値から、基準マーカ142−1の中心から第1映像撮影部102の光軸に下ろした垂線長(図7のdx0)を算出する。 Then, from the calculated displacement amount xh0, the perpendicular length (dx0 in FIG. 7) lowered from the center of the reference marker 142-1 to the optical axis of the first video photographing unit 102 is calculated.
なお、垂線長dx0は、予め実験によって求めたデータを用いて算出する。 The perpendicular length dx0 is calculated using data obtained in advance by experiments.
すなわち、映像撮影部100で、映像撮影部100から複数の距離の位置に置かれた基準マーカ142を、映像撮影部100の光軸方向φを水平方向に所定量ずつ変化させながら撮影して、映像撮影部100から基準マーカ142の中心までの距離dと、映像撮影部100の光軸方向φと、そのときに撮影される基準マーカ142の中心座標(x0、y0)、もしくは、変位量xh0との関係を測定する。 That is, the image capturing unit 100 captures the reference marker 142 placed at a plurality of distances from the image capturing unit 100 while changing the optical axis direction φ of the image capturing unit 100 by a predetermined amount in the horizontal direction, The distance d from the image capturing unit 100 to the center of the reference marker 142, the optical axis direction φ of the image capturing unit 100, the center coordinates (x0, y0) of the reference marker 142 captured at that time, or the displacement xh0. Measure the relationship with.
この測定結果を車両位置、進行方向算出部150に格納して、この格納されたデータに基づいて、基準マーカ142−1の中心座標(x0、y0)、もしくは変位量xh0から、基準マーカ142−1の中心から第1映像撮影部102の光軸に下ろした垂線長dx0を算出する。 The measurement result is stored in the vehicle position / traveling direction calculation unit 150, and based on the stored data, the reference marker 142- is calculated from the center coordinates (x0, y0) of the reference marker 142-1 or the displacement xh0. A perpendicular length dx0 lowered from the center of 1 to the optical axis of the first video photographing unit 102 is calculated.
このようにして算出された垂線長dx0と、先に算出した基準マーカ142−1の中心までの距離d0と、車両10の現在位置(xc、yc)と、第1映像撮影部102の光軸と第2映像撮影部104の光軸のなす角度θとから、車両10の方向ωが、(式2)によって算出される。 The perpendicular length dx0 calculated in this way, the distance d0 to the center of the reference marker 142-1 calculated earlier, the current position (xc, yc) of the vehicle 10, and the optical axis of the first video photographing unit 102 And the angle θ formed by the optical axis of the second video photographing unit 104, the direction ω of the vehicle 10 is calculated by (Equation 2).
ω=tan-1{dx0/(d02−dx0 2)1/2}−sin-1(xc/d0)+θ (式2)
一方、ステップS5で算出された、基準マーカ142−1までの距離d0と基準マーカ142−2までの距離d1のどちらも、予め決めておいた所定距離dthより大きいときは、車両挙動算出部160において、車速センサ192で算出した車速を積分し、また、ヨーレートセンサ193で算出したヨーレートを積分する。
ω = tan −1 {dx0 / (d0 2 −dx0 2 ) 1/2 } −sin −1 (xc / d0) + θ (Formula 2)
On the other hand, when both the distance d0 to the reference marker 142-1 and the distance d1 to the reference marker 142-2 calculated in step S5 are greater than a predetermined distance dth, the vehicle behavior calculation unit 160 , The vehicle speed calculated by the vehicle speed sensor 192 is integrated, and the yaw rate calculated by the yaw rate sensor 193 is integrated.
そして、抽出した基準マーカ142の位置に基づいて算出した車両10の直近の位置(xc、yc)と直近の方向ωに、車速の積分値と、ヨーレートの積分値とに基づいて算出した車両10の移動軌跡を加え合わせて、車両10の位置(xc’、yc’)と方向ω’を算出し(図9のステップS8)、その後ステップS10に移行する。 Then, the vehicle 10 calculated based on the integrated value of the vehicle speed and the integrated value of the yaw rate in the closest position (xc, yc) of the vehicle 10 calculated based on the extracted position of the reference marker 142 and the closest direction ω. Are added together to calculate the position (xc ′, yc ′) and the direction ω ′ of the vehicle 10 (step S8 in FIG. 9), and then the process proceeds to step S10.
なお、車両挙動算出部160において算出された車両10の現在位置(xc’、yc’)、方向ω’は、車両位置、進行方向算出部150において算出された車両10の現在位置(xc、yc)、方向ωと区別するため、異なる符号で表す。 Note that the current position (xc ′, yc ′) and the direction ω ′ calculated by the vehicle behavior calculation unit 160 are the current position (xc, yc) of the vehicle 10 calculated by the vehicle position / travel direction calculation unit 150. In order to distinguish from the direction ω, they are represented by different symbols.
ここで、基準マーカ142までの距離に応じて、車両10の位置と方向の算出方法を変更するのは、基準マーカ142までの距離が大きいと、距離の算出誤差が増大する可能性があるためである。 Here, the calculation method of the position and direction of the vehicle 10 is changed in accordance with the distance to the reference marker 142 because the distance calculation error may increase if the distance to the reference marker 142 is large. It is.
したがって、そのようなときには、車速とヨーレートの積分値に基づいて車両10の移動軌跡を算出し、こうして算出した車両10の移動軌跡を、基準マーカ142の位置に基づいて算出した、直近の車両10の位置と方向に加え合わせることによって車両10の位置と方向とを更新する訳である。 Therefore, in such a case, the movement trajectory of the vehicle 10 is calculated based on the integrated value of the vehicle speed and the yaw rate, and the movement trajectory of the vehicle 10 calculated in this way is calculated based on the position of the reference marker 142. The position and direction of the vehicle 10 are updated by adding to the position and direction.
そして、所定距離以内に基準マーカ142が検出されたときに、再び基準マーカ142の位置に基づいて、車両10の位置と方向を算出し、補正するものとする。 Then, when the reference marker 142 is detected within a predetermined distance, the position and direction of the vehicle 10 are calculated and corrected again based on the position of the reference marker 142.
車両位置、進行方向算出部150、もしくは車両挙動算出部160において、車両10の位置と方向が算出されると、トリガ信号生成部146から重畳映像作成部120に対して、重畳の実行を指示するトリガ信号が出力される。 When the position and direction of the vehicle 10 are calculated in the vehicle position / traveling direction calculation unit 150 or the vehicle behavior calculation unit 160, the trigger signal generation unit 146 instructs the superimposed video creation unit 120 to execute superposition. A trigger signal is output.
トリガ信号が出力されると(図9のステップS10がYESのとき)、重畳位置算出部122において、画像情報記憶部130に記憶された、仮想物体を表す静止画像、もしくは動画像を、映像撮影部100で撮影された映像のどの位置に重畳するかが算出される(図9のステップS11)。 When the trigger signal is output (when step S10 in FIG. 9 is YES), the superimposed position calculation unit 122 captures a still image or a moving image representing a virtual object stored in the image information storage unit 130. It is calculated at which position of the video image captured by the unit 100 (step S11 in FIG. 9).
なお、重畳する静止画像や動画像は、予め、次のようにして作成しておく。 Note that the still image or moving image to be superimposed is created in advance as follows.
すなわち、実際の道路環境で、安全を確認した上で、見通しの悪い交差点から飛び出す歩行者803や、目の前を横切る移動車両804の映像を撮影し、撮影された映像から、歩行者の領域のみを抽出する画像処理や車両の領域のみを抽出する画像処理を行って、抽出された歩行者803のみが写っている動画像、また、抽出された移動車両804のみが写っている動画像を生成して、画像情報記憶部130に記憶しておく。 That is, after confirming safety in an actual road environment, images of a pedestrian 803 jumping out from an intersection with poor visibility and a moving vehicle 804 crossing in front of the user are captured, and the area of the pedestrian is determined from the captured images. A moving image in which only the extracted pedestrian 803 is captured by performing image processing for extracting only the region of the vehicle or image processing for extracting only the region of the vehicle, or a moving image in which only the extracted moving vehicle 804 is captured. Generated and stored in the image information storage unit 130.
このとき、歩行者803や移動車両804以外の画素には、重畳すべき情報でないことを表すため、予め決められた特定の値を格納しておく。 At this time, a predetermined specific value is stored in pixels other than the pedestrian 803 and the moving vehicle 804 in order to indicate that the information is not to be superimposed.
また、交差点の手前に配置する壁801や802は、静止画像として作成しておく。なお、これはコンピュータグラフィックス(CG)によって作成しても構わない。そして、壁801や802以外の画素には、重畳すべき情報でないことを表すため、予め決められた特定の値を格納しておく。 The walls 801 and 802 arranged before the intersection are created as still images. This may be created by computer graphics (CG). A predetermined specific value is stored in pixels other than the walls 801 and 802 in order to indicate that the information is not to be superimposed.
さらに、仮想物体を表す静止画像や動画像は、車両10の向きに応じて、様々な方向から見た映像を生成できるように、多方向から撮影した映像を、その撮影方向の情報とともに記憶しておく。 Furthermore, the still image and the moving image representing the virtual object are stored together with the information of the shooting direction, so that the images taken from various directions can be generated according to the direction of the vehicle 10. Keep it.
重畳位置算出部122では、図4の道路モデルの中で、仮想的な危険場面を再現する位置に、所定の仮想物体(歩行者803、移動車両804、壁801と802)を配置して、算出された車両10の位置(xc、yc)もしくは(xc’、yc’)と、方向ωもしくはω’に基づいて、それらの仮想物体を映像撮影部100で撮影したときに、映像表示部110のどの位置に表示されるかが算出される。 In the superimposed position calculation unit 122, predetermined virtual objects (pedestrian 803, moving vehicle 804, walls 801 and 802) are arranged at a position where a virtual danger scene is reproduced in the road model of FIG. Based on the calculated position (xc, yc) or (xc ′, yc ′) of the vehicle 10 and the direction ω or ω ′, when the virtual object is photographed by the video photographing unit 100, the video display unit 110 It is calculated in which position of the image the image is displayed.
この重畳位置を算出する演算は、映像撮影部100と対象物との位置関係が明確になっているため、簡単な幾何計算によって実行することができる。 The calculation for calculating the superposition position can be executed by simple geometric calculation because the positional relationship between the video photographing unit 100 and the object is clear.
次に、重畳サイズ算出部124において、車両10と仮想物体との位置関係に基づいて、重畳する仮想物体のサイズが算出される(図9のステップS12)。 Next, the superimposition size calculation unit 124 calculates the size of the virtual object to be superimposed based on the positional relationship between the vehicle 10 and the virtual object (step S12 in FIG. 9).
具体的には、映像撮影部100と仮想物体との距離に応じて、画像情報記憶部130に記憶された静止画像、もしくは動画像に、適切な倍率を乗算し、遠方に重畳するときには小さく重畳され、近接した位置に重畳するときには大きく重畳されるように、仮想物体のサイズが算出される。 Specifically, a still image or a moving image stored in the image information storage unit 130 is multiplied by an appropriate magnification in accordance with the distance between the video shooting unit 100 and the virtual object, and is superimposed small when superposed far away. Then, the size of the virtual object is calculated so as to be largely superimposed when superimposed on a close position.
さらに、重畳方向算出部126において、仮想物体の重畳方向が算出される(図9のステップS13)。 Further, the superimposition direction calculation unit 126 calculates the superimposition direction of the virtual object (step S13 in FIG. 9).
この重畳方向は、具体的には、車両位置、進行方向算出部150、もしくは車両挙動算出部160で算出された映像撮影部100の方向と、重畳すべき仮想物体との位置関係に基づいて、各映像撮影部(102、104、106)に写る、仮想物体の方向として算出される。 Specifically, the superimposition direction is based on the positional relationship between the vehicle position, the direction of the image capturing unit 100 calculated by the traveling direction calculation unit 150 or the vehicle behavior calculation unit 160, and the virtual object to be superimposed. It is calculated as the direction of the virtual object that appears in each video photographing unit (102, 104, 106).
次に、重畳処理部128において、重畳方向算出部126で算出された方向から見た仮想物体の画像が生成され、その画像が、重畳サイズ算出部124で算出されたサイズに変形されて、重畳位置算出部122で算出された位置に重畳される(図9のステップS14)。 Next, in the superimposition processing unit 128, an image of the virtual object viewed from the direction calculated by the superimposition direction calculation unit 126 is generated, the image is transformed into the size calculated by the superimposition size calculation unit 124, and superimposed. It is superimposed on the position calculated by the position calculation unit 122 (step S14 in FIG. 9).
なお、この重畳処理は、具体的には、映像撮影部100から入力された映像の、ステップS11で算出された位置に、ステップS13で算出された方向から見た仮想物体の画像が、ステップS12で算出されたサイズに変形されて重ね合わせられ、重ね合わせた画像の中で、特定の値以外の値を持った画素の画素値を、重ね合わせられた映像の画素の画素値と置き換える処理によって行われる。 Specifically, this superimposition processing is performed in such a manner that the image of the virtual object viewed from the direction calculated in step S13 at the position calculated in step S11 of the video input from the video photographing unit 100 is obtained in step S12. In the process of replacing the pixel value of a pixel having a value other than a specific value in the superimposed image with the pixel value of the superimposed image by transforming into the size calculated in (3) and superimposing Done.
仮想物体を表す画像が重畳された映像は、略リアルタイムで、第1映像表示部112と第2映像表示部114と第3映像表示部116に表示される(図9のステップS15)。 The video on which the image representing the virtual object is superimposed is displayed on the first video display unit 112, the second video display unit 114, and the third video display unit 116 in substantially real time (step S15 in FIG. 9).
この表示を見た車両10の運転者は、壁801の陰から、歩行者803や移動車両804が飛び出したことに気づくと、即座に制動や操舵等の回避行動を行う。 When the driver of the vehicle 10 seeing this display notices that the pedestrian 803 or the moving vehicle 804 has jumped out from behind the wall 801, he immediately performs avoidance actions such as braking and steering.
ここで、操作検出部210において、運転者がホーンスイッチ220を押下することによってホーン吹鳴操作を行ったことが検出されたときには、割り込み処理が起動して、図10のフローチャートに示した処理が実行される。 Here, when it is detected in the operation detection unit 210 that the driver has performed a horn sounding operation by pressing the horn switch 220, an interruption process is started and the process shown in the flowchart of FIG. 10 is executed. Is done.
すなわち、操作検出部210によって、運転者がホーンスイッチ220を押下したことが検出されたときに、重畳処理部128において、歩行者803、もしくは移動車両804が重畳されているときには(図10のステップS17がYESのとき)、さらに、重畳処理部128において、ホーン吹鳴時に対応した歩行者803や移動車両804の描画制御が行われる(図10のステップS18)。 That is, when the operation detecting unit 210 detects that the driver has pressed the horn switch 220, the superimposing processing unit 128 superimposes the pedestrian 803 or the moving vehicle 804 (step in FIG. 10). When S17 is YES, the superimposition processing unit 128 performs drawing control of the pedestrian 803 and the moving vehicle 804 corresponding to the horn sounding (step S18 in FIG. 10).
ここでは、車両10の運転者が、歩行者803の飛び出しや移動車両804の接近に気づいてホーンを吹鳴させたときに、あたかも、歩行者803がホーンの吹鳴に気づいて立ち止まった場面、あるいは、移動車両804がホーンの吹鳴に気づいて減速した場面、を再現するように、重畳処理部128において、仮想物体である歩行者803や移動車両804の動きを制御した重畳が行われる。そして、ステップS18実行後は、図9のフローチャートに復帰して動作が継続する。 Here, when the driver of the vehicle 10 notices the pedestrian 803 jumping out or approaching the moving vehicle 804 and makes the horn blow, a scene where the pedestrian 803 notices the horn and stops, or In the superimposition processing unit 128, superimposition is performed so that the movement of the pedestrian 803 and the mobile vehicle 804, which are virtual objects, is controlled so as to reproduce the scene where the moving vehicle 804 notices the sound of the horn and decelerates. Then, after step S18 is executed, the operation returns to the flowchart of FIG.
なお、前記した仮想物体の動きを制御する方法には様々なものが考えられるが、そのいずれの方法によって行ってもよい。 Various methods for controlling the movement of the virtual object described above can be considered, and any method may be used.
すなわち、仮想物体を表す動画像の中で、隣り合った画像の間を補間する画像を新たに生成して、この補間された画像を含めた動画像を再生することによって、仮想物体の動きを遅くすることができる。 That is, by newly generating an image that interpolates between adjacent images in the moving image representing the virtual object, and reproducing the moving image including the interpolated image, the movement of the virtual object is reduced. Can be late.
また、逆に、仮想物体を表す動画像の中から、所定のフレーム数毎に、動画像を形成する画像を削除して(間引きして)、こうして得られた動画像を再生することによって、仮想物体の動きを速くすることができる。 On the other hand, by deleting (thinning out) the image forming the moving image from the moving image representing the virtual object every predetermined number of frames, and reproducing the moving image thus obtained, The movement of the virtual object can be made faster.
あるいは、予め仮想物体を表す動画像を作成して画像情報記憶部130に記憶する際に、仮想物体が種々の速度で動く複数の動画像を作成して、動きの速度を表す情報とともに記憶しておき、この複数の動画像の中から、場面に適した動きの速度を有する動画像を選択して再生するようにしてもよい。 Alternatively, when a moving image representing a virtual object is created in advance and stored in the image information storage unit 130, a plurality of moving images in which the virtual object moves at various speeds are created and stored together with information representing the speed of movement. In addition, a moving image having a motion speed suitable for a scene may be selected and reproduced from the plurality of moving images.
さらに、仮想物体を表す動画像を再生するフレームレートを変更することによって、仮想物体の動きを制御するようにしてもよい。 Further, the movement of the virtual object may be controlled by changing the frame rate for reproducing the moving image representing the virtual object.
一方、運転者がホーンスイッチ220を押下したときに、歩行者803、もしくは移動車両804が重畳されていないとき(図10のステップS17がNOのとき)は、何の処理も行わずに、図9のフローチャートに復帰して動作が継続する。 On the other hand, when the driver presses the horn switch 220, when the pedestrian 803 or the moving vehicle 804 is not superimposed (when step S17 in FIG. 10 is NO), no processing is performed. Returning to the flowchart of FIG. 9, the operation continues.
そして、図9において、車両10のエンジンが停止する等の終了指示を検出したときに、処理を終了する(図9のステップS16がYESのとき)。 Then, in FIG. 9, when an end instruction such as stopping of the engine of the vehicle 10 is detected, the process ends (when step S <b> 16 in FIG. 9 is YES).
このように、運転者の操作に応じて仮想物体の重畳方法を制御することによって、より一層、自然な運転場面を再現することができる。 In this way, by controlling the virtual object superimposing method in accordance with the operation of the driver, a more natural driving scene can be reproduced.
なお、操作検出部210では、ホーンスイッチ220の押下を検出する構成として説明したが、ホーンスイッチ220の押下以外の操作を検出して、描画制御を行うようにしてもよい。 The operation detection unit 210 has been described as a configuration that detects pressing of the horn switch 220. However, an operation other than pressing of the horn switch 220 may be detected to perform drawing control.
例えば、図示しない前照灯スイッチによって、運転者がパッシングを行ったことを検出して、これに応じた描画制御を行うこともできる。 For example, it is possible to detect that the driver has passed by a headlight switch (not shown) and perform drawing control corresponding to the detected passing.
さらに、重畳処理部128において行われる描画制御は、操作検出部210の出力以外に基づいて行うこともできる。
例えば、車両10が走行している道路における、歩行者用信号機の作動状態を検出する交通環境検出部230を設けて、その交通環境検出部230の出力に基づいて、歩行者803の描画制御を行うこともできる。
Further, the drawing control performed in the superimposition processing unit 128 can be performed based on the output other than the operation detection unit 210.
For example, a traffic environment detection unit 230 that detects an operating state of a pedestrian traffic light on a road on which the vehicle 10 is traveling is provided, and drawing control of the pedestrian 803 is performed based on the output of the traffic environment detection unit 230. It can also be done.
すなわち、車両10が、車両10の進行方向と直交する方向の道路に設けられた歩行者用信号機に所定距離以内にまで接近しており、なおかつ、歩行者用信号機の作動状態を検出する交通環境検出部230によって、歩行者用信号機が、青信号の点滅状態になっていることが検出されたときには、割り込み処理を起動して、図11のフローチャートに示した処理を実行する。 That is, the traffic environment in which the vehicle 10 approaches a pedestrian traffic light provided on a road in a direction orthogonal to the traveling direction of the vehicle 10 within a predetermined distance and detects the operating state of the pedestrian traffic light. When the detection unit 230 detects that the pedestrian traffic light is in the blinking state of the green light, the interrupt process is started and the process shown in the flowchart of FIG. 11 is executed.
すなわち、交通環境検出部230を構成する車載カメラによって、歩行者用信号機が青信号の点滅状態であることが検出されたときに、重畳処理部128において、歩行者803が重畳されているときには(図11のステップS19がYESのとき)、さらに、重畳処理部128において、重畳された歩行者803が急に駆け出すような描画制御が行われる(図10のステップS20)。なお、具体的な描画制御の方法は、前記した通りである。 That is, when the in-vehicle camera constituting the traffic environment detection unit 230 detects that the pedestrian traffic light is in the blinking state of the green light, when the pedestrian 803 is superimposed in the superimposition processing unit 128 (see FIG. In addition, when the step S19 of 11 is YES), the superimposition processing unit 128 performs drawing control so that the superimposed pedestrian 803 suddenly starts (step S20 in FIG. 10). The specific drawing control method is as described above.
そして、ステップS20実行後は、図9のフローチャートに復帰して動作が継続する。 And after execution of step S20, it returns to the flowchart of FIG. 9 and operation | movement continues.
そして、図9において、車両10のエンジンが停止する等の終了指示を検出したときに、処理を終了する(図9のステップS16がYESのとき)。 Then, in FIG. 9, when an end instruction such as stopping of the engine of the vehicle 10 is detected, the process ends (when step S <b> 16 in FIG. 9 is YES).
このようにして、歩行者803が、歩行者用信号機が青信号の点滅状態であることを認知して、道路の横断を急ごうとして急に駆け出した場面を再現することができるため、より一層、実際の道路環境に近い場面を再現することができる。 In this way, since the pedestrian 803 can recognize that the traffic light for the pedestrian is in the blinking state of the green light and reproduce the scene that suddenly started to rush across the road, A scene close to the actual road environment can be reproduced.
そして、そのような場面に遭遇したときの、車両10の運転者の挙動を、詳しく分析することができる。 The behavior of the driver of the vehicle 10 when such a scene is encountered can be analyzed in detail.
なお、前記した実施例では、交通環境検出部230を構成する車載カメラによって、歩行者用信号機が青信号の点滅状態であることを検出したが、実施形態は、それに限定されるものではない。 In the above-described embodiment, the in-vehicle camera constituting the traffic environment detection unit 230 detects that the pedestrian traffic light is in the blinking state of the green light, but the embodiment is not limited thereto.
すなわち、交通環境検出部230に、車両10の内部と外部との間の通信機能を備えて、歩行者用信号機が、車両10の交通環境検出部230から出力される通信信号を受信して、車両10の接近を検知したときに、青信号の点滅を開始するように構成することもできる。 That is, the traffic environment detection unit 230 has a communication function between the inside and the outside of the vehicle 10, and the pedestrian traffic light receives the communication signal output from the traffic environment detection unit 230 of the vehicle 10, When the approach of the vehicle 10 is detected, it may be configured to start blinking the green light.
また、交通環境検出部230には、歩行者用信号機の作動状態を検出する機能の他に、レーザレーダのような測距機能を設けてもよい。 Further, the traffic environment detection unit 230 may be provided with a ranging function such as a laser radar in addition to the function of detecting the operating state of the pedestrian traffic light.
そして、車両10の周囲に実際に存在する歩行者や車両との距離を測定して、この測定された距離に基づいて、重畳処理部128において、仮想物体である歩行者803や移動車両804の動きを制御した描画制御を行う機能を備えることもできる。 Then, the distance between the pedestrian and the vehicle actually existing around the vehicle 10 is measured, and based on the measured distance, the superimposition processing unit 128 determines the pedestrian 803 and the moving vehicle 804 that are virtual objects. It is also possible to provide a function of performing drawing control with controlled movement.
これにより、例えば、車両10の前方を実際に走行している先行車両に重なるように、移動車両804を重畳して、車両10と実際の先行車両との距離を、交通環境検出部230に備えたレーザレーダで測定し、測定された距離が所定値以下になった時に、重畳した移動車両804を、急減速したように描画制御して、仮想的な危険場面を再現することができる。 Thus, for example, the moving vehicle 804 is superimposed so as to overlap the preceding vehicle actually traveling in front of the vehicle 10, and the traffic environment detection unit 230 includes the distance between the vehicle 10 and the actual preceding vehicle. When the measured distance is less than or equal to a predetermined value, the superimposed moving vehicle 804 can be drawn and controlled as if it has been decelerated rapidly to reproduce a virtual danger scene.
なお、この処理の具体的な動作フローチャートは図示しないが、図10や図11に沿った割り込み処理を行うことによって実現することができる。 Although a specific operation flowchart of this process is not shown, it can be realized by performing an interrupt process in accordance with FIGS.
すなわち、交通環境検出部230において、レーザレーダによる測距値が所定値を下回ることが検出されたときに、割り込み処理を起動させる。 That is, when the traffic environment detection unit 230 detects that the distance measured by the laser radar is below a predetermined value, the interrupt process is activated.
そして、割り込み処理が起動されたときに移動車両804の重畳を行っているときには、重畳処理部128において、移動車両804が急減速する描画制御を行うことによって、上記した危険場面を再現することができる。 When the moving vehicle 804 is superimposed when the interrupt process is started, the superimposition processing unit 128 can reproduce the above-mentioned dangerous scene by performing drawing control in which the moving vehicle 804 decelerates rapidly. it can.
このように、交通環境検出部230に備える機能に応じて、より一層、実際の道路環境に近い場面を、高い現実感をもって再現することができる。 Thus, according to the function with which the traffic environment detection part 230 is equipped, the scene close | similar to an actual road environment can be reproduced with high reality.
さらに、重畳された画像の動きを制御する例として、車両挙動算出部160において算出された車両10の挙動に基づいて、仮想物体である歩行者803や移動車両804の動きを制御する描画制御を行うようにしてもよい。 Furthermore, as an example of controlling the movement of the superimposed image, drawing control for controlling the movement of the pedestrian 803 or the moving vehicle 804, which are virtual objects, is performed based on the behavior of the vehicle 10 calculated by the vehicle behavior calculation unit 160. You may make it perform.
例えば、ヨーレートセンサ193によって、車両10が交差点で右折を開始したことを検出したときに、その交差点に向かって対向車線を走行している移動車両804が、車両10と同時に交差点に進入するように、重畳処理部128において、移動車両804の速度を調整する描画制御を行うことによって、右直事故に至る可能性のある場面を再現することができる。そして、これによって、危険場面における運転者の挙動を、安全な状態で詳細に分析することができる。 For example, when the yaw rate sensor 193 detects that the vehicle 10 has started making a right turn at an intersection, the moving vehicle 804 traveling on the opposite lane toward the intersection may enter the intersection at the same time as the vehicle 10. In the superimposition processing unit 128, by performing drawing control for adjusting the speed of the moving vehicle 804, it is possible to reproduce a scene that may cause a right-handed accident. As a result, the behavior of the driver in the dangerous scene can be analyzed in detail in a safe state.
なお、この処理の具体的な動作フローチャートも図示しないが、図10や図11に沿った割り込み処理を行うことによって実現することができる。 Although a specific operation flowchart of this process is not shown, it can be realized by performing an interrupt process in accordance with FIGS.
すなわち、交通環境検出部230に、車両10の走行環境の地図データを備えておき、この地図データに基づいて、車両10が交差点付近にさしかかったことを検出する。 That is, the traffic environment detection unit 230 is provided with map data of the traveling environment of the vehicle 10 and detects that the vehicle 10 is approaching the intersection based on the map data.
そして、車両10が交差点付近にさしかかった状態にあるとき、車両挙動算出部160において、ヨーレートセンサ193で計測された車両10のヨーレートを分析して、車両10が右折を開始したことを検出したときに、割り込み処理を起動させる。 When the vehicle 10 is approaching the intersection, the vehicle behavior calculation unit 160 analyzes the yaw rate of the vehicle 10 measured by the yaw rate sensor 193 and detects that the vehicle 10 has started a right turn. Then, interrupt processing is started.
割り込み処理が起動されたときに、その交差点に向かって対向車線を走行する移動車両804の重畳を行っているときには、重畳処理部128において、移動車両804が、車両10と同時に交差点に進入するように描画制御を行うことによって、上記した危険場面を再現することができる。 When the interruption process is activated, when the moving vehicle 804 traveling in the opposite lane toward the intersection is being superimposed, the overlapping processing unit 128 causes the moving vehicle 804 to enter the intersection simultaneously with the vehicle 10. By performing the drawing control, the above-mentioned dangerous scene can be reproduced.
なお、図9のフローチャートには記載しないが、トリガ信号生成部146からトリガ信号が出力されたときには、車両情報記録部190において、車両の挙動を表す車速(車速センサ192で計測)、および、ヨー角(ヨーレートセンサ193で計測)、ピッチ角(ピッチ角センサ194で計測)、ロール角(ロール角センサ195で計測)、アクセル開度(アクセル開度センサ196で計測)、ブレーキ踏力(ブレーキ踏力センサ197で計測)が、車両情報取得部191に逐次取得されて記録される。 Although not described in the flowchart of FIG. 9, when a trigger signal is output from the trigger signal generation unit 146, the vehicle information recording unit 190 displays the vehicle speed (measured by the vehicle speed sensor 192) representing the behavior of the vehicle, and the yaw Angle (measured with yaw rate sensor 193), pitch angle (measured with pitch angle sensor 194), roll angle (measured with roll angle sensor 195), accelerator opening (measured with accelerator opening sensor 196), brake pedal force (brake pedal force sensor) (Measured in 197) is sequentially acquired and recorded in the vehicle information acquisition unit 191.
また、運転者情報記録部200において、運転者の挙動を表す顔面の映像(運転者顔撮影カメラ202で撮影)や足元の映像(運転者足元撮影カメラ203で撮影)、そして運転者の視線方向(運転者視線計測センサ204で計測)が、運転者情報取得部201に逐次取得されて記録される。 In addition, in the driver information recording unit 200, a face image (captured with the driver's face photographing camera 202), a foot image (captured with the driver's foot photographing camera 203) representing the driver's behavior, and the driver's gaze direction (Measured by the driver's line-of-sight measurement sensor 204) is sequentially acquired and recorded in the driver information acquisition unit 201.
こうして記録された車両情報や運転者情報は、図9〜11の一連の処理が終了した後で、運転行動の分析に利用される。 The vehicle information and the driver information recorded in this way are used for analysis of driving behavior after the series of processes in FIGS.
なお、記録される情報は、ここに記載したものに留まらず、評価内容に沿って、適宜、所定の情報を取得する装置が実装されて、所定の情報が取得され、記録される。 Note that the information to be recorded is not limited to the information described here, and an apparatus for acquiring predetermined information is appropriately mounted according to the evaluation contents, and the predetermined information is acquired and recorded.
また、仮想的な危険場面を再現するタイミングは、予め判っているので、トリガ信号の出力を待たずに、車両情報や運転者の挙動の記録を開始してもよい。これにより、仮想的な危険場面が再現される前から、車両情報や運転者情報を記録することができるため、危険場面に遭遇した際の車両や運転者の挙動の変化を、より詳細に分析することができる。 Since the timing for reproducing the virtual danger scene is known in advance, recording of vehicle information and driver behavior may be started without waiting for the output of the trigger signal. As a result, vehicle information and driver information can be recorded before the virtual danger scene is reproduced, so the changes in the behavior of the vehicle and driver when encountering the danger scene are analyzed in more detail. can do.
以上説明したように、本実施例に係る車両用危険場面再現装置によれば、運転者の直接視界を遮る位置に置かれた映像表示部に、車両の走行位置や進行方向に応じた位置に仮想物体を表す静止画像や動画像が重畳された、車両進行方向の映像を表示する構成としたため、実際に走行する車両において、車両の走行位置や進行方向によらずに、仮想的な危険場面を高い現実感をもって再現することができる。 As described above, according to the vehicular danger scene reproduction device according to the present embodiment, the video display unit placed at a position that obstructs the driver's direct field of view is placed at a position corresponding to the traveling position and traveling direction of the vehicle. Because it is configured to display a video of the vehicle traveling direction with a still image or a moving image representing a virtual object superimposed, a virtual danger scene can be performed regardless of the traveling position or traveling direction of the vehicle in an actually traveling vehicle. Can be reproduced with a high sense of reality.
また、本実施例に係る車両用危険場面再現装置によれば、車両位置、進行方向算出部で算出された車両の位置と進行方向、および車両挙動算出部で算出された車両の挙動に基づいて、重畳される画像の位置とサイズと方向とを決定する構成としたため、走行車線や走行速度などの制約を付けることなく運転している状態において、仮想的な危険場面を、高い現実感で再現することができる。したがって、より自然な運転状態において仮想的な危険場面を再現することができ、これによって、運転者の自然な反応を評価することができる。 Further, according to the dangerous situation reproduction apparatus for a vehicle according to the present embodiment, the vehicle position, the position and traveling direction of the vehicle calculated by the moving direction calculation unit, and based on the behavior of the vehicle calculated by the vehicle behavior calculation unit Because it is configured to determine the position, size, and direction of the superimposed image, it reproduces virtual danger scenes with a high sense of reality when driving without any restrictions such as driving lanes or driving speed. can do. Therefore, it is possible to reproduce a virtual danger scene in a more natural driving state, and thereby, it is possible to evaluate a driver's natural reaction.
なお、以下に説明する通り、本実施例の基本的な構成を変えることなく、同様の効果を有する様々な変形例を実現することができる。 As described below, various modifications having the same effect can be realized without changing the basic configuration of the present embodiment.
まず、前記した説明では、車両挙動算出部160において、車速センサ192で測定した車速と、ヨーレートセンサ193で計測したヨー角に基づいて車両10の挙動を算出したが、さらに、ピッチ角センサ194で計測したピッチ角と、ロール角センサ195で計測したロール角を利用してもよい。 In the above description, the vehicle behavior calculation unit 160 calculates the behavior of the vehicle 10 based on the vehicle speed measured by the vehicle speed sensor 192 and the yaw angle measured by the yaw rate sensor 193. The measured pitch angle and the roll angle measured by the roll angle sensor 195 may be used.
これによって、車両10のより細かい挙動に応じて、重畳する画像の位置、サイズ、方向を制御することができるため、より自然な重畳画像を表示することができる。 Thus, since the position, size, and direction of the superimposed image can be controlled according to the finer behavior of the vehicle 10, a more natural superimposed image can be displayed.
また、前記した説明では、撮影された基準マーカ142までの距離に応じて、距離が近いときには、撮影された基準マーカ142の位置に基づいて車両10の位置と方向を算出し、距離が遠いときには、基準マーカ142の位置に基づいて算出した車両10の直近の位置と方向に、車両挙動算出部160で算出された車速の積分値と、ヨーレートの積分値とに基づいて算出した車両10の移動軌跡を加え合わせて、車両10の位置と方向を算出したが、これは、車両挙動算出部160で算出された車両10の移動軌跡を加え合わせてから、車速の積分値で算出される車両10の移動距離が、所定値に達する範囲でのみ、車両挙動算出部160の算出結果に基づいた車両10の位置と方向の算出を行うようにしてもよい。 In the above description, the position and direction of the vehicle 10 are calculated based on the position of the photographed reference marker 142 when the distance is short according to the distance to the photographed reference marker 142, and when the distance is long. The movement of the vehicle 10 calculated based on the integrated value of the vehicle speed calculated by the vehicle behavior calculating unit 160 and the integrated value of the yaw rate in the nearest position and direction of the vehicle 10 calculated based on the position of the reference marker 142. The position and direction of the vehicle 10 are calculated by adding the trajectory. This is because the vehicle 10 calculated by the integrated value of the vehicle speed after adding the movement trajectory of the vehicle 10 calculated by the vehicle behavior calculation unit 160 is added. The position and direction of the vehicle 10 may be calculated based on the calculation result of the vehicle behavior calculation unit 160 only in a range where the movement distance of the vehicle reaches a predetermined value.
これによって、車両挙動算出部160の算出結果に基づいた車両10の位置と方向を算出しながら、基準マーカ142までの距離を算出して算出された距離の大きさを判断する必要がなくなるため、所定期間は基準マーカ142の抽出処理を中断でき、計算機負荷を低減することができる。 This eliminates the need to determine the magnitude of the calculated distance by calculating the distance to the reference marker 142 while calculating the position and direction of the vehicle 10 based on the calculation result of the vehicle behavior calculation unit 160. The extraction process of the reference marker 142 can be interrupted for a predetermined period, and the computer load can be reduced.
さらに、重畳タイミング算出部140において仮想的な危険場面を再現するタイミングの生成方法は、本実施例で説明した基準マーカ142を利用した方法に制限されるものではない。 Further, the timing generation method for reproducing the virtual danger scene in the superimposition timing calculation unit 140 is not limited to the method using the reference marker 142 described in the present embodiment.
すなわち、例えば、カーナビゲーションで用いられているGPS(Global Positioning System)、および車速センサ192、ヨーレートセンサ193を利用して車両10の位置と方向を特定し、特定された情報に基づいて、仮想的な危険場面を再現するための重畳タイミングを生成してもよい。 That is, for example, the position and direction of the vehicle 10 is specified using the GPS (Global Positioning System) used in car navigation, the vehicle speed sensor 192, and the yaw rate sensor 193, and based on the specified information, the virtual Superimposition timing for reproducing a dangerous scene may be generated.
あるいは、路肩に設置した電波ビーコンや光ビーコンの送信機から発せられる情報を、車両10に設置した受信機で受信し、車両10の現在位置を特定して、特定された位置情報に基づいて、仮想的な危険場面を再現するための重畳タイミングを生成してもよい。 Alternatively, information emitted from a radio beacon or an optical beacon transmitter installed on the road shoulder is received by a receiver installed in the vehicle 10, the current position of the vehicle 10 is specified, and based on the specified position information, Superimposition timing for reproducing a virtual danger scene may be generated.
一方、車両10の位置だけでなく、運転者の挙動や車両の挙動に基づいて、仮想的な危険場面を再現するための重畳タイミングを生成してもよい。このときは、車両情報記録部190や運転者情報記録部200に備えられたセンサが利用される。 On the other hand, a superimposition timing for reproducing a virtual danger scene may be generated based on not only the position of the vehicle 10 but also the behavior of the driver and the behavior of the vehicle. At this time, sensors provided in the vehicle information recording unit 190 and the driver information recording unit 200 are used.
例えば、運転者視線計測センサ204によって、絶えず運転者の視線方向を計測しておき、計測された運転者の視線方向が道路から外れていたときは、運転者が脇見をしていると判断して、重畳を開始すれば、運転者の脇見をトリガとして仮想的な危険場面を再現することができる。 For example, the driver's line-of-sight measurement sensor 204 continuously measures the driver's line-of-sight direction, and when the measured driver's line-of-sight direction is off the road, it is determined that the driver is looking aside. If superimposition is started, a virtual danger scene can be reproduced with the driver's side-arm as a trigger.
もしくは、車速センサ192で検出した車速が、所定値よりも大きいときに、仮想的な危険場面を再現する重畳の開始タイミングとすることも可能である。 Alternatively, when the vehicle speed detected by the vehicle speed sensor 192 is larger than a predetermined value, it is possible to set the superimposition start timing to reproduce a virtual dangerous scene.
このように、評価する内容や、再現する危険場面に応じて、適切な方法によって、重畳を行うタイミングを生成することが可能である。 In this way, it is possible to generate the timing for superimposing by an appropriate method according to the content to be evaluated and the danger scene to be reproduced.
また、本発明によって再現することができる仮想的な危険場面は、実施例で説明した、歩行者803や移動車両804の飛び出し場面に制限されるものではない。 The virtual danger scene that can be reproduced by the present invention is not limited to the pedestrian 803 or the moving vehicle 804 jumping out scene described in the embodiment.
すなわち、本発明によれば、評価したい運転者の挙動に基づいて設定された運転場面に応じて、適切な重畳物を設定することができ、重畳映像作成部120において、高い現実感を有する重畳映像を作成することができる。 That is, according to the present invention, an appropriate superimposed object can be set according to the driving scene set based on the behavior of the driver to be evaluated, and the superimposed image creating unit 120 can perform superimposition with high realism. You can create a video.
なお、本発明の具体的構成要素は、同様の作用効果を有するものであれば、図1に示すものに限定されない。例えば、映像表示部110は、曲面ディスプレイによって構成してもよいし、車両10に設置したプロジェクタから、ボンネット上に設置したスクリーンに映像を投影してもよい。 In addition, the specific component of this invention is not limited to what is shown in FIG. 1 if it has the same effect. For example, the video display unit 110 may be configured by a curved display, or may be projected from a projector installed on the vehicle 10 onto a screen installed on the hood.
また、特許請求の範囲を逸脱することなく、当業者の知識に基づいた変形や改良を施した態様で本発明を実施することができるのは言うまでもない。 Further, it goes without saying that the present invention can be implemented in a mode in which modifications and improvements are made based on the knowledge of those skilled in the art without departing from the scope of the claims.
10 車両
100 映像撮影部
110 映像表示部
120 重畳映像作成部
122 重畳位置算出部
124 重畳サイズ算出部
126 重畳方向算出部
128 重畳処理部
130 画像情報記憶部
140 重畳タイミング算出部
142 基準マーカ
144 基準マーカ抽出部
146 トリガ信号生成部
150 車両位置、進行方向算出部
160 車両挙動算出部
190 車両情報記録部
200 運転者情報記録部
210 操作検出部
220 ホーンスイッチ
230 交通環境検出部
DESCRIPTION OF SYMBOLS 10 Vehicle 100 Image | video imaging | photography part 110 Image | video display part 120 Superimposition image | video production | generation part 122 Superimposition position calculation part 124 Superimposition size calculation part 126 Superimposition direction calculation part 128 Superimposition processing part 130 Image information storage part 140 Superimposition timing calculation part 142 Reference marker 144 Reference marker 144 Extraction unit 146 Trigger signal generation unit 150 Vehicle position / travel direction calculation unit 160 Vehicle behavior calculation unit 190 Vehicle information recording unit 200 Driver information recording unit 210 Operation detection unit 220 Horn switch 230 Traffic environment detection unit
Claims (12)
前記車両の位置と進行方向とを算出する車両位置、進行方向算出部と、
前記車両の挙動を算出する車両挙動算出部と、
前記映像に重畳する仮想物体を表す画像を、予め記憶しておく画像情報記憶部と、
前記映像の中の、前記車両位置、進行方向算出部で算出された前記車両の位置と進行方向と、前記車両挙動算出部で算出された前記車両の挙動とに基づいて算出された位置に、前記画像を重畳する重畳映像作成部と、
前記車両位置、進行方向算出部で算出された前記車両の位置と進行方向と、前記車両挙動算出部で算出された前記車両の挙動とに基づいて、前記重畳映像作成部に対して、前記画像の重畳を行うことを指示する重畳タイミング算出部と、
前記車両の運転者の直接視界を遮るように配置され、前記重畳映像作成部で作成された映像を、略リアルタイムで表示する映像表示部と、を備えることを特徴とする車両用危険場面再現装置。 An image capturing unit that is installed toward the traveling direction of the vehicle and captures an image of the traveling direction of the vehicle;
A vehicle position for calculating a position and a traveling direction of the vehicle, a traveling direction calculation unit;
A vehicle behavior calculation unit for calculating the behavior of the vehicle;
An image information storage unit that stores in advance an image representing a virtual object to be superimposed on the video;
In the image, in the position calculated based on the vehicle position and the traveling direction calculated by the vehicle position and traveling direction calculation unit, and the behavior of the vehicle calculated by the vehicle behavior calculating unit, A superimposed video creation unit for superimposing the image;
The vehicle position, and the position and traveling direction of the vehicle calculated by the moving direction calculation unit, based on the behavior of the vehicle calculated by the vehicle behavior calculation unit, with respect to the superimposed image generator, the image A superimposition timing calculation unit that instructs to superimpose,
A vehicular dangerous scene reproduction device comprising: a video display unit that is arranged so as to block the direct field of view of the driver of the vehicle and displays the video created by the superimposed video creation unit in substantially real time. .
前記映像表示部は、複数の長方形状のディスプレイから構成され、前記車両のボンネット上に、隣り合う前記ディスプレイの短辺同士が略接して、前記短辺が地面に対して略鉛直になるように配置され、かつ、互いに隣り合う前記ディスプレイの長辺同士が所定の角度をなして、前記車両の運転者に略正対するように配置されることを特徴とする請求項1記載の車両用危険場面再現装置。 The video photographing unit is composed of a plurality of video cameras, and the optical axes of adjacent video cameras form a predetermined angle in the horizontal direction so that the photographing fields of the plurality of video cameras do not overlap each other. And
The video display unit includes a plurality of rectangular displays, and the short sides of the adjacent displays are substantially in contact with each other on the hood of the vehicle so that the short sides are substantially perpendicular to the ground. The vehicular danger scene according to claim 1, wherein the long sides of the displays that are arranged and adjacent to each other form a predetermined angle so as to face the driver of the vehicle. Reproduction device.
前記画像を重畳する位置を算出する重畳位置算出部と、
前記画像の重畳サイズを算出する重畳サイズ算出部と、
前記画像を重畳する方向を算出する重畳方向算出部と、
を有することを特徴とする請求項1から3のうちいずれか1項に記載の車両用危険場面再現装置。 The superimposed image creating unit is based on the vehicle position, the traveling direction calculated by the traveling direction calculating unit, and the traveling direction of the vehicle and the behavior of the vehicle calculated by the vehicle behavior calculating unit.
A superposition position calculation unit for calculating a position at which the image is superposed;
A superimposition size calculator for calculating a superimposition size of the image;
A superimposition direction calculation unit that calculates a direction in which the image is superimposed;
The vehicular dangerous scene reproduction device according to any one of claims 1 to 3, wherein
少なくとも前記映像表示部に前記画像が重畳された映像が表示されている期間に、前記車両の運転者の挙動を取得して記録する運転者情報記録部と、
を備えることを特徴とする請求項1から4のうちいずれか1項に記載の車両用危険場面再現装置。 A vehicle information recording unit that acquires and records vehicle information of the vehicle at least during a period in which a video on which the image is superimposed is displayed on the video display unit;
A driver information recording unit that acquires and records the behavior of the driver of the vehicle at least during a period in which the video on which the image is superimposed is displayed on the video display unit;
The vehicle dangerous scene reproduction device according to any one of claims 1 to 4, further comprising:
前記操作検出部において所定の操作が検出されたとき、前記交通環境検出部において所定の交通環境が検出されたとき、もしくは、前記車両挙動算出部において前記車両の所定の挙動が検出されたときに、前記重畳映像作成部において、重畳する前記画像の動きを、前記所定の操作、前記所定の交通環境情報、もしくは、前記車両の所定の挙動に対応するように制御することを特徴とする請求項1から11のうちいずれか1項に記載の車両用危険場面再現装置。 An operation detection unit that detects a predetermined operation of the driver, and a traffic environment detection unit that detects traffic environment information related to the traveling of the vehicle,
When a predetermined operation is detected by the operation detection unit, when a predetermined traffic environment is detected by the traffic environment detection unit, or when a predetermined behavior of the vehicle is detected by the vehicle behavior calculation unit The superimposed image creation unit controls the movement of the image to be superimposed so as to correspond to the predetermined operation, the predetermined traffic environment information, or a predetermined behavior of the vehicle. The vehicle dangerous scene reproduction device according to any one of 1 to 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011201587A JP5825713B2 (en) | 2011-09-15 | 2011-09-15 | Dangerous scene reproduction device for vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011201587A JP5825713B2 (en) | 2011-09-15 | 2011-09-15 | Dangerous scene reproduction device for vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013061597A JP2013061597A (en) | 2013-04-04 |
JP5825713B2 true JP5825713B2 (en) | 2015-12-02 |
Family
ID=48186289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011201587A Expired - Fee Related JP5825713B2 (en) | 2011-09-15 | 2011-09-15 | Dangerous scene reproduction device for vehicles |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5825713B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014174447A (en) * | 2013-03-12 | 2014-09-22 | Japan Automobile Research Institute | Vehicle dangerous scene reproducer, and method of use thereof |
CN104605820A (en) * | 2015-01-21 | 2015-05-13 | 清华大学 | Driver risk preference behavior diagnosis system |
JP7097551B2 (en) * | 2018-08-08 | 2022-07-08 | ソフトイーサ株式会社 | Driving simulation device and driving simulation program |
JP7064195B2 (en) * | 2018-10-03 | 2022-05-10 | ソフトイーサ株式会社 | Simulated driving device and simulated driving method |
WO2020031647A1 (en) * | 2018-08-08 | 2020-02-13 | ソフトイーサ株式会社 | Driving simulator and video control device |
JP7340176B2 (en) * | 2019-12-02 | 2023-09-07 | Kddi株式会社 | Risk assessment device, risk assessment method, and program |
-
2011
- 2011-09-15 JP JP2011201587A patent/JP5825713B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013061597A (en) | 2013-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210365696A1 (en) | Vehicle Intelligent Driving Control Method and Device and Storage Medium | |
CN111046743B (en) | Barrier information labeling method and device, electronic equipment and storage medium | |
JP6257989B2 (en) | Driving assistance device | |
EP3418947A1 (en) | Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium | |
JP5070809B2 (en) | Driving support device, driving support method, and program | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
JP5825713B2 (en) | Dangerous scene reproduction device for vehicles | |
JP6459205B2 (en) | Vehicle display system | |
US11288785B2 (en) | Virtual overlay system and method for occluded objects | |
CN111164652B (en) | Moving body image generation record display device and program product | |
JP2010198552A (en) | Driving state monitoring device | |
JP2009226978A (en) | Vehicular circumference monitoring device | |
JP2019120994A (en) | Display control device and display control method | |
JP2008092459A (en) | Periphery monitoring apparatus | |
EP3859390A1 (en) | Method and system for rendering a representation of an evinronment of a vehicle | |
KR20200043252A (en) | Overlooking image generation system of vehicle and method thereof | |
JP2011100174A (en) | Apparatus and method for detecting vehicle on lane | |
JP2012153256A (en) | Image processing apparatus | |
JP2018074286A (en) | Driving support device | |
JP4986070B2 (en) | Ambient monitoring device for vehicles | |
JP2012198857A (en) | Approaching object detector and approaching object detection method | |
US20240331260A1 (en) | Reproduction system, reproduction method, and storage medium | |
JP2005038225A (en) | Lane follow-up device | |
JP5470182B2 (en) | Dangerous scene reproduction device for vehicles | |
Olaverri-Monreal et al. | Tailigator: Cooperative system for safety distance observance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5825713 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |