Nothing Special   »   [go: up one dir, main page]

JP5182042B2 - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP5182042B2
JP5182042B2 JP2008305018A JP2008305018A JP5182042B2 JP 5182042 B2 JP5182042 B2 JP 5182042B2 JP 2008305018 A JP2008305018 A JP 2008305018A JP 2008305018 A JP2008305018 A JP 2008305018A JP 5182042 B2 JP5182042 B2 JP 5182042B2
Authority
JP
Japan
Prior art keywords
vehicle
data
dimensional
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008305018A
Other languages
English (en)
Other versions
JP2010128951A (ja
Inventor
俊明 五味
誠也 清水
浩 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008305018A priority Critical patent/JP5182042B2/ja
Priority to EP09169574.2A priority patent/EP2192552B1/en
Priority to US12/585,240 priority patent/US8319618B2/en
Publication of JP2010128951A publication Critical patent/JP2010128951A/ja
Application granted granted Critical
Publication of JP5182042B2 publication Critical patent/JP5182042B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置、画像処理方法及びコンピュータプログラムに関する。
自動車等の車両の運転を支援する装置として、運転者の視界からの死角を含む範囲を撮像する車載カメラと、車載カメラで撮像した画像を表示させる車載モニタとが普及している。例えば、車両の背面にカメラを取り付け、車両の後方を撮像して得られた画像を車載モニタに表示させることにより、運転者は、車載モニタに表示された画像によって車両の後方を確認しながら車庫入れを行なうことができる。また、車両の前面にカメラを取り付け、車両の左右前方を撮像して得られた画像を車載モニタに表示させることにより、運転者は、車載モニタに表示された画像によって交差点等において車両周辺における子供及び障害物等の存在を確認できる。
このような運転支援装置では、複数のカメラを車両に搭載し、各カメラからの画像を切り替えて表示し、又は複数のカメラからの画像を合成して表示することにより、車載モニタに表示される画像によって運転者が確認できる領域が拡大している。例えば、車両の前後左右にカメラを取り付け、各カメラからの画像を合成して車両の周囲全体を表示した1つの画像データを生成して車載モニタに表示させる装置が提案されている(特許文献1参照)。このような装置では、運転者は、車載モニタに表示された画像によって車両の周囲全体の状況を一度に確認できるので、車載モニタを確認する動作によって運転操作に与える影響を低減できる。
特開2007−36668号公報
上述したように、複数のカメラで撮像した画像を合成する場合、各カメラは、撮像領域の一部が重複するように配置される。そして、複数のカメラで重複して撮像された領域において、各カメラが撮像した画像が合成される。なお、複数の画像を合成した合成位置では画像の継ぎ目が生じる。このような継ぎ目の近傍の領域では、各カメラの視点が異なることによって画像に不連続性が生じることがあり、本来存在する障害物が画像データ上では確認できない状況が発生する場合がある。
このような問題を解決するために、複数の画像を合成する際の合成位置を変更可能に構成されている装置もある。しかし、このような装置は、数種類の合成位置パターンしか用意しておらず、所定の条件を満たした場合に、合成位置パターンを切り替える場合が多い。従って、画像の合成位置が切り換わることによる表示画像の変化によって表示画像中の物体の見え方が急に変わる可能性があり、表示画像の変化によって運転者が混乱する虞がある。
本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、急激な変化を生じず、見易い画像を提供することが可能な画像処理装置、画像処理方法及びコンピュータプログラムを提供することにある。
本願に開示する画像処理装置は、車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置であり、車両の運転操作の状態を示す状態情報を常時取得する。本願に開示する画像処理装置は、撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを画像記憶部に記憶する。本願に開示する画像処理装置は、複数の2次元画像データの投影対象となる3次元投影面形状データを含み、複数の2次元画像データを前記3次元投影面形状データにポリゴン単位で投影するための3次元合成テクスチャマッピングデータを、車両の運転操作状態に応じて変更する。そして、本願に開示する画像処理装置は、適宜変更された3次元合成テクスチャマッピングデータを用いて、画像記憶部に記憶された複数の2次元画像データを3次元投影面形状データに投影し、所定の視点/視線方向から見た投影画像データを生成する。本願に開示する画像処理装置は、複数の2次元画像データを3次元投影面形状データに投影する際の、3次元投影面形状データにおける複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、並びに、投影画像データを生成する際に、3次元投影面形状データに基づく3次元投影面形状を見る視点の位置及び視線方向を示す情報を、車両の運転操作状態に応じて特定する。そして、本願に開示する画像処理装置は、特定した合成位置の情報に基づいて3次元合成テクスチャマッピングデータを変更し、特定した視点の位置及び視線方向を示す情報に基づいて投影画像データを生成する。
本願に開示する画像処理装置によれば、複数の撮像装置で撮像して得られた複数の2次元画像データを3次元投影面形状データにポリゴン単位で投影し、所定の視点/視線方向から見た投影画像データを生成する。また、本願に開示する画像処理装置は、投影画像データを生成する際に用いる情報を、常時取得する車両の運転操作状態に応じて変更する。よって、車両の運転操作の状態を示す状態情報に応じて適宜変更される情報を用いて投影画像データが生成されるので、生成された投影画像データに基づく画像間の変化量が抑制される。
本願に開示する画像処理装置では、複数の撮像装置で撮像して得られた複数の2次元画像データから生成された投影画像データに基づく画像に急減な変化が生じず、連続的で滑らかに変化する画像が生成される。よって、運転者は、表示画像の変化によって混乱せず、運転者が見易い画像を提供できる。
以下に、本願に開示する画像処理装置、画像処理方法及びコンピュータプログラムを、各実施形態を示す図面に基づいて詳述する。以下では、本願に開示する画像処理装置と、カメラ(撮像装置)と、表示装置とを自動車等の車両に搭載した画像処理システムについて説明する。
(実施形態1)
以下に、実施形態1の画像処理システムについて説明する。図1は実施形態1の画像処理システムの構成を示すブロック図である。本実施形態1の画像処理システムでは、画像処理装置10に、4つのカメラ71,72,73,74と、各種センサ80と、表示装置90とが接続されている。画像処理装置10と、カメラ71,72,73,74、各種センサ80及び表示装置90のそれぞれとは、専用のケーブルで接続されてもよく、車両内部に構築された車載LAN(Local Area Network)を介して接続されてもよい。
カメラ71,72,73,74は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor )等の撮像素子を用いて、例えば1秒当たり30枚の画像フレーム(画像データ)を取得する。カメラ71,72,73,74は、取得したアナログの画像データを順次デジタルの画像データにアナログ/デジタル変換し、生成したデジタルの画像データを画像処理装置10へ順次出力する。
表示装置90は、例えば液晶ディスプレイであり、カメラ71,72,73,74によって取得され、画像処理装置10によって所定の処理が施された画像データを順次表示する。
各種センサ80は、例えば、車速センサ、シフト位置センサ、パーキングブレーキセンサ、GPS(Global Positioning System)センサ、舵角センサ等である。車速センサは車両の走行速度を検出するセンサである。シフト位置センサは車両に設けられたシフトレバーの操作位置を検出するセンサである。パーキングブレーキセンサは、パーキングブレーキが掛けられているか否か(オン又はオフ)を検出するセンサである。舵角センサは、車両に設けられたハンドルの回転に伴って地面との接触箇所で回動する車輪の進行方向に対する回動角度を検出するセンサである。
GPSセンサは、複数のGPS衛星から送られてくる電波(GPS信号)を受信するアンテナを備え、受信したGPS信号に基づいて所在地(現在位置)を検出するセンサである。なお、GPSセンサ(位置取得部)は、検出した現在位置を、緯度、経度及び標高についてのデータを含む位置情報として取得する。各種センサ80は、各種の情報を検出した検出信号を順次画像処理装置10へ出力する。なお、各種センサ80は、上述した各センサのほかに、例えば、アクセスペダルの踏み込み量を検出するためのセンサ、ブレーキペダルの踏み込み量を検出するためのセンサ等を用いてもよい。
図2はカメラ71,72,73,74の車両への取付位置の例を示す模式図である。図2は、画像処理システムを搭載した車両を真上方向から見た図を示している。また、図2に示した車両は前方を上にして図示されている。図2に示すように、前カメラ71は、車両に備え付けられた前バンパーの中央に、車両の前方を撮影するように取り付けられ、後カメラ72は、車両に備え付けられた後バンパーの中央に、車両の後方を撮影するように取り付けられる。左カメラ73は、前方を向いた状態での車両の左側面の中央に、車両の左側を撮影するように取り付けられ、右カメラ74は、前方を向いた状態での車両の右側面の中央に、車両の右側を撮影するように取り付けられる。
カメラ71,72,73,74のそれぞれは、180°の画角を有する超広角レンズを用いたカメラである。従って、前カメラ71は車両の前方の領域71aを撮影し、後カメラ72は車両の後方の領域72aを撮影し、左カメラ73は車両の左側の領域73aを撮影し、右カメラ74は車両の右側の領域74aを撮影する。カメラ71,72,73,74は、それぞれの撮影範囲(撮像領域)の一部が重複するように配置される。図2では、ハッチングを付した領域が、2つのカメラの撮影範囲が重複する領域である。
カメラ71,72,73,74の取付位置は、図2に示すように車両の前面、背面、左側面、右側面のそれぞれの中央が望ましいが、それぞれのカメラ71,72,73,74の撮影範囲の一部が重複する位置であれば、このような取付位置に限られない。例えば、左カメラ73及び右カメラ74は、車両に備え付けられたミラーに取り付けられていてもよい。また、カメラの数も、それぞれのカメラの撮影範囲の一部を重複させつつ、車両の周囲360°の範囲を撮影できる位置に取り付け可能であれば、4つに限られない。
図3は実施形態1の画像処理装置10の構成を示すブロック図である。本実施形態1の画像処理装置10は、制御部1、ROM(Read Only Memory)2、RAM(Random Access Memory)3、記憶部4、画像バッファ5、画像処理部6、カメラインタフェース7、センサインタフェース8、モニタインタフェース9等を備える。これらのハードウェア各部はそれぞれバス1aを介して相互に接続されている。
制御部1は、CPU(Central Processing Unit)又はMPU(Micro Processor Unit)等であり、ROM2又は記憶部4に予め格納されている制御プログラムを適宜RAM3に読み出して実行する。また、制御部1は、上述したハードウェア各部の動作を制御する。ROM2は、画像処理装置10として動作させるために必要な種々の制御プログラム、カメラ71,72,73,74の車両への取付位置及び撮影方向等の情報等を予め格納している。RAM3はSRAM又はフラッシュメモリ等であり、制御部1による制御プログラムの実行時に発生する種々のデータを一時的に記憶する。
記憶部4は、ハードディスクドライバ又はフラッシュメモリ等であり、画像処理装置10として動作させるために必要な種々の制御プログラム、3次元画像変換用データ4a等を予め格納している。
画像バッファ(画像記憶部)5は、RAM又はフラッシュメモリ等であり、カメラ71,72,73,74によって撮影された画像データを順次格納する。
画像処理部(画像変換部)6は、カメラ71,72,73,74によって撮影され、画像バッファ5に格納された画像データに所定の処理を行ない、得られた画像データを表示装置90へ出力する。なお、画像処理部6は、所定の処理を施した画像データをNTSC(National Television System Committee standard )データ等の表示用データに変換し、得られた表示用データを表示装置90へ出力する。画像処理部6が行なう画像処理の詳細については後述する。
カメラインタフェース7は、通信線を介してカメラ71,72,73,74のそれぞれと接続され、カメラ71,72,73,74のそれぞれが撮影して得られた画像データを順次取得する。カメラインタフェース7は、順次取得する画像データを画像バッファ5へ送出し、画像バッファ5に格納させる。
センサインタフェース8は、通信線を介して上述したような各種センサ80のそれぞれと接続され、各種センサ80のそれぞれによる検出結果を順次取得する。センサインタフェース8は、順次取得する検出結果をRAM3へ送出し、RAM3に格納させる。
モニタインタフェース(画像出力部)9は、通信線を介して表示装置90と接続され、画像処理部6によって所定の画像処理が施され、生成された表示用データを表示装置90へ出力する。
以下に、上述した構成の画像処理装置10において、制御部1がROM2又は記憶部4に格納されている制御プログラムを実行することによって実現される機能について説明する。図4は実施形態1の画像処理装置10の機能を示す機能ブロック図である。本実施形態1の画像処理装置10において、制御部1は、ROM2又は記憶部4に格納されている制御プログラムを実行することによって、車両状態判断部11、カメラ境界制御部12及び画像視点制御部13等の機能を実現する。
本実施形態1の画像処理装置10は、カメラインタフェース7を介してカメラ71,72,73,74から取得した画像データを画像バッファ5に順次格納する。図5は画像バッファ5による画像データの格納例を示す模式図である。画像バッファ5は、図5に示すように4つの領域51,52,53,54に分割されている。図5に示す例では、前カメラ71によって撮影された画像データは領域51に格納され、後カメラ72によって撮影された画像データは領域52に格納される。また、左カメラ73によって撮影された画像データは領域53に格納され、右カメラ74によって撮影された画像データは領域54に格納される。
画像処理部6は、例えば、3次元画像データの生成及び表示のためのライブラリであるOpenGL(Open Graphics Library)を格納するメモリ及び3次元画像データを高速に処理できる演算回路(共に図示せず)等を備える。画像処理部6は、まず、3次元画像変換用データ4aを用いて、画像バッファ5に格納された4つの画像データを合成して3次元画像データを生成する。
図6は3次元画像変換用データ4aの例を示す模式図である。図6(a)は車両の真上から見た図を示し、図6(b)は車両の左前方の斜め上から見た図を示している。なお、図6(a)中に記載した各符号の図6(b)中への記載は省略する。3次元画像変換用データ4aは、例えば図6に示すように、カメラ71,72,73,74によって撮影された画像データを3次元画像データに合成する際の3次元モデル、車両を3次元画像として表示させるための車両データ等を含む。
3次元モデルは、図6に示すように、車両が配置される矩形の配置面から延設された円形状の平面61を示す平面画像データと、平面から延設された曲面62を示す曲面画像データとを含む。また、平面画像データは、配置面の各辺のそれぞれから延設された略矩形状の4つの矩形延設面63,63…を示す矩形延設面データと、配置面の各頂点のそれぞれから延設された扇形状の4つの扇形延設面64,64…を示す扇形延設面データとを含む。矩形延設面データは、車両の配置面の各辺から矩形延設面63,63…の延設方向に配置された複数のポリゴンのデータであり、扇形延設面データは、車両の配置面の各頂点から放射状に配置された複数のポリゴンのデータである。
車両データは、本実施形態1の画像処理装置10が搭載された車両を表示させるための車両画像データであり、車種毎に異なるデータである。
画像処理部6は、画像バッファ5に図5に示す状態で格納された4つの画像データを、図6に示した3次元モデルの各ポリゴンに貼り付けるテクスチャマッピング処理を行なう。従って、画像バッファ5に格納された画像データは、3次元モデルに貼り付けられるテクスチャマップパターンとして利用される。画像処理部6は、テクスチャマッピング処理を行なうことにより、4つの2次元画像データを1つの3次元画像データに合成する。
図7はテクスチャマッピング処理を説明するための模式図である。図7(a)は車両の真上から見た図を示し、図7(b)は車両の左前方の斜め上から見た図を示している。
画像処理部6は、画像バッファ5の領域51に格納された前カメラ71によって撮影された画像データを、図7に示すように車両の前方の領域90aにマッピングする。また、画像処理部6は、画像バッファ5の領域52に格納された後カメラ72によって撮影された画像データを、図7に示すように車両の後方の領域90bにマッピングする。
同様に、画像処理部6は、画像バッファ5の領域53に格納された左カメラ73によって撮影された画像データを、図7に示すように車両の左側の領域90cにマッピングする。画像処理部6は、画像バッファ5の領域54に格納された右カメラ74によって撮影された画像データを、図7に示すように車両の右側の領域90dにマッピングする。
次に画像処理部6は、テクスチャマッピング処理によって生成した3次元画像データを所定の視点から見た2次元の投影画像データに変換する。なお、図6(a)及び図7(a)は車両の真上方向を視点とした投影画像であり、図6(b)及び図7(b)は車両の左前方の斜め上方向を視点とした投影画像である。
そして、画像処理部6は、生成した投影画像データを表示装置90に表示させるための表示用データに変換し、モニタインタフェース9を介して表示装置90へ出力する。なお、投影画像データを表示用データに変換する処理は、画像処理部6が行なうほか、表示装置90が行なってもよいし、画像処理部6及び表示装置90以外のいずれかの各部が行なってもよい。
ここで、上述したように画像処理部6が4つの2次元画像データから1つの投影画像データを生成する画像処理の際に用いるパラメータは、所定の範囲内で可変である。パラメータとしては、4つの2次元画像データを1つの3次元投影面形状に合成して1つの3次元画像データを生成する際の4つの2次元画像データの合成位置を示す情報と、3次元画像データから投影画像データを生成する際の視点の位置/視線方向を示す情報とがある。本実施形態1の画像処理装置10では、これらのパラメータは、車両の走行状態に応じて変更される。
なお、2次元画像データの合成位置(以下、境界位置角度という)は、後述するカメラ境界制御部12によって制御され、視点の位置(以下、視点位置角度という)は、後述する画像視点制御部13によって制御される。また、本実施形態1の画像処理装置10は、走行状態として、前進中の走行速度及び後退中の走行速度を用いるが、これらに限られない。
図8は境界位置角度及び視点位置角度を説明するための模式図である。図8(a)は境界位置角度を説明するための模式図であり、図8(b)は視点位置角度を説明するための模式図である。図8(a)において、領域90aには前カメラ71によって撮影された画像データが貼り付けられ、領域90bには後カメラ72によって撮影された画像データが貼り付けられる。また、領域90cには左カメラ73によって撮影された画像データが貼り付けられ、領域90dには右カメラ74によって撮影された画像データが貼り付けられる。
本実施形態1では、4つの2次元画像データを1つの3次元画像データに合成する際の合成位置として、図8(a)に示すような境界位置角度が設定され、境界位置角度は、図8(a)中に示した破線を基準として5°〜85°の範囲内での変更が可能である。なお、4つの2次元画像データは、図6(a)に示した放射状延設面64,64…上で合成されることが望ましく、境界位置角度は、0°から90°等、隣り合う2次元画像データが重なる範囲内であれば、5°〜85°に限られない。
また、本実施形態1では、設定された境界位置角度によって、領域90aと領域90cとの境界位置だけでなく、領域90aと領域90dとの境界位置、領域90dと領域90bとの境界位置及び領域90bと領域90cとの境界位置も連動して変更される。なお、このような構成に限らず、領域90aと領域90cとの境界位置、領域90aと領域90dとの境界位置、領域90dと領域90bとの境界位置及び領域90bと領域90cのそれぞれを各別に設定するようにしてもよい。
図9は境界位置角度の相異を説明するための模式図である。図9(a)は境界位置角度が15°程度に設定された場合の3次元画像データを示している。図9(b)は境界位置角度が40°程度に設定された場合の3次元画像データを示しており、図9(c)は境界位置角度が70°程度に設定された場合の3次元画像データを示している。図9に示すように、境界位置角度が小さいほど左カメラ73及び右カメラ74によって撮影された画像がクローズアップされ、境界位置角度が大きいほど前カメラ71及び後カメラ72によって撮影された画像がクローズアップされる。
また、本実施形態1では、3次元画像データから投影画像データを生成する際の視点の位置として、図8(b)に示すような視点位置角度が設定され、視点位置角度は、図8(b)中に破線で示した鉛直方向を基準として車両の後方に0°〜60°の範囲内での変更が可能である。なお、図8(b)には図示しないが、本実施形態1では、車両の真上方向(破線で示した鉛直方向)から車両の前方に0°〜60°の範囲内での変更も可能であり、このときの視点位置角度を0°〜−60°で表現する。また、視点の位置は、車両の真上方向を基準に車両の前後に移動させるだけでなく、車両の左右方向に移動させてもよい。
図10は視点位置角度の相異を説明するための模式図である。図10(a)は視点位置角度が0°に設定された場合の3次元画像データを示している。図10(b)は視点位置角度が15°程度に設定された場合の3次元画像データを示しており、図10(c)は視点位置角度が45°程度に設定された場合の3次元画像データを示している。図10に示すように、視点位置角度が大きいほど後カメラ72によって撮影された画像が前カメラ71によって撮影された画像よりもクローズアップされる。
本実施形態1の画像処理部6は、上述したように変更が可能な境界位置角度及び視点位置角度を、後述するカメラ境界制御部12及び画像視点制御部13から取得する。画像処理部6は、カメラ境界制御部12から取得した境界位置角度に基づいて、図5に示すように画像バッファ5に格納された各画像データ中の各画素データを、図7に示した各領域90a,90b,90c,90dのどのポリゴンに貼り付けるかを算出する。そして、画像処理部6は、算出結果に基づいて、画像バッファ5に格納された各画像データを合成して3次元画像データを生成する。
また、本実施形態1の画像処理部6は、生成した3次元画像データを、画像視点制御部13から取得した視点位置角度が示す視点から見た投影画像データに変換する。画像処理部6は、生成した投影画像データを表示装置90へ出力する。
車両状態判断部11は、センサインタフェース8を介して各種センサ80からの検出信号を取得し、取得した検出信号に基づいて、連続的に変化する車両の状態を判断する。具体的には、車両状態判断部(状態情報取得部)11は、車速センサからの検出信号を取得した場合、取得した検出信号に基づいて車両の走行速度(走行状態情報)を検出する。車両状態判断部11は、走行速度を検出した場合、時速20kmを100%とした場合の、検出した走行速度のパーセンテージ(%)を算出する。そして、車両状態判断部11は、算出した走行速度のパーセンテージをカメラ境界制御部12及び画像視点制御部13へ通知する。なお、車両状態判断部11は、検出した走行速度が時速20km以上である場合は100%のパーセンテージをカメラ境界制御部12及び画像視点制御部13へ通知する。
また、車両状態判断部11は、シフト位置センサからの検出信号を取得した場合、ギアの位置を判断する。車両状態判断部11は、パーキングブレーキセンサからの検出信号を取得した場合、パーキングブレーキが掛けられているか否かを判断する。車両状態判断部11は、パーキングブレーキが掛けられていると判断した場合は、車両が駐車状態であることをカメラ境界制御部12及び画像視点制御部13へ通知する。また、パーキングブレーキが掛けられていないと判断し、シフト位置がリバース(R)であると判断した場合、車両状態判断部11は、車両が後退する状態であると判断し、車両が後退状態であることをカメラ境界制御部12及び画像視点制御部13へ通知する。
また、パーキングブレーキが掛けられていないと判断し、シフト位置がリバース(R)以外であると判断した場合、車両状態判断部11は、車両が前進する状態であると判断し、車両が前進状態であることをカメラ境界制御部12及び画像視点制御部13へ通知する。
カメラ境界制御部(特定部)12は、車両状態判断部11から随時送出されてくる状態情報に応じて、画像処理部6が4つの2次元画像データを合成して1つの3次元画像データを生成する際の境界位置角度を決定し、画像処理部6へ送出する。具体的には、カメラ境界制御部12は、車両状態判断部11から通知された走行速度のパーセンテージに応じた境界位置角度を算出し、画像処理部6へ送出する。より具体的には、カメラ境界制御部12は、車両状態判断部11から取得した走行速度のパーセンテージvp(%)に基づいて、下記の式1を用いて境界位置角度を算出する。このように、カメラ境界制御部12は、車両の走行速度に比例する大きさの境界位置角度を算出するので、走行速度の加減に対して連続的に追随する境界位置角度を算出できる。
境界位置角度(°)=(85−5)×vp/100+5 …(式1)
これにより、車両の走行速度が速いほど、前カメラ71及び後カメラ72によって撮影された画像データを、左カメラ73及び右カメラ74によって撮影された画像データよりも優先的に表示した3次元画像データが画像処理部6によって生成される。逆に、車両の走行速度が遅いほど、左カメラ73及び右カメラ74によって撮影された画像データを、前カメラ71及び後カメラ72によって撮影された画像データよりも優先的に表示した3次元画像データが画像処理部6によって生成される。
なお、本実施形態1のカメラ境界制御部12は、車両が前進状態である場合と、後退状態である場合とにおいて共に、上記式1を用いて境界位置角度を算出する。しかし、カメラ境界制御部12は、車両が前進状態である場合と、後退状態である場合とにおいて、それぞれ異なる式を用いて境界位置角度を算出してもよい。
一方、画像視点制御部(特定部)13は、車両状態判断部11から随時送出されてくる状態情報に応じて、画像処理部6が3次元画像データから投影画像データを生成する際の視点位置角度を決定し、画像処理部6へ送出する。具体的には、画像視点制御部13は、車両が後退状態であることを通知された場合、車両状態判断部11から通知された走行速度のパーセンテージに応じた視点位置角度を算出し、画像処理部6へ送出する。より具体的には、画像視点制御部13は、車両状態判断部11から取得した走行速度のパーセンテージvp(%)に基づいて、下記の式2を用いて視点位置角度を算出する。このように、画像視点制御部13は、車両の走行速度に比例する大きさの視点位置角度を算出するので、走行速度の加減に対して連続的に追随する視点位置角度を算出できる。
視点位置角度(°)=60×vp/100 …(式2)
また、画像視点制御部13は、車両が前進状態であることを通知された場合、車両状態判断部11から通知された走行速度のパーセンテージvp(%)に応じた視点位置角度を下記の式3を用いて算出する。これにより、画像視点制御部13は、車両が前進状態であれば、前カメラ71によって撮影された画像データを、後カメラ72によって撮影された画像データよりも優先的に表示した3次元画像データが画像処理部6によって生成される。また、画像視点制御部13は、車両が後退状態であれば、後カメラ72によって撮影された画像データを、前カメラ71によって撮影された画像データよりも優先的に表示した3次元画像データが画像処理部6によって生成される。
視点位置角度(°)=−60×vp/100 …(式3)
上述したように、カメラ境界制御部12及び画像視点制御部13が、車両状態判断部11からの情報に応じた境界位置角度及び視点位置角度を適宜算出する。また、カメラ境界制御部12及び画像視点制御部13が、算出した境界位置角度及び視点位置角度を適宜画像処理部6へ送出することにより、画像処理部6は、車両の状態に応じた3次元画像データ及び投影画像データを生成することができる。このように生成された投影画像データを表示装置90に表示させることによって、車両の運転者は、車両の周囲の状況を容易に把握できる。
このように、本実施形態1の画像処理装置10は、車両の走行状態に応じて、運転者に通知したい領域を撮像範囲とするカメラ71,72,73,74によって撮影された画像を優先的に表示させる。これにより、3つの2次元画像データを1つの3次元画像データに合成する際の合成位置を可能な限り邪魔にならない箇所に設定すると共に、適切に視点を設定することによって運転者に通知したい領域を適切にクローズアップさせることができる。
以下に、本実施形態1の画像処理装置10による画像処理についてフローチャートに基づいて説明する。図11は画像処理装置10による画像処理の手順を示すフローチャートである。なお、以下の処理は、画像処理装置10のROM2又は記憶部4に格納されている各種の制御プログラムに従って制御部1によって実行される。
画像処理装置10の制御部1は、電源ボタンが操作された場合、画像処理部10が備えるハードウェア各部を起動させ、画像処理装置10としての動作を開始する。制御部1は、カメラ71,72,73,74から出力される画像データをカメラインタフェース7を介して取得し(S1)、取得した画像データを画像バッファ5に格納する。制御部1(車両状態判断部11)は、各種センサ80からの検出信号をセンサインタフェース8を介して取得し(S2)、取得した検出信号に基づいて車両の状態を判断する(S3)。具体的には、制御部1は、車両の走行速度の検出、車両が前進状態であるか後退状態であるかの判断等を行なう。
制御部1(カメラ境界制御部12)は、判断した車両の状態に応じた境界位置角度を算出する(S4)。また、制御部1(画像視点制御部13)は、判断した車両の状態に応じた視点位置角度を算出する(S5)。なお、制御部1は、ステップS4の処理及びステップS5の処理を、順序を逆に実行してもよいし、並列に実行してもよい。
制御部1は、画像処理部6に、ステップS4で算出した境界位置角度及び3次元画像変換用データ4aを用いて、画像バッファ5に格納した4つの画像データを合成させて3次元画像データを生成させる(S6)。制御部1は、画像処理部6に、生成した3次元画像データから、この3次元画像データに基づく3次元画像を、ステップS5で算出した視点位置角度が示す視点から見た2次元の投影画像データを生成させる(S7)。制御部1は、生成した投影画像データをモニタインタフェース9を介して表示装置90へ出力する(S8)。
制御部1は、例えば車両の運転者又は搭乗者等による電源ボタンの操作、動作終了を指示するボタンの操作によって、動作終了の指示を受け付ける。制御部1は、動作終了を指示されたか否かを判断しており(S9)、動作終了を指示されていないと判断した場合(S9:NO)、ステップS1へ処理を戻す。制御部1は、動作終了を指示されるまで上述したステップS1〜S8までの処理を繰り返し、動作終了を指示されたと判断した場合(S9:YES)、処理を終了する。
上述した処理により、本実施形態1の画像処理装置10は、車両の走行状態に応じた画像(映像)を表示装置90に表示させることができる。よって、運転者は、車両の走行状態に応じた画像によって車両の周囲の状況を容易に把握できる。例えば、車両の走行速度が速いほど、前カメラ71及び後カメラ72によって撮影された画像データが優先的に表示される。また、車両が前進状態である場合には車両の前方方向に視点を移動させ、車両が後退状態である場合には車両の後方方向に視点を移動させる。これにより、車両が後退状態である場合には、優先的に表示された車両の後方の画像によって、車両の後方が確認し易くなるので、車両の後方の子供及び障害物等を発見し易くなる。また、車両が前進状態である場合には、優先的に表示された車両の前方の画像によって、車両の前方が確認し易くなるので、遠方であっても前方の障害物を発見し易くなる。
本実施形態1の画像処理装置10は、図6及び図7に示すように、平面画像データに含まれる矩形延設面データが示す矩形延設面63,63…中のポリゴンを車両の側面に対して垂直に配置した。これにより、車両の周辺近傍の画像をより違和感のない画像として表示できる。
また、本実施形態1の画像処理装置10は、走行速度の加減等の車両の状態に対して連続的に境界位置角度及び視点位置角度を変更させるので、境界位置角度及び視点位置角度が変更された場合であっても、表示される画像は滑らかに変化する。従って、境界位置角度及び視点位置角度を急激に変化させた場合には、運転者に混乱を与える虞があったが、本実施形態1ではその虞はない。よって、車両の周辺の映像をより見易く表示することができるので、運転者による車両の運転をよりよく支援できる。
また、従来では、例えば、カメラ71,72,73,74によってそれぞれ撮影された画像データから複数パターンの投影画像データを生成するために、各パターン毎に変換テーブルを用意しておく方法が提案されていた。しかし、このような方法では、変換テーブルが用意されていないパターン、例えば変換テーブルが用意されているパターンとは視点が異なるパターンの投影画像データを生成することはできなかった。また、車両の走行状態に応じて運転者が確認したい領域をより見やすくクローズアップさせた投影画像データを生成することはできなかった。また、多数のパターンに対応するために多数の変換テーブルを用意した場合、変換テーブルを格納しておくメモリの容量が膨大となるので実用的ではなかった。しかし、本実施形態1の画像処理装置10は、これらの問題を解決できると共に、車両の周辺の映像をより見易い状態で表示させることができる。
(実施形態2)
以下に、実施形態2の画像処理システムについて説明する。図12は実施形態2の画像処理装置10の構成を示すブロック図である。本実施形態2の画像処理装置10は、図3に示したハードウェア各部のほかに、外部記憶装置15を備える。外部記憶装置15は、例えば、CD−ROMドライブ又はDVDドライブ等であり、CD−ROM又はDVD−ROM等である記録媒体15aから、記録媒体15aに格納されたデータを読み出す。
記録媒体15aは、画像処理装置10として動作するために必要な制御プログラムを記録している。外部記憶装置15は、記録媒体15aから制御プログラムを読み出し、記憶部4に格納させる。制御部1は、記憶部4に格納された制御プログラムをRAM3に読み出して順次実行し、これにより、本実施形態2の画像処理装置10は、上述の実施形態1で説明した処理を行なうことができる。
記録媒体15aとしては、CD−ROM又はDVD−ROMのほかに、フレキシブルディスク、メモリカード、USB(Universal Serial Bus)メモリ等、各種の記録媒体を用いることができる。
なお、画像処理装置10が、インターネット又はLAN(Local Area Network)等のネットワークに接続するための通信部を有する場合、画像処理装置10を動作させるために必要な制御プログラムを、ネットワークを介してダウンロードしてもよい。
(実施形態3)
以下に、実施形態3の画像処理システムについて説明する。なお、本実施形態3の画像処理システムは、上述した実施形態1の画像処理システムと同様の構成によって実現できるので、同様の構成については同一の符号を付して説明を省略する。
上述した実施形態1では、車両が前進中である場合又は後退中である場合に、画像処理装置10が、車両の走行速度に応じた画像を生成して表示装置90に表示させる処理について説明した。本実施形態3の画像処理装置10は、車両の場所の状況に応じた画像を生成するものとする。
本実施形態3の画像処理装置10は、図3に示した構成のほかに、例えば記憶部(地図記憶部)4に、地図データ及び地図データ中の各場所の特性を示す特性情報を格納している。地図データは、車両にカーナビゲーションシステムが搭載されていれば、カーナビゲーションシステムに利用されるデータを用いればよい。地図データ中の各場所の特性情報は、例えば、各道路が高速道路であるか一般道であるかを示す情報、一般道であれば道幅が所定値以上であるか否かを示す情報等を含む。また、特性情報は、各場所が周囲に高い建物がなく周囲の視界が開けている場所であるか否かを示す情報、各場所が住宅街であるかオフィス街であるかを示す情報等を含む。
本実施形態3の車両状態判断部11は、GPSセンサからの検出信号、即ち現在位置を示す情報を取得した場合、記憶部4に格納されている地図データ及び特性情報から、現在位置の特性情報を取得する。車両状態判断部11は、取得した特性情報に基づいて、車両の現在位置の特性を判断し、カメラ境界制御部12及び画像視点制御部13へ通知する。
本実施形態3のカメラ境界制御部12は、車両状態判断部11から車両の現在位置の特性を通知された場合、通知された特性に応じた境界位置角度を算出する。具体的には、カメラ境界制御部12は、上記の式1のように境界位置角度を算出するための式を、各場所の特性毎に用意している。よって、カメラ境界制御部12は、車両状態判断部11から通知された特性に対応した式を用いて、車両状態判断部11から通知された車両の走行速度に基づく境界位置角度を算出する。カメラ境界制御部12は、算出した境界位置角度を画像処理部6へ送出する。
本実施形態3の画像視点制御部13は、車両状態判断部11から車両の現在位置の特性を通知された場合、通知された特性に応じた視点位置角度を算出する。具体的には、画像視点制御部13も、上記の式2,3のように視点位置角度を算出するための式を、各場所の特性毎に用意している。よって、画像視点制御部13は、車両状態判断部11から通知された特性に対応した式を用いて、車両状態判断部11から通知された車両の走行速度に基づく視点位置角度を算出する。画像視点制御部13は、算出した視点位置角度を画像処理部6へ送出する。
上述した処理により、本実施形態3のカメラ境界制御部12及び画像視点制御部13は、車両の走行状態だけでなく、車両が走行中の場所の特性に応じた境界位置角度及び視点位置角度を算出できる。そして、画像処理部6が、このような境界位置角度及び視点位置角度を用いた画像処理を画像バッファ5に格納された画像データに行なうことによって、走行中の場所の特定に応じた画像が生成されて表示装置90に表示される。
これにより、運転者は、車両の現在の場所の状況に応じてより見易い画像を得ることができる。なお、この場合にも、走行速度の加減等の車両の状態に対して連続的に境界位置角度及び視点位置角度を変更させるので、表示される画像は滑らかに変化する。
(実施形態4)
以下に、実施形態4の画像処理システムについて説明する。なお、本実施形態4の画像処理システムは、上述した実施形態1の画像処理システムと同様の構成によって実現できるので、同様の構成については同一の符号を付して説明を省略する。
本実施形態4の画像処理装置10は、各種センサ80として、例えば車両の周囲に存在する障害物を検出するためのセンサを備えている。なお、障害物を検出するためのセンサとしては、超音波又は赤外線等を用いたセンサを利用することができるが、このようなセンサに限られない。
本実施形態4の車両状態判断部11は、障害物検出センサからの検出信号を取得した場合、車両の周囲に障害物があるか否かを判断し、障害物があると判断した場合、車両に対する障害物の位置を検出する。車両状態判断部11は、検出した障害物の位置をカメラ境界制御部12及び画像視点制御部13へ通知する。
本実施形態4のカメラ境界制御部12は、車両状態判断部11から障害物の位置を通知された場合、通知された位置を撮影範囲とするカメラ71(又は72,73,74)を特定する。そして、カメラ境界制御部12は、特定したカメラ71(又は72,73,74)によって撮影された画像をクローズアップさせて表示できる境界位置角度を決定する。具体的には、例えば、車両の左側又は右側に障害物があることを通知された場合、カメラ境界制御部12は、障害物の位置を撮影範囲とするカメラとして左カメラ73又は右カメラ74を特定する。そして、カメラ境界制御部12は、特定した左カメラ73又は右カメラ74によって撮影された画像をクローズアップさせて表示するために、境界位置角度を例えば5°等の小さい値に決定する。
また、例えば、車両の前方又は後方に障害物があることを通知された場合、カメラ境界制御部12は、障害物の位置を撮影範囲とするカメラとして前カメラ71及び後カメラ72を特定する。そして、カメラ境界制御部12は、特定した前カメラ71及び後カメラ72によって撮影された画像をクローズアップさせて表示するために、境界位置角度を例えば85°等の大きい値に決定する。カメラ境界制御部12は、決定した境界位置角度を画像処理部6へ送出する。
なお、カメラ境界制御部12は、境界位置角度の値を、例えば、車両と障害物との距離に応じて適宜変更してもよい。例えば、車両と障害物との距離が近付くにつれて、障害物の位置を撮影範囲とするカメラ71(又は72,73,74)によって撮影された画像をよりクローズアップさせるような境界位置角度に変更してもよい。具体的には、車両と障害物との距離に応じた境界位置角度の値を予めテーブルに登録しておき、カメラ境界制御部12がテーブルを参照することによって境界位置角度を決定してもよい。また、車両と障害物との距離に応じた境界位置角度の値を数式によって予め定義しておき、カメラ境界制御部12が、数式を用いて、車両と障害物との距離に応じた境界位置角度を算出してもよい。また、新たな障害物が検出された場合、境界位置角度を障害物の位置に合わせた角度に段階的に変化させるように算出してもよい。
本実施形態4の画像視点制御部13は、車両状態判断部11から障害物の位置を通知された場合、通知された位置の方向に視点を移動させるような視点位置角度を決定する。具体的には、例えば、車両の前方又は後方に障害物があることを通知された場合、画像視点制御部13は、視点を車両の真上方向から車両の前方又は後方に移動させるための視点位置角度を決定する。画像視点制御部13は、決定した視点位置角度を画像処理部6へ送出する。
なお、画像視点制御部13は、視点位置角度の値を、例えば、車両と障害物との距離に応じて適宜変更してもよい。例えば、車両と障害物との距離が近付くにつれて、障害物の位置の真上方向に視点を移動させるような視点位置角度に変更してもよい。具体的には、車両と障害物との距離に応じた視点位置角度の値を予めテーブルに登録しておき、画像視点制御部13がテーブルを参照することによって視点位置角度を決定してもよい。また、車両と障害物との距離に応じた視点位置角度の値を数式によって予め定義しておき、画像視点制御部13が、数式を用いて、車両と障害物との距離に応じた視点位置角度を算出してもよい。また、新たな障害物が検出された場合、視点位置角度を障害物の位置に合わせた角度に段階的に変化させるように算出してもよい。
上述した処理により、本実施形態4のカメラ境界制御部12及び画像視点制御部13は、車両の走行状態だけでなく、車両の周囲の障害物の有無に応じた境界位置角度及び視点位置角度を決定できる。そして、画像処理部6が、このような境界位置角度及び視点位置角度を用いた画像処理を画像バッファ5に格納された画像データに行なうことによって、周囲に存在する障害物の場所等に応じた画像が生成されて表示装置90に表示される。これにより、運転者は、車両の周囲の状況に応じてより見易い画像を滑らかに変化させつつ得ることができ、周囲の障害物をより容易に発見できる。
なお、車両の周囲に存在する障害物を検出するためのセンサとしては、画像処理センサを用いることもできる。画像処理センサは、例えばそれぞれのカメラ71,72,73,74が撮影した時系列の画像データを比較することによって動体を検出するセンサである。このような画像処理センサを用いた場合でも、検出した動体の位置をクローズアップさせて表示する画像が生成される。
また、近年、インフラ協調型システムの開発が行なわれており、車両の周囲の状況を検出する手段として、インフラ協調型システムを利用することもできる。例えば、交差点又は横断歩道の近傍に設置された歩行者検出センサからの検出信号、他の車両に搭載された各種センサからの検出信号を利用することが考えられる。インフラ協調型システムを利用して車両の周囲の状況を検出する場合、画像処理装置10は、図3に示した構成のほかに、歩行者検出センサ又は他の車両に搭載された障害物検出センサからの検出信号を無線通信で受信するための受信部を備える。
この場合の車両状態判断部11は、受信部を介して歩行者検出センサ又は他の車両の障害物検出センサからの検出信号を取得し、取得した検出信号に基づいて、自身の車両に対してどの位置に歩行者又は障害物がいるかを検出する。そして、車両状態判断部11は、検出した歩行者又は障害物の位置をカメラ境界制御部12及び画像視点制御部13へ通知する。この場合にも、歩行者又は障害物の位置をクローズアップさせて表示する画像が生成される。
(実施形態5)
以下に、実施形態5の画像処理システムについて説明する。なお、本実施形態5の画像処理システムは、上述した実施形態1の画像処理システムと同様の構成によって実現できるので、同様の構成については同一の符号を付して説明を省略する。
本実施形態5の画像処理装置10は、車両の状態として、ハンドルの回転に伴って回動する車輪の進行方向に対する回動角度を検出し、回動角度に応じた画像を生成する。
本実施形態5の車両状態判断部11は、各種センサ80として、例えば舵角センサからの検出信号を取得し、取得した検出信号に基づいて、進行方向に対する車輪の回動角度を検出する。車両状態判断部11は、検出した車輪の回動角度をカメラ境界制御部12及び画像視点制御部13へ通知する。
本実施形態5のカメラ境界制御部12は、車両状態判断部11から車輪の回動角度を通知された場合、通知された回動角度に応じた境界位置角度を算出する。具体的には、例えば、車輪の回動角度が大きくなっていく場合は、車両が左折又は右折するために交差点に進入した状況であると推測できる。従って、カメラ境界制御部12は、車輪の回動角度が大きくなるにつれて、左カメラ73及び右カメラ74によって撮影された画像をよりクローズアップさせるような境界位置角度を算出する。
また、例えば、車輪の回動角度が小さくなっていく場合は、車両が左折又は右折をして交差点から退出する状況であると推測できる。従って、カメラ境界制御部12は、車輪の回動角度が小さくなるにつれて、前カメラ71及び後カメラ72によって撮影された画像をクローズアップさせるような境界位置角度を算出する。カメラ境界制御部12は、算出した境界位置角度を画像処理部6へ送出する。
なお、カメラ境界制御部12は、車輪の回動角度に応じた境界位置角度の値を予めテーブルに登録しておき、テーブルを参照することによって境界位置角度を決定してもよい。また、車輪の回動角度に応じた境界位置角度の値を数式によって予め定義しておき、カメラ境界制御部12が、数式を用いて、車輪の回動角度に応じた境界位置角度を算出してもよい。
本実施形態5の画像視点制御部13は、車両状態判断部11から車輪の回動角度を通知された場合、通知された回動角度に応じた視点位置角度を算出する。具体的には、例えば、画像視点制御部13は、車輪の回動角度が大きくなるにつれて、視点を車両の真上方向から車両の前方に移動させるための視点位置角度を算出する。また、画像視点制御部13は、車輪の回動角度が小さくなるにつれて、視点を車両の真上方向に戻すための視点位置角度を算出する。画像視点制御部13は、算出した視点位置角度を画像処理部6へ送出する。
なお、画像視点制御部13は、車輪の回動角度に応じた視点位置角度の値を予めテーブルに登録しておき、テーブルを参照することによって視点位置角度を決定してもよい。また、車輪の回動角度に応じた視点位置角度の値を数式によって予め定義しておき、画像視点制御部13が、数式を用いて、車輪の回動角度に応じた視点位置角度を算出してもよい。
上述した処理により、本実施形態5のカメラ境界制御部12及び画像視点制御部13は、車両の走行状態だけでなく、車両の車輪の回動角度に応じた境界位置角度及び視点位置角度を決定できる。そして、画像処理部6が、このような境界位置角度及び視点位置角度を用いた画像処理を画像バッファ5に格納された画像データに行なうことによって、車両が左折又は右折する場合のように車両の車輪の回動状況に応じた画像が生成されて表示装置90に表示される。これにより、運転者は、車両の走行状況に応じてより見易い画像を滑らかに変化させつつ得ることができる。
(実施形態6)
以下に、実施形態6の画像処理システムについて説明する。なお、本実施形態6の画像処理システムは、上述した実施形態1の画像処理システムと同様の構成によって実現できるので、同様の構成については同一の符号を付して説明を省略する。
本実施形態6の画像処理装置10は、各種センサ80として、例えば、アクセスペダルの踏み込み量を検出するセンサ、ブレーキペダルの踏み込み量を検出するセンサ等を更に備える。
本実施形態6の車両状態判断部11は、アクセルペダルセンサ又はブレーキペダルセンサからの検出信号を取得した場合、アクセルペダル又はブレーキペダルの踏み込み量を検出する。車両状態判断部11は、検出したアクセルペダル又はブレーキペダルの踏み込み量をカメラ境界制御部12及び画像視点制御部13へ通知する。
本実施形態6のカメラ境界制御部12は、車両状態判断部11からアクセルペダル又はブレーキペダルの踏み込み量を通知された場合、通知された踏み込み量に応じた境界位置角度を算出する。具体的には、例えば、アクセルペダルの踏み込み量が大きいほど、前カメラ71及び後カメラ72によって撮影された画像をよりクローズアップさせるような境界位置角度を算出する。また、例えば、ブレーキペダルの踏み込み量が大きいほど、左カメラ73及び右カメラ74によって撮影された画像をよりクローズアップさせるような境界位置角度を算出する。カメラ境界制御部12は、算出した境界位置角度を画像処理部6へ送出する。
なお、カメラ境界制御部12は、アクセルペダル又はブレーキペダルの踏み込み量に応じた境界位置角度の値を予めテーブルに登録しておき、テーブルを参照することによって境界位置角度を決定してもよい。また、アクセルペダル又はブレーキペダルの踏み込み量に応じた境界位置角度の値を数式によって予め定義しておき、カメラ境界制御部12が、数式を用いて、通知された踏み込み量に応じた境界位置角度を算出してもよい。
本実施形態6の画像視点制御部13は、車両状態判断部11からアクセルペダル又はブレーキペダルの踏み込み量を通知された場合、通知された踏み込み量に応じた視点位置角度を算出する。具体的には、例えば、アクセルペダルの踏み込み量が大きいほど、視点を車両の真上方向から車両の前方に移動させるための視点位置角度を算出する。また、画像視点制御部13は、ブレーキペダルの踏み込み量が大きいほど、視点を車両の真上方向に戻すための視点位置角度を算出する。画像視点制御部13は、算出した視点位置角度を画像処理部6へ送出する。
なお、画像視点制御部13は、アクセルペダル又はブレーキペダルの踏み込み量に応じた視点位置角度の値を予めテーブルに登録しておき、テーブルを参照することによって視点位置角度を決定してもよい。また、アクセルペダル又はブレーキペダルの踏み込み量に応じた視点位置角度の値を数式によって予め定義しておき、画像視点制御部13が、数式を用いて、通知された踏み込み量に応じた視点位置角度を算出してもよい。
上述した処理により、本実施形態6のカメラ境界制御部12及び画像視点制御部13は、アクセルペダルの踏み込み量又はブレーキペダルの踏み込み量に応じた境界位置角度及び視点位置角度を決定できる。そして、画像処理部6が、このような境界位置角度及び視点位置角度を用いた画像処理を画像バッファ5に格納された画像データに行なうことによって、アクセルペダルの踏み込み量又はブレーキペダルの踏み込み量の変化による車両の走行状況に応じた画像が生成されて表示装置90に表示される。これにより、運転者は、車両の走行状況に応じてより見易い画像を滑らかに変化させつつ得ることができる。
(実施形態7)
以下に、実施形態7の画像処理システムについて説明する。なお、本実施形態7の画像処理システムは、上述した実施形態1の画像処理システムと同様の構成によって実現できるので、同様の構成については同一の符号を付して説明を省略する。
本実施形態7の画像処理装置10は、各種センサ80として、ウインカー(方向指示器)が指示する方向を検出するセンサ等を更に備える。
本実施形態7の車両状態判断部11は、ウインカーセンサからの検出信号を取得した場合、車両が走行する予定の方向を判断し、カメラ境界制御部12及び画像視点制御部13へ通知する。
本実施形態7のカメラ境界制御部12は、車両状態判断部11から車両が走行する予定の方向を通知された場合、通知された方向を撮影範囲とするカメラとして左カメラ73又は右カメラ74を特定する。そして、カメラ境界制御部12は、特定した左カメラ73又は右カメラ74によって撮影された画像をクローズアップさせて表示するために、境界位置角度を例えば5°等の小さい値に決定する。カメラ境界制御部12は、決定した境界位置角度を画像処理部6へ送出する。
なお、カメラ境界制御部12は、境界位置角度の値を、例えば、ウインカーの点滅が開始されてからの時間に応じて適宜変更してもよい。例えば、ウインカーの点滅開始からの時間が経過するほど、左カメラ73及び右カメラ74によって撮影された画像をクローズアップさせるような境界位置角度に変更してもよい。具体的には、ウインカーの点滅開始からの時間に応じた境界位置角度の値を予めテーブルに登録しておき、カメラ境界制御部12がテーブルを参照することによって境界位置角度を決定してもよい。また、ウインカーの点滅開始からの時間に応じた境界位置角度の値を数式によって予め定義しておき、カメラ境界制御部12が、数式を用いて、車両と障害物との距離に応じた境界位置角度を算出してもよい。
本実施形態7の画像視点制御部13は、車両状態判断部11から車両が走行する予定の方向を通知された場合、通知された方向に対応する位置に視点を移動させるような視点位置角度を決定する。具体的には、例えば、車両の走行予定の方向として左前方又は右前方を通知された場合、画像視点制御部13は、視点を車両の真上方向から車両の後方に移動させるための視点位置角度を決定する。画像視点制御部13は、決定した視点位置角度を画像処理部6へ送出する。
なお、画像視点制御部13は、視点位置角度の値を、例えば、ウインカーの点滅が開始されてからの時間に応じて適宜変更してもよい。例えば、ウインカーの点滅開始からの時間が経過するほど、車両の後方に視点を移動させるような視点位置角度に変更してもよい。具体的には、ウインカーの点滅開始からの時間に応じた視点位置角度の値を予めテーブルに登録しておき、画像視点制御部13がテーブルを参照することによって視点位置角度を決定してもよい。また、ウインカーの点滅開始からの時間に応じた視点位置角度の値を数式によって予め定義しておき、画像視点制御部13が、数式を用いて、ウインカーの点滅開始からの時間に応じた視点位置角度を算出してもよい。
上述した処理により、本実施形態7のカメラ境界制御部12及び画像視点制御部13は、車両の走行予定の方向に応じた境界位置角度及び視点位置角度を決定できる。そして、画像処理部6が、このような境界位置角度及び視点位置角度を用いた画像処理を画像バッファ5に格納された画像データに行なうことによって、車両の走行予定の方向に応じた画像が生成されて表示装置90に表示される。これにより、運転者は、車両の走行状況に応じてより見易い画像を得ることができる。特に、交差点で左折又は右折する場合には、運転者は、左後方又は右後方をより確認し易い画像を滑らかに変化させつつ得ることができる。
上述した各実施形態では、車両状態判断部11が、各種センサ80に含まれるそれぞれのセンサからの検出信号に基づいて車両の状態を判断する例を説明した。しかし、本願に開示する画像処理装置10は、それぞれのセンサによる検出結果に基づいて総合的な車両の状態を検出し、総合的な車両の状態に応じた画像を表示装置90に表示させることができる。
例えば、GPSセンサによって検出された車両の現在位置に基づいて現在走行中の道路が高速道路であると判断されている状況で、ウインカーセンサによって車両の走行予定方向が左方向又は右方向であると判断されたとする。この場合、車両状態判断部11は、車両が隣接するレーン(車線)に移動する状態であると推測できる。また、GPSセンサによって検出された車両の現在位置に基づいて現在走行中の場所が住宅街であると判断されている状況で、ウインカーセンサによって車両の走行予定方向が左方向又は右方向であると判断されたとする。この場合、車両状態判断部11は、車両が左折又は右折する状態であると推測できる。
このようにして、車両状態判断部11は、各種センサ80に含まれるそれぞれのセンサからの検出信号に基づいて総合的な車両の状態を検出するので、総合的に判断された車両の状態に応じて、運転者が所望する可能性の高い画像を提供できる。
上述した各実施形態の画像処理装置10は、車両の走行状態に応じて変更させるパラメータとして、4つの2次元画像データから1つの投影画像データを生成するための境界位置角度及び視点位置角度を用いていた。このような構成のほかに、図6に示した3次元画像変換用データ4aの3次元モデルに含まれる曲面画像データの曲面62の角度を変更可能なパラメータとしてもよい。図13は曲面角度を説明するための模式図である。図13には図6及び図7に示した3次元モデルの縦断面図を示しており、図13(a)は曲面角度が広い3次元モデルを、図13(b)は曲面角度が狭い3次元モデルをそれぞれ示している。
曲面角度を変更するようにした場合、例えば、車両の現在位置を検知し、検知した現在位置の特性を検出した場合に、狭い路地を走行中であれば曲面角度を小さい値に変更し、周囲が開けた場所を走行中であれば曲面角度を大きい値に変更する。また値を変更するときは段階的に変更する。これにより、視界が開けた場所を走行中であるか否かに応じた画像を表示装置90に表示させることができ、運転者は、走行場所の状況に応じた画像によって周囲の状況を把握し易い。また、3次元画像変換用データ4aの3次元モデルに含まれる平面画像データが示す平面61の大きさ、3次元画像変換用データ4a中の車両データの位置等を変更させるようにしてもよい。
上述した各実施形態では、左カメラ73及び右カメラ74は、車両の左右の側面の中央部分に取り付けられている例について説明した。しかし、左カメラ73及び右カメラ74を例えば車両の左右のドアに取り付けられているドアミラーに取り付けることもできる。この場合、ドアミラーの角度を変更させることによって、左カメラ73及び右カメラ74によって撮影される領域も変更可能である。従って、例えば、車両が後退状態となった場合に、ドアミラーが斜め下方向を向くようにドアミラーの角度を変更すれば、車両の後方の近傍領域を左カメラ73及び右カメラ74によって効率よく撮影することができる。また、3次元画像を2次元に投影するパラメータとして視点位置角度以外に、視点と車両との距離又は拡大率等、2次元投影面を決定するための他のパラメータも同様に変化させてもよい。
上述した各実施形態では、画像処理装置10を車両内部に搭載された画像処理システムに用いた例について説明したが、車両内部に搭載されて、カーナビゲーションシステムと連動して動作するような画像処理システムに適用される構成に限られない。例えば、車両に取り付けられたカメラによって撮影された画像データ、車両に設けられた各種センサ80からの検出信号等を取得できる環境であれば、画像処理装置10は、車両内部に搭載されている必要はない。
以上の実施形態1〜7を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置において、
車両の運転操作の状態を示す状態情報を常時取得する状態情報取得部と、
撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを記憶する画像記憶部と、
前記状態情報取得部が所定の状態情報を取得した場合に、複数の2次元画像データを1つの3次元投影面形状に合成し、得られた3次元画像データに基づく3次元画像を所定の視点/視線方向から見た投影画像データに変換する際に用いる変換情報、及び/又は、撮像領域の重複部分の合成方法を、前記状態情報に応じて特定する特定部と、
該特定部が特定した変換情報及び/又は合成方法を用いて、前記画像記憶部に記憶された複数の2次元画像データを、前記所定の視点/視線方向から見た投影画像データに変換する画像変換部と
を備える画像処理装置。
(付記2)
車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置において、
車両の運転操作の状態を示す状態情報を車両から定期的に又は変化があった場合に取得する状態情報取得部と、
撮像領域の一部が重複する複数の撮像装置で撮像して得られた複数の2次元画像データを記憶する画像記憶部と、
該画像記憶部に記憶された複数の2次元画像データを1つの3次元投影面形状に合成し、得られた3次元画像データに基づく3次元画像を所定の視点/視線方向から見た投影画像データに変換する際に用いる変換情報、及び/又は、撮像領域の重複部分の合成方法を、前記状態情報取得部が取得した状態情報に応じて特定する特定部と、
該特定部が特定した変換情報及び/又は合成方法を用いて、前記画像記憶部に記憶された複数の2次元画像データを、前記所定の視点/視線方向から見た投影画像データに変換する画像変換部と
を備える画像処理装置。
(付記3)
前記特定部は、前記複数の2次元画像データを1つの3次元投影面形状に合成する際の、前記3次元画像データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、及び/又は、前記視点の位置及び視線方向を示す情報を含む付記1又は2に記載の画像処理装置。
(付記4)
所在地を示す位置情報を取得する位置取得部と、
地図データ及び地図データ中の各場所の特性を示す特性情報を記憶する地図記憶部とを備え、
前記状態情報取得部は、前記状態情報として、前記位置取得部が取得した位置情報が示す所在地の特性情報を前記地図記憶部から取得し、
前記特定部は、前記状態情報取得部が取得した特性情報に応じた変換情報及び/又は合成方法を特定する付記1から3までのいずれかひとつに記載の画像処理装置。
(付記5)
前記特性情報は、各場所が幹線道路であることを示す情報、又は各場所が市街地であることを示す情報を含む付記4に記載の画像処理装置。
(付記6)
前記状態情報取得部は、前記状態情報として、車両の走行状態を示す走行状態情報を取得し、
前記特定部は、前記状態情報取得部が取得した走行状態情報に応じた変換情報及び/又は合成方法を特定する付記1から5までのいずれかひとつに記載の画像処理装置。
(付記7)
前記状態情報取得部は、前記状態情報として、車両の周囲の状態を示す周囲状態情報を取得し、
前記特定部は、前記状態情報取得部が取得した周囲状態情報に応じた変換情報及び/又は合成方法を特定する付記1から6までのいずれかひとつに記載の画像処理装置。
(付記8)
前記周囲状態情報は、車両の周囲に存在する障害物又は移動体を示す情報、又は車両が走行する道路の形状を示す情報を含む付記7に記載の画像処理装置。
(付記9)
前記3次元画像データは、車両を示す車両画像データと、該車両が配置される矩形の配置面から延設された平面を示す平面画像データと、前記平面から延設された曲面を示す曲面画像データとを含み、前記平面画像データは、前記配置面の各辺のそれぞれから延設され、延設方向に複数のポリゴンが配置された略矩形状の延設面を示す矩形延設面データと、前記配置面の各頂点のそれぞれから延設され、放射状に複数のポリゴンが配置された略扇形状の延設面を示す扇形延設面データとを含み、
前記特定部は、前記複数の2次元画像データを1つの3次元投影面形状に合成する際の、前記3次元画像データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報として、前記略扇形状の延設面において前記配置面の各頂点を一端とした直線の情報を特定する付記1から8までのいずれかひとつに記載の画像処理装置。
(付記10)
前記画像変換部が変換して得られた投影画像データを表示装置へ出力する画像出力部を備える付記1から9までのいずれかひとつに記載の画像処理装置。
(付記11)
車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置による画像処理方法において、
車両の運転操作の状態を示す状態情報を常時取得するステップと、
所定の状態情報を取得した場合、撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを1つの3次元投影面形状に合成し、得られた3次元画像データに基づく3次元画像を所定の視点/視線方向から見た投影画像データに変換する際に用いる変換情報、及び/又は、撮像領域の重複部分の合成方法を、前記状態情報に応じて特定するステップと、
特定した変換情報及び/又は合成方法を用いて、前記複数の2次元画像データを、前記所定の視点/視線方向から見た投影画像データに変換するステップと
を含む画像処理方法。
(付記12)
コンピュータに、車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理させるためのコンピュータプログラムであって、
前記コンピュータに、
車両の運転操作の状態を示す状態情報を常時取得するステップと、
所定の状態情報を取得した場合、撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを1つの3次元投影面形状に合成し、得られた3次元画像データに基づく3次元画像を所定の視点/視線方向から見た投影画像データに変換する際に用いる変換情報、及び/又は、撮像領域の重複部分の合成方法を、前記状態情報に応じて特定するステップと、
特定した変換情報及び/又は合成方法を用いて、前記複数の2次元画像データを、前記所定の視点/視線方向から見た投影画像データに変換するステップと
を実行させるためのコンピュータプログラム。
実施形態1の画像処理システムの構成を示すブロック図である。 カメラの車両への取付位置の例を示す模式図である。 実施形態1の画像処理装置の構成を示すブロック図である。 実施形態1の画像処理装置の機能を示す機能ブロック図である。 画像バッファによる画像データの格納例を示す模式図である。 3次元画像変換用データの例を示す模式図である。 テクスチャマッピング処理を説明するための模式図である。 境界位置角度及び視点位置角度を説明するための模式図である。 境界位置角度の相異を説明するための模式図である。 視点位置角度の相異を説明するための模式図である。 画像処理装置による画像処理の手順を示すフローチャートである。 実施形態2の画像処理装置の構成を示すブロック図である。 曲面角度を説明するための模式図である。
符号の説明
10 画像処理装置
1 制御部
5 画像バッファ(画像記憶部)
6 画像処理部(画像変換部)
9 モニタインタフェース(画像出力部)
11 車両状態判断部(状態情報取得部)
12 カメラ境界制御部(特定部)
13 画像視点制御部(特定部)

Claims (8)

  1. 車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置において、
    車両の運転操作の状態を示す状態情報を常時取得する状態情報取得部と、
    撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを記憶する画像記憶部と、
    前記状態情報取得部が取得した状態情報に応じて複数の2次元画像データの投影対象となる3次元投影面形状データを含み、複数の2次元画像データを前記3次元投影面形状データにポリゴン単位で投影するための3次元合成テクスチャマッピングデータを変更する変更部と、
    該変更部が変更した3次元合成テクスチャマッピングデータを用いて前記画像記憶部に記憶された複数の2次元画像データを前記3次元投影面形状データに投影し、所定の視点/視線方向から見た投影画像データを生成する投影画像生成部と、
    該投影画像生成部が前記複数の2次元画像データを前記3次元投影面形状データに投影する際の、前記3次元投影面形状データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、並びに、前記投影画像データを生成する際に、前記3次元投影面形状データに基づく3次元投影面形状を見る視点の位置及び視線方向を示す情報を、前記状態情報取得部が取得した状態情報に応じて特定する特定部とを備え、
    前記3次元合成テクスチャマッピングデータは、車両を示す車両3次元データを含み、
    前記3次元投影面形状データは、前記車両が配置される矩形の配置面から延設された平面を示す平面3次元データと、前記平面から延設された曲面を示す曲面3次元データとを含み、前記平面3次元データは、前記配置面の各辺のそれぞれから延設され、延設方向に複数のポリゴンが配置された略矩形状の延設面を示す矩形延設面データと、前記配置面の各頂点のそれぞれから延設され、放射状に複数のポリゴンが配置された略扇形状の延設面を示す扇形延設面データとを含み、
    前記合成位置の情報は、前記略扇形状の延設面において前記配置面の各頂点を一端とした直線の情報であり、
    前記変更部は、前記特定部が特定した合成位置の情報に基づいて前記3次元合成テクスチャマッピングデータを変更するようにしてあり、
    前記投影画像生成部は、前記特定部が特定した視点の位置及び視線方向を示す情報に基づいて前記投影画像データを生成するようにしてある
    ことを特徴とする画像処理装置。
  2. 車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置において、
    車両の運転操作の状態を示す状態情報を車両から定期的に又は変化があった場合に取得する状態情報取得部と、
    撮像領域の一部が重複する複数の撮像装置で撮像して得られた複数の2次元画像データを記憶する画像記憶部と、
    前記状態情報取得部が取得した状態情報に応じて、複数の2次元画像データの投影対象となる3次元投影面形状データを含み、複数の2次元画像データを前記3次元投影面形状データにポリゴン単位で投影するための3次元合成テクスチャマッピングデータを変更する変更部と、
    該変更部が変更した3次元合成テクスチャマッピングデータを用いて前記画像記憶部に記憶された複数の2次元画像データを前記3次元投影面形状データに投影し、所定の視点/視線方向から見た投影画像データを生成する投影画像生成部と、
    該投影画像生成部が前記複数の2次元画像データを前記3次元投影面形状データに投影する際の、前記3次元投影面形状データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、並びに、前記投影画像データを生成する際に、前記3次元投影面形状データに基づく3次元投影面形状を見る視点の位置及び視線方向を示す情報を、前記状態情報取得部が取得した状態情報に応じて特定する特定部とを備え、
    前記3次元合成テクスチャマッピングデータは、車両を示す車両3次元データを含み、
    前記3次元投影面形状データは、前記車両が配置される矩形の配置面から延設された平面を示す平面3次元データと、前記平面から延設された曲面を示す曲面3次元データとを含み、前記平面3次元データは、前記配置面の各辺のそれぞれから延設され、延設方向に複数のポリゴンが配置された略矩形状の延設面を示す矩形延設面データと、前記配置面の各頂点のそれぞれから延設され、放射状に複数のポリゴンが配置された略扇形状の延設面を示す扇形延設面データとを含み、
    前記合成位置の情報は、前記略扇形状の延設面において前記配置面の各頂点を一端とした直線の情報であり、
    前記変更部は、前記特定部が特定した合成位置の情報に基づいて前記3次元合成テクスチャマッピングデータを変更するようにしてあり、
    前記投影画像生成部は、前記特定部が特定した視点の位置及び視線方向を示す情報に基づいて前記投影画像データを生成するようにしてある
    ことを特徴とする画像処理装置。
  3. 所在地を示す位置情報を取得する位置取得部と、
    地図データ及び地図データ中の各場所の特性を示す特性情報を記憶する地図記憶部とを備え、
    前記状態情報取得部は、前記状態情報として、前記位置取得部が取得した位置情報が示す所在地の特性情報を前記地図記憶部から取得し、
    前記特定部は、前記状態情報取得部が取得した特性情報に応じた情報を特定する請求項1又は2に記載の画像処理装置。
  4. 前記状態情報取得部は、前記状態情報として、車両の走行状態を示す走行状態情報を取得し、
    前記特定部は、前記状態情報取得部が取得した走行状態情報に応じた情報を特定する請求項1からまでのいずれかひとつに記載の画像処理装置。
  5. 前記状態情報取得部は、前記状態情報として、車両の周囲の状態を示す周囲状態情報を取得し、
    前記特定部は、前記状態情報取得部が取得した周囲状態情報に応じた情報を特定する請求項1からまでのいずれかひとつに記載の画像処理装置。
  6. 前記投影画像生成部生成した投影画像データを表示装置へ出力する画像出力部を備える請求項1からまでのいずれかひとつに記載の画像処理装置。
  7. 車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理可能な画像処理装置による画像処理方法において、
    車両の運転操作の状態を示す状態情報を常時取得するステップと、
    取得した状態情報に応じて、複数の2次元画像データの投影対象となる3次元投影面形状データを含み、複数の2次元画像データを前記3次元投影面形状データにポリゴン単位で投影するための3次元合成テクスチャマッピングデータを変更する変更ステップと、
    変更された3次元合成テクスチャマッピングデータを用いて、撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを前記3次元投影面形状データに投影し、所定の視点/視線方向から見た投影画像データを生成する投影画像生成ステップと、
    該投影画像生成ステップで前記複数の2次元画像データを前記3次元投影面形状データに投影する際の、前記3次元投影面形状データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、並びに、前記投影画像データを生成する際に、前記3次元投影面形状データに基づく3次元投影面形状を見る視点の位置及び視線方向を示す情報を、前記取得した状態情報に応じて特定する特定ステップとを含み、
    前記3次元合成テクスチャマッピングデータは、車両を示す車両3次元データを含み、
    前記3次元投影面形状データは、前記車両が配置される矩形の配置面から延設された平面を示す平面3次元データと、前記平面から延設された曲面を示す曲面3次元データとを含み、前記平面3次元データは、前記配置面の各辺のそれぞれから延設され、延設方向に複数のポリゴンが配置された略矩形状の延設面を示す矩形延設面データと、前記配置面の各頂点のそれぞれから延設され、放射状に複数のポリゴンが配置された略扇形状の延設面を示す扇形延設面データとを含み、
    前記合成位置の情報は、前記略扇形状の延設面において前記配置面の各頂点を一端とした直線の情報であり、
    前記変更ステップは、前記特定ステップで特定した合成位置の情報に基づいて前記3次元合成テクスチャマッピングデータを変更し、
    前記投影画像生成ステップは、前記特定ステップで特定した視点の位置及び視線方向を示す情報に基づいて前記投影画像データを生成する
    ことを特徴とする画像処理方法。
  8. コンピュータに、車両に搭載された複数の撮像装置で車両の周囲を撮像して得られる画像データを画像処理させるためのコンピュータプログラムであって、
    前記コンピュータに、
    車両の運転操作の状態を示す状態情報を常時取得するステップと、
    取得した状態情報に応じて、複数の2次元画像データの投影対象となる3次元投影面形状データを含み、複数の2次元画像データを前記3次元投影面形状データにポリゴン単位で投影するための3次元合成テクスチャマッピングデータを変更する変更ステップと、
    変更された3次元合成テクスチャマッピングデータを用いて、撮像領域の一部が重複する前記複数の撮像装置で撮像して得られた複数の2次元画像データを前記3次元投影面形状データに投影し、所定の視点/視線方向から見た投影画像データを生成する投影画像生成ステップと、
    該投影画像生成ステップで前記複数の2次元画像データを前記3次元投影面形状データに投影する際の、前記3次元投影面形状データにおける前記複数の2次元画像データの重複範囲においていずれの2次元画像データを採用するかの区切りを示す合成位置の情報、並びに、前記投影画像データを生成する際に、前記3次元投影面形状データに基づく3次元投影面形状を見る視点の位置及び視線方向を示す情報を、前記取得した状態情報に応じて特定する特定ステップとを含み、
    前記3次元合成テクスチャマッピングデータは、車両を示す車両3次元データを含み、
    前記3次元投影面形状データは、前記車両が配置される矩形の配置面から延設された平面を示す平面3次元データと、前記平面から延設された曲面を示す曲面3次元データとを含み、前記平面3次元データは、前記配置面の各辺のそれぞれから延設され、延設方向に複数のポリゴンが配置された略矩形状の延設面を示す矩形延設面データと、前記配置面の各頂点のそれぞれから延設され、放射状に複数のポリゴンが配置された略扇形状の延設面を示す扇形延設面データとを含み、
    前記合成位置の情報は、前記略扇形状の延設面において前記配置面の各頂点を一端とした直線の情報であり、
    前記変更ステップは、前記特定ステップで特定した合成位置の情報に基づいて前記3次元合成テクスチャマッピングデータを変更し、
    前記投影画像生成ステップは、前記特定ステップで特定した視点の位置及び視線方向を示す情報に基づいて前記投影画像データを生成する
    ことを特徴とするコンピュータプログラム。
JP2008305018A 2008-11-28 2008-11-28 画像処理装置、画像処理方法及びコンピュータプログラム Active JP5182042B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008305018A JP5182042B2 (ja) 2008-11-28 2008-11-28 画像処理装置、画像処理方法及びコンピュータプログラム
EP09169574.2A EP2192552B1 (en) 2008-11-28 2009-09-07 Image processing apparatus, image processing method, and recording medium
US12/585,240 US8319618B2 (en) 2008-11-28 2009-09-09 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008305018A JP5182042B2 (ja) 2008-11-28 2008-11-28 画像処理装置、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2010128951A JP2010128951A (ja) 2010-06-10
JP5182042B2 true JP5182042B2 (ja) 2013-04-10

Family

ID=41698045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008305018A Active JP5182042B2 (ja) 2008-11-28 2008-11-28 画像処理装置、画像処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US8319618B2 (ja)
EP (1) EP2192552B1 (ja)
JP (1) JP5182042B2 (ja)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8843309B2 (en) * 2005-04-21 2014-09-23 Microsoft Corporation Virtual earth mapping
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
JP5439890B2 (ja) 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
DE102009036200A1 (de) * 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
US10643467B2 (en) * 2010-03-28 2020-05-05 Roadmetric Ltd. System and method for detecting and recording traffic law violation events
JP5500255B2 (ja) * 2010-08-06 2014-05-21 富士通株式会社 画像処理装置および画像処理プログラム
US20120050025A1 (en) * 2010-08-26 2012-03-01 Hoeffel James J Vehicle steering assist system and method of operation
CN102404550B (zh) * 2010-09-14 2013-12-18 施议杰 利用灯号信号启动的车侧影像辅助系统
JP5251947B2 (ja) * 2010-09-17 2013-07-31 日産自動車株式会社 車両用画像表示装置
US9900522B2 (en) * 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
JP5716389B2 (ja) * 2010-12-24 2015-05-13 日産自動車株式会社 車両用表示装置
JP5699679B2 (ja) * 2011-02-24 2015-04-15 富士通セミコンダクター株式会社 画像処理装置、画像処理システム、及び画像処理方法
US10178314B2 (en) * 2011-03-08 2019-01-08 Mitsubishi Electric Corporation Moving object periphery image correction apparatus
EP2511137B1 (en) 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9683848B2 (en) 2011-04-19 2017-06-20 Ford Global Technologies, Llc System for determining hitch angle
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9506774B2 (en) * 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
US9500497B2 (en) 2011-04-19 2016-11-22 Ford Global Technologies, Llc System and method of inputting an intended backing path
EP2530647A1 (en) 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
JP5587499B2 (ja) * 2011-06-07 2014-09-10 株式会社小松製作所 作業車両の周辺監視装置
JP5124671B2 (ja) * 2011-06-07 2013-01-23 株式会社小松製作所 作業車両の周辺監視装置
EP2541498B1 (en) 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system
US20150109446A1 (en) * 2011-07-12 2015-04-23 Nissan Motor Co., Ltd. Vehicle monitoring device, vehicle monitoring system, terminal device, and vehicle monitoring method
US10793067B2 (en) 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
JP5668857B2 (ja) 2011-07-29 2015-02-12 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP2554434B1 (en) 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
KR101278654B1 (ko) * 2011-08-31 2013-06-25 에스엘 주식회사 차량의 주변 영상 디스플레이 장치 및 방법
WO2013046593A1 (ja) * 2011-09-30 2013-04-04 パナソニック株式会社 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
KR101265711B1 (ko) 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
WO2013148675A1 (en) * 2012-03-26 2013-10-03 Robert Bosch Gmbh Multi-surface model-based tracking
CN102815267B (zh) * 2012-07-30 2015-09-23 江西好帮手电子科技有限公司 一种全息投影倒车影像方法及其系统
JP5911775B2 (ja) * 2012-08-21 2016-04-27 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
FR2994921B1 (fr) * 2012-09-05 2015-08-07 Peugeot Citroen Automobiles Sa Dispositif de traitement pour generer un fichier d'image d'un environnement de vehicule selon une vue dont le type est fonction de la situation de vie, et systeme d'aide associe
US20140094197A1 (en) * 2012-10-03 2014-04-03 Fisoc, Inc. Speed and topology relevant dynamic geo search
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
JP6099931B2 (ja) * 2012-11-01 2017-03-22 株式会社東芝 画像同期装置及びシステム
US9511799B2 (en) 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
US9592851B2 (en) 2013-02-04 2017-03-14 Ford Global Technologies, Llc Control modes for a trailer backup assist system
JP6202240B2 (ja) * 2013-02-05 2017-09-27 スズキ株式会社 俯瞰画像提示装置
DE102013203404A1 (de) * 2013-02-28 2014-08-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds
JP6310652B2 (ja) * 2013-07-03 2018-04-11 クラリオン株式会社 映像表示システム、映像合成装置及び映像合成方法
DE102013013364A1 (de) 2013-08-09 2014-03-06 Daimler Ag Verfahren zum verzerrungsarmen Abbilden einer Fahrzeugumgebung auf einem Fahrzeug-Display
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
JP2015070280A (ja) * 2013-09-26 2015-04-13 京セラ株式会社 画像処理装置、カメラシステム、および画像処理方法
JP6167824B2 (ja) * 2013-10-04 2017-07-26 アイシン精機株式会社 駐車支援装置
EP3085074B1 (en) * 2013-12-19 2020-02-26 Intel Corporation Bowl-shaped imaging system
DE102014204303A1 (de) 2014-03-10 2015-09-10 Robert Bosch Gmbh Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
DE102014206246A1 (de) * 2014-04-02 2015-10-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anpassen einer dreidimensionalen Projektionsfläche zum Projizieren einer Mehrzahl benachbarter Kamerabilder
KR20150128140A (ko) * 2014-05-08 2015-11-18 현대모비스 주식회사 어라운드 뷰 시스템
US10068472B2 (en) * 2014-06-06 2018-09-04 Veoneer Us, Inc. Automotive lane discipline system, method, and apparatus
WO2015194501A1 (ja) * 2014-06-20 2015-12-23 クラリオン株式会社 映像合成システムとそのための映像合成装置及び映像合成方法
JP6243806B2 (ja) * 2014-06-26 2017-12-06 日立建機株式会社 作業車両の周囲監視装置および周囲監視装置用プログラム
JP2016018295A (ja) * 2014-07-07 2016-02-01 日立オートモティブシステムズ株式会社 情報処理システム
DE102014213536A1 (de) * 2014-07-11 2016-01-14 Bayerische Motoren Werke Aktiengesellschaft Zusammenfügen von Teilbildern zu einem Abbild einer Umgebung eines Fortbewegungsmittels
CN105313773A (zh) * 2014-07-24 2016-02-10 深圳市驰晶科技有限公司 高清全景泊车及辅助驾驶系统
KR102118066B1 (ko) * 2014-08-20 2020-06-03 현대모비스 주식회사 주행 안전을 위한 차량 제어방법
US10442355B2 (en) * 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US10127463B2 (en) 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras
US9533683B2 (en) 2014-12-05 2017-01-03 Ford Global Technologies, Llc Sensor failure mitigation system and mode management
US9522677B2 (en) 2014-12-05 2016-12-20 Ford Global Technologies, Llc Mitigation of input device failure and mode management
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
DE102015204213B4 (de) * 2015-03-10 2023-07-06 Robert Bosch Gmbh Verfahren zum Zusammensetzen von zwei Bildern einer Fahrzeugumgebung eines Fahrzeuges und entsprechende Vorrichtung
JP2016225865A (ja) 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
US10486599B2 (en) 2015-07-17 2019-11-26 Magna Mirrors Of America, Inc. Rearview vision system for vehicle
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
US10187590B2 (en) 2015-10-27 2019-01-22 Magna Electronics Inc. Multi-camera vehicle vision system with image gap fill
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
CN105469388B (zh) * 2015-11-16 2019-03-15 集美大学 基于降维的建筑物点云配准方法
DE102015015437A1 (de) * 2015-12-02 2017-06-08 Conti Temic Microelectronic Gmbh Steuergerät und Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
JP6644256B2 (ja) * 2015-12-22 2020-02-12 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2017134610A (ja) * 2016-01-27 2017-08-03 富士通株式会社 映像生成装置、映像表示方法、及びプログラム
CN105761209B (zh) * 2016-03-16 2018-11-13 武汉大学 核安全壳表面影像拼接方法及系统
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
DE102016117518A1 (de) 2016-09-16 2018-03-22 Connaught Electronics Ltd. Angepasstes Zusammenfügen von Einzelbildern zu einem Gesamtbild in einem Kamerasystem für ein Kraftfahrzeug
DE102016220651A1 (de) * 2016-10-20 2018-04-26 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erzeugung einer Fahrzeugumgebungsansicht bei einem Fahrzeug
EP3537713B1 (en) * 2016-11-01 2021-09-01 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. Surroundings monitoring system for a work machine
DE102016223391A1 (de) 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum erzeugen einer fahrzeugumgebungsansicht bei einem fahrzeug
US10332292B1 (en) * 2017-01-17 2019-06-25 Zoox, Inc. Vision augmentation for supplementing a person's view
EP3537714B1 (en) * 2017-02-28 2021-08-25 JVC Kenwood Corporation Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP6730613B2 (ja) * 2017-02-28 2020-07-29 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2020155792A (ja) * 2017-07-11 2020-09-24 パナソニックIpマネジメント株式会社 画像表示装置
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
WO2019082301A1 (ja) * 2017-10-25 2019-05-02 楽天株式会社 無人航空機制御システム、無人航空機制御方法、及びプログラム
KR102306790B1 (ko) * 2017-11-08 2021-09-30 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
JP7147255B2 (ja) * 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置
JP7139717B2 (ja) * 2018-06-26 2022-09-21 株式会社デンソー 車両用通信装置、車両用通信方法、及び制御プログラム
US20210284069A1 (en) * 2018-07-13 2021-09-16 Maxell Frontier Co., Ltd. Vehicle display device
US11544895B2 (en) * 2018-09-26 2023-01-03 Coherent Logix, Inc. Surround view generation
JP7314518B2 (ja) * 2019-02-06 2023-07-26 株式会社アイシン 周辺監視装置
DE102019206581A1 (de) * 2019-05-08 2020-11-12 Conti Temic Microelectronic Gmbh Verfahren zur Erzeugung eines Bildes einer Fahrzeugumgebung und Vorrichtung zur Erzeugung eines Bildes einer Fahrzeugumgebung
JP7000383B2 (ja) 2019-07-04 2022-01-19 株式会社デンソー 画像処理装置および画像処理方法
KR102281609B1 (ko) * 2020-01-16 2021-07-29 현대모비스 주식회사 어라운드뷰 합성 시스템 및 방법
KR102473407B1 (ko) * 2020-12-28 2022-12-05 삼성전기주식회사 틸트 카메라를 이용한 차량의 svm 시스템
JP2023082954A (ja) * 2021-12-03 2023-06-15 本田技研工業株式会社 制御装置、制御方法、及び制御プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US6498620B2 (en) 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
JP2002135765A (ja) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd カメラキャリブレーション指示装置及びカメラキャリブレーション装置
EP2259220A3 (en) 1998-07-31 2012-09-26 Panasonic Corporation Method and apparatus for displaying image
US7161616B1 (en) 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP3372944B2 (ja) * 2000-07-19 2003-02-04 松下電器産業株式会社 監視システム
KR20020033816A (ko) 2000-07-19 2002-05-07 마츠시타 덴끼 산교 가부시키가이샤 감시시스템
JP3753681B2 (ja) * 2000-07-19 2006-03-08 松下電器産業株式会社 監視システム
JP3695319B2 (ja) * 2000-11-30 2005-09-14 トヨタ自動車株式会社 車両周辺モニタ装置
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP3652678B2 (ja) 2001-10-15 2005-05-25 松下電器産業株式会社 車両周囲監視装置およびその調整方法
JP3849505B2 (ja) * 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
JP4037722B2 (ja) * 2002-09-18 2008-01-23 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP2004361112A (ja) * 2003-06-02 2004-12-24 Matsushita Electric Ind Co Ltd 3次元視点設定装置および3次元視点設定方法
CN100566406C (zh) 2005-02-15 2009-12-02 松下电器产业株式会社 周边监视装置和周边监视方法
JP4899367B2 (ja) 2005-07-27 2012-03-21 日産自動車株式会社 俯瞰画像表示システム及び俯瞰画像の表示方法
JP4606322B2 (ja) 2005-12-27 2011-01-05 アルパイン株式会社 車両運転支援装置
JP4797849B2 (ja) * 2006-07-14 2011-10-19 株式会社デンソー 運転支援画像表示システム及び車載装置
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
JP2008279875A (ja) * 2007-05-10 2008-11-20 Alpine Electronics Inc 駐車支援装置

Also Published As

Publication number Publication date
US20100134325A1 (en) 2010-06-03
EP2192552B1 (en) 2018-10-31
US8319618B2 (en) 2012-11-27
JP2010128951A (ja) 2010-06-10
EP2192552A1 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP5182042B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP7010221B2 (ja) 画像生成装置、画像生成方法、及び、プログラム
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
US8289189B2 (en) Camera system for use in vehicle parking
JP4969269B2 (ja) 画像処理装置
CN107465890B (zh) 车辆的图像处理装置
JP2002373327A (ja) 車両周辺画像処理装置及び記録媒体
JP5045172B2 (ja) 車両用運転支援装置
JP6543313B2 (ja) 移動体用画像生成記録表示装置及びプログラム
JP6998360B2 (ja) 車両用表示装置及び駐車支援システム
JP2012086684A (ja) 駐車支援装置
JP2004356845A (ja) 移動体周辺監視装置
JP2006054662A (ja) 運転支援装置
JP2006279752A (ja) 車両直下画像表示制御装置および車両直下画像表示制御プログラム
JP2023165721A (ja) 表示制御装置
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP6697115B2 (ja) 移動体用画像生成記録表示装置及びプログラム
JP2006327498A (ja) 駐車支援方法及び駐車支援装置
JP7220734B2 (ja) 画像表示システム
JP2003030627A (ja) 車両周辺画像処理装置及び記録媒体
JP2010237798A (ja) 画像処理装置および画像処理プログラム
JP7576454B2 (ja) 駐車支援装置及び駐車支援方法
JP2004120662A (ja) 移動体周辺監視装置
JP7302477B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2023084660A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

R150 Certificate of patent or registration of utility model

Ref document number: 5182042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3