Nothing Special   »   [go: up one dir, main page]

JP7426174B2 - Vehicle surrounding image display system and vehicle surrounding image display method - Google Patents

Vehicle surrounding image display system and vehicle surrounding image display method Download PDF

Info

Publication number
JP7426174B2
JP7426174B2 JP2018201617A JP2018201617A JP7426174B2 JP 7426174 B2 JP7426174 B2 JP 7426174B2 JP 2018201617 A JP2018201617 A JP 2018201617A JP 2018201617 A JP2018201617 A JP 2018201617A JP 7426174 B2 JP7426174 B2 JP 7426174B2
Authority
JP
Japan
Prior art keywords
image
vehicle
frame
photographing
vehicle surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018201617A
Other languages
Japanese (ja)
Other versions
JP2020068499A (en
Inventor
和之 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Priority to JP2018201617A priority Critical patent/JP7426174B2/en
Priority to KR1020190000657A priority patent/KR20200047257A/en
Publication of JP2020068499A publication Critical patent/JP2020068499A/en
Application granted granted Critical
Publication of JP7426174B2 publication Critical patent/JP7426174B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/18Distance travelled

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、自動車等の車両の周囲画像を表示する車両周囲画像表示システム及びその表示方法に関し、より詳しくは、車両周囲を撮影するカメラから得られた画像に基づいて、自車両及びその周辺の俯瞰画像を合成して表示する際に、自車両の移動に合わせて、自車両の直下を含む周囲画像を死角なしに表示可能な車両周囲画像表示システム及び車両周囲画像表示方法に関する。 The present invention relates to a vehicle surrounding image display system and display method for displaying images of the surroundings of a vehicle such as an automobile, and more specifically, the present invention relates to a vehicle surrounding image display system that displays images of the surroundings of a vehicle such as an automobile, and a method for displaying the same. The present invention relates to a vehicle surrounding image display system and a vehicle surrounding image display method that can display surrounding images including the area directly below the own vehicle without blind spots as the own vehicle moves when synthesizing and displaying overhead images.

車両を運転する運転者が直接見ることのできる範囲は限られている。特に、車両後方は一般的なルームミラーやドアミラーを利用しても運転席からは見ることのできない死角となる箇所が多数存在する。例えば、車両後方を見た場合の運転者の視界の一部はトランクや後部ピラーで遮られる。そこで、従来、車両の周囲状況を撮影するカメラを車両に搭載して、撮影した画像をディスプレイに表示させることで、運転者の周囲確認を補助する装置が提案されている。 The range that a driver who drives a vehicle can directly see is limited. In particular, there are many blind spots at the rear of the vehicle that cannot be seen from the driver's seat even if a general rearview mirror or door mirror is used. For example, a portion of the driver's field of vision when looking toward the rear of the vehicle is obstructed by the trunk or rear pillar. Therefore, conventionally, a device has been proposed that assists the driver in checking the surroundings by mounting a camera on a vehicle and displaying the captured image on a display.

例えば、特許文献1に開示された技術では、車両の周辺を撮影する複数のカメラで取得した撮影画像を加工して、運転者がバックミラーを介して見える位置に配置された表示手段の表示面に、車両周囲の死角になる領域の画像も含めた合成画像を表示させることを提案している。また、特許文献2に開示された技術では、撮影した画像から検出された駐車区画線が不完全である場合に、撮影手段により過去に撮影された過去画像を重畳して表示する技術が開示されている。 For example, in the technology disclosed in Patent Document 1, captured images obtained by a plurality of cameras that capture images of the surroundings of a vehicle are processed, and a display screen of a display means disposed at a position where the driver can see through the rearview mirror is used. It is proposed to display a composite image that also includes images of blind spots around the vehicle. Furthermore, the technique disclosed in Patent Document 2 discloses a technique for superimposing and displaying a past image photographed by a photographing means in the past when a parking lot line detected from a photographed image is incomplete. ing.

しかしながら、特許文献1の技術では、車両の下部や外周部付近の状況を反映することができないため、タイヤと障害物等との位置確認や、タイヤと溝などとの位置関係を画像で確認することができなかった。また、特許文献2の技術は、画像が鮮明でない部分を過去に撮影した画像に置き換えるため、現在の状況を反映することができなかった。 However, the technology of Patent Document 1 cannot reflect the situation near the bottom or outer circumference of the vehicle, so it is necessary to check the position of tires and obstacles, and the positional relationship between tires and grooves using images. I couldn't. Furthermore, the technique disclosed in Patent Document 2 replaces parts where the image is not clear with images taken in the past, and therefore cannot reflect the current situation.

特開2006-135797号公報Japanese Patent Application Publication No. 2006-135797 特開2006-311299号公報Japanese Patent Application Publication No. 2006-311299

本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、自車両によって死角となる車両下部や外周部付近の状況が可視化された車両周囲画像を表示するとともに、車両の移動に合わせて死角のない車両周囲画像の表示範囲を最適化する車両周囲画像表示システムを提供することにある。 The present invention has been made in view of the above-mentioned conventional problems, and an object of the present invention is to display a vehicle surrounding image in which the situation near the lower part of the vehicle and the outer circumference, which is a blind spot caused by the own vehicle, is visualized. An object of the present invention is to provide a vehicle surrounding image display system that optimizes the display range of vehicle surrounding images without blind spots according to the movement of the vehicle.

上記目的を達成するためになされた本発明の一態様による車両周囲画像表示システムは、車両の進行に同期した車両周囲画像を表示させる車両周囲画像表示システムであって、前記画像表示システムは、車両に配置されて前記車両の周囲を撮影する撮影手段と、前記撮影手段により撮影された画像を保存する画像記憶手段と、前記撮影された画像を画像処理する画像処理手段と、画像処理された画像を表示する画像表示手段と、を備え、前記画像処理手段は、前記撮影手段により撮影された現在の画像の死角部分を、現在よりも前に撮影された画像から生成された履歴画像で補完した車両周囲画像を生成し、前記画像表示手段は、前記生成された車両周囲画像に前記画像記憶手段に保存された自車両の透過画像を重ねて表示することを特徴とする。 A vehicle surrounding image display system according to one aspect of the present invention, which has been made to achieve the above object, is a vehicle surrounding image display system that displays a vehicle surrounding image synchronized with the progress of the vehicle, and wherein the image display system a photographing means disposed in the photographing means for photographing the surroundings of the vehicle; an image storage means for storing the image photographed by the photographing means; an image processing means for processing the photographed image; and an image processing means for processing the photographed image; and an image display means for displaying an image, wherein the image processing means complements a blind spot portion of the current image photographed by the photographing means with a history image generated from an image photographed before the current image. The present invention is characterized in that a vehicle surroundings image is generated, and the image display means displays a transparent image of the own vehicle stored in the image storage means superimposed on the generated vehicle surroundings image.

前記撮影手段は、自車両の後方又は前方周辺を撮影可能な1つ以上の広角カメラを含み、前記広角カメラにより撮影された画像を、フレーム単位で前記画像処理手段に送信し、前記画像処理手段は、受信した画像を連続するフレーム単位の俯瞰画像に変換し、前記変換された俯瞰画像を合成して履歴画像を生成し得る。
前記画像表示システムは、前記撮影された画像に基づいて、自車両の向き、移動方向、及び移動距離を算出する車両位置検出手段をさらに備え、前記画像処理手段は、前記車両の移動距離が所定の移動距離に到達するごとに、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、前記撮影された現在の画像と前記現在よりも前に撮影された画像との合成位置をフレーム毎に調整して、前記履歴画像を更新し得る。
前記画像処理手段は、前記車両の進行に合わせて、前記撮影された現在の画像と、前記生成された履歴画像を照合し、前記撮影された現在の画像に前記履歴画像と異なる部分がある場合、前記異なる部分の画像を強調表示した車両周囲画像を生成し得る。
前記画像処理手段は、前記車両の進行に合わせて、前記自車位置推定手段で算出された自車両の向き、移動方向、及び移動距離に基づいて、合成される前記撮影された現在の画像と前記現在よりも前に撮影された画像とをクロップ(crop)するか、または画像合成位置を設定し得る。
The photographing means includes one or more wide-angle cameras capable of photographing the vicinity of the rear or front of the own vehicle, and transmits the image photographed by the wide-angle camera to the image processing means in frame units, and the image processing means can convert the received image into an overhead image in continuous frame units, and synthesize the converted overhead images to generate a history image.
The image display system further includes a vehicle position detecting unit that calculates the orientation, moving direction, and moving distance of the own vehicle based on the captured image, and the image processing unit is configured to detect that the moving distance of the vehicle is a predetermined distance. Each time the vehicle reaches a travel distance of may be adjusted frame by frame to update the historical image.
The image processing means compares the captured current image with the generated history image as the vehicle progresses, and if the captured current image has a portion different from the historical image, , a vehicle surrounding image in which images of the different portions are highlighted can be generated.
The image processing means combines the photographed current image and the current image to be combined based on the orientation, movement direction, and movement distance of the own vehicle calculated by the own vehicle position estimation means in accordance with the progress of the vehicle. The image taken before the current time may be cropped, or an image compositing position may be set.

上記目的を達成するためになされた本発明の一態様による車両周囲画像表示方法は、両の進行に同期した車両周囲画像を表示させる方法であって、車両に配置されて前記車両の周辺を撮影する撮影手段、前記撮影手段により撮影された画像を保存する画像記憶手段、前記撮影された画像を画像処理する画像処理手段、及び前記画像処理された画像を表示する画像表示手段を備えた車両周囲画像表示システムにおいて、前記画像処理手段が、前記撮影手段により撮影された画像を受信して、受信した前記画像を連続するフレーム単位の俯瞰画像に変換し、前記変換された俯瞰画像を合成して履歴画像を生成するステップと、前記撮影手段により撮影された現在の画像の死角部分を、前記生成された履歴画像で補完した車両周囲画像を生成するステップと、前記生成された車両周囲画像に前記画像記憶手段に保存された自車両の透過画像を重ねて表示するステップを有することを特徴とする。 A vehicle surrounding image display method according to an aspect of the present invention, which has been made to achieve the above object, is a method for displaying a vehicle surrounding image synchronized with the progress of the vehicle , and is a method that is arranged in a vehicle and displays the surroundings of the vehicle. A vehicle comprising a photographing means for photographing, an image storage means for storing an image photographed by the photographing means, an image processing means for processing the photographed image, and an image display means for displaying the image processed. In the surrounding image display system, the image processing means receives an image photographed by the photographing means, converts the received image into an overhead image in continuous frame units, and synthesizes the converted overhead images. a step of generating a vehicle surroundings image by supplementing the blind spot portion of the current image photographed by the photographing means with the generated history image; The present invention is characterized by comprising the step of superimposing and displaying a transparent image of the own vehicle stored in the image storage means.

前記履歴画像を生成するステップは、前記連続するフレーム単位の俯瞰画像から特徴点を抽出して、前記抽出された特徴点が一致するように合成位置を調整するステップを含み得る。
前記車両周囲画像表示方法は、前記画像処理手段が、前記撮影された画像に基づいて、自車両の向き、移動方向、及び移動距離を算出するステップをさらに含み、前記履歴画像を生成するステップは、前記算出された車両の移動距離が所定の移動距離に到達するごとに、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、前記撮影された現在の画像と前記現在よりも前に撮影された画像との合成位置をフレーム毎に調整して、前記履歴画像を更新するステップを含み得る。
前記透過画像を重ねて表示するステップは、前記車両の進行に合わせて、前記撮影された現在の画像と、前記生成された履歴画像とを照合し、前記撮影された現在の画像に前記履歴画像と異なる部分がある場合、前記異なる部分の画像を強調して表示させるステップを含み得る。
前記車両周囲画像を生成するステップは、前記車両の進行に合わせて、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、合成される前記撮影された現在の画像と前記現在よりも前に撮影された画像画像をクロップ(crop)するか、または画像合成位置を設定するステップを含み得る。
The step of generating the history image may include the step of extracting feature points from the continuous bird's-eye view images in units of frames and adjusting a synthesis position so that the extracted feature points match.
The vehicle surrounding image display method further includes a step in which the image processing means calculates an orientation, a moving direction, and a moving distance of the own vehicle based on the captured image, and the step of generating a history image includes , Every time the calculated moving distance of the vehicle reaches a predetermined moving distance, the captured current image and the current image are calculated based on the calculated orientation, moving direction, and moving distance of the own vehicle. The method may also include the step of updating the historical image by adjusting the position at which it is combined with a previously captured image for each frame.
The step of displaying the transparent images in an overlapping manner includes comparing the captured current image with the generated history image in accordance with the progress of the vehicle, and adding the historical image to the captured current image. If there is a different portion, the method may include a step of emphasizing and displaying an image of the different portion.
The step of generating the vehicle surrounding image includes combining the photographed current image and the current image, which are combined based on the calculated orientation, moving direction, and moving distance of the own vehicle according to the progress of the vehicle. The method may include a step of cropping an image taken earlier or setting an image compositing position.

本発明によれば、自車両によって死角となる車両下部や外周部付近の状況が可視化された車両周囲画像を表示することができ、さらに車両の進行に同期して表示範囲が最適化された死角のない車両周囲画像を表示することができる。
また、車両の移動距離が所定の移動距離に到達するごとに算出された自車両の向き、移動方向、及び移動距離に基づいて、撮影された現在の画像と現在よりも前に撮影された画像との合成位置をフレーム毎に調整して、履歴画像を更新しているため、取得したフレーム全てを使って合成画像を生成する場合に比べ、処理量が少なくなることで画像処理の負荷が軽減されると共に、フレーム合成時に生じる僅かな誤差の蓄積、すなわち累積誤差を低減することができる。
According to the present invention, it is possible to display a vehicle surrounding image that visualizes the situation near the lower part of the vehicle and the outer periphery, which is a blind spot caused by the own vehicle, and furthermore, the blind spot can be displayed in which the display range is optimized in synchronization with the progress of the vehicle. It is possible to display images of the surroundings of the vehicle.
In addition, the current image taken and the image taken before the current one are calculated based on the orientation, direction of movement, and distance of the own vehicle, which are calculated each time the distance traveled by the vehicle reaches a predetermined distance. The historical image is updated by adjusting the compositing position for each frame, reducing the amount of processing and reducing the image processing load compared to generating a composite image using all acquired frames. At the same time, it is possible to reduce the accumulation of slight errors that occur during frame synthesis, that is, the cumulative error.

本発明の一実施形態による車両周囲画像表示システムの全体構成を示す図である。1 is a diagram showing the overall configuration of a vehicle surrounding image display system according to an embodiment of the present invention. 本実施形態による車両周囲画像表示システムのカメラ撮影範囲の一例を示す図である。FIG. 2 is a diagram showing an example of a camera shooting range of the vehicle surrounding image display system according to the present embodiment. 本実施形態による車両周囲画像表示システムの機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the functional configuration of a vehicle surrounding image display system according to the present embodiment. 本実施形態による両周囲画像表示システムが、車両周囲画像を取得して表示するまでの画像処理手順を示すフローチャートである。2 is a flowchart illustrating an image processing procedure in which the vehicle surrounding image display system according to the present embodiment acquires and displays a vehicle surrounding image. 本実施形態の車両周囲画像表示システムによる画像処理の各段階における処理画像の一例を示す図である。FIG. 3 is a diagram showing an example of processed images at each stage of image processing by the vehicle surrounding image display system of the present embodiment. 本実施形態の車両周囲画像表示システムによって表示される車両周囲画像の一例を示す図である。FIG. 2 is a diagram showing an example of a vehicle surrounding image displayed by the vehicle surrounding image display system of the present embodiment. 本実施形態における画像処理の追加的な処理により生成された画像例を示す図である。FIG. 7 is a diagram showing an example of an image generated by additional processing of image processing in the present embodiment. 本実施形態における画像処理のさらに他の追加的な処理により生成された画像例を示す図である。It is a figure which shows the example of an image produced|generated by the other additional process of the image processing in this embodiment. 本実施形態による車両周囲画像表示システムの他の画像処理例を示す概念図である。FIG. 7 is a conceptual diagram showing another example of image processing of the vehicle surrounding image display system according to the present embodiment. 本実施形態による車両周囲画像表示システムのさらに他の画像処理例を示す概念図である。FIG. 7 is a conceptual diagram showing still another image processing example of the vehicle surrounding image display system according to the present embodiment.

以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。 Hereinafter, specific examples of modes for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態による車両周囲画像表示システムの全体構成を示す図である。図1に示すように、本実施形態による車両周囲画像表示システム1は、車両2の後部に設置されたカメラ(撮影手段)3、車内に配置された液晶ディスプレイ等からなる車載モニタ装置(画像表示手段)5、画像処理ECU(画像処理手段)6、車両情報DB7、走行画像DB(画像記憶手段)8、及び車両ECU9等で構成される。なお、車両2の前部にもカメラを設置し、前方及び後方の周囲画像を撮影する構成とすることも可能である。また、車両2の左右にも図示しないカメラを設置し、4つのカメラを利用して従来のアラウンドビュー画像を含めた表示を行うことも可能である。以下では、説明を簡単にするため、後部に設置された例について説明する。 FIG. 1 is a diagram showing the overall configuration of a vehicle surrounding image display system according to an embodiment of the present invention. As shown in FIG. 1, a vehicle surrounding image display system 1 according to the present embodiment includes a camera (photographing means) 3 installed at the rear of a vehicle 2, an in-vehicle monitor device (image display device) consisting of a liquid crystal display, etc. disposed inside the vehicle. 5, an image processing ECU (image processing means) 6, a vehicle information DB 7, a driving image DB (image storage means) 8, a vehicle ECU 9, and the like. Note that it is also possible to install a camera at the front of the vehicle 2 and take images of the surroundings in front and behind. It is also possible to install cameras (not shown) on the left and right sides of the vehicle 2, and use the four cameras to perform a display including a conventional around-view image. Below, in order to simplify the explanation, an example will be described in which the device is installed at the rear.

図2は、本実施形態による車両周囲画像表示システムのカメラ撮影範囲の一例を示す図である。本実施形態において、カメラ3は、例えばCCDやCMOS等の固体撮像素子を用いたものであり、図2に示すように、車両2の後方中央付近に取り付けられ、撮影方向を水平よりも下方に向けて設置される。そして、車両2の進行方向(即ち、移動方向)に沿って車両後方を撮影し、撮影した画像(以下、撮影画像という)を画像信号として出力する。カメラから出力された画像信号は、後述する画像処理手段により画像データに変換され、所定の画像処理を経て、車両周囲画像、例えば俯瞰画像として、車載モニタ装置5に表示される。なお、本実施形態において、カメラ3は、広角レンズを備えて、左右110度~140度程度の範囲を撮影できるものが使用されるが、これに限定されない。
FIG. 2 is a diagram showing an example of a camera photographing range of the vehicle surrounding image display system according to the present embodiment. In this embodiment, the camera 3 uses a solid-state imaging device such as a CCD or CMOS, and is mounted near the rear center of the vehicle 2, as shown in FIG. It will be set up towards. Then, a photograph is taken of the rear of the vehicle along the traveling direction (that is, a moving direction) of the vehicle 2, and the photographed image (hereinafter referred to as a photographed image) is output as an image signal. The image signal output from the camera is converted into image data by an image processing means, which will be described later, and is displayed on the in-vehicle monitor device 5 as a vehicle surrounding image, for example, a bird's-eye view image, after undergoing predetermined image processing. In this embodiment, the camera 3 is equipped with a wide-angle lens and is capable of photographing a range of about 110 degrees to 140 degrees left and right, but the camera 3 is not limited thereto.

車載モニタ装置5は、車両2の室内のセンターコンソール又はパネル面に備え付けられ、カメラ3で撮影された画像から生成された合成画像等を表示する。なお、車載モニタ装置5は、ナビゲーション装置に使用するものと兼用してもよい。 The in-vehicle monitor device 5 is installed on the center console or panel surface inside the vehicle 2, and displays a composite image generated from images taken by the camera 3. Note that the in-vehicle monitor device 5 may also be used as a navigation device.

画像処理ECU(Electronic Control Unit)6は、カメラ3で撮影された画像の画像データに対して、各種の画像処理を行う電子制御ユニットである。本実施形態において、画像処理ECU6が行う第1の画像処理は、撮影画像の画像データに対して、座標変換を行って俯瞰画像を生成し、フレーム単位で走行画像DB8に保存する。第2の画像処理は、フレーム毎の画像データから車両2が移動する走路の区画線や標示などを含めた道路上の特徴となる部分を検出し、検出された区画線や標示などを利用して特徴点抽出および一致点探索による時系列画像の合成処理を行う。さらに、第3の画像処理として、自車両の進行(即ち、移動)に同期して、自車両による死角領域を補完した俯瞰画像を生成し、これに自車両の透過画像を重ねた画像データを生成する。なお、画像処理ECU6の詳細な構成については後述する。 An image processing ECU (Electronic Control Unit) 6 is an electronic control unit that performs various image processing on image data of an image photographed by the camera 3. In the present embodiment, the first image processing performed by the image processing ECU 6 is to perform coordinate transformation on the image data of the photographed image to generate an overhead image, and store it in the traveling image DB 8 in units of frames. The second image processing detects characteristic parts of the road, including marking lines and markings on the route on which the vehicle 2 is traveling, from image data for each frame, and utilizes the detected marking lines and markings. Performs time-series image synthesis processing by extracting feature points and searching for matching points. Furthermore, as a third image process, an overhead image is generated that complements the blind spot area caused by the own vehicle in synchronization with the progress (that is, movement) of the own vehicle, and image data in which a transparent image of the own vehicle is superimposed on this is generated. generate. Note that the detailed configuration of the image processing ECU 6 will be described later.

車両情報DB(データベース)7は、車両2やカメラ3に関する各種パラメータが記憶された記憶手段である。車両情報DB7には、例えば車両2の最小旋回半径、車幅、トレッド長、タイヤ半径などの車両モデルに関する情報や、カメラ3の内部パラメータ、光軸方向、画角、設置位置などのカメラ3の設計値に関する情報が記憶されている。 The vehicle information DB (database) 7 is a storage means in which various parameters regarding the vehicle 2 and the camera 3 are stored. The vehicle information DB 7 includes, for example, information regarding the vehicle model such as the minimum turning radius of the vehicle 2, vehicle width, tread length, and tire radius, as well as information about the camera 3 such as internal parameters of the camera 3, optical axis direction, angle of view, and installation position. Information regarding design values is stored.

走行画像DB8は、カメラ3により撮影された画像の画像データが、撮影時のカメラ3のカメラ位置、撮影方向角、車両位置、車両の向きなどの付加情報に関連づけられて、フレーム単位で保存される記憶手段である。なお、本実施形態において、走行画像DB8の記憶装置にはSSD(ソリッドステートドライブ)が使用されるが、磁気ディスク、メモリカード、DVD等を外部記憶装置として使用することもできる。 In the traveling image DB 8, image data of an image photographed by the camera 3 is stored in frame units in association with additional information such as the camera position of the camera 3 at the time of photographing, the photographing direction angle, the vehicle position, and the direction of the vehicle. It is a storage means. In this embodiment, an SSD (solid state drive) is used as the storage device for the traveling image DB8, but a magnetic disk, a memory card, a DVD, etc. can also be used as an external storage device.

車両ECU9は、エンジン、変速機、ブレーキ等の作動を制御する車両2の電子制御ユニットである。車両ECU9には、車速センサ11、ジャイロセンサ12、操舵角センサ13、シフト位置検出センサ14などの各種センサが接続される。画像処理ECU6は、これらのセンサの出力値から、車両2の車速、加速度、操舵角や、車両の向き、移動距離などを算出することが可能である。 The vehicle ECU 9 is an electronic control unit of the vehicle 2 that controls operations of the engine, transmission, brakes, and the like. Various sensors such as a vehicle speed sensor 11, a gyro sensor 12, a steering angle sensor 13, and a shift position detection sensor 14 are connected to the vehicle ECU 9. The image processing ECU 6 can calculate the vehicle speed, acceleration, steering angle, direction of the vehicle, travel distance, etc. of the vehicle 2 from the output values of these sensors.

次に、本実施形態による車両周囲画像表示システム1の機能構成について、図3を参照しながら説明する。図3は、本実施形態による車両周囲画像表示システムの機能構成の一例を示すブロック図である。 Next, the functional configuration of the vehicle surrounding image display system 1 according to this embodiment will be described with reference to FIG. 3. FIG. 3 is a block diagram showing an example of the functional configuration of the vehicle surrounding image display system according to this embodiment.

図3に示すように、本実施形態による車両周囲画像表示システム1は、画像処理ECU6で実行される車両周囲画像生成プログラムによって実現される機能手段を基本にして構成され、各機能手段に対して所定の周辺機器が接続されている。 As shown in FIG. 3, the vehicle surrounding image display system 1 according to the present embodiment is configured based on functional means realized by a vehicle surrounding image generation program executed by the image processing ECU 6. Predetermined peripheral devices are connected.

画像処理ECU6は、画像入力部61、車両信号入力部62、演算部63、画像出力部64を含む。 The image processing ECU 6 includes an image input section 61, a vehicle signal input section 62, a calculation section 63, and an image output section 64.

画像入力部61は、カメラ3で撮影された車両周囲の画像の画像データを取得するための入力インターフェースである。画像入力部61は、A/D変換器を含み、カメラ3から出力された画像信号をデジタル信号に変換してフレーム単位の画像データを生成する。なお、カメラ3がデジタル画像信号を出力するタイプの場合は、A/D変換器は省略可能である。画像入力部61は、画像を連続画像(動画)として、取得することも可能であるが、本実施形態では、車両の移動に応じて、カメラ3の撮影範囲に相当する移動距離ごとに、静止画面単位、すなわち、フレーム単位で画像を取得する。なお、画像を取得する間隔は、隣接するフレームを貼り合わせる際にのり代となる部分が得られるように、移動方向の画像長(図2の符号Lで示す撮影範囲)以下であることが好ましい。 The image input unit 61 is an input interface for acquiring image data of an image around the vehicle captured by the camera 3. The image input unit 61 includes an A/D converter, converts the image signal output from the camera 3 into a digital signal, and generates image data in units of frames. Note that if the camera 3 is of a type that outputs a digital image signal, the A/D converter can be omitted. The image input unit 61 can also acquire images as continuous images (videos), but in this embodiment, as the vehicle moves, the image input unit 61 acquires still images for each moving distance corresponding to the shooting range of the camera 3. Images are acquired in units of screens, that is, in units of frames. Note that the interval at which images are acquired is preferably equal to or less than the image length in the moving direction (the imaging range indicated by the symbol L in FIG. 2) so that a portion that will serve as a glue margin when pasting adjacent frames is obtained. .

車両信号入力部62は、各種センサで検出された車両の移動に関連するデータ(以下、移動量データという)を取得するためのインターフェースである。車両信号入力部62は、移動量データを、例えば、車内LANを介して、車両ECU9から取得する。 The vehicle signal input unit 62 is an interface for acquiring data related to vehicle movement detected by various sensors (hereinafter referred to as movement amount data). The vehicle signal input unit 62 acquires movement amount data from the vehicle ECU 9, for example, via the in-vehicle LAN.

演算部63は、CPU、RAM、ROM等を備えた周知のマイクロコントローラで構成される。なお、ROMには後述する画像処理プログラム、その他、車載モニタ装置5等の制御に必要な各種のプログラム等が格納されている。また、RAMはCPUで演算された各種データを一時的に記憶しておくメモリである。 The calculation unit 63 is composed of a well-known microcontroller including a CPU, RAM, ROM, and the like. Note that the ROM stores an image processing program, which will be described later, and various other programs necessary for controlling the in-vehicle monitor device 5 and the like. Further, the RAM is a memory that temporarily stores various data calculated by the CPU.

演算部63は、画像入力部61から画像データをフレーム単位で取得するごとに、後述する各機能部を機能させて、今回取得した撮影画像の画像データと、今回よりも前に取得した画像に基づく履歴画像の画像データとを合成した車両周辺画像データを生成し、生成した車両周辺画像データを画像出力部64に出力する。 Every time image data is acquired frame by frame from the image input unit 61, the calculation unit 63 operates each functional unit described below to combine the image data of the currently acquired captured image with the previously acquired image. Vehicle surrounding image data is generated by combining the image data of the historical image based on the image data, and the generated vehicle surrounding image data is output to the image output section 64.

画像出力部64は、演算部63から出力された車両周辺画像データを、車両の移動に合わせて、逐次車載モニタ装置5に出力する。これにより、車内のドライバー等の乗員は、車載モニタ装置5に表示される車両周辺画像を見ることができる。 The image output unit 64 sequentially outputs the vehicle surrounding image data output from the calculation unit 63 to the in-vehicle monitor device 5 in accordance with the movement of the vehicle. This allows occupants in the vehicle, such as the driver, to view images around the vehicle displayed on the in-vehicle monitor device 5.

演算部63は、車両周囲画像生成プログラムの実行によって実現される機能部として、画像変換部63a、特徴点抽出部63b、自車位置推定部63c、履歴画像蓄積部63d、移動距離推定部63e、舵角推定部63f、車両移動量演算部63g、画像合成部63h、出力画像生成部63iを含み、走行画像DB8、車両ECU9を介して各周辺機器から取得した各種情報に基づいて、車載モニタ装置に撮影画像(図5参照)を表示させるように制御する。 The calculation unit 63 includes an image conversion unit 63a, a feature point extraction unit 63b, an own vehicle position estimation unit 63c, a history image storage unit 63d, a moving distance estimation unit 63e, as functional units realized by executing a vehicle surrounding image generation program. The in-vehicle monitor device includes a steering angle estimation section 63f, a vehicle movement amount calculation section 63g, an image composition section 63h, and an output image generation section 63i, and based on various information acquired from each peripheral device via the driving image DB 8 and the vehicle ECU 9. Control is performed so that the captured image (see FIG. 5) is displayed.

画像変換部63aは、画像入力部61からフレーム単位の画像データを受信すると、受信した画像データに対して、広角撮影に起因する画像歪みの補正を行う。その後、歪み補正を行った画像データに対し座標変換を行って、俯瞰画像の画像データを生成する処理を行う。そして、画像変換部63aは、生成した俯瞰画像の画像データを、フレーム単位で走行画像DB8に保存する。これにより過去の撮影画像の画像データが蓄積される。ここで、俯瞰画像へ変換する技術は、例えば、特開平10-211849号公報に開示されている従来技術を利用することができる。 When the image conversion unit 63a receives image data in units of frames from the image input unit 61, the image conversion unit 63a corrects image distortion caused by wide-angle photography on the received image data. Thereafter, coordinate transformation is performed on the image data that has been subjected to distortion correction, and processing is performed to generate image data of an overhead image. Then, the image conversion unit 63a stores the image data of the generated bird's-eye view image in the running image DB8 in units of frames. As a result, image data of past captured images is accumulated. Here, as a technique for converting into an overhead image, for example, the conventional technique disclosed in Japanese Patent Application Laid-Open No. 10-211849 can be used.

特徴点抽出部63bは、俯瞰画像に変換された現在の画像、又は走行画像DB8に蓄積された過去の撮影画像(蓄積された俯瞰画像)に対し、対象とするフレーム単位の画像(以下、フレーム画像という)の画面内に存在する特徴点を抽出する。特徴点は、フレーム画面が移動した際に追従可能な点であり、一般的には各フレーム画像内において縦方向、横方向ともに輝度差がある点が特徴点として抽出される。すなわち、特徴点は、エッジ処理などの画像処理によって検出可能であり、特徴点の検出方法としてさまざまな手法(SIFT、A-KAZE、SURFなど)が公知の処理方法として提案されている。これらの処理方法を利用して特徴点を抽出する。 The feature point extraction unit 63b extracts a target frame-by-frame image (hereinafter referred to as frame Extracts feature points that exist within the screen of an image (referred to as an image). A feature point is a point that can be followed when a frame screen moves, and generally a point that has a difference in brightness in both the vertical and horizontal directions within each frame image is extracted as a feature point. That is, feature points can be detected by image processing such as edge processing, and various techniques (SIFT, A-KAZE, SURF, etc.) have been proposed as known processing methods for detecting feature points. Feature points are extracted using these processing methods.

自車位置推定部63cは、俯瞰画像に変換された現在のフレーム画像の特徴点と、走行画像DB8に蓄積された以前のフレーム画像(蓄積された俯瞰画像)との特徴点とを照合することで、自車位置を推定する。具体的には、走行画像DB8から直前のフレームに対応する画像データを読み出して、読み出した直前のフレーム画像中の特徴点と現在のフレーム画像中の特徴点の中から特徴点を選別する。そして、選別された特徴点のフレーム画像内での位置を推定して、そのフレーム画像内位置の推定値を中心として、選別された特徴点を画像内で検索する。この検索によって、直前の位置から想定される画像内位置と実際に検出された画像内位置とのずれを検出する。その後、自車位置推定部63cは、フレーム画像内の特徴点位置と、自車位置の直前の位置から検出される特徴点位置のずれから、自車位置の推定値を補正して自車位置を算出する。これらの処理には、SLAM(Simultaneous Localization And Mapping)技術を利用する。 The own vehicle position estimating unit 63c compares the feature points of the current frame image converted to the bird's-eye view image with the feature points of the previous frame image (accumulated bird's-eye view image) stored in the traveling image DB 8. to estimate the vehicle's position. Specifically, image data corresponding to the immediately previous frame is read from the running image DB 8, and feature points are selected from among the feature points in the read immediately previous frame image and the feature points in the current frame image. Then, the position of the selected feature point within the frame image is estimated, and the selected feature point is searched within the image using the estimated value of the position within the frame image as the center. Through this search, a deviation between the position in the image assumed from the previous position and the position in the image actually detected is detected. After that, the own vehicle position estimating unit 63c corrects the estimated value of the own vehicle position based on the deviation between the feature point position in the frame image and the feature point position detected from the position immediately before the own vehicle position. Calculate. These processes utilize SLAM (Simultaneous Localization and Mapping) technology.

履歴画像蓄積部63dは、俯瞰画像に変換された各フレームの画像データを、車両移動量情報に基づき、隣接するフレーム単位で、特徴点検出部31により得られた特徴点と、自車位置推定部63cで推定された自車位置に関する情報とを関連付けて、履歴画像データとして走行画像DB8に保存する。 The history image storage unit 63d converts the image data of each frame converted into an overhead image into the feature points obtained by the feature point detection unit 31 and the own vehicle position estimation for each adjacent frame based on the vehicle movement amount information. The information regarding the own vehicle position estimated by the unit 63c is associated with the information and stored in the traveling image DB8 as historical image data.

移動距離推定部63eは、車両信号入力部62が車両の移動量データを取得すると、取得した移動量データに含まれる移動距離に基づいて、次に画像入力部61が撮影画像を取得するタイミングを推定する。すなわち、車両の移動距離がカメラ3で撮影されるフレームサイズ(図2に示す撮影範囲のL)に相当する移動距離に到達したか否かを判定する。移動距離推定部63eは、車両の移動距離が予め設定された値(例えば、撮影範囲のLの長さの90%)に到達したと判断すると、画像入力部61に対して、その時点で撮影されたフレーム画像を取得する信号(以下、画像取得信号という)を発信する。画像取得信号は、舵角推定部63fにも送信される。 When the vehicle signal input unit 62 acquires the vehicle travel distance data, the travel distance estimating unit 63e determines the next timing for the image input unit 61 to acquire a photographed image based on the travel distance included in the acquired travel distance data. presume. That is, it is determined whether the distance traveled by the vehicle has reached a distance corresponding to the frame size photographed by the camera 3 (the photographing range L shown in FIG. 2). When the moving distance estimating unit 63e determines that the moving distance of the vehicle has reached a preset value (for example, 90% of the length of the photographing range L), the moving distance estimating unit 63e sends an image to the image input unit 61 to determine whether or not to take a photograph at that time. A signal for acquiring a frame image (hereinafter referred to as an image acquisition signal) is transmitted. The image acquisition signal is also transmitted to the steering angle estimator 63f.

舵角推定部63fは、車両信号入力部62が車両の移動量データを取得すると、取得した移動量データに含まれる舵角データを判別し、移動距離推定部63eから画像取得信号を受信すると、画像入力部61が撮影画像を取得する時点における、車両の舵角を車両移動量演算部63gに送信する。 When the vehicle signal input section 62 acquires vehicle movement amount data, the steering angle estimating section 63f determines the steering angle data included in the acquired movement amount data, and upon receiving the image acquisition signal from the movement distance estimating section 63e, The steering angle of the vehicle at the time when the image input unit 61 acquires the photographed image is transmitted to the vehicle movement amount calculation unit 63g.

車両移動量演算部63gは、移動距離推定部63e、舵角推定部63fよって取得された現在を含む所定の時間期間の移動距離および舵角のデータに基づいて、画像入力部61が、現在を含む所定の時間期間に車両がどのように移動したかを算出する。算出された各データは、画像入力部61が取得したフレーム単位の画像データに関連付けて走行画像DB8に保存され、当該フレーム画像をクロップ(crop)(または、トリミング)する範囲を調整するときに利用される。 The vehicle movement amount calculating section 63g uses the image input section 61 to calculate the current state based on data on the movement distance and steering angle for a predetermined time period including the current period acquired by the movement distance estimating section 63e and the steering angle estimating section 63f. Calculating how the vehicle moved during a predetermined period of time including: Each of the calculated data is stored in the traveling image DB 8 in association with the frame-by-frame image data acquired by the image input unit 61, and is used when adjusting the range in which the frame image is cropped (or trimmed). be done.

画像合成部63hは、画像入力部61が撮影画像の画像データを取得すると、最新の撮影画像を実画像とする。また、現在以前の所定の時間期間に取得された時系列のフレーム画像データを走行画像DB8から読み出して、車両の移動に合わせて配列する。車両移動量演算部63gが算出した車両の移動内容の算出結果に基づいて、現在の車両の撮影画像の位置と、走行画像DB8から読み出された以前のフレーム画像の位置とを、それぞれのフレームで抽出された特徴点がマッチングするように合成位置を調整して、履歴画像データを生成し、実画像の死角となる部分が履歴画像で補完されるように、実画像の画像データに履歴画像の画像データを合成して、車両周囲画像の画像データを生成する。 When the image input section 61 acquires the image data of the photographed image, the image synthesis section 63h converts the latest photographed image into an actual image. Further, time-series frame image data acquired during a predetermined time period before the current time is read out from the traveling image DB 8 and arranged in accordance with the movement of the vehicle. Based on the calculation result of the movement content of the vehicle calculated by the vehicle movement amount calculation unit 63g, the position of the current photographed image of the vehicle and the position of the previous frame image read from the traveling image DB 8 are calculated for each frame. The synthesis position is adjusted so that the extracted feature points match, and historical image data is generated. The image data of the vehicle surroundings is synthesized to generate image data of a vehicle surrounding image.

出力画像生成部63iは、生成された車両周囲画像の画像データに自車両の透過画像データを重畳して、逐次、画像出力部64に出力する。更に、出力画像生成部63iは、他のセンサで検出された物体や現在の撮影画像中に履歴画像との相違点が検出されると、予め設定された強調処理を行い、補完した画像データを画像出力部64に伝送する。 The output image generation section 63i superimposes the transparent image data of the own vehicle on the image data of the generated vehicle surrounding image and sequentially outputs the superimposed image data to the image output section 64. Furthermore, when an object detected by another sensor or a difference from the historical image is detected in the currently captured image, the output image generation unit 63i performs a preset emphasis process and generates the supplemented image data. The image is transmitted to the image output section 64.

画像出力部64は、出力画像生成部63iから受信した車両周辺画像の画像データを車載モニタ装置5に表示させる。 The image output section 64 causes the in-vehicle monitor device 5 to display the image data of the vehicle surrounding image received from the output image generation section 63i.

次に、図4及び図5を参照して、本発明の一実施形態による車両周囲画像表示システムの動作について説明する。図4は、本実施形態による車両周囲画像表示システムが、車両周囲画像を取得して表示するまでの画像処理手順を示すフローチャートである。図5は、本実施形態の車両周囲画像表示システムによる画像処理の各段階における処理画像の一例を示す図である。本実施形態では、車両を後退(バック)させる場合について説明する。 Next, with reference to FIGS. 4 and 5, the operation of the vehicle surrounding image display system according to an embodiment of the present invention will be described. FIG. 4 is a flowchart showing an image processing procedure in which the vehicle surrounding image display system according to the present embodiment acquires and displays a vehicle surrounding image. FIG. 5 is a diagram showing an example of processed images at each stage of image processing by the vehicle surrounding image display system of this embodiment. In this embodiment, a case will be described in which the vehicle is moved backward.

図4に示すように、本システムが起動されると、カメラ3により車両後方の路面及びその周囲が撮影され、画像処理ECU6は、各機能手段を制御して、以下に示す一連の画像処理を実行する。 As shown in FIG. 4, when this system is activated, the camera 3 photographs the road surface behind the vehicle and its surroundings, and the image processing ECU 6 controls each functional means to perform a series of image processing as shown below. Execute.

先ず、画像処理ECU6は、カメラ3で撮影された車両後方の周囲画像の画像データを、画像入力部61を介して、車両の移動に同期したフレーム単位で取得して、走行画像DB8に保存する(ステップS101)。この時、走行画像DB8に保存されるフレーム画像の画像データは、上述のように画像変換部63aによりフレーム単位で俯瞰画像に変換された画像データである。 First, the image processing ECU 6 acquires image data of the surrounding image behind the vehicle captured by the camera 3 in units of frames synchronized with the movement of the vehicle via the image input unit 61, and stores it in the running image DB 8. (Step S101). At this time, the image data of the frame image stored in the traveling image DB 8 is image data that has been converted into an overhead image in units of frames by the image conversion unit 63a as described above.

具体的に、カメラ3から出力される原画像(カメラ画像)は、例えば、図5の画像(a)に示すように、車両後部の上部に配置されたカメラ3(広角カメラ)により、道路に描かれた白線(区画線や標示)及びその周囲を撮影した画像であるので、自車両(即ち、カメラ3)と白線の位置との距離などに応じて、本来の状態よりも白線等が歪んで表示される。そこで、画像変換部63aにより、図5の画像(b)に示すように、広角撮影に起因する画像歪み補正を行った後に、座標変換されて、図5の画像(c)に示す俯瞰画像の画像データが生成される。 Specifically, the original image (camera image) output from the camera 3 is, for example, as shown in image (a) in FIG. Since this is an image taken of the drawn white line (department line or sign) and its surroundings, the white line etc. may be distorted more than the original state depending on the distance between the own vehicle (i.e. camera 3) and the position of the white line. is displayed. Therefore, the image conversion unit 63a performs image distortion correction due to wide-angle photography, as shown in image (b) of FIG. Image data is generated.

次に、車両の移動に同期して、順次フレーム単位で取得された俯瞰画像の画像データは、特徴点抽出部63bにより、その直前のフレームの画像データとの間で、一致点検索に用いるための特徴点が抽出される。例えば、図5の画像(d)に示すように、時刻(t)に取得されたフレームNの画像で検出されたひし形のマークと、その直後の時刻(t+1)に取得されたフレーム(N+1)の画像で検出されたひし形のマークとが特徴点として抽出される(ステップS102)。 Next, the image data of the bird's-eye view image sequentially acquired frame by frame in synchronization with the movement of the vehicle is used by the feature point extraction unit 63b to search for matching points with the image data of the immediately previous frame. The feature points are extracted. For example, as shown in image (d) of FIG. 5, a diamond mark detected in the image of frame N acquired at time (t) and a frame (N+1) acquired at time (t+1) immediately after that. The diamond-shaped mark detected in the image is extracted as a feature point (step S102).

その後、自車位置推定部63cにより、抽出された特徴点を利用して、図5の画像(e)に示すように、フレーム(N)及びフレーム(N+1)の2画像間の一致点が探索される。また、自車位置推定部63cは、一致点探索により選別された特徴点の各フレーム画像内での位置を照合して、2画像間のずれを検出する。自車位置推定部63cは、特徴点位置のずれから、自車の向き、移動方向、及び移動距離を算出する(ステップS103)。これらの処理には、上述のようにSLAM技術が利用される。SLAMに関しては様々なアルゴリズムが発表されており、Mono-SLAMやPTAMなどがある。 Thereafter, the vehicle position estimation unit 63c uses the extracted feature points to search for matching points between the two images, frame (N) and frame (N+1), as shown in image (e) in FIG. be done. Further, the own vehicle position estimating unit 63c compares the positions of the feature points selected by the matching point search in each frame image to detect a shift between the two images. The own vehicle position estimating unit 63c calculates the orientation, moving direction, and moving distance of the own vehicle from the deviation of the feature point positions (step S103). The SLAM technology is used for these processes as described above. Various algorithms have been announced regarding SLAM, including Mono-SLAM and PTAM.

次に、画像合成部63hは、選択された特徴点の位置などに基づき、図5の画像(f)に示すように、不連続点の少ない画像境界を設定し、走行画像DB8に保存された直前のフレームNの画像データと、現在の車両周囲を撮影した画像データのフレーム(N+1)との特徴点がマッチングするように合成位置を調整して、図5の画像(g)に示すように、画像を合成する(ステップS104)。同様の手順で、直前のフレームNの画像データとその前のフレーム(N-1)の画像データとを合成し、複数のフレームが合成された履歴画像の画像データを生成する。なお、画像合成部63hは、これらの画像を合成する際に、車両移動量演算部63gで算出された移動量に基づいて、図5の画像(h)に示すように、履歴画像のフレーム範囲を適正にクロップする等の処理を行って、合成される画像を整形してもよい。 Next, the image synthesis unit 63h sets an image boundary with fewer discontinuous points, as shown in image (f) in FIG. 5, based on the positions of the selected feature points, etc. The synthesis position is adjusted so that the feature points of the image data of the immediately previous frame N and the frame (N+1) of the image data of the current surroundings of the vehicle match, and the image data as shown in image (g) in Fig. 5 is obtained. , images are combined (step S104). In a similar procedure, the image data of the immediately previous frame N and the image data of the previous frame (N-1) are combined to generate image data of a history image in which a plurality of frames are combined. In addition, when composing these images, the image compositing unit 63h determines the frame range of the historical image based on the movement amount calculated by the vehicle movement amount calculation unit 63g, as shown in image (h) in FIG. The image to be combined may be shaped by performing processing such as appropriately cropping the image.

その後、出力画像生成部63iは、現在の車両の車両周囲画像と履歴画像とを合成した車両周囲画像に、図5の画像(i)に示すように、自車両の透過画像が重畳された画像を車載モニタ装置5に表示させる(ステップS105)。 Thereafter, the output image generation unit 63i generates an image in which a transparent image of the own vehicle is superimposed on a vehicle surrounding image obtained by combining the current vehicle surrounding image and the history image, as shown in image (i) of FIG. is displayed on the in-vehicle monitor device 5 (step S105).

図6は、本実施形態の車両周囲画像表示システムによって表示される車両周囲画像の一例を示す図である。上述の動作により、本システム起動後、車載モニタ装置5には、車両の移動に同期して生成された履歴画像により、現在の撮影画像の死角部分が補完された画像が表示される。すなわち、図6の時刻(t)で、車両が後退を始めた時の画像(A)に対し、その後の時刻(t+i1)及び時刻(t+i2)の画像(B)及び(C)には、それぞれの以前に撮影された画像から生成された履歴画像で、現在の撮影画像の死角部分が補完されて表示される。なお、車載モニタ装置5に表示される画像範囲は、起動後、自車の現在位置が表示画面の中央に配置されるよう調整される。 FIG. 6 is a diagram showing an example of a vehicle surrounding image displayed by the vehicle surrounding image display system of this embodiment. Through the above-described operation, after this system is activated, the in-vehicle monitor device 5 displays an image in which the blind spot portion of the currently captured image is supplemented with the history image generated in synchronization with the movement of the vehicle. That is, in contrast to the image (A) when the vehicle starts to move backward at time (t) in FIG. 6, the images (B) and (C) at subsequent times (t+i1) and (t+i2) respectively The blind spots of the currently captured image are complemented and displayed with the history image generated from previously captured images. Note that the image range displayed on the in-vehicle monitor device 5 is adjusted so that the current position of the own vehicle is placed in the center of the display screen after startup.

以下、本実施形態の車両周囲画像表示システムによる画像処理の他の例について説明する。 Other examples of image processing by the vehicle surrounding image display system of this embodiment will be described below.

図7は、本実施形態における画像処理の追加的な処理により生成された画像例を示す図である。図7に示す画像例は、現在の撮影画像と履歴画像とを合成する際に、演算部63に含まれる所定の機能部(図示せず)で、現在の撮影画像と履歴画像とを照合し、現在の撮影画像中に履歴画像には存在しない相違部分がある場合、所定の方式の画像認識により、検出された相違部分が障害物か否かを判断する。そして、現在の撮影画像中に障害物が存在し、過去に撮影された画像には障害物がない場合、出力画像生成部63iは、この障害物を強調表示した画像データを生成する。これにより、車載モニタ装置5には、障害物が強調表示されるので、運転者の注意を喚起し、運転ミスを低減することが可能になる。 FIG. 7 is a diagram showing an example of an image generated by additional processing of image processing in this embodiment. In the image example shown in FIG. 7, a predetermined functional unit (not shown) included in the calculation unit 63 compares the currently captured image and the historical image when combining the currently captured image and the historical image. If there is a different part in the currently captured image that does not exist in the historical image, it is determined whether the detected different part is an obstacle by image recognition using a predetermined method. If an obstacle exists in the currently captured image and there is no obstacle in the previously captured image, the output image generation unit 63i generates image data in which the obstacle is highlighted. As a result, the obstacle is highlighted on the in-vehicle monitor device 5, thereby attracting the driver's attention and making it possible to reduce driving mistakes.

図8は、本実施形態における画像処理のさらに他の追加的な処理により生成された画像例を示す図である。図8に示す画像例は、車両に備えられた他のセンサで接近する移動物体が検出された場合、出力画像生成部63iは、検出された情報に基づいて、現在の撮影画像に死角部分を補完した履歴画像とともに、画像処理ECU6に備えられた所定の機能部(図示せず)で算出した移動物体の予測進路を重ねて表示する形態で車両周囲画像を生成する。これにより、運転者に移動物体に対する注意を喚起することが可能になる。 FIG. 8 is a diagram showing an example of an image generated by further additional processing of the image processing in this embodiment. In the image example shown in FIG. 8, when an approaching moving object is detected by another sensor installed in the vehicle, the output image generation unit 63i adds a blind spot to the currently captured image based on the detected information. A vehicle surrounding image is generated in such a manner that the predicted course of the moving object calculated by a predetermined functional unit (not shown) provided in the image processing ECU 6 is superimposed and displayed together with the supplemented history image. This makes it possible to alert the driver to the moving object.

以上、本発明の一実施形態による車両周囲画像表示システムにおける画像処理の手順を、車両を後退(バック)させる場合について説明したが、本発明は、車両を前進させる場合にも、同様の手順で実施可能である。 Above, the image processing procedure in the vehicle surrounding image display system according to an embodiment of the present invention has been described for the case where the vehicle is moved backward, but the present invention also applies to the case where the vehicle is moved forward. It is possible to implement.

図9は、本実施形態による車両周囲画像表示システムの他の画像処理例を示す概念図である。図9に示す画像処理例は、車両の前部にもカメラ3’が設置されて、車両が前進する場合の車両周囲の履歴画像が生成されていく経緯を示す。この場合も図4に示す画像処理の手順に従って、車両の進行(即ち、移動)に合わせて、フレーム単位の履歴画像を生成し、現在の車両周囲の撮影画像を履歴画像で補完しながら車両周囲画像を生成することで、車両下部を含む死角部分が補完された車両周囲画像を表示させることが可能となる。 FIG. 9 is a conceptual diagram showing another image processing example of the vehicle surrounding image display system according to this embodiment. The image processing example shown in FIG. 9 shows how a camera 3' is also installed at the front of the vehicle, and a history image of the surroundings of the vehicle is generated when the vehicle moves forward. In this case as well, according to the image processing procedure shown in Fig. 4, a history image is generated frame by frame as the vehicle progresses (that is, movement), and the current captured image around the vehicle is supplemented with the history image. By generating the image, it is possible to display a vehicle surrounding image in which the blind spot including the lower part of the vehicle is complemented.

図10は、本実施形態による車両周囲画像表示システムのさらに他の画像処理例を示す概念図である。図10に示す画像処理例は、車両の前部及び後部に設置されたカメラで撮影された画像を利用して、車両周囲画像を生成する場合に、車載モニタ装置に表示される車両周囲画像の例を、動作開始からの時間経過に合わせて示す図である。車両周囲画像の生成は、上述した手順と同様であるので省略する。 FIG. 10 is a conceptual diagram showing still another image processing example of the vehicle surrounding image display system according to this embodiment. The image processing example shown in FIG. 10 is a method for generating a vehicle surrounding image displayed on an in-vehicle monitor device when generating a vehicle surrounding image using images taken by cameras installed at the front and rear of the vehicle. FIG. 6 is a diagram showing an example according to the passage of time from the start of the operation. Generation of the vehicle surrounding image is the same as the procedure described above, so a description thereof will be omitted.

以上で説明したように、本発明による車両周囲画像表示システムは、車両の進行に同期して、死角部分の画像が順次に可視化、更新されることで、最終的に死角のない車両周囲画像表示が可能である。これにより、リアルタイムの画像を表示する通常の車両周囲画像と、可視化及び更新される死角の画像(死角画像は、逐次生成及び合成される)を違和感無く確認できる。すなわち、車両下部の通常見えない地面の画像及び障害物の位置を画像で確認できる。特に、車両の進行方向(即ち、移動方向)に同期して、死角のない画像が生成されていくので、違和感が生じない。 As explained above, the vehicle surrounding image display system according to the present invention sequentially visualizes and updates images of blind spots in synchronization with the progress of the vehicle, thereby finally displaying vehicle surrounding images without blind spots. is possible. As a result, it is possible to comfortably check the normal vehicle surrounding image that displays real-time images and the blind spot image that is visualized and updated (the blind spot images are sequentially generated and combined). In other words, it is possible to check the image of the ground below the vehicle, which is normally invisible, and the position of obstacles. In particular, since images without blind spots are generated in synchronization with the direction of movement of the vehicle (that is, the direction of movement), there is no sense of discomfort.

また、車両前後のカメラ画像を使用することで、死角のない疑似的な車両周囲画像が生成できる。前進、後進いずれの進行方向に進んでも、死角の画像が生成可能であり、また、前後の画像を合成することで、2つのカメラで疑似的に車両周囲画像が生成できる。 Furthermore, by using camera images from the front and rear of the vehicle, a pseudo vehicle surrounding image without blind spots can be generated. An image of a blind spot can be generated regardless of whether the vehicle is moving forward or backward, and by combining the front and rear images, a pseudo vehicle surrounding image can be generated using two cameras.

周辺画像を広く撮影して、撮影画像の一部を利用して表示画像を生成するので、ハンドルの操舵角を大きく操作した場合も、死角を欠けることなく生成できるので、利便性が高い。画面全てを処理する場合に比べて、必要となる部分画像を使って処理を行うので、処理負荷を軽減できる。 Since the surrounding image is widely photographed and a display image is generated using a part of the photographed image, even when the steering angle of the steering wheel is large, the display image can be generated without missing any blind spots, which is highly convenient. Compared to processing the entire screen, processing is performed using the necessary partial images, so the processing load can be reduced.

本発明による車両周囲画像表示システムは、ハンドルの操舵角を大きく切ると、死角画像を生成するために必要な画像範囲が広くなるため、履歴画像を用いて、死角を合成するために必要な範囲よりも少し広い範囲をクロップ(Crop)して、合成画像を生成した後、死角画像を生成する。これにより、操舵角を大きく切ることにより、表示される範囲が直前に表示していた範囲よりも部分的に広くなった場合でも、画像が欠けることなく表示が可能になる。 In the vehicle surrounding image display system according to the present invention, when the steering angle of the steering wheel is greatly reduced, the image range required to generate a blind spot image becomes wider. After a slightly wider range is cropped to generate a composite image, a blind spot image is generated. As a result, even if the displayed range becomes partially wider than the previously displayed range due to a large steering angle, the image can be displayed without being missing.

駐車場などで、過去に撮影した画像と現在の画像とを照合して、死角生成画像内に異なる部分があれば、その場所を強調表示する。これにより、慣れた場所では、運転時に注意が散漫になるが、過去と異なる部分を強調表示することで、運転ミスを低減させることが出来る。 The system compares images taken in the past with the current image in a parking lot, etc., and if there are any differences in the blind spot generated image, that location is highlighted. This can lead to distractions when driving in familiar locations, but by highlighting parts that are different from the past, it is possible to reduce driving mistakes.

撮影画像内の動体検出結果(速度、方向など)から、死角内に入る可能性のある物体は、進路予想図を表示する。死角表示部分は過去画像を用いているため、移動体が死角内に入り込む場合は、移動体の位置をリアルタイムで表示できないが、予測進路を表示することで、移動体に対する注意喚起が可能になる。 Based on the moving object detection results (speed, direction, etc.) in the captured image, an estimated course map of objects that may fall within the blind spot is displayed. Since the blind spot display part uses past images, if a moving object enters the blind spot, the position of the moving object cannot be displayed in real time, but by displaying the predicted course, it is possible to alert people to the moving object. .

以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限られるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the present invention is not limited to the above-described embodiments, and can be modified in various ways without departing from the technical scope of the present invention. It is possible to do so.

1 車両周囲画像表示システム
2 車両
3、3’ カメラ
5 車載モニタ装置
6 画像処理ECU
7 車両情報DB
8 走行画像DB
9 車両ECU
11 車速センサ
12 ジャイロセンサ
13 操舵角センサ
14 シフト位置検出センサ
61 画像入力部
62 車両信号入力部
63 演算部
63a 画像変換部
63b 特徴点抽出部
63c 自車位置推定部
63d 履歴画像蓄積部
63e 移動距離推定部
63f 舵角推定部
63g 車両移動量演算部
63h 画像合成部
63i 出力画像生成部
64 画像出力部

1 Vehicle surrounding image display system 2 Vehicle 3, 3' camera 5 In-vehicle monitor device 6 Image processing ECU
7 Vehicle information DB
8 Driving image DB
9 Vehicle ECU
11 Vehicle speed sensor 12 Gyro sensor 13 Steering angle sensor 14 Shift position detection sensor 61 Image input section 62 Vehicle signal input section 63 Arithmetic section 63a Image conversion section 63b Feature point extraction section 63c Own vehicle position estimation section 63d History image accumulation section 63e Travel distance Estimation unit 63f Rudder angle estimation unit 63g Vehicle movement amount calculation unit 63h Image composition unit 63i Output image generation unit 64 Image output unit

Claims (8)

車両の進行に同期した車両周囲画像を表示させる車両周囲画像表示システムであって、
前記車両周囲画像表示システムは、
車両に配置されて前記車両の周辺を撮影する撮影手段と、
前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された画像を前記車両の移動に同期して前記フレーム単位で時系列に保存する画像記憶手段と、
前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された前記画像を前記フレーム単位で画像処理する画像処理手段と、
前記画像処理されたフレーム単位の画像を合成して生成された車両周囲画像を表示する画像表示手段と、を備え、
前記画像処理手段は、
前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得され前記画像を受信して、受信した前記画像を時系列的に連続するフレーム単位の俯瞰画像に変換し、
前記変換されたフレーム単位の俯瞰画像を前記車両の移動に同期して配列した複数フレームを合成して履歴画像を生成し、
前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された現在の画像の死角部分を、前記生成された履歴画像で補完した車両周囲画像を生成し、
前記画像表示手段は、前記生成された車両周囲画像に前記画像記憶手段に保存された自車両の透過画像を重ねて前記車両の進行に同期して逐次表示し、
前記車両周囲画像表示システムは、
前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された前記画像に基づいて、自車両の向き、移動方向、及び移動距離を算出する自車位置推定手段をさらに備え、
前記画像処理手段は、前記車両の移動距離が前記撮影手段の撮影範囲に相当する移動距離に到達するごとに、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、前記現在の画像をフレーム単位の俯瞰画像に変換した現在の俯瞰画像と前記現在よりも前に撮影されたフレーム単位の俯瞰画像との合成位置をフレーム毎に調整して、前記履歴画像を更新することを特徴とする車両周囲画像表示システム。
A vehicle surrounding image display system that displays a vehicle surrounding image synchronized with the progress of the vehicle, the system comprising:
The vehicle surrounding image display system includes:
a photographing means disposed in a vehicle to photograph the surroundings of the vehicle;
an image storage means for storing images taken by the photographing means in frame units for each moving distance corresponding to a photographing range of the photographing means in chronological order in frame units in synchronization with the movement of the vehicle;
image processing means for image processing the image acquired in frame units for each moving distance corresponding to a photographing range of the photographing means ;
an image display means for displaying a vehicle surrounding image generated by combining the image-processed images in units of frames;
The image processing means includes:
Receiving the image taken by the photographing means and acquired in frame units for each moving distance corresponding to a photographing range of the photographing means , and converting the received image into a time-series continuous bird's-eye view image in frame units. Converted,
generating a history image by composing a plurality of frames of the converted frame-by-frame overhead image arranged in synchronization with the movement of the vehicle;
generating a vehicle surrounding image in which a blind spot portion of a current image photographed by the photographing means and acquired frame by frame for each moving distance corresponding to a photographing range of the photographing means is complemented with the generated history image;
The image display means sequentially displays a transparent image of the own vehicle stored in the image storage means superimposed on the generated vehicle surrounding image in synchronization with the progress of the vehicle ,
The vehicle surrounding image display system includes:
further comprising own vehicle position estimating means for calculating the orientation, moving direction, and moving distance of the own vehicle based on the image acquired in frame units for each moving distance corresponding to the photographing range of the photographing means,
The image processing means determines the current state of the vehicle based on the calculated orientation, direction of movement, and distance of the own vehicle each time the distance of movement of the vehicle reaches a distance of movement corresponding to the photographing range of the photographing means. The history image is updated by adjusting, for each frame, a compositing position of the current bird's-eye view image obtained by converting the image of Features a vehicle surrounding image display system.
前記撮影手段は、自車両の後方又は前方周辺を撮影可能な1つ以上のカメラを含み、前記カメラにより撮影された画像を前記画像処理手段に送信することを特徴とする請求項1に記載の車両周囲画像表示システム。 2. The camera according to claim 1, wherein the photographing means includes one or more cameras capable of photographing the vicinity of the rear or front of the own vehicle, and transmits the image photographed by the camera to the image processing means. Vehicle surrounding image display system. 前記画像処理手段は、前記車両の進行に合わせて、前記現在の俯瞰画像と、前記生成された履歴画像とを照合し、前記現在の俯瞰画像に前記履歴画像と異なる部分がある場合、前記異なる部分の画像を強調表示した車両周囲画像を生成することを特徴とする請求項に記載の車両周囲画像表示システム。 The image processing means compares the current bird's-eye view image with the generated history image in accordance with the progress of the vehicle, and if the current bird's-eye view image has a different portion from the history image, the image processing means compares the current bird's-eye view image with the generated history image, The vehicle surrounding image display system according to claim 1 , wherein the vehicle surrounding image display system generates a vehicle surrounding image in which a portion of the image is highlighted. 前記画像処理手段は、前記車両の進行に合わせて、前記自車位置推定手段で算出された自車両の向き、移動方向、及び移動距離に基づいて、合成される前記現在の俯瞰画像と前記現在よりも前に撮影されたフレーム単位の俯瞰画像とをクロップ(crop)するか、または画像合成位置を設定することを特徴とする請求項に記載の車両周囲画像表示システム。 The image processing means combines the current bird's-eye view image and the current image based on the orientation, moving direction, and moving distance of the own vehicle calculated by the own vehicle position estimating means in accordance with the progress of the vehicle. 2. The vehicle surrounding image display system according to claim 1, further comprising: cropping a frame-by-frame bird's-eye view image photographed earlier than the above image, or setting an image compositing position. 車両の進行に同期した車両周囲画像を表示させる方法であって、
車両に配置されて前記車両の周辺を撮影する撮影手段、前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された画像を前記車両の移動に同期して前記フレーム単位で時系列に保存する画像記憶手段、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された前記画像をフレーム単位で画像処理する画像処理手段、及び前記画像処理されたフレーム単位の画像を合成して生成された車両周囲画像を表示する画像表示手段を備えた車両周囲画像表示システムにおいて、
前記画像処理手段が、
前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得され前記画像を受信して、受信した前記画像を時系列的に連続するフレーム単位の俯瞰画像に変換し、前記変換されたフレーム単位の俯瞰画像を前記車両の移動に同期して配列した複数フレームを合成して履歴画像を生成するステップと、
前記撮影手段により撮影され、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された現在の画像の死角部分を、前記生成された履歴画像で補完した車両周囲画像を生成するステップと、
前記生成された車両周囲画像に前記画像記憶手段に保存された自車両の透過画像を重ねて前記車両の進行に同期して逐次表示するステップと、を有し、
前記車両周囲画像を表示させる方法は、
前記画像処理手段が、前記撮影手段の撮影範囲に相当する移動距離ごとにフレーム単位で取得された前記画像に基づいて、自車両の向き、移動方向、及び移動距離を算出するステップをさらに含み、
前記履歴画像を生成するステップは、前記算出された車両の移動距離が前記撮影手段の撮影範囲に相当する移動距離に到達するごとに、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、前記現在の画像をフレーム単位の俯瞰画像に変換した現在の俯瞰画像と前記現在よりも前に撮影されたフレーム単位の俯瞰画像との合成位置をフレーム毎に調整して、前記履歴画像を更新するステップを含むことを特徴とする車両周囲画像表示方法。
A method for displaying a vehicle surrounding image synchronized with the progress of the vehicle, the method comprising:
a photographing means disposed in a vehicle to photograph the surroundings of the vehicle; images taken by the photographing means and acquired frame by frame for each moving distance corresponding to a photographing range of the photographing means are synchronized with the movement of the vehicle; image storage means for chronologically storing the images in units of frames; image processing means for processing the images acquired in units of frames for each moving distance corresponding to the photographing range of the photographing means ; and the image processing means. A vehicle surrounding image display system comprising an image display means for displaying a vehicle surrounding image generated by synthesizing frame-by-frame images,
The image processing means,
Receiving the image taken by the photographing means and acquired in frame units for each moving distance corresponding to a photographing range of the photographing means , and converting the received image into a time-series continuous bird's-eye view image in frame units. generating a history image by synthesizing a plurality of frames in which the converted frame-by-frame overhead image is arranged in synchronization with the movement of the vehicle;
generating a vehicle surrounding image in which a blind spot portion of a current image photographed by the photographing means and acquired frame by frame for each moving distance corresponding to a photographing range of the photographing means is complemented with the generated history image; and,
a step of superimposing a transparent image of the own vehicle stored in the image storage means on the generated vehicle surrounding image and sequentially displaying the same in synchronization with the progress of the vehicle ;
The method for displaying the vehicle surrounding image is as follows:
The image processing means further includes a step of calculating an orientation, a moving direction, and a moving distance of the own vehicle based on the image acquired in frame units for each moving distance corresponding to a photographing range of the photographing means,
In the step of generating the history image, each time the calculated moving distance of the vehicle reaches a moving distance corresponding to the photographing range of the photographing means, the calculated orientation, moving direction, and moving distance of the own vehicle are determined. The synthesis position of the current bird's-eye image obtained by converting the current image into a frame-by-frame bird's-eye image and the frame-by-frame bird's-eye image photographed before the current image is adjusted for each frame based on the history. A method for displaying images around a vehicle , the method comprising the step of updating an image .
前記履歴画像を生成するステップは、前記連続するフレーム単位の俯瞰画像から特徴点を抽出して、前記抽出された特徴点が一致するように前記複数フレームの合成位置を調整するステップを含むことを特徴とする請求項に記載の車両周囲画像表示方法。 The step of generating the history image includes the step of extracting feature points from the bird's-eye view image in units of continuous frames and adjusting the combining position of the plurality of frames so that the extracted feature points match. The vehicle surrounding image display method according to claim 5 . 前記透過画像を重ねて表示するステップは、前記車両の進行に合わせて、前記現在の俯瞰画像と、前記生成された履歴画像とを照合し、前記現在の俯瞰画像に前記履歴画像と異なる部分がある場合、前記異なる部分の画像を強調して表示させるステップを含むことを特徴とする請求項に記載の車両周囲画像表示方法。 The step of displaying the transparent images in an overlapping manner includes comparing the current bird's-eye view image with the generated history image as the vehicle progresses, and determining whether the current bird's-eye image has any portions different from the history image. 6. The vehicle surrounding image display method according to claim 5 , further comprising the step of emphasizing and displaying images of the different portions in some cases. 前記車両周囲画像を生成するステップは、前記車両の進行に合わせて、前記算出された自車両の向き、移動方向、及び移動距離に基づいて、合成される前記現在の俯瞰画像と前記現在よりも前に撮影されたフレーム単位の俯瞰画像とをクロップ(crop)するか、または画像合成位置を設定するステップを含むこと特徴とする請求項に記載の車両周囲画像表示方法。 The step of generating the vehicle surrounding image includes combining the current bird's-eye view image and the current bird's-eye view image to be combined based on the calculated orientation, moving direction, and moving distance of the own vehicle according to the progress of the vehicle. 6. The vehicle surrounding image display method according to claim 5 , further comprising the step of cropping a previously photographed frame-by-frame bird's-eye view image or setting an image compositing position.
JP2018201617A 2018-10-26 2018-10-26 Vehicle surrounding image display system and vehicle surrounding image display method Active JP7426174B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018201617A JP7426174B2 (en) 2018-10-26 2018-10-26 Vehicle surrounding image display system and vehicle surrounding image display method
KR1020190000657A KR20200047257A (en) 2018-10-26 2019-01-03 Device and a method for displaying aerial view images of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018201617A JP7426174B2 (en) 2018-10-26 2018-10-26 Vehicle surrounding image display system and vehicle surrounding image display method

Publications (2)

Publication Number Publication Date
JP2020068499A JP2020068499A (en) 2020-04-30
JP7426174B2 true JP7426174B2 (en) 2024-02-01

Family

ID=70388751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018201617A Active JP7426174B2 (en) 2018-10-26 2018-10-26 Vehicle surrounding image display system and vehicle surrounding image display method

Country Status (2)

Country Link
JP (1) JP7426174B2 (en)
KR (1) KR20200047257A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI682361B (en) * 2018-12-14 2020-01-11 財團法人工業技術研究院 Method and system for road image reconstruction and vehicle positioning
JP7018923B2 (en) * 2019-12-13 2022-02-14 本田技研工業株式会社 Parking Assistance Equipment, Parking Assistance Methods and Programs
CN114333105B (en) * 2020-09-30 2023-04-07 比亚迪股份有限公司 Image processing method, apparatus, device, vehicle, and medium
CN113315961B (en) * 2021-05-26 2023-04-25 合众新能源汽车股份有限公司 Method and device for mapping transparent A-pillar image blocks

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000177513A (en) 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2005001570A (en) 2003-06-12 2005-01-06 Equos Research Co Ltd Parking support device
JP2007142545A (en) 2005-11-15 2007-06-07 Denso Corp Vehicle periphery image processing apparatus and program
JP2014036326A (en) 2012-08-08 2014-02-24 Honda Motor Co Ltd Bird's eye image display device
WO2017130397A1 (en) 2016-01-29 2017-08-03 富士通株式会社 Position estimation device, position estimation method, and position estimation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583883B2 (en) 2004-11-08 2010-11-17 パナソニック株式会社 Ambient condition display device for vehicles
JP4670463B2 (en) 2005-04-28 2011-04-13 アイシン・エィ・ダブリュ株式会社 Parking space monitoring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000177513A (en) 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2005001570A (en) 2003-06-12 2005-01-06 Equos Research Co Ltd Parking support device
JP2007142545A (en) 2005-11-15 2007-06-07 Denso Corp Vehicle periphery image processing apparatus and program
JP2014036326A (en) 2012-08-08 2014-02-24 Honda Motor Co Ltd Bird's eye image display device
WO2017130397A1 (en) 2016-01-29 2017-08-03 富士通株式会社 Position estimation device, position estimation method, and position estimation program

Also Published As

Publication number Publication date
JP2020068499A (en) 2020-04-30
KR20200047257A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
JP5099451B2 (en) Vehicle periphery confirmation device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP5421072B2 (en) Approaching object detection system
US9418556B2 (en) Apparatus and method for displaying a blind spot
WO2016002163A1 (en) Image display device and image display method
US20200082185A1 (en) Periphery monitoring device
JP4904997B2 (en) Parking support method and parking support device
JP6471522B2 (en) Camera parameter adjustment device
JP2007288282A (en) Vehicle periphery monitoring device
JP2008230296A (en) Vehicle drive supporting system
JP5516988B2 (en) Parking assistance device
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP6338930B2 (en) Vehicle surrounding display device
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2010154304A (en) Mobile camera system and driving method
JP2008030705A (en) Display system for vehicle circumference image display system
JP3961969B2 (en) Vehicle periphery image processing system
JP2003036500A (en) Device for recognizing travel division line of vehicle
JP2007221199A (en) On-vehicle camera display device and image processing unit
JP2024054303A (en) Information processing device, information processing method, information processing program and computer readable recording medium with information processing program recorded thereon
US10873725B2 (en) Display control device
JP5083137B2 (en) Driving assistance device
KR101709009B1 (en) System and method for compensating distortion of around view

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R150 Certificate of patent or registration of utility model

Ref document number: 7426174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150