Nothing Special   »   [go: up one dir, main page]

WO2015019579A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2015019579A1
WO2015019579A1 PCT/JP2014/003994 JP2014003994W WO2015019579A1 WO 2015019579 A1 WO2015019579 A1 WO 2015019579A1 JP 2014003994 W JP2014003994 W JP 2014003994W WO 2015019579 A1 WO2015019579 A1 WO 2015019579A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
image processing
center line
display image
Prior art date
Application number
PCT/JP2014/003994
Other languages
English (en)
French (fr)
Inventor
丙辰 王
宗昭 松本
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US14/910,464 priority Critical patent/US10315570B2/en
Priority to CN201480044328.1A priority patent/CN105453536B/zh
Priority to EP14834382.5A priority patent/EP3016370B1/en
Publication of WO2015019579A1 publication Critical patent/WO2015019579A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present disclosure relates to an image processing technique for generating a display image to be displayed to a vehicle occupant from an image captured by a camera mounted on the vehicle.
  • the distortion of the subject increases as the distance from the center of the image increases, and the reduction degree of the subject increases (that is, the subject appears smaller).
  • the more the part away from the center of the captured image is extracted the more likely it is that the vehicle occupant (for example, the driver) becomes difficult to recognize the display image.
  • the extracted image is displayed as it is without being subjected to distortion correction, the subject that is farther from the center of the captured image is displayed smaller, so that it may be difficult for the vehicle occupant to recognize.
  • An object of the present disclosure is to provide a technique for generating a display image that can be easily recognized by an occupant of a vehicle from an image captured by a wide-angle camera arranged at a position shifted from a center line in the longitudinal direction of the vehicle. .
  • the wide angle is arranged at a position shifted from the vehicle center line that is the center line in the longitudinal direction of the vehicle, and the degree of reduction of the subject increases as the distance from the center of the captured image increases.
  • An image processing apparatus and an image processing method for extracting a part of an image captured by a camera as a display image are provided.
  • An image processing apparatus according to the present disclosure includes a control circuit that extracts a display image, and the control circuit represents a center position of the display image with respect to the vehicle center line and a pixel at a specific position in the display image.
  • An extraction determining unit that determines an extraction position of the display image in the captured image according to a reduction degree of the subject.
  • the image processing apparatus and the image processing method according to the present disclosure it is possible to generate a display image that can be easily recognized by a vehicle occupant from an image captured by a wide-angle camera arranged at a position shifted from the vehicle center line.
  • FIG. 2A is a diagram showing a distorted image captured by a wide-angle camera
  • FIG. 2B is a diagram showing a regular image obtained by correcting the distortion of FIG. 2A
  • FIG. 3A is a diagram illustrating camera parameters when the vehicle is viewed from directly above.
  • FIG. 3B is a diagram illustrating camera parameters when the rear portion of the vehicle is viewed from the side.
  • FIG. 4 is a diagram illustrating an example of a rear captured image.
  • FIG. 5 is a flowchart showing image generation processing executed by the control circuit.
  • FIG. 6 is a diagram for explaining an extraction frame and an output frame in a captured image.
  • FIG. 7 is a diagram illustrating the relationship between the offset distance and the reciprocal of the enlargement ratio.
  • FIG. 8 is a diagram for explaining the vertical expansion of the output frame in the captured image.
  • FIG. 9A is a diagram schematically showing the enlargement ratio of the pixel at a specific position in the display image when the display center line is located at the initial position as the size of the hatched portion
  • FIG. 9B is a diagram schematically showing the enlargement ratio of the pixel at the specific position in the display image when the display center line is located at the output extraction position as the size of the hatched portion. It is a figure explaining the output frame in other embodiment which does not permit the reflection by the own vehicle to the image for a display.
  • the image generation system 1 of the present disclosure is for generating a display image to be displayed on a vehicle occupant (for example, a driver) from a captured image behind the vehicle.
  • a storage unit 20, a control circuit 30, and a display unit 40 are provided.
  • the control circuit 30 is also called an image processing unit.
  • the imaging unit 10 includes a wide-angle camera (fisheye camera) that can capture an image with an angle of view of approximately 180 degrees.
  • the degree of reduction of the subject increases as the distance from the center of the captured image increases, and the subject appears smaller. That is, the captured image is a distorted image (see FIG. 2A) that is distorted so that the subject appears smaller as the distance from the center of the captured image increases.
  • the regular image corresponding to the size of the subject represented by the distorted image is represented by Let the size of the subject be the magnification. In other words, the enlargement ratio increases as the degree of reduction increases. Therefore, the enlargement ratio increases as the distance from the center of the distorted image increases.
  • the imaging unit 10 is arranged at a rear portion of the vehicle 2 and at a position shifted from a longitudinal center line (hereinafter referred to as a vehicle center line) Lc of the vehicle 2. Moreover, the imaging part 10 is arrange
  • Information on the coordinate position, pitch angle, yaw angle, and roll angle in the three-dimensional space of the imaging unit 10 based on the vehicle 2 (specifically, a reference point in the vehicle 2) is stored in the storage unit 20 in advance as camera parameters. It is remembered.
  • the imaging unit 10 outputs the captured image to the control circuit 30 at a predetermined frequency (for example, 60 frames per second).
  • a predetermined frequency for example, 60 frames per second.
  • the captured image will be described.
  • the line Lh is a horizontal line
  • the line Lg is a center line of the captured image (referred to as an imaging center line) orthogonal to the horizontal direction of the captured image.
  • Line Lc is the vehicle center line. Since the imaging unit 10 is arranged so as to deviate from the vehicle center line Lc, the imaging center line Lg does not coincide with the vehicle center line Lc.
  • the bumper 21 of the vehicle 2 is reflected in the foreground, and the rear body 22 of the vehicle 2 is reflected in the right direction.
  • the storage unit 20 includes a storage device for storing various data such as a program executed by the control circuit 30, the above-described camera parameters, and 3D information representing the appearance of the vehicle.
  • the control circuit 30 is configured by a microcomputer including a CPU 31, a ROM 32, a RAM 33, an I / O, and the like.
  • the control circuit 30 reads the program stored in the storage unit 20 and executes image generation processing for extracting a part of the captured image captured by the imaging unit 10 as a display image.
  • the display unit 40 displays the display image generated by the control circuit 30 to the vehicle occupant.
  • the display unit 40 includes a display device for displaying an image to a vehicle occupant.
  • image generation processing also referred to as an image processing method executed by the control circuit 30 (specifically, for example, the CPU 31) according to a program will be described with reference to the flowchart of FIG.
  • the image generation process is performed every predetermined period (in this embodiment, each time a captured image is output from the imaging unit 10) in a state where the position of the shift lever operated by the driver is reverse (backward traveling). ) Is repeatedly executed.
  • control circuit 30 When the processing is started, the control circuit 30 first acquires a captured image by the imaging unit 10 in S100 (S represents a step or a section).
  • the vehicle reflection area is detected.
  • an area in which the own vehicle is reflected for example, the rear body 22 shown in FIG. 4
  • an own vehicle reflection area is referred to as an own vehicle reflection area.
  • the own vehicle reflection region R1 is obtained by calculation based on the camera parameters stored in the storage unit 20 and the 3D information representing the appearance shape of the vehicle.
  • each section is expressed as S100, for example.
  • each section can be divided into a plurality of subsections, while a plurality of sections can be combined into one section.
  • each section configured in this way can be referred to as a circuit, device, module, means.
  • each of the above sections or a combination thereof includes not only (i) a section of software combined with a hardware unit (eg, a computer), but also (ii) hardware (eg, an integrated circuit, As a section of (wiring logic circuit), it can be realized with or without the function of related devices.
  • the hardware section can be configured inside the microcomputer.
  • the horizontal position in the captured image Gs (specifically, the position of the center line of the display image) is initially set. Set to position P1.
  • an area to be included in the display image (for example, a rectangular area having a width of 6 m and a height of 5 m centered on the rear of the vehicle and centered behind the vehicle) is determined in advance.
  • the width of the range to be displayed as the display image (display angle of view narrower than the angle of view of the wide-angle camera) is set to a size capable of displaying the entire region. Since the extraction frame W indicates a portion displayed as a display image in the captured image Gs, the extraction frame W is set to a size corresponding to the size of the range to be displayed as the display image.
  • the initial position P1 is set such that the center line of the display image (hereinafter referred to as the display center line H) coincides with the imaging center line Lg, that is, the extraction frame W is positioned at the center of the captured image Gs. Yes.
  • the extraction frame W is symmetrical with respect to the imaging center line Lg.
  • the position in the direction (vertical direction) orthogonal to the horizontal direction of the extraction frame W is set to the center position in the vertical direction of the captured image Gs.
  • the display center line H is horizontally aligned by a unit pixel (for example, one pixel) in a direction in which the center position of the display image approaches the vehicle center line Lc (right side in the present embodiment). Move.
  • the size of the extraction frame W is changed according to the movement toward the vehicle center line Lc in order to equalize the size of the actual subject corresponding to the image included in the extraction frame W at each movement position. . Specifically, each time the vehicle moves toward the vehicle center line Lc, the width of the extraction frame W becomes smaller, and the right side of the extraction frame W becomes smaller than the left side with respect to the display center line H (to the display center line H). It becomes asymmetrical to the left).
  • Such a change in the shape of the extraction frame W accompanying the movement in the horizontal direction can be calculated based on the characteristics of the lens (for example, fisheye lens) of the imaging unit (wide-angle camera) 10. It is stored in the storage unit 20. Therefore, if the display center line H is specified, the size of the extraction frame W is specified.
  • the reciprocal of the enlargement ratio (1 / enlargement ratio) is set to a predetermined lower limit value (both the allowable value) for a pixel at a specific position in the extraction frame W (in this embodiment, the pixel at the lower end in the movement direction (lower right corner)). It is determined whether it is less than (that is, below the lower limit). If the reciprocal of the enlargement ratio is less than the lower limit value, the process proceeds to S160. On the other hand, when the reciprocal of the enlargement ratio is greater than or equal to the lower limit value, the process proceeds to S150.
  • a predetermined lower limit value both the allowable value
  • the enlargement ratio is an enlargement ratio (ratio at which the subject is stretched) when the captured image Gs, which is a distorted image, is converted into a regular image without distortion, and is away from the imaging center line Lg. It gets bigger.
  • the enlargement ratio is determined by the characteristics of the lens of the imaging unit (wide-angle camera) 10, and the data is stored in the storage unit 20 in advance. That is, if the position of a pixel in the captured image Gs is specified, the enlargement ratio of the pixel is specified.
  • the imaging unit 10 corresponds to the wide-angle camera of the present disclosure.
  • the image in the extraction frame W at the movement position P2 is Compared with the image in the extraction frame W at the initial position P1, pixels having a large enlargement ratio are included.
  • the distance in the horizontal direction from the initial position P1 to the moving position P2 is defined as an offset distance.
  • the offset distance is a distance on the captured image Gs and is represented by, for example, the number of pixels.
  • the relationship between the offset distance and the reciprocal of the enlargement ratio for a pixel at a specific position in the extraction frame W is grasped in advance based on the lens characteristics described above, as shown in FIG.
  • the enlargement factor for a pixel at a specific position in the extraction frame W increases monotonously as the offset distance of the display center line H increases.
  • the lower limit value is determined in advance by a sensory evaluation viewed by humans, for example, on the basis of a limit value at which the end of the display image is displayed in an easy-to-see manner. However, this lower limit value is set to a value larger than the reciprocal of the enlargement ratio when the display center line H is located at the initial position P1.
  • the ratio of the own vehicle reflection area R1 included in the extraction frame W (for example, expressed as a percentage (%)) is set as the reflection ratio, and the reflection ratio is larger than the upper limit (allowable value) ( It is determined whether or not the upper limit has been exceeded.
  • the process returns to S130 (the processes of S130 to S150 are repeated).
  • the reflection rate is larger than the upper limit value, the process proceeds to S160.
  • the upper limit value is determined in advance based on a sensory evaluation seen by humans, for example, on the basis of a limit value that does not give a sense of discomfort. In the present embodiment, it is assumed that the ratio of the own vehicle reflection region R1 monotonously increases as the offset distance of the display center line H increases.
  • the offset distance ds is stored for the display center line H at the position Ps immediately before the current position of the display center line H (the position returned by the unit pixel in the horizontal direction) (FIG. 9). reference).
  • the reason why the previous position is specified is that the current position exceeds the allowable value. That is, when it is determined that the reciprocal of the enlargement ratio is less than the lower limit value and the process proceeds to S160, the previous position is a position where the reciprocal of the enlargement ratio is the minimum value equal to or greater than the lower limit value (that is, the allowable value). Limit position in range).
  • the previous position is the position where the reflection rate is the maximum value that is equal to or less than the upper limit value (that is, the allowable value). Limit position in range).
  • the extraction frame W at this time is set as the output frame Ws. Further, the position of the display center line H at this time is referred to as an output extraction position Ps.
  • a range in the vertical direction (up and down direction on the paper surface) used as a display image is set.
  • the range in the vertical direction is set so that the display image includes the horizontal line Lh and the bumper 21.
  • the horizontal line Lh and the bumper 21 are included in the output frame Ws.
  • the horizontal line Lh and the bumper 21 are guides for the angle of view for allowing an object on the ground to be included in the display image, and the horizontal line Lh itself does not need to be reflected in the captured image, and the horizontal line Lh is the object. You may not be able to see because it is hidden.
  • the position of the horizontal line Lh in the captured image is obtained by calculation based on the camera parameters stored in the storage unit 20.
  • the position of the bumper 21 in the captured image is obtained by calculation based on the camera parameters stored in the storage unit 20 and the 3D information representing the external appearance shape of the vehicle, as in the above-described own vehicle reflection region R1. It is done.
  • the viewpoint conversion process here refers to a process of converting the image subjected to distortion correction in S180 into a captured image by the virtual imaging unit 10 in which camera parameters such as a pitch angle and a roll angle are changed. Since various methods are known for this type of viewpoint conversion processing, description thereof is omitted here.
  • the control circuit 30 of the present embodiment displays a part of the image captured by the imaging unit 10 arranged at a position shifted from the vehicle center line that is the center line in the longitudinal direction of the vehicle 2 as a display image. Extract as Specifically, the control circuit 30 is configured so that the center position of the display image is as close as possible to the vehicle center line and the reciprocal of the enlargement ratio is greater than or equal to a predetermined lower limit value for the pixel at the specific position in the display image. Then, the extraction position of the display image in the captured image is determined. That the reciprocal of the enlargement ratio is equal to or greater than the predetermined lower limit value means that the degree of reduction (enlargement ratio) is equal to or less than the reciprocal of the lower limit value (first predetermined value).
  • FIGS. 9A and 9B when the display center line H is located at the movement position P2 (FIG. 9B), the display center line H is located at the initial position P1.
  • the enlargement ratio of the pixel at the specific position (lower right corner) in the display image Gh is increased. The larger the enlargement ratio, the more the image at the end becomes blurred, and the image becomes difficult to recognize for the vehicle occupant.
  • the display center line H is set to be as close to the vehicle center line Lc as possible, while the enlargement ratio for the pixel at the specific position is such that the vehicle occupant does not feel it difficult to recognize. It is set (S130, S140). Therefore, in this embodiment, it is possible to generate a display image in which the vertical center of the image matches the vehicle center as much as possible while maintaining the resolution of the image at a predetermined level or higher. As a result, it is possible to generate a display image that can be easily recognized by a vehicle occupant.
  • control circuit 30 periodically executes image generation processing in a state where the position of the shift lever operated by the driver is reverse (reverse running). That is, even if the camera installation position of the imaging unit 10 is deviated due to some factor such as aging, for example, the camera parameter stored in the storage unit 20 is updated so as to correspond to this position deviation. Based on the above, it is possible to generate a display image that is easily recognized by a vehicle occupant.
  • control circuit 30 uses the ratio of the reflection of the own vehicle to the entire display image as a reflection ratio, and the center position of the display image is as close as possible to the vehicle center line, and the reflection ratio is the upper limit.
  • the process (S150) of determining the extraction position of the display image in the captured image is performed so as to be equal to or less than the value (second predetermined value). Thereby, the reflection of the own vehicle in the display image can be suppressed so that the vehicle occupant who sees the display image does not feel uncomfortable.
  • the pixel at the specific position is set to a pixel located at the vehicle center line side end in the horizontal direction of the captured image. Further, the pixel at the specific position is set to a pixel located at the end in the vertical direction of the captured image. Furthermore, the pixel at the specific position is set so as to be positioned on the bumper 21 side of the host vehicle captured in the captured image in the vertical direction of the captured image. That is, in the present embodiment, the pixel at the specific position is set to the pixel at the lower right corner of the output frame Ws. Thereby, in the display image, it is possible to suppress deterioration in image quality particularly near the host vehicle.
  • the control circuit 30 corresponds to an example of an “image processing apparatus”.
  • 5 corresponds to an example of “extraction determination unit (or circuit, means)” and “extraction determination step (or section)”.
  • S180 corresponds to an example of “distortion correction unit (or circuit, means)” and “distortion correction step (or section)”.
  • the extraction position of the display image is determined from the captured image (S120-S160), and then distortion correction is performed (corresponding to S180), but the processing order is not limited to this. is not.
  • distortion correction may be performed on the captured image, and similar processing may be performed to determine the display image extraction position for the corrected image.
  • the process of S180 is performed on the entire captured image, and then the process of S110 and subsequent steps is performed.
  • the size of the extraction frame W is appropriately changed according to the position of the display center line H in order to associate the extraction frame W before distortion correction with the size of the display image.
  • the size of the extraction frame W can be made constant regardless of the position of the display center line H.
  • the own vehicle reflection region R1 is grasped by calculation (S110), but is not limited thereto.
  • calculation for example, actual imaging may be performed, and the correspondence between the actual reflection area and the captured image may be specified in advance. Further, these correspondence relationships may be stored in the storage unit 20 as predetermined fixed values. The same applies to the horizontal line Lh, the bumper 21, and the like, and the correspondence specified from the actual captured image may be stored.
  • the display center line H is set so as to allow the display image to include the host vehicle reflection region R1 (S150), but is not limited thereto.
  • the display center line H may be set at the extraction position Ps1 so that the display image does not include the own vehicle reflection region R1 (see FIG. 10).
  • the offset distance ds1 in this case can be smaller than the offset distance ds shown in FIG. 6 (ds1 ⁇ ds).
  • the extraction frame W may be set in advance so as to include at least the bumper 21, may be set in advance so as to include at least the horizontal line Lh, and may include at least both the bumper 21 and the horizontal line Lh. May be set in advance.
  • the extraction frame W is set to a rectangle, but the shape of the extraction frame W is not limited to this.
  • the shape of the extraction frame W may be a distorted shape that is corrected to a rectangle by distortion correction.
  • the size of the extraction frame W is changed according to the movement in the horizontal direction, but the present invention is not limited to this.
  • the size of the extraction frame W may be fixed regardless of the movement in the horizontal direction.
  • distortion correction is performed on the image in the output frame Ws (S180), but the present invention is not limited to this.
  • An image obtained by uniformly enlarging the image in the output frame Ws (with all the pixels at the same magnification) so as to correspond to the size of the display image without performing distortion correction may be used as the display image.
  • the image in the output frame Ws may be output as it is as a display image without being enlarged.
  • the image subjected to viewpoint conversion is used as a display image (S190), but the present invention is not limited to this.
  • An image that has not undergone viewpoint conversion may be used as a display image as it is.
  • control circuit 30 periodically executes the image generation processing shown in FIG. 5 in a state where the position of the shift lever operated by the driver is reverse (reverse running), but the present invention is not limited thereto. It is not a thing.
  • the control circuit 30 may be configured to execute an image generation process in accordance with a command from an input device (not shown) that receives an input from the driver.
  • the input device may be configured by a touch panel provided in the display unit 40, a mechanical key switch installed around the display unit 40, or the like.
  • control circuit 30 may be configured to execute an image generation process in accordance with a command from an external device (not shown) that receives an instruction from the outside.
  • the image processing apparatus extracts, as a display image, a part of an image captured by a wide-angle camera arranged at a position shifted from the vehicle center line that is the center line in the longitudinal direction of the vehicle.
  • the degree of reduction of the subject increases as the distance from the center of the captured image increases.
  • the control circuit included in the image processing device determines the extraction position of the display image in the captured image according to the center position of the display image with respect to the vehicle center line and the degree of reduction of the subject represented by the pixel at the specific position in the display image. To do.
  • the image processing apparatus it is possible to generate a display image that can be easily recognized by a vehicle occupant from an image captured by a wide-angle camera arranged at a position shifted from the vehicle center line.
  • the present disclosure includes various systems including the apparatus as components, a program for causing a computer to function as each unit configuring the apparatus, a recording medium on which the program is recorded, communication It can be realized in various forms such as a control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

 車両の長手方向の中心線である車両中心線からずれた位置に配置され、撮像画像の中心から離れるほど被写体の縮小度合いが大きくなる広角カメラによる撮像画像の一部を、表示用画像として抽出する画像処理装置及び画像処理方法が提供される。画像処理装置は、表示用画像を抽出する制御回路(30)を有し、制御回路(30)は、前記車両中心線に対する前記表示用画像の中心位置、及び前記表示用画像における特定位置の画素が表す被写体の縮小度合いに応じて、前記撮像画像における前記表示用画像の抽出位置を決定する抽出決定部(S120-S160)を備える。

Description

画像処理装置及び画像処理方法 関連出願の相互参照
 本開示は、2013年8月9日に出願された日本国特許出願2013-166292号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両に搭載されたカメラによる撮像画像から、車両の乗員に対して表示する表示用画像を生成するための画像処理の技術に関する。
 近年、撮像装置としてのカメラを車両に搭載し、カメラで撮像した画像を表示装置に表示させることにより、運転者の運転操作を支援するシステムが実現されている。多くのシステムでは、広範囲を一度に撮像することが可能な広角カメラが用いられている。
 例えば、車両後方の撮像画像を表示することで運転を支援するシステムでは、車両の長手方向の中心線からずれた位置に広角カメラが配置されていると、車両の移動と表示されている画像における変化との関係が直感的に把握しにくくなるおそれがある。そこで、車両の長手方向の中心線からずれた位置に配置された広角カメラにより撮像された車両後方の画像において、画像の中心が車両の長手方向の中心線と一致する部分を抽出して表示するシステムが提案されている(特許文献1参照)。
 本願の出願人らは、画像処理装置及び画像処理方法について、以下を見出した。
 広角カメラによって撮像された画像は、画像の中心から離れるほど被写体の歪みが大きくなり、被写体の縮小度合いが大きくなる(つまり、被写体が小さく写る)。このような撮像画像の一部を表示用画像として抽出し表示する場合、撮像画像における中心から離れた部分を抽出するほど、車両の乗員(例えば運転者)が認識しづらい表示用画像になるおそれがある。すなわち、抽出画像に対して歪補正を施さずにそのまま表示した場合、撮像画像の中心から離れた被写体ほど小さく表示されるため、車両の乗員が認識しづらくなるおそれがある。一方、抽出画像に対して歪補正を施して表示した場合にも、撮像画像の中心から離れた被写体ほど歪補正による拡大率が大きくなり解像度が低い画像となるため、やはり車両の乗員が認識しづらくなるおそれがある。カメラの設置位置が車両の長手方向の中心線から大きくずれているほど、車両の長手方向の中心線付近の領域が撮像画像の中心から離れ、前述のような問題がより顕著となるおそれがある。
日本国特許公報4512293号
 本開示は、車両の長手方向の中心線からずれた位置に配置された広角カメラによる撮像画像から、車両の乗員が認識しやすい表示用画像を生成するための技術を提供することを目的とする。
 本開示に係る画像処理装置及び画像処理方法によれば、車両の長手方向の中心線である車両中心線からずれた位置に配置され、撮像画像の中心から離れるほど被写体の縮小度合いが大きくなる広角カメラによる撮像画像の一部を、表示用画像として抽出する画像処理装置及び画像処理方法が提供される。本開示に係る画像処理装置は、表示用画像を抽出する制御回路を有し、制御回路は、前記車両中心線に対する前記表示用画像の中心位置、及び前記表示用画像における特定位置の画素が表す被写体の縮小度合いに応じて、前記撮像画像における前記表示用画像の抽出位置を決定する抽出決定部を備える。
 本開示に係る画像処理装置および画像処理方法によれば、車両中心線からずれた位置に配置された広角カメラによる撮像画像から、車両の乗員が認識しやすい表示用画像を生成することができる。
 本開示についての上記および他の目的、特徴や利点は、添付の図面を参照した下記の詳細な説明から、より明確になる。添付図面において、
画像処理システムの概略構成を示す図であり、 図2Aは広角カメラにより撮像される歪曲画像を示す図であり、 図2Bは図2Aの歪曲画像を歪補正した正則画像を示す図であり、 図3Aは、車両を真上から見た場合のカメラパラメータを説明する図であり、 図3Bは、車両の後部を側方から見た場合のカメラパラメータを説明する図であり、 図4は、後方撮像画像の一例を示す図であり、 図5は、制御回路が実行する画像生成処理を表すフローチャートであり、 図6は、撮像画像における抽出枠及び出力枠を説明する図であり、 図7は、オフセット距離と拡大率の逆数との関係を示す図であり、 図8は、撮像画像における出力枠の垂直方向への拡大を説明する図であり、 図9Aは、表示中心線が初期位置に位置する場合の表示用画像における特定位置の画素の拡大率を斜線部の大きさとして模式的に示した図であり、 図9Bは、表示中心線が出力抽出位置に位置する場合の表示用画像における特定位置の画素の拡大率を斜線部の大きさとして模式的に示した図であり、 表示用画像への自車両による写り込みを許容しない他の実施形態における出力枠について説明する図である。
 以下に本開示の実施形態を図面と共に説明する。
 [全体構成]
 本開示の画像生成システム1は、車両後方の撮像画像から車両の乗員(例えば運転者)に表示する表示用画像を生成するためのものであり、図1に示すように、撮像部10と、記憶部20と、制御回路30と、表示部40と、を備える。なお、制御回路30は画像処理部とも呼ぶ。
 撮像部10は、概ね180度の画角で撮像可能な広角カメラ(魚眼カメラ)を備える。撮像部10による撮像画像では、撮像画像の中心から離れるほど、被写体の縮小度合いが大きくなり、被写体が小さく写る。つまり、撮像画像は、撮像画像の中心から離れるほど被写体が小さく写るように歪んでいる歪曲画像(図2A参照)である。
 以下では、このような中心から離れるほど被写体の歪みが大きくなる歪曲画像である撮像画像を、歪みのない正則画像へ補正すると仮定した場合、歪曲画像が表す被写体の大きさに対する正則画像が表す当該被写体の大きさを拡大率とする。つまり、縮小度合いが大きいほど拡大率が大きくなる。したがって、拡大率は、歪曲画像の中心から離れるほど大きくなる。
 撮像部10は、図3Aに示すように、車両2の後部であって、車両2の長手方向の中心線(以下、車両中心線という)Lcからずれた位置に配置されている。また、撮像部10は、図3Bに示すように、車両2の後方領域における下方を撮像するように配置されている。車両2(具体的には車両2における基準点)を基準とした撮像部10の3次元空間での座標位置、ピッチ角、ヨー角及びロール角の情報は、カメラパラメータとしてとして記憶部20に予め記憶されている。
 撮像部10は、撮像画像を所定頻度(例えば、1秒間に60フレーム)で制御回路30に出力する。ここで、撮像画像について説明する。図4に示すように、撮像画像の一例において、線Lhは水平線であり、線Lgは、撮像画像の水平方向に直交する、該撮像画像の中心線(撮像中心線という)である。また、線Lcは車両中心線である。撮像部10が車両中心線Lcからずれて配置されているため、撮像中心線Lgは、車両中心線Lcに一致していない。本実施形態では、撮像画像にて、手前に車両2のバンパ21が写り込んでおり、右方向に車両2の後方ボディ22が写り込んでいる。
 図1にて、記憶部20は、制御回路30が実行するプログラム、前述のカメラパラメータ、及び車両の外観形状を表す3D情報等の各種データを記憶するための記憶装置を備える。
 制御回路30は、CPU31、ROM32、RAM33及びI/O等を備えるマイコンにて構成されている。制御回路30は、記憶部20に記憶されているプログラムを読み込んで、撮像部10が撮像した撮像画像の一部を表示用画像として抽出する画像生成処理を実行する。
 表示部40は、制御回路30により生成された表示用画像を、車両の乗員に表示する。具体的には、表示部40は、車両の乗員に対して画像を表示するための表示装置を備える。
 [処理]
 次に、制御回路30(具体的には、例えばCPU31)がプログラムに従い実行する画像生成処理(画像処理方法とも呼ぶ)について、図5のフローチャートを用いて説明する。画像生成処理は、運転者が操作するシフトレバーのポジションがリバース(後方走行)となっている状態において、予め定められた期間毎(本実施形態では、撮像部10から撮像画像が出力される毎)に繰り返し実行される。
 制御回路30は、処理が開始されると、まずS100(Sはステップまたはセクションを表す)にて、撮像部10による撮像画像を取得する。
 次にS110では、自車両写り込み領域を検出する。撮像画像において、(例えば図4に示す後方ボディ22のように)自車両が写り込む領域を自車両写り込み領域という。本ステップでは、自車両写り込み領域R1(図6参照)を、記憶部20に記憶されているカメラパラメータと、車両の外観形状を表す3D情報とに基づいて、計算によって求める。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S100と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、サーキット、デバイス、モジュール、ミーンズとして言及されることができる。
 また、上記の複数のセクションの各々あるいは組合わさったものは、(i)ハードウエアユニット(例えば、コンピュータ)と組み合わさったソフトウエアのセクションのみならず、(ii)ハードウエア(例えば、集積回路、配線論理回路)のセクションとして、関連する装置の機能を含みあるいは含まずに実現できる。さらに、ハードウエアのセクションは、マイクロコンピュータの内部に構成されることもできる。
 S120では、撮像画像Gsにおいて表示用画像を抽出する範囲を設定するための抽出枠Wについて、撮像画像Gsにおける水平方向の位置(具体的には、表示用画像の中心線の位置)を、初期位置P1に設定する。
 本実施形態では、車両2の後方領域において、表示用画像に含めるべき領域(例えば、車両後方における、車両の真後ろを中心とした横6m、縦5mの長方形領域)が予め決められている。表示用画像として表示されるべき範囲の広さ(広角カメラの画角よりも狭い表示用画角)は、当該領域の全域を表示可能な広さに設定されている。抽出枠Wは、撮像画像Gsにおける表示用画像として表示される部分を示すものであるため、表示用画像として表示されるべき範囲の広さに応じた大きさに設定されている。
 初期位置P1は、表示用画像の中心線(以下、表示中心線Hという)が、撮像中心線Lgと一致する位置、つまり、抽出枠Wが撮像画像Gsの中央に位置するように設定されている。初期位置P1において、抽出枠Wは、撮像中心線Lgに対して左右対称である。なお、本実施形態では、抽出枠Wの水平方向に直交する方向(縦方向)の位置が、撮像画像Gsの縦方向の中央位置に設定されている。
 S130では、撮像画像Gsにおいて、表示用画像の中心位置が車両中心線Lcに近づく方向(本実施形態では右側)に向かって、表示中心線Hを水平方向に単位画素(例えば1画素)分だけ移動させる。
 本実施形態では、各移動位置で抽出枠W内に含まれる画像に対応する実際の被写体の大きさを等しくするため、車両中心線Lc側への移動に従って、抽出枠Wの大きさを変化させる。具体的には、車両中心線Lc側への移動毎に、抽出枠Wの横幅が小さくなり、表示中心線Hに対して抽出枠Wの右側が左側に比べて小さくなる(表示中心線Hに対して左右非対称となる)。このような水平方向への移動に伴う抽出枠Wの形状の変化は、撮像部(広角カメラ)10のレンズ(例えば、魚眼レンズ)の特性により計算することができるものであり、レンズの特性は予め記憶部20に記憶されている。従って、表示中心線Hが特定されれば、その抽出枠Wの大きさが特定される。
 続くS140では、抽出枠W内の特定位置の画素(本実施形態では移動方向下端部(右下隅)の画素)について、拡大率の逆数(1/拡大率)が所定の下限値(許容値とも呼ぶ)未満である(つまり、下限値を下回った)か否かを判定する。ここで、拡大率の逆数が下限値未満である場合、S160に移行する。一方、拡大率の逆数が下限値以上である場合、S150に移行する。
 拡大率とは、前述のように、歪曲画像である撮像画像Gsを歪みのない正則画像に変換したと仮定した場合の拡大率(被写体が引き延ばされる比率)であり、撮像中心線Lgから離れるほど大きくなる。拡大率は、撮像部(広角カメラ)10のレンズの特性により決まるものであり、そのデータは記憶部20に予め記憶されている。つまり、撮像画像Gsにおける画素の位置が特定されれば、その画素の拡大率が特定される。撮像部10は、本開示の広角カメラに対応する。
 なお、初期位置P1に対して、抽出枠Wを水平方向に所定画素分移動させたときの表示中心線Hの位置を移動位置P2とした場合、移動位置P2での抽出枠W内の画像は、初期位置P1での抽出枠W内の画像と比較して、拡大率の大きい画素が含まれる。
 ここで、表示中心線Hについて、初期位置P1から移動位置P2までの水平方向における距離をオフセット距離とする。オフセット距離は、撮像画像Gs上での距離であり、例えば画素数で表される。本実施形態では、前述のレンズの特性に基づいて、図7に示すように、オフセット距離と、抽出枠W内の特定位置の画素についての拡大率の逆数との関係が予め把握されている。抽出枠W内の特定位置の画素についての拡大率は、表示中心線Hのオフセット距離の増加に伴い単調増加する。
 下限値は、人間が見た官能評価によって、例えば表示用画像の端部が見やすく表示される限界値という基準で予め定められている。ただし、この下限値は、表示中心線Hが初期位置P1に位置するときの拡大率の逆数よりも大きい値に設定されている。
 次にS150では、抽出枠W内に含まれる自車両写り込み領域R1の割合(例えば百分率(%)で表す)を写り込み率として、該写り込み率が上限値(許容値)よりも大きい(上限値を超えた)か否かを判定する。ここで、写り込み率が上限値以下である場合、S130に戻る(S130~S150の処理を繰り返す)。一方、写り込み率が上限値よりも大きい場合、S160に移行する。上限値は、人間が見た官能評価によって、例えば違和感を覚えない限界値という基準で予め定められている。なお、本実施形態では、表示中心線Hのオフセット距離の増加に伴い、自車両写り込み領域R1の割合が単調増加すると想定している。
 次に、S160では、表示中心線Hの現在の位置に対して1つ前の位置(水平方向に単位画素分戻った位置)Psの表示中心線Hについて、オフセット距離dsを記憶する(図9参照)。ここで、1つ前の位置を特定しているのは、現在の位置が許容値を超えた位置だからである。すなわち、拡大率の逆数が下限値未満であると判定されてS160に移行した場合には、1つ前の位置が、拡大率の逆数が下限値以上の最小値であった位置(つまり、許容範囲での限界位置)である。同様に、写り込み率が上限値を超えていると判定されたS160に移行した場合には、1つ前の位置が、写り込み率が上限値以下の最大値であった位置(つまり、許容範囲での限界位置)である。なお、このときの抽出枠Wを出力枠Wsとして設定する。また、このときの表示中心線Hの位置を出力抽出位置Psという。
 続くS170では、表示用画像として用いる垂直方向(紙面の上下方向)の範囲を設定する。本実施形態では、一例として、表示用画像に、水平線Lh及びバンパ21が含まれるように、垂直方向の範囲を設定する。ここでは、出力枠Ws内に、水平線Lh及びバンパ21が含まれていると想定する。
 なお、水平線Lh及びバンパ21は、地上の物体が表示用画像に含まれるようにするための画角の目安であって、水平線Lh自体が撮像画像に写っている必要はなく、水平線Lhが物体に隠れていて見えなくてもよい。撮像画像における水平線Lhの位置は、記憶部20に記憶されているカメラパラメータに基づいて計算により求められる。また、撮像画像におけるバンパ21の位置は、前述の自車両写り込み領域R1と同様、記憶部20に記憶されているカメラパラメータと、車両の外観形状を表す3D情報とに基づいて、計算により求められる。
 仮に水平線Lhまたはバンパ21が出力枠Wsに含まれていない場合は、これらが含まれるように出力枠Wsを垂直方向(上下方向)に延長した枠を、新たな出力枠Ws(図8に二点鎖線で示す枠)として設定するものとする。
 次にS180では、出力枠Ws内の画像について歪補正を行う。歪曲画像の歪補正を行う手法は周知であるため、ここでは説明を省略する。なお、出力枠Wsが長方形である場合、歪補正後の画像は厳密な長方形にはならず、四隅が対角線方向外側へ引き延ばされたような形状となる(図2B参照)。このため、本ステップにおいて、歪補正後の長方形(表示用画像のサイズ)からはみ出す部分に対し、切り取り又はマスキングを行う処理を行う。
 続くS190では、視点変換処理を行う。ここでいう視点変換処理とは、S180にて歪補正を行った画像を、ピッチ角及びロール角等のカメラパラメータを変更した仮想の撮像部10による撮像画像に変換する処理をいう。この種の視点変換処理については、種々の手法が周知であるため、ここでは説明を省略する。
 最後にS200では、S190にて視点変換処理を行った画像を、表示部40に出力する。そして、本処理を終了する。
 [効果]
 以上説明したように、本実施形態の制御回路30は、車両2の長手方向の中心線である車両中心線からずれた位置に配置された撮像部10による撮像画像の一部を、表示用画像として抽出する。具体的には、制御回路30は、表示用画像の中心位置が車両中心線にできるだけ近く、かつ、表示用画像における特定位置の画素について、拡大率の逆数が所定の下限値以上となるように、撮像画像における表示用画像の抽出位置を決定する。拡大率の逆数が所定の下限値以上となることは、言い換えれば、縮小度合い(拡大率)が当該下限値の逆数(第1の所定値)以下となることを意味する。
 ここで、図9A、図9Bに模式的に示すように、表示中心線Hが移動位置P2に位置している場合(図9B)は、表示中心線Hが初期位置P1に位置している場合(図9A)と比べて、表示用画像Ghにおいて特定位置(右下隅)の画素の拡大率が大きくなる。この拡大率が大きいほど端部の画像がぼやけ、車両の乗員にとって認識しづらい画像となる。
 本実施形態では、特定位置の画素についての拡大率は車両の乗員に認識しづらさを感じさせないような拡大率であるようにしつつ、できるだけ車両中心線Lc近くとなるように表示中心線Hを設定している(S130、S140)。従って、本実施形態では、画像の解像度を所定のレベル以上に維持しながら、できるだけ画像の縦中心を車両中心に一致させた表示用画像を生成することができる。結果として、車両の乗員が認識しやすい表示用画像を生成することができる。
 また、本実施形態では、制御回路30は、運転者が操作するシフトレバーのポジションがリバース(後方走行)となっている状態において、定期的に画像生成処理を実行する。つまり、例えば経年変化等の何らかの要因によって撮像部10のカメラの設置位置がずれたとしても、この位置ずれに対応するように記憶部20に記憶されるカメラパラメータを更新することで、該カメラパラメータに基づいて、車両の乗員が認識しやすい表示用画像を生成することができる。
 また、制御回路30は、表示用画像の全体に対して自車両による写り込みが占める割合を写り込み率として、表示用画像の中心位置が車両中心線にできるだけ近く、かつ、写り込み率が上限値(第2の所定値)以下となるように、撮像画像における表示用画像の抽出位置を決定する処理(S150)を実行する。これにより、表示用画像における自車両の写り込みを、該表示用画像を見た車両の乗員が違和感を覚えないように、抑制することができる。
 さらにまた、制御回路30では、特定位置の画素は、撮像画像の水平方向において、車両中心線側端部に位置する画素に設定されている。また、特定位置の画素は、撮像画像の垂直方向において端部に位置する画素に設定されている。さらに、特定位置の画素は、撮像画像の垂直方向において、該撮像画像に撮像されている自車両のバンパ21側に位置するように設定されている。つまり本実施形態では、特定位置の画素は、出力枠Wsの右下隅の画素に設定されている。これにより、表示用画像において、特に自車両近くの画質の劣化を抑制することができる。
 制御回路30が「画像処理装置」の一例に相当する。また、図5に示す処理のS120-S160が「抽出決定部(または回路、手段)」としての処理及び「抽出決定ステップ(またはセクション)」の一例に相当する。S180が「歪補正部(または回路、手段)」としての処理及び「歪補正ステップ(またはセクション)」の一例に相当する。
 [他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。例えば、一つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を一つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。
 上記実施形態では、画像生成処理において、撮像画像にて表示用画像の抽出位置を決定し(S120-S160)、その後に歪補正を行う(S180に相当)が、処理の順序はこれに限るものではない。例えば、撮像画像についてまず歪補正を行い、補正後の画像について表示用画像の抽出位置を決定する同様の処理を行ってもよい。この場合、例えば、図5に示すフローチャートにおいて、S100の後にS180(及びS190)の処理を撮像画像全体に対して実行してから、S110以降の処理を実行する。上記実施形態では、歪補正前の抽出枠Wと表示用画像のサイズとを対応させるために、表示中心線Hの位置に応じて抽出枠Wの大きさを適宜変更していた。この点、本形態では、表示中心線Hの位置によらず抽出枠Wの大きさを一定とすることができる。
 上記実施形態では、自車両写り込み領域R1が計算によって把握される(S110)が、これに限るものではない。計算によらず、例えば、実際に撮像を行い、実際の写り込み領域と撮像画像との対応関係を予め特定しておいてもよい。また、これらの対応関係は、予め定められた固定値として記憶部20に記憶されていてもよい。この点は、水平線Lhやバンパ21などについても同様であり、実際の撮像画像から特定された対応関係が記憶されるようにしてもよい。
 上記実施形態では、表示用画像に自車両写り込み領域R1が含まれることを許容するように表示中心線Hが設定される(S150)が、これに限るものではない。表示用画像に自車両写り込み領域R1が含まれないように、表示中心線Hを抽出位置Ps1に設定してもよい(図10参照)。この場合のオフセット距離ds1は、図6に示すオフセット距離dsよりも小さくなり得る(ds1≦ds)。
 抽出枠Wは、少なくともバンパ21を含むように予め設定されてもよく、また、少なくとも水平線Lhが含まれるように予め設定されてもよく、また、少なくともバンパ21及び水平線Lhの両方が含まれるように予め設定されてもよい。
 上記実施形態では、抽出枠Wが長方形に設定されるが、抽出枠Wの形状はこれに限るものではない。例えば、抽出枠Wの形状を歪補正によって長方形に補正される歪曲形状としてもよい。
 上記実施形態では、抽出枠Wの大きさを、水平方向への移動に従って変化させるが、これに限るものではない。水平方向への移動によらず、抽出枠Wの大きさを固定としてもよい。
 上記実施形態では、出力枠Ws内の画像について歪補正を行う(S180)が、これに限るものではない。歪補正を行わず、表示用画像のサイズに対応するように、出力枠Ws内の画像を均一に(すべての画素を同じ拡大率で)拡大した画像を、表示用画像としてもよい。または、拡大せず、出力枠Ws内の画像をそのまま表示用画像として出力してもよい。
 上記実施形態では、視点変換を行った画像を表示用画像とする(S190)が、これに限るものではない。視点変換を行なっていない画像を、そのまま表示用画像としてもよい。
 上記実施形態では、制御回路30は、運転者が操作するシフトレバーのポジションがリバース(後方走行)となっている状態において、図5に示す画像生成処理を定期的に実行するが、これに限るものではない。制御回路30は、例えば、運転者による入力を受け付ける入力装置(図示せず)からの指令に従って画像生成処理を実行するように構成されてもよい。入力装置は、表示部40に設けられたタッチパネルや、表示部40の周囲等に設置されたメカニカルなキースイッチ等にて構成されてもよい。また、制御回路30は、外部からの指示を受け付ける外部装置(図示せず)等からの指令に従い、画像生成処理を実行するように構成されてもよい。
 本開示に係る画像処理装置は、車両の長手方向の中心線である車両中心線からずれた位置に配置された広角カメラによる撮像画像の一部を、表示用画像として抽出する。
 広角カメラによる撮像画像は、撮像画像の中心から離れるほど被写体の縮小度合いが大きくなる。画像処理装置が備える制御回路は、車両中心線に対する表示用画像の中心位置、及び表示用画像における特定位置の画素が表す被写体の縮小度合いに応じて、撮像画像における表示用画像の抽出位置を決定する。
 本開示に係る画像処理装置によれば、車両中心線からずれた位置に配置された広角カメラによる撮像画像から、車両の乗員が認識しやすい表示用画像を生成することができる。
 また、本開示は、前述した画像処理装置の他、当該装置を構成要素とする各種システム、当該装置を構成する各手段としてコンピュータを機能させるためのプログラム、当該プログラムが記録された記録媒体、通信制御方法など、種々の形態で実現可能である。
 以上、本開示に係る画像処理装置及び画像処理方法の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。

Claims (10)

  1.  車両の長手方向の中心線である車両中心線からずれた位置に配置され、撮像画像の中心から離れるほど被写体の縮小度合いが大きくなる広角カメラによる撮像画像の一部を、表示用画像として抽出する画像処理装置であって、表示用画像を抽出する制御回路(30)を有し、
     制御回路(30)は、
     前記車両中心線に対する前記表示用画像の中心位置、及び前記表示用画像における特定位置の画素が表す被写体の縮小度合いに応じて、前記撮像画像における前記表示用画像の抽出位置を決定する抽出決定部(S120-S160)を備える画像処理装置。
  2.  請求項1に記載の画像処理装置であって、
     前記抽出決定部(S120-S160)は、前記表示用画像の中心位置が前記車両中心線にできるだけ近く、かつ、前記特定位置の画素が表す被写体の縮小度合いが、予め定められた第1の所定値以下となるように、前記抽出位置を決定する画像処理装置。
  3.  請求項2に記載の画像処理装置であって、
     前記第1の所定値は、前記表示用画像の中心位置を前記車両中心線に一致させたときの前記特定位置の画素が表す被写体の縮小度合いよりも小さい画像処理装置。
  4.  請求項1から3のいずれか一項に記載の画像処理装置であって、
     前記抽出決定部(S120-S160)は、前記表示用画像における自車両の写り込み状況に応じて、前記撮像画像における前記表示用画像の抽出位置を決定する画像処理装置。
  5.  請求項4に記載の画像処理装置であって、
     前記抽出決定部(S120-S160)は、前記表示用画像における自車両写り込みが占める割合が第2の所定値以下となるように、前記撮像画像における前記表示用画像の抽出位置を決定する画像処理装置。
  6.  請求項1から5のいずれか一項に記載の画像処理装置であって、
     前記特定位置の画素は、前記表示用画像において前記車両中心線側の端部に位置する画素である画像処理装置。
  7.  請求項6に記載の画像処理装置であって、
     前記特定位置の画素は、前記車両中心線側端部に位置する画素のうち端部に位置する画素である画像処理装置。
  8.  請求項7に記載の画像処理装置であって、
     前記特定位置の画素は、前記撮像画像において自車両のバンパ側の端部に位置する画素である画像処理装置。
  9.  請求項1から8のいずれか一項に記載の画像処理装置であって、
     前記撮像画像の歪補正を行う歪補正部(S180)を備える画像処理装置。
  10.  車両の長手方向の中心線である車両中心線からずれた位置に配置され、撮像画像の中心から離れるほど被写体の縮小度合いが大きくなる広角カメラによる撮像画像の一部を、表示用画像として抽出する画像処理方法であって、
     前記車両中心線に対する前記表示用画像の中心位置、及び前記表示用画像における特定位置の画素が表す被写体の縮小度合いに応じて、前記撮像画像における前記表示用画像の抽出位置を決定する抽出決定ステップ(S120-S160)と、
     前記撮像画像の歪補正を行う歪補正ステップ(S180)とを備える画像処理方法。
PCT/JP2014/003994 2013-08-09 2014-07-30 画像処理装置及び画像処理方法 WO2015019579A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/910,464 US10315570B2 (en) 2013-08-09 2014-07-30 Image processing apparatus and image processing method
CN201480044328.1A CN105453536B (zh) 2013-08-09 2014-07-30 图像处理装置以及图像处理方法
EP14834382.5A EP3016370B1 (en) 2013-08-09 2014-07-30 Image processing device, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013166292A JP6036601B2 (ja) 2013-08-09 2013-08-09 画像処理装置及び画像処理方法
JP2013-166292 2013-08-09

Publications (1)

Publication Number Publication Date
WO2015019579A1 true WO2015019579A1 (ja) 2015-02-12

Family

ID=52460936

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/003994 WO2015019579A1 (ja) 2013-08-09 2014-07-30 画像処理装置及び画像処理方法

Country Status (5)

Country Link
US (1) US10315570B2 (ja)
EP (1) EP3016370B1 (ja)
JP (1) JP6036601B2 (ja)
CN (1) CN105453536B (ja)
WO (1) WO2015019579A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10315570B2 (en) 2013-08-09 2019-06-11 Denso Corporation Image processing apparatus and image processing method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046747A (ja) * 2014-08-26 2016-04-04 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像表示システム
JP6568374B2 (ja) * 2015-03-27 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
KR101795180B1 (ko) * 2015-12-11 2017-12-01 현대자동차주식회사 페일 세이프 기능을 갖는 차량 측후방 모니터링 장치 및 방법
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
JP6688277B2 (ja) * 2017-12-27 2020-04-28 本田技研工業株式会社 プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
EP3735673B1 (en) * 2018-01-05 2024-09-11 Volvo Truck Corporation Camera monitoring system with a display displaying an undistorted portion of a wide angle image adjoining at least one distorted portion of the wide angle image
US10839523B2 (en) * 2018-05-16 2020-11-17 Otis Elevator Company Position-based adjustment to display content
JP7314486B2 (ja) * 2018-09-06 2023-07-26 株式会社アイシン カメラキャリブレーション装置
US11544895B2 (en) * 2018-09-26 2023-01-03 Coherent Logix, Inc. Surround view generation
CN112991216B (zh) * 2021-03-18 2022-05-13 支付宝(杭州)信息技术有限公司 鱼眼图像的矫正方法、系统、智能货架以及图像处理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111070A (ja) * 2001-09-27 2003-04-11 Aisin Seiki Co Ltd 車両用監視装置
JP2005086279A (ja) * 2003-09-04 2005-03-31 Equos Research Co Ltd 撮像装置、及び撮像装置を備えた車両
JP2006129149A (ja) * 2004-10-29 2006-05-18 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
WO2008117386A1 (ja) * 2007-03-23 2008-10-02 Pioneer Corporation 車両用画像処理装置及び車両用画像処理プログラム
JP2009230235A (ja) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
JP4512293B2 (ja) 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP2012156672A (ja) * 2011-01-25 2012-08-16 Clarion Co Ltd 車両周辺監視装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4258979A (en) * 1978-12-08 1981-03-31 Mahin William E Rear view mirror assembly
US6717712B2 (en) * 2000-01-06 2004-04-06 Donnelly Corporation Exterior mirror plano-auxiliary reflective element assembly
WO2004068414A1 (ja) * 2003-01-27 2004-08-12 Fujitsu Limited 注目物体の出現位置表示装置
US7420756B2 (en) * 2003-05-20 2008-09-02 Donnelly Corporation Mirror reflective element
US20060026017A1 (en) * 2003-10-28 2006-02-02 Walker Richard C National / international management and security system for responsible global resourcing through technical management to brige cultural and economic desparity
US7590310B2 (en) * 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US20060206246A1 (en) * 2004-10-28 2006-09-14 Walker Richard C Second national / international management and security system for responsible global resourcing through technical management to brige cultural and economic desparity
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
JP2008172441A (ja) * 2007-01-10 2008-07-24 Omron Corp 検出装置および方法、並びに、プログラム
JP4967666B2 (ja) * 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
US8218007B2 (en) * 2007-09-23 2012-07-10 Volkswagen Ag Camera system for a vehicle and method for controlling a camera system
JP5347257B2 (ja) * 2007-09-26 2013-11-20 日産自動車株式会社 車両用周辺監視装置および映像表示方法
JP5237268B2 (ja) * 2007-11-21 2013-07-17 パナソニック株式会社 表示装置
WO2010006361A1 (en) * 2008-07-14 2010-01-21 National Ict Australia Limited Detection of vehicles in images of a night time scene
TW201009757A (en) * 2008-08-29 2010-03-01 Automotive Res & Testing Ct Object position detecting device and method
KR101244498B1 (ko) * 2008-10-22 2013-03-18 주식회사 만도 차선을 인식하는 방법 및 장치
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8358207B2 (en) * 2009-05-29 2013-01-22 GM Global Technology Operations LLC System for pre-attentively communicating information to a driver of a vehicle
JP5596938B2 (ja) * 2009-06-02 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
JP5811327B2 (ja) * 2011-06-11 2015-11-11 スズキ株式会社 カメラキャリブレーション装置
JP6036601B2 (ja) 2013-08-09 2016-11-30 株式会社デンソー 画像処理装置及び画像処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4512293B2 (ja) 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
JP2003111070A (ja) * 2001-09-27 2003-04-11 Aisin Seiki Co Ltd 車両用監視装置
JP2005086279A (ja) * 2003-09-04 2005-03-31 Equos Research Co Ltd 撮像装置、及び撮像装置を備えた車両
JP2006129149A (ja) * 2004-10-29 2006-05-18 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
WO2008117386A1 (ja) * 2007-03-23 2008-10-02 Pioneer Corporation 車両用画像処理装置及び車両用画像処理プログラム
JP2009230235A (ja) * 2008-03-19 2009-10-08 Sanyo Electric Co Ltd 画像処理装置及び方法、運転支援システム、車両
JP2012156672A (ja) * 2011-01-25 2012-08-16 Clarion Co Ltd 車両周辺監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3016370A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10315570B2 (en) 2013-08-09 2019-06-11 Denso Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
CN105453536A (zh) 2016-03-30
US10315570B2 (en) 2019-06-11
CN105453536B (zh) 2019-03-29
EP3016370B1 (en) 2018-12-05
EP3016370A1 (en) 2016-05-04
EP3016370A4 (en) 2017-01-04
JP2015035145A (ja) 2015-02-19
US20160176344A1 (en) 2016-06-23
JP6036601B2 (ja) 2016-11-30

Similar Documents

Publication Publication Date Title
WO2015019579A1 (ja) 画像処理装置及び画像処理方法
JP5222597B2 (ja) 画像処理装置及び方法、運転支援システム、車両
JP6303090B2 (ja) 画像処理装置および画像処理プログラム
JP4924896B2 (ja) 車両の周辺監視装置
JP5320970B2 (ja) 車両用表示装置および表示方法
WO2015162895A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、表示装置
JP2007264831A (ja) 運転支援装置
JP5904093B2 (ja) 車載画像生成装置
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
CN115147580A (zh) 图像处理装置、图像处理方法、移动装置和存储介质
JP2006318272A (ja) 車両用物体検出装置、および方法
JP2020052671A (ja) 表示制御装置、車両、表示制御方法
JP4945315B2 (ja) 運転支援システム及び車両
WO2017168953A1 (ja) 車両用装置、車両用プログラム、フィルタ設計プログラム
JP2008140401A (ja) 運転支援装置
JP6136748B2 (ja) 2次元3次元表示装置
JP6488628B2 (ja) 映像処理装置、及び車載映像処理システム
JP6136747B2 (ja) 2次元3次元表示装置
JP2006178667A (ja) 車両用映像補正装置及び車両用映像補正方法
JP7291900B2 (ja) 視界支援画像生成装置および画像変換プログラム
JP7291901B2 (ja) 視界支援画像生成装置および画像変換プログラム
JP7345106B2 (ja) 視界支援画像生成装置および画像変換プログラム
JP2008022518A (ja) 物体像表示方法
JP2018152822A (ja) 車両用映像表示装置
CN117336590A (zh) 照相机监视系统及其控制方法、信息处理设备和存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480044328.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14834382

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014834382

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14910464

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE