Nothing Special   »   [go: up one dir, main page]

JP2009123131A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009123131A
JP2009123131A JP2007298857A JP2007298857A JP2009123131A JP 2009123131 A JP2009123131 A JP 2009123131A JP 2007298857 A JP2007298857 A JP 2007298857A JP 2007298857 A JP2007298857 A JP 2007298857A JP 2009123131 A JP2009123131 A JP 2009123131A
Authority
JP
Japan
Prior art keywords
image
angle
pixel
display screen
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007298857A
Other languages
Japanese (ja)
Inventor
Tatsumaro Yamashita
龍麿 山下
Tomoya Kamata
智也 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2007298857A priority Critical patent/JP2009123131A/en
Publication of JP2009123131A publication Critical patent/JP2009123131A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of magnifying a part of a received image detected by an image sensor of a fisheye camera and displaying it to a display picture with little distortion and to correct it when the fisheye camera is fitted at a tilt. <P>SOLUTION: An image of a part of a section 30a in a received image 20 taken by the fisheye camera 11 is magnified and displayed to a display picture with a magnification rate differed in every part inside the section 30a. In the image processing, a variable function differed in magnification rate of an angle of view in every place is used, converted into central projection to generate the display picture, and a zenith angle and azimuth angle of an image point are obtained. By adding an angle correction value to the azimuth angle to generate a display image, an installation angle error of the fisheye camera 11 can be corrected. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、魚眼レンズや広角レンズあるいは望遠レンズなどのレンズで集光された光を撮像素子で検知し、撮像素子で検知された受像信号の一部を、拡大し、歪みを修正して表示画面に表示させることができる撮像装置に関する。   The present invention detects light collected by a lens such as a fish-eye lens, a wide-angle lens, or a telephoto lens with an image sensor, enlarges a part of an image signal detected by the image sensor, corrects distortion, and displays a display screen. The present invention relates to an imaging device that can be displayed on the screen.

魚眼レンズや広角レンズなどと撮像素子とを備えたカメラを使用して、外部の景色を撮影し、その画像を表示装置に表示する撮像装置は、防犯用や車載用などとして使用されている。特に、車載用では魚眼レンズや広角レンズを備えたカメラが車体に取り付けられて、車体の外側の広い範囲の景色が前記カメラで撮影される。しかし、魚眼レンズなどを使用したカメラの撮像素子に検知される受像画像は、レンズの光軸から画角が広がるにしたがって、画像の歪みが大きくなる。   2. Description of the Related Art An imaging device that captures an external scene using a camera equipped with a fish-eye lens, a wide-angle lens, and the like and an imaging device and displays the image on a display device is used for crime prevention or on-vehicle use. In particular, in a vehicle, a camera having a fisheye lens or a wide-angle lens is attached to the vehicle body, and a wide range of scenery outside the vehicle body is photographed by the camera. However, the received image detected by the image sensor of a camera using a fish-eye lens or the like is distorted as the angle of view increases from the optical axis of the lens.

そこで、以下の特許文献1には、カメラで検知された受像画像に対して、歪曲収差の演算を行って画像の歪みを修正する発明が開示されている。しかし、特許文献1には、歪曲収差の演算をどのようにして行うかが記載されていない。魚眼レンズなどを備えたカメラで撮影される画像は三次元的な奥行きを有しているため、歪曲収差の演算を行う際には、三次元幾何学処理が必要になり、その演算量は莫大なものになる。よって、カメラで撮影されている受像画像に対して、時間を継続して前記演算を行うには、CPUの負担が大きすぎる。   Therefore, Patent Document 1 below discloses an invention in which distortion of an image is corrected by calculating distortion aberration for an image received by a camera. However, Patent Document 1 does not describe how to calculate distortion aberration. Since an image taken with a camera equipped with a fisheye lens has a three-dimensional depth, a three-dimensional geometric process is required when calculating distortion, and the amount of calculation is enormous. Become a thing. Therefore, the burden on the CPU is too large to perform the calculation for the received image captured by the camera for a long time.

特許文献2に記載されている表示システムは、湾曲画像の歪みを矯正する変換テーブルを設定しておき、カメラで検知された湾曲画像を、前記変換テーブルを用いて表示用データに変換するというものである。   The display system described in Patent Document 2 sets a conversion table for correcting distortion of a curved image, and converts the curved image detected by the camera into display data using the conversion table. It is.

しかし、この方法は、変換テーブルが、カメラで撮像される受像画像のうちの定められた位置の定められた大きさの区画にのみ対応するものであるため、カメラで検知された受像画像のうちの複数の区画を取り出して表示装置に表示しようとすると、それぞれの区画ごとに変換テーブルを用意することが必要になる。つまり、変換テーブルは、カメラで撮影される領域の一定の空間に対応するものであるため、汎用性に乏しく、例えばカメラの取り付け角度がずれて、実際の画像が変換テーブルで予定している区画の画像と相違するようなときには、受像画像に正常な補正を与えることができなくなる。   However, in this method, since the conversion table corresponds only to a section having a predetermined size at a predetermined position in the received image captured by the camera, among the received images detected by the camera. When a plurality of sections are taken out and displayed on the display device, it is necessary to prepare a conversion table for each section. In other words, since the conversion table corresponds to a certain space of the area photographed by the camera, it is not versatile, for example, a section where an actual image is planned in the conversion table because the camera mounting angle is shifted. When the image is different from the first image, normal correction cannot be applied to the received image.

以下の特許文献3に記載の発明も、予め表示領域に対応したマッチングテーブルを用意し、複数のカメラで検知した受像画像の画素を、マッピングテーブルの予め決められた座標位置に対応させて表示するというものである。特許文献3に記載の発明も、特許文献2に記載の発明と同様に、予め決められた区画の画像に対してしか歪み補正を与えることはできない。   The invention described in Patent Document 3 below also prepares a matching table corresponding to the display area in advance, and displays the pixels of the received image detected by a plurality of cameras in correspondence with the predetermined coordinate positions of the mapping table. That's it. Similarly to the invention described in Patent Document 2, the invention described in Patent Document 3 can only apply distortion correction to an image in a predetermined section.

また、歪み補正した画像は、平面展開原理にしたがったものであるため、全体の画角が狭くなることを避けることができない。   In addition, since the distortion-corrected image follows the principle of plane development, it cannot be avoided that the entire angle of view becomes narrow.

さらに特許文献2および3に記載された発明は、いずれも予め決められた変換テーブルに、撮像素子で検知された各検知点での受像信号(輝度信号)を当てはめる方式であるため、例えば、自動車の車体などにカメラが傾いて取り付けられると、撮像素子で検知された受像画像と変換テーブルとで、画像の回転方向に角度誤差が生じてしまう。その結果、表示画面上において規定されるべき位置に異なる位置の受像信号が与えられてしまい、本来の表示画像を得ることができなくなる。   Further, since the inventions described in Patent Documents 2 and 3 are systems in which image signals (luminance signals) at each detection point detected by the image sensor are applied to a predetermined conversion table, for example, an automobile When the camera is attached to the vehicle body or the like at an angle, an angle error occurs in the image rotation direction between the received image detected by the image sensor and the conversion table. As a result, a received signal at a different position is given to the position to be defined on the display screen, and the original display image cannot be obtained.

そのため、魚眼レンズなどを備えたカメラを、自動車の車体などに高精度に位置決めして取り付けることが必要になり、取付け作業がきわめて煩雑になる。
特開2000−324386号公報 特開2004−40411号公報 特許第3300334号公報
For this reason, it is necessary to position and attach a camera equipped with a fisheye lens or the like with high accuracy to the body of an automobile, and the installation work becomes extremely complicated.
JP 2000-324386 A Japanese Patent Laid-Open No. 2004-40411 Japanese Patent No. 3300334

本発明は、上記従来の課題を解決するものであり、魚眼レンズや広角レンズまたは望遠レンズなどのレンズを備えたカメラで検知した受像画像を、広い視野で自然な画像として表示できる撮像装置を提供することを目的としている。   The present invention solves the above-described conventional problems and provides an imaging apparatus capable of displaying a received image detected by a camera having a lens such as a fisheye lens, a wide-angle lens, or a telephoto lens as a natural image with a wide field of view. The purpose is that.

また、本発明は、前記カメラの取り付け角度精度がラフであっても、正確な角度の表示画像が得られる撮像装置を提供することを目的としている。   It is another object of the present invention to provide an imaging apparatus that can obtain a display image with an accurate angle even when the camera mounting angle accuracy is rough.

本発明は、レンズと、前記レンズで集光された光を検知する撮像素子と、前記撮像素子で検知された受像信号に基づいて所定の面積の表示画面に画像を表示させるための画像データを生成する画像処理部と、が設けられた撮像装置において、
前記画像処理部では、前記撮像素子で検知された受像画角内の一部の区画の画像を拡大して前記表示画面で表示させる画像処理を行い、前記画像処理では、受像画像の回転方向の補正が可能であることを特徴とするものである。
The present invention provides a lens, an image sensor that detects light collected by the lens, and image data for displaying an image on a display screen having a predetermined area based on an image reception signal detected by the image sensor. In an imaging device provided with an image processing unit to generate,
The image processing unit performs image processing for enlarging and displaying an image of a part of the section within the image receiving angle of view detected by the image sensor on the display screen. In the image processing, in the rotation direction of the received image, The correction is possible.

本発明は、極座標変換で、空間点の方位角に補正値を与えることで、回転方向の補正を行なうことも可能である。   The present invention can also correct the rotation direction by giving a correction value to the azimuth angle of the spatial point by polar coordinate conversion.

本発明は、前記画像処理では、表示画面のそれぞれの画素Piに対して以下の演算が行われ、この画素Piと撮像素子の検知点の受像信号とを対応させる処理が行われるものとして構成できる。   The present invention can be configured such that in the image processing, the following calculation is performed on each pixel Pi of the display screen, and processing is performed for associating the pixel Pi with the received signal at the detection point of the image sensor. .

(1)表示画面上での画素Piに対応するX方向の画角αxとY方向の画角αy、および表示画像の拡大倍率に対応する焦点距離fとから、表示画面における像点の位置rxとryを算出する。
(2)前記rxおよびryとから、画素Piに映し出されるべき空間点の天頂角θiと方位角Φiを求める。
(3)前記方位角Φiに回転角度の補正値ΔΦを加算する。
(4)前記天頂角θiおよび角度補正後の方位角(Φi+ΔΦ)と、前記レンズの射影多項式とから、前記画素Piを、撮像素子のいずれかの検知点で検出された撮像信号に対応させる。
(5)前記処理(1)ないし(4)を、表示画面の全ての画素に対して行う。
(1) The position rx of the image point on the display screen from the field angle αx in the X direction corresponding to the pixel Pi on the display screen, the field angle αy in the Y direction, and the focal length f corresponding to the magnification of the display image. And ry are calculated.
(2) The zenith angle θi and the azimuth angle Φi of the spatial point to be displayed on the pixel Pi are obtained from the rx and ry.
(3) The rotation angle correction value ΔΦ is added to the azimuth angle Φi.
(4) The pixel Pi is made to correspond to an imaging signal detected at any detection point of the imaging device from the zenith angle θi, the azimuth angle after correction (Φi + ΔΦ), and the projection polynomial of the lens.
(5) The processes (1) to (4) are performed on all the pixels on the display screen.

例えば、前記処理(1)では、表示画面上での画素PiのX軸方向の座標位置を変化関数に代入して、前記座標位置に相当するX方向の画角αxを算出し、表示画面上での画素PiのY軸方向の座標位置を変化関数に代入して、前記座標位置に相当するY方向の画角αyを求めることが好ましい。   For example, in the process (1), the coordinate position in the X-axis direction of the pixel Pi on the display screen is substituted into the change function, and the angle of view αx in the X direction corresponding to the coordinate position is calculated. It is preferable to obtain the angle of view αy in the Y direction corresponding to the coordinate position by substituting the coordinate position in the Y axis direction of the pixel Pi at the change function.

前記変化関数は、画素Piの位置情報の画角に対して拡大率を与えるものであるが、本明細書での拡大率とは、画角を拡張する文字どおりの拡大を意味することのみならず、画角を縮小する率をも意味する概念である。   The change function gives an enlargement ratio with respect to the angle of view of the position information of the pixel Pi, but the enlargement ratio in this specification means not only literal expansion that extends the angle of view. It is a concept that also means a rate of reducing the angle of view.

また、前記処理(1)は、rx=f・tan(αx)、ry=f・tan(αy)の演算によって行われる。   The process (1) is performed by the calculation of rx = f · tan (αx) and ry = f · tan (αy).

さらに、前記処理(4)では、以下の演算により、撮像素子上の画素Piに対応する検知点の座標mx,myが算出される。   Furthermore, in the process (4), the coordinates mx, my of the detection point corresponding to the pixel Pi on the image sensor are calculated by the following calculation.

r(θi)=kθi+kθi+kθi+kθi+・・・・・
mx=r(θi)・cos(Φi+ΔΦ)
my=r(θi)・sin(Φi+ΔΦ)
(ただし、前記r(θi)は、任意の次数の項以後を切り捨てた多項式で計算される)
r (θi) = k 1 θi + k 2 θi 3 + k 3 θi 5 + k 4 θi 7 +.
mx = r (θi) · cos (Φi + ΔΦ)
my = r (θi) · sin (Φi + ΔΦ)
(However, the r (θi) is calculated by a polynomial obtained by rounding down the terms of an arbitrary order.)

また、本発明は、前記受像画像の回転方向の補正は、撮像装置内に設けられた記憶手段に補正値を入力することで行われるものとすることが可能である。   In the present invention, the rotation direction of the received image can be corrected by inputting a correction value to a storage unit provided in the imaging apparatus.

本発明の撮像装置は、魚眼レンズや広角レンズまたは望遠レンズなどのレンズを備えたカメラに設けられている撮像素子で検知した受像画像の一部を取り出し、その内部での画角の拡大率を場所に応じて相違させることにより、受像画像の一部を拡大しまたは縮小して表示画面に表示できる。その結果、広い視野の画像を表示することができる。   The image pickup apparatus of the present invention takes out a part of the received image detected by an image pickup device provided in a camera equipped with a lens such as a fish-eye lens, a wide-angle lens, or a telephoto lens, and sets the magnification of the angle of view in the location. Therefore, a part of the received image can be enlarged or reduced and displayed on the display screen. As a result, an image with a wide field of view can be displayed.

さらに、受像画像の回転方向の補正が可能であるため、表示画面に表示される表示画像の方位角を自由に設定できる。そのため、例えば、カメラが自動車の車体などに傾いて取り付けられたとしても、回転角度を補正した表示画像を表示させることができる。   Furthermore, since the rotation direction of the received image can be corrected, the azimuth angle of the display image displayed on the display screen can be set freely. Therefore, for example, even when the camera is attached to the body of an automobile or the like, a display image with the rotation angle corrected can be displayed.

図1は本発明の実施の形態の撮像装置のブロック図である。
撮像装置10は魚眼カメラ11を有している。魚眼カメラ11は例えば自動車1の車体に取り付けられる。図1の実施の形態では、魚眼カメラ11が自動車1のフェンダーミラー2に取り付けられており、その光軸は、前輪3と後輪4との間に位置している。また前記光軸は、図1の紙面の手前方向に向けられ、且つ地面の表面とほぼ45度の角度で下向きに設置されている。
FIG. 1 is a block diagram of an imaging apparatus according to an embodiment of the present invention.
The imaging device 10 has a fisheye camera 11. The fisheye camera 11 is attached to the vehicle body of the automobile 1, for example. In the embodiment of FIG. 1, the fisheye camera 11 is attached to the fender mirror 2 of the automobile 1, and its optical axis is located between the front wheel 3 and the rear wheel 4. The optical axis is directed toward the front side of the paper surface of FIG. 1 and is set downward at an angle of approximately 45 degrees with the surface of the ground.

図2(A)に示すように、魚眼カメラ11は、魚眼レンズ12と、魚眼レンズ12で集光された光を検知する複数の検知点を有する撮像素子13とを有している。撮像素子13は、CCDまたはCMOSである。   As shown in FIG. 2A, the fisheye camera 11 has a fisheye lens 12 and an image sensor 13 having a plurality of detection points for detecting light collected by the fisheye lens 12. The image sensor 13 is a CCD or a CMOS.

撮像素子13の各検知点で検知された受像信号(輝度信号)は、画像検出部14でディジタル値に変換されて画像処理部15に与えられる。画像処理部15には記憶手段としてメモリ16が併設され、画像処理部15とメモリ16は、制御部17により制御される。画像処理部15は、画像検出部14から送られたディジタル値の画像信号の演算処理を行うことができる。制御部17は、CPUを主体とするものであり、前記画像処理部15を制御するとともに、表示ドライバ18を制御することが可能である。画像処理部15で処理されて得られた画像データは、表示ドライバ18に送られ、車内に設けられた液晶表示パネルなどの表示パネル19に画像が表示される。   The received image signal (luminance signal) detected at each detection point of the image sensor 13 is converted into a digital value by the image detection unit 14 and given to the image processing unit 15. The image processing unit 15 is provided with a memory 16 as a storage unit, and the image processing unit 15 and the memory 16 are controlled by the control unit 17. The image processing unit 15 can perform arithmetic processing on a digital image signal sent from the image detection unit 14. The control unit 17 is mainly composed of a CPU, and can control the image processing unit 15 and the display driver 18. Image data obtained by processing by the image processing unit 15 is sent to the display driver 18 and an image is displayed on a display panel 19 such as a liquid crystal display panel provided in the vehicle.

さらに、撮像装置10には入力部が設けられており、この入力部から制御部17に角度補正値(ΔΦ)を入力することができる。入力された角度補正値(ΔΦ)は、メモリ16に格納される。この入力部は、撮像装置10が自動車に取り付けられたときに、自動車のインストルメントパネルに設けられた操作釦のいずれかを使用して操作できるようにしてもよい。あるいは、撮像装置10の回路内のいずれかに端子を設け、この端子にコンピュータを接続して、撮像装置10を自動車1に搭載する際に、その作業の一環として、コンピュータから制御部17へ角度補正値(ΔΦ)を与えてもよい。   Furthermore, the imaging apparatus 10 is provided with an input unit, and an angle correction value (ΔΦ) can be input to the control unit 17 from this input unit. The input angle correction value (ΔΦ) is stored in the memory 16. This input unit may be operated using any of the operation buttons provided on the instrument panel of the automobile when the imaging device 10 is attached to the automobile. Alternatively, when a terminal is provided in any of the circuits of the imaging device 10 and a computer is connected to the terminal and the imaging device 10 is mounted on the automobile 1, the angle from the computer to the control unit 17 is part of the work. A correction value (ΔΦ) may be given.

図4には、直交軸であるX軸とY軸を含む平面Hと、X軸とY軸との交点を起点として平面Hに垂直に延びるZ軸を示している。平面Hを撮像素子の撮像面とし、平面の前方に位置するA1を撮像素子に映し出すべき空間点としたときに、この空間点A1のZ軸に対する天頂角はθiであり、X軸を基準としたときの空間点A1の方位角はΦiである。   FIG. 4 shows a plane H including the X axis and Y axis, which are orthogonal axes, and a Z axis extending perpendicularly to the plane H from the intersection of the X axis and the Y axis. When the plane H is the imaging plane of the imaging device, and A1 positioned in front of the plane is a spatial point to be projected on the imaging device, the zenith angle of the spatial point A1 with respect to the Z axis is θi, and the X axis is the reference. In this case, the azimuth angle of the space point A1 is Φi.

図2(B)は、魚眼カメラ11に設けられた前記撮像素子13の平面図である。魚眼レンズの一般的なモデルは、等距離射影であり、像点A2の像高をraとし焦点距離をfとしたときに、ra=f・θiである。その他のモデルとして、等立体角射影は、ra=2f・sin(θi/2)であり、正射影は、ra=f・sinθiである。   FIG. 2B is a plan view of the image sensor 13 provided in the fisheye camera 11. A general model of a fisheye lens is equidistant projection, where ra = f · θi, where ra is the image height of the image point A2 and f is the focal length. As another model, the equal solid angle projection is ra = 2f · sin (θi / 2), and the orthographic projection is ra = f · sin θi.

これら種々のタイプの魚眼レンズを1つのモデル式で表現すると、像高raをr(θi)として、次のように表すことができる。
r(θi)=kθi+kθi+kθi+kθi+・・・・・
When these various types of fisheye lenses are expressed by one model equation, the image height ra can be expressed as r (θi) as follows.
r (θi) = k 1 θi + k 2 θi 3 + k 3 θi 5 + k 4 θi 7 +.

この実施の形態では任意の高次の項を省略した魚眼レンズのモデル式である多項式がメモリ16内に記憶されている。例えば、メモリ16には、以下の多項式が記憶されている。ただし、多項式の次数は任意に設定することが可能である。
r(θi)=kθi+kθi
In this embodiment, a polynomial which is a model expression of a fisheye lens in which an arbitrary high-order term is omitted is stored in the memory 16. For example, the following polynomial is stored in the memory 16. However, the degree of the polynomial can be arbitrarily set.
r (θi) = k 1 θi + k 2 θi 3

図3は、ピンホールや収差のない理論的な凸レンズなどを使用した射影モデルである中心射影を示している。中心射影では、像高rと焦点距離fとの関係は以下の通りである。
r=f・tanθ
FIG. 3 shows a central projection which is a projection model using a theoretical convex lens having no pinhole or aberration. In the central projection, the relationship between the image height r and the focal length f is as follows.
r = f · tan θ

図3に示す中心射影のモデルでは、歪みのない画像を撮像できるが、限られた面積の撮像素子に対して投影できる画角は狭い。これに対し、図2(A)(B)に示す魚眼レンズ12を使用した魚眼カメラ11では、撮像素子13に広角の画像を結像させることができ、その画角はほぼ180度である。ただし、魚眼カメラ11の撮像素子13に結像する受像画像は、画角が広がるにしたがって画像の歪みが大きくなる。   In the central projection model shown in FIG. 3, an image without distortion can be captured, but the angle of view that can be projected onto an image sensor with a limited area is narrow. On the other hand, in the fisheye camera 11 using the fisheye lens 12 shown in FIGS. 2A and 2B, a wide-angle image can be formed on the image sensor 13, and the angle of view is approximately 180 degrees. However, the received image formed on the image sensor 13 of the fisheye camera 11 is distorted as the angle of view increases.

図5は、魚眼カメラ11で撮像したときに撮像素子13に結像している受像画像20の一例を示している。図5では、魚眼レンズ12の光軸の位置をO1点として示している。また、図6は、表示パネル19の画面19aに表示される表示画像30が示され、図8には画面19aに表示される表示画像30Aが示されている。図6に示す表示画像30は角度補正値ΔΦによる補正が行われていないものであり、図8に示す表示画像30Aは前記角度補正値ΔΦによる補正が行われたものである。   FIG. 5 shows an example of the received image 20 that is imaged on the image sensor 13 when imaged by the fisheye camera 11. In FIG. 5, the position of the optical axis of the fisheye lens 12 is shown as point O1. 6 shows a display image 30 displayed on the screen 19a of the display panel 19, and FIG. 8 shows a display image 30A displayed on the screen 19a. The display image 30 shown in FIG. 6 has not been corrected by the angle correction value ΔΦ, and the display image 30A shown in FIG. 8 has been corrected by the angle correction value ΔΦ.

図6に示す表示画像30および図8に示す表示画像30Aは、図5に示す受像画像20のうちの一部の区画30aを切り出して拡大して示している。図5に示す受像画像20は、魚眼レンズ12で結像されているため、光軸O1から離れるにしたがって歪み量が大きくなる。よって、画像処理部15では、図5に示す受像画像20の区画30a内の画角を場所により拡大率が相違するように拡大し場所によっては縮小して歪みを修正し、表示画面19aに表示するための画像データ生成している。   The display image 30 shown in FIG. 6 and the display image 30A shown in FIG. 8 show a partial section 30a of the image receiving image 20 shown in FIG. Since the received image 20 shown in FIG. 5 is formed by the fisheye lens 12, the amount of distortion increases as the distance from the optical axis O1 increases. Therefore, in the image processing unit 15, the angle of view in the section 30a of the received image 20 shown in FIG. 5 is enlarged so that the enlargement ratio differs depending on the location, and is reduced depending on the location to correct the distortion and displayed on the display screen 19a. The image data for generating is generated.

このとき、光軸O1から離れる位置にしたがって画角の拡大率を変化させる。例えば、光軸O1に近い領域は画角を拡大し、光軸O1に離れるにしたがって拡大率を小さくしまたは徐々に縮小する。または、逆に、光軸O1から離れるにしたがって拡大率を徐々に大きくしてもよい。このような画像処理を行なうことで、表示画像30として表示する画像を広い視野角で見やすい状態で表示できる。   At this time, the magnification of the angle of view is changed according to the position away from the optical axis O1. For example, the field angle is enlarged in a region close to the optical axis O1, and the enlargement ratio is reduced or gradually reduced as the distance from the optical axis O1 increases. Or conversely, the enlargement ratio may be gradually increased as the distance from the optical axis O1 increases. By performing such image processing, an image to be displayed as the display image 30 can be displayed in a state that is easy to see with a wide viewing angle.

図5に示す例では、受像画像20の一部の区画30aを拡大して表示画像30または表示画像30Aを生成する画像処理において、図7に示すX軸方向の変化関数T(x)が使用される。この変化関数T(x)は、画像処理の補正のために予め決められたものであり、メモリ16に保持されている。   In the example shown in FIG. 5, the change function T (x) in the X-axis direction shown in FIG. 7 is used in the image processing for generating the display image 30 or the display image 30A by enlarging a part of the section 30a of the received image 20. Is done. This change function T (x) is predetermined for correction of image processing and is held in the memory 16.

図6では、表示画面30において、X軸方向の座標位置を、右端から左端へ向けて、0、0.1、0.2、0.3、・・・で示している。図7の横軸には、表示画面30の前記X軸方向の座標位置が示され、縦軸には、横軸に示されているX軸方向のそれぞれの位置の画像の点の画角をどのくらい拡大して画像処理すべきかが数値化されて示されている。   6, the coordinate position in the X-axis direction is indicated by 0, 0.1, 0.2, 0.3,... On the display screen 30 from the right end to the left end. The horizontal axis of FIG. 7 shows the coordinate position of the display screen 30 in the X-axis direction, and the vertical axis shows the angle of view of the image point at each position in the X-axis direction shown on the horizontal axis. The amount of enlargement and image processing to be performed is shown numerically.

図7に示す変化関数T(x)は、例えば、図6の表示画面19aのX軸方向の「0.1」の座標位置に表示すべき情報を、X軸方向の「0.18」の位置まで画角を拡大して処理することを示しており、例えば、図6におけるX軸方向の「0.9」の座標位置に表示すべき情報を、X軸方向の「1.0」の位置まで画角を拡大して処理することを示している。   The change function T (x) shown in FIG. 7 is, for example, information to be displayed at the coordinate position “0.1” in the X-axis direction on the display screen 19a in FIG. For example, information to be displayed at a coordinate position of “0.9” in the X-axis direction in FIG. 6 is displayed as “1.0” in the X-axis direction. It shows that the angle of view is enlarged to the position for processing.

同様に、メモリ16には、Y軸方向の画角の変化関数T(y)も保持されている。このY軸方向の画角の変化関数T(y)は、X軸方向の画角の変化関数T(x)と相違する曲率の関数である。   Similarly, the memory 16 also stores a view angle change function T (y) in the Y-axis direction. The angle-of-view change function T (y) in the Y-axis direction is a curvature function different from the angle-of-view change function T (x) in the X-axis direction.

変化関数T(x)とT(y)を使用して、画像処理を行なうことにより、場所によって画角の拡大率が相違するのみならず、場所によって画角を拡大させる方向を徐々に相違させた画像を生成することができる。   By performing image processing using the change functions T (x) and T (y), not only the magnification of the angle of view differs depending on the place, but also the direction in which the angle of view is enlarged gradually differs depending on the place. Images can be generated.

図7に示す変化関数T(x)は、魚眼カメラ11の受像画像20の一部の区画30aを拡大して図6に示す表示画面19aとして表示する際に、場所によって拡大率を相違させる補正関数であり、この変化関数T(x)を使用することで、注目する領域を拡大し、全体として歪みのない見やすい表示画像19aを生成することができる。この変化関数T(x)は、魚眼カメラ11の受像画像20において画像を切り出す区画30aの位置、区画30aの面積、および区画30aの画像の拡大率などに応じて生成される。   The change function T (x) shown in FIG. 7 varies the enlargement ratio depending on the location when a part of the section 30a of the received image 20 of the fisheye camera 11 is enlarged and displayed as the display screen 19a shown in FIG. By using this change function T (x), which is a correction function, it is possible to enlarge the region of interest and generate an easy-to-view display image 19a with no distortion as a whole. This change function T (x) is generated according to the position of the section 30a from which the image is cut out in the received image 20 of the fisheye camera 11, the area of the section 30a, the magnification of the image of the section 30a, and the like.

この変化関数T(x)は、受像画像20から切り出すべき区画30aの位置、面積、拡大率に応じて、複数箇所の拡大率を決め、複数の拡大率をBスプライン曲線などのパラメトリック曲線で結ぶことで生成される。つまり、メモリ16に、複数の拡大率の位置情報とパラメトリック曲線の関数を与えることで、図7に示す変化関数T(x)をメモリ16に保持できる。   The change function T (x) determines a plurality of enlargement ratios according to the position, area, and enlargement ratio of the section 30a to be cut out from the received image 20, and connects the plurality of enlargement ratios with a parametric curve such as a B-spline curve. Is generated. That is, by providing the memory 16 with position information of a plurality of magnifications and a parametric curve function, the change function T (x) shown in FIG.

画像処理方法は以下の手順で行われる。この画像処理では、図6または図8に示す表示パネル19の表示画面19aの任意の画素Piに、撮像素子13のどの検知点で検知された受像信号(輝度信号)を対応させて表示するかを決める。   The image processing method is performed according to the following procedure. In this image processing, an image signal (luminance signal) detected at which detection point of the image sensor 13 is displayed in correspondence with an arbitrary pixel Pi on the display screen 19a of the display panel 19 shown in FIG. 6 or FIG. Decide.

まず、画素PiのX軸方向の位置を図7に示す変化関数T(x)の横軸に代入して、正規化する画角αxを求める。例えば画素PiのX軸方向の位置が「0.1」であるとき、この「0.1」を図7の変化関数に代入すると、X軸方向の位置が「0.18」である。画像処理部15では、X軸方向の前記「0.18」の位置が、X軸方向のどの程度の画角に相当するかが求められる。求められた値が正規化した受像画角αxである。   First, the angle of view αx to be normalized is obtained by substituting the position of the pixel Pi in the X-axis direction into the horizontal axis of the change function T (x) shown in FIG. For example, when the position of the pixel Pi in the X-axis direction is “0.1”, the position in the X-axis direction is “0.18” when this “0.1” is substituted into the change function of FIG. The image processing unit 15 determines how much the angle of view in the X-axis direction corresponds to the position of “0.18” in the X-axis direction. The obtained value is the normalized image receiving angle αx.

図5に示す例では、区画30aのX軸の「0」点が、光軸O1のX方向位置に一致している。すなわち、図6のX軸座標の原点は、光軸O1と同じX座標位置である。よって、この例では、図7に示す縦軸が、画角の拡大率を意味している。例えば、画素PiがX軸座標上の位置「0.1」にあるとき、図6の表示画面16aにおける「0.1」の位置の画角を1.8倍することで、正規化した受像画角αxを求めることができる。同様にして、Y軸方向の変化関数T(y)を用いて、画素PiのY軸方向での正規化した受像画角αyを求めることができる。図7の変化関数T(x)では、光軸O1から離れるにしたがって画角の拡大率が徐々に小さくなる。   In the example shown in FIG. 5, the “0” point on the X axis of the section 30a coincides with the X direction position of the optical axis O1. That is, the origin of the X-axis coordinate in FIG. 6 is the same X-coordinate position as the optical axis O1. Therefore, in this example, the vertical axis shown in FIG. 7 means the magnification of the angle of view. For example, when the pixel Pi is at the position “0.1” on the X-axis coordinates, the image angle at the position “0.1” on the display screen 16a in FIG. The angle of view αx can be obtained. Similarly, the normalized image receiving field angle αy of the pixel Pi in the Y-axis direction can be obtained using the change function T (y) in the Y-axis direction. In the change function T (x) in FIG. 7, the magnification of the angle of view gradually decreases as the distance from the optical axis O1 increases.

次に、表示画像の拡大倍率に対応する焦点距離f、および前記画角αxと前記画角αyとから、表示画像における像点の位置rxとryを算出する。   Next, image point positions rx and ry in the display image are calculated from the focal length f corresponding to the magnification of the display image, the angle of view αx, and the angle of view αy.

例えば、正規化した受像画角αxとαyを使用し、図3に示すような歪みを伴なわない中心射影での受像面Ha上の結像位置を求める。この演算では、図5に示す受像画像20の区画30aを、図6に示す表示画像30として表示するための全体の拡大率に相当する倍率から得られる焦点距離fの値が使用される。すなわち、中心射影に関する以下の式から、画素Piの中心射影に相当する正規化した座標位置rx、ryを求めることができる。   For example, using the normalized image receiving angle αx and αy, the image forming position on the image receiving surface Ha in the central projection without distortion as shown in FIG. 3 is obtained. In this calculation, the value of the focal length f obtained from the magnification corresponding to the overall enlargement ratio for displaying the section 30a of the received image 20 shown in FIG. 5 as the display image 30 shown in FIG. 6 is used. That is, the normalized coordinate positions rx and ry corresponding to the central projection of the pixel Pi can be obtained from the following expression relating to the central projection.

rx=f・tan(αx)
ry=f・tan(αy)
rx = f · tan (αx)
ry = f · tan (αy)

前記のように正規化した座標位置rx,ryを知ることにより、図4に示す天頂角θiと、方位角Φiを知ることができる。この天頂角θiと方位角Φiは、図7に示す変化関数T(x)で補正された正規化した天頂角および方位角であり、画素Piに映し出されるべき空間点の天頂角および方位角である。   By knowing the coordinate positions rx and ry normalized as described above, the zenith angle θi and the azimuth angle Φi shown in FIG. 4 can be known. The zenith angle θi and the azimuth angle Φi are the normalized zenith angle and azimuth angle corrected by the change function T (x) shown in FIG. 7, and are the zenith angle and azimuth angle of the spatial point to be displayed on the pixel Pi. is there.

図6に示す表示画像30は、前記天頂角θiと方位角Φiを使用して以下の演算を行った結果を示している。これに対し、図8に示す表示画像30Aは、前記方位角Φiに対して角度補正値ΔΦを加算した(Φi+ΔΦ)を方位角として使用し、以下の演算を行った結果である。図6に示す表示画像30は、自動車1の車体に対して、魚眼カメラ11がやや角度が傾いて取り付けられたときのものである。図8に示す表示画面30Aは、前記取付け角度の傾きを補正する角度補正値ΔΦを加算した(Φi+ΔΦ)を方位角として使用し、取付け角度の誤りを補正している。   A display image 30 shown in FIG. 6 shows the result of the following calculation using the zenith angle θi and the azimuth angle Φi. On the other hand, the display image 30A shown in FIG. 8 is a result of performing the following calculation using (Φi + ΔΦ) obtained by adding the angle correction value ΔΦ to the azimuth angle Φi as the azimuth angle. A display image 30 shown in FIG. 6 is an image when the fisheye camera 11 is attached to the body of the automobile 1 with a slight angle. The display screen 30A shown in FIG. 8 uses (Φi + ΔΦ) obtained by adding an angle correction value ΔΦ for correcting the inclination of the mounting angle as an azimuth to correct the mounting angle error.

画像処理方法では、魚眼カメラ11に使用されている魚眼レンズ12のモデル式に、前記天頂角θiを代入して、像高であるr(θi)を求める。   In the image processing method, r (θi), which is the image height, is obtained by substituting the zenith angle θi into the model formula of the fisheye lens 12 used in the fisheye camera 11.

r(θi)=k・θi+k・θi
なお、r(θi)は、r(θi)=kθi+kθi+kθi+kθi+・・・・・の任意の高次の項以降を省略した多項式であれば、どの項数の式であっても使用できる。
r (θi) = k 1 · θi + k 2 · θi 3 ,
It should be noted that r (θi) is any polynomial in which r (θi) = k 1 θi + k 2 θi 3 + k 3 θi 5 + k 4 θi 7 +. Even a formula for the number of terms can be used.

次に、前記像高r(θi)と方位角Φiまたは(Φi+ΔΦ)とから、図5に示す受像画像20内のどの位置の検知点の受像信号(輝度信号)を、表示画面19aの画素Piの画像データとして使用するかを求める。   Next, from the image height r (θi) and the azimuth angle Φi or (Φi + ΔΦ), an image reception signal (luminance signal) at any position in the image reception image 20 shown in FIG. 5 is used as a pixel Pi on the display screen 19a. Whether to use as image data.

図6に示す表示画像30は、以下の演算を行って得られる。
mx=r(θi)・cos(Φi)
my=r(θi)・sin(Φi)
The display image 30 shown in FIG. 6 is obtained by performing the following calculation.
mx = r (θi) · cos (Φi)
my = r (θi) · sin (Φi)

図8に示す表示画像30Aは、以下の演算を行って得られる。
mx=r(θi)・cos(Φi+ΔΦ)
my=r(θi)・sin(Φi+ΔΦ)
前記処理が、表示画面19a内の全ての画素Piに対して行われる。
The display image 30A shown in FIG. 8 is obtained by performing the following calculation.
mx = r (θi) · cos (Φi + ΔΦ)
my = r (θi) · sin (Φi + ΔΦ)
The process is performed on all the pixels Pi in the display screen 19a.

以上の画像処理方法では、魚眼カメラ11の撮像素子13に結像した画像を、中心射影映像に変換することで、図6に示す拡大された表示画像30および図8に示す表示画像30Aにおいて歪みを修正できる。ただし、撮像素子13で得られた広角の画像データを単純に中心射影の映像へ変換すると、表示画面に表示された映像は、光軸O1に近い領域が極端に縮小され、光軸O1から離れた領域が極端に拡大されて、視認性が著しく損なわれた画像となる。   In the image processing method described above, the image formed on the image sensor 13 of the fisheye camera 11 is converted into a central projection image, whereby the enlarged display image 30 shown in FIG. 6 and the display image 30A shown in FIG. Can correct distortion. However, when the wide-angle image data obtained by the image sensor 13 is simply converted into a central projection image, the image displayed on the display screen is extremely reduced in the area close to the optical axis O1 and separated from the optical axis O1. The image area is extremely enlarged, resulting in an image in which visibility is significantly impaired.

これに対し、前記画像処理では、図7に示すように予め決められた変化関数T(x)を用いて、画素Piに対応する画像位置の正規化された画角αxとαyを求め、この画角αxとαyを用い、中心射影の式から天頂角θiと方位角Φiを求めている。そして、この天頂角θiと方位角Φiを、使用している魚眼レンズ12のモデル式に代入して、表示画面19aの画素Piに与えるべき、受像画像20上の検知点の位置(mx,my)を算出している。   On the other hand, in the image processing, using the change function T (x) determined in advance as shown in FIG. 7, the normalized angle of view αx and αy of the image position corresponding to the pixel Pi is obtained. Using the angle of view αx and αy, the zenith angle θi and the azimuth angle Φi are obtained from the central projection formula. Then, the position (mx, my) of the detection point on the received image 20 to be given to the pixel Pi of the display screen 19a by substituting the zenith angle θi and the azimuth angle Φi into the model equation of the fisheye lens 12 being used. Is calculated.

前記変化関数を用いることにより、魚眼カメラの画像を直接に中心射影の映像に変換するときのような、極端な拡大領域と縮小領域が発生するのを補正でき、視認性の良い表示画像30を得ることができる。   By using the change function, it is possible to correct the occurrence of extreme enlargement and reduction areas, such as when a fisheye camera image is directly converted into a central projection image, and a display image 30 with good visibility. Can be obtained.

さらに、図8に示す表示画像30Aでは、前記方位角Φiに対して角度補正値ΔΦを与えているため、表示画像の回転角度を補正できる。そのため、魚眼かメタ11が自動車1の車体などに傾いて取り付けられたときに、前記入力部などを使用し、角度補正値ΔΦを与えることにより、図6に示すように傾いた表示画像30ではなく、図8に示すように傾きを補正した表示画像30Aを得ることができる。   Further, in the display image 30A shown in FIG. 8, since the angle correction value ΔΦ is given to the azimuth angle Φi, the rotation angle of the display image can be corrected. Therefore, when the fisheye or the meta 11 is attached to the body of the automobile 1 or the like, the display unit 30 is inclined as shown in FIG. 6 by using the input unit or the like and giving the angle correction value ΔΦ. Instead, a display image 30A with corrected inclination can be obtained as shown in FIG.

なお、回転方向の補正方法として、極座標変換で、空間点の方位角に補正値を与えることで、回転方向を補正することもできる。   As a method for correcting the rotation direction, the rotation direction can also be corrected by giving a correction value to the azimuth angle of the spatial point by polar coordinate conversion.

また、本発明は、前記実施の形態のように魚眼レンズを備えたカメラを使用したものに限定されず、例えば広角レンズや、望遠レンズを使用したものであっても適用可能である。広角レンズは、画角がおよそ60度またはそれ以上であり、周辺部分に認識できる程度の歪みを生じするものである。本明細書では、広角レンズは魚眼レンズを含む概念である。   Further, the present invention is not limited to the one using a camera equipped with a fisheye lens as in the above-described embodiment, and can be applied to one using a wide-angle lens or a telephoto lens, for example. The wide-angle lens has an angle of view of approximately 60 degrees or more, and produces a distortion that can be recognized in the peripheral portion. In the present specification, the wide-angle lens is a concept including a fish-eye lens.

本発明の実施の形態の撮像装置を示すブロック図、1 is a block diagram showing an imaging apparatus according to an embodiment of the present invention; (A)は魚眼レンズと撮像素子の側面図、(B)は撮像素子の正面図、(A) is a side view of the fisheye lens and the image sensor, (B) is a front view of the image sensor, 中心射影モデルの説明図、Illustration of the central projection model, 空間点と、天頂角および方位角の説明図、Explanatory diagram of spatial point, zenith angle and azimuth, 魚眼カメラの受像画像の一例を示す説明図、An explanatory view showing an example of an image received by a fisheye camera, 角度補正値ΔΦで補正していない表示画像の説明図、An explanatory diagram of a display image that is not corrected with the angle correction value ΔΦ, X軸方向の変化関数T(x)の説明図、Explanatory drawing of the change function T (x) in the X-axis direction, 角度補正値ΔΦで補正した表示画像の説明図、Explanatory drawing of the display image corrected with the angle correction value ΔΦ,

符号の説明Explanation of symbols

11 魚眼カメラ
12 魚眼レンズ
13 撮像素子
15 画像処理部
19 表示パネル
19a 表示画面
20 受像画像
30 補正前の表示画像
30A 補正後の表示画像
30a 区画
DESCRIPTION OF SYMBOLS 11 Fisheye camera 12 Fisheye lens 13 Image pick-up element 15 Image processing part 19 Display panel 19a Display screen 20 Received image 30 Display image 30A before correction Display image 30a after correction

Claims (7)

レンズと、前記レンズで集光された光を検知する撮像素子と、前記撮像素子で検知された受像信号に基づいて所定の面積の表示画面に画像を表示させるための画像データを生成する画像処理部と、が設けられた撮像装置において、
前記画像処理部では、前記撮像素子で検知された受像画角内の一部の区画の画像を拡大して前記表示画面で表示させる画像処理を行い、前記画像処理では、受像画像の回転方向の補正が可能であることを特徴とする撮像装置。
Image processing for generating image data for displaying an image on a display screen having a predetermined area based on a lens, an image sensor that detects light collected by the lens, and an image reception signal detected by the image sensor An imaging device provided with
The image processing unit performs image processing for enlarging and displaying an image of a part of the section within the image receiving angle of view detected by the image sensor on the display screen. In the image processing, in the rotation direction of the received image, An imaging apparatus characterized by being capable of correction.
極座標変換で、空間点の方位角に補正値を与えることで、回転方向の補正が行なわれる請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the rotational direction is corrected by giving a correction value to the azimuth angle of the spatial point by polar coordinate conversion. 前記画像処理では、表示画面のそれぞれの画素Piに対して以下の演算が行われ、この画素Piと撮像素子の検知点の受像信号とを対応させる処理が行われる請求項1または2記載の撮像装置。
(1)表示画面上での画素Piに対応するX方向の画角αxとY方向の画角αy、および表示画像の拡大倍率に対応する焦点距離fとから、表示画面における像点の位置rxとryを算出する。
(2)前記rxおよびryとから、画素Piに映し出されるべき空間点の天頂角θiと方位角Φiを求める。
(3)前記方位角Φiに回転角度の補正値ΔΦを加算する。
(4)前記天頂角θiおよび角度補正後の方位角(Φi+ΔΦ)と、前記レンズの射影多項式とから、前記画素Piを、撮像素子のいずれかの検知点で検出された撮像信号に対応させる。
(5)前記処理(1)ないし(4)を、表示画面の全ての画素に対して行う。
3. The imaging according to claim 1, wherein in the image processing, the following calculation is performed on each pixel Pi of the display screen, and processing is performed for associating the pixel Pi with an image receiving signal at a detection point of the imaging element. apparatus.
(1) The position rx of the image point on the display screen from the field angle αx in the X direction corresponding to the pixel Pi on the display screen, the field angle αy in the Y direction, and the focal length f corresponding to the magnification of the display image. And ry are calculated.
(2) The zenith angle θi and azimuth angle Φi of the spatial point to be projected on the pixel Pi are obtained from the rx and ry.
(3) The rotation angle correction value ΔΦ is added to the azimuth angle Φi.
(4) The pixel Pi is made to correspond to an imaging signal detected at any detection point of the imaging device from the zenith angle θi, the azimuth angle after correction (Φi + ΔΦ), and the projection polynomial of the lens.
(5) The processes (1) to (4) are performed on all the pixels on the display screen.
前記処理(1)では、表示画面上での画素PiのX軸方向の座標位置を変化関数に代入して、前記座標位置に相当するX方向の画角αxを算出し、表示画面上での画素PiのY軸方向の座標位置を変化関数に代入して、前記座標位置に相当するY方向の画角αyを求める請求項3記載の撮像装置。   In the process (1), the coordinate position in the X-axis direction of the pixel Pi on the display screen is substituted into the change function, and the angle of view αx in the X direction corresponding to the coordinate position is calculated. The imaging apparatus according to claim 3, wherein the Y-direction angle of view αy corresponding to the coordinate position is obtained by substituting the coordinate position of the pixel Pi in the Y-axis direction into a change function. 前記処理(1)は、rx=f・tan(αx)、ry=f・tan(αy)の演算によって行われる請求項3または4記載の撮像装置。   The imaging apparatus according to claim 3 or 4, wherein the process (1) is performed by a calculation of rx = f · tan (αx) and ry = f · tan (αy). 前記処理(4)では、以下の演算により、撮像素子上の画素Piに対応する検知点の座標mx,myが算出される請求項3ないし5のいずれかに記載の撮像装置。
r(θi)=kθi+kθi+kθi+kθi+・・・・・
mx=r(θi)・cos(Φi+ΔΦ)
my=r(θi)・sin(Φi+ΔΦ)
(ただし、前記r(θi)は、任意の次数の項以後を切り捨てた多項式で計算される)
6. The imaging apparatus according to claim 3, wherein in the processing (4), coordinates mx and my of the detection point corresponding to the pixel Pi on the imaging device are calculated by the following calculation.
r (θi) = k 1 θi + k 2 θi 3 + k 3 θi 5 + k 4 θi 7 +.
mx = r (θi) · cos (Φi + ΔΦ)
my = r (θi) · sin (Φi + ΔΦ)
(However, the r (θi) is calculated by a polynomial obtained by rounding down the terms of an arbitrary order.)
前記受像画像の回転方向の補正は、撮像装置内に設けられた記憶手段に補正値を入力することで行われる請求項1ないし6のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the rotation direction of the received image is corrected by inputting a correction value to a storage unit provided in the imaging apparatus.
JP2007298857A 2007-11-19 2007-11-19 Imaging apparatus Withdrawn JP2009123131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007298857A JP2009123131A (en) 2007-11-19 2007-11-19 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007298857A JP2009123131A (en) 2007-11-19 2007-11-19 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009123131A true JP2009123131A (en) 2009-06-04

Family

ID=40815181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007298857A Withdrawn JP2009123131A (en) 2007-11-19 2007-11-19 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009123131A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
KR101140953B1 (en) 2010-08-31 2012-05-03 이성원 Method and apparatus for correcting distorted image
KR101233948B1 (en) 2010-09-01 2013-02-15 주식회사 나노포토닉스 Method and imaging system for obtaining digital pan·tilt images using rotationally symmetric wide-angle lens
JP2014099885A (en) * 2013-12-27 2014-05-29 Olympus Imaging Corp Imaging apparatus and image processing method
US9110365B2 (en) 2009-11-19 2015-08-18 Olympus Corporation Imaging apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000011166A (en) * 1998-06-24 2000-01-14 Sony Corp Device and method for processing image and providing medium
JP2001005956A (en) * 1999-06-21 2001-01-12 Chuo Electronics Co Ltd Wide field camera device
JP2007192832A (en) * 2007-03-06 2007-08-02 Iwate Univ Calibrating method of fish eye camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000011166A (en) * 1998-06-24 2000-01-14 Sony Corp Device and method for processing image and providing medium
JP2001005956A (en) * 1999-06-21 2001-01-12 Chuo Electronics Co Ltd Wide field camera device
JP2007192832A (en) * 2007-03-06 2007-08-02 Iwate Univ Calibrating method of fish eye camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
US9110365B2 (en) 2009-11-19 2015-08-18 Olympus Corporation Imaging apparatus
KR101140953B1 (en) 2010-08-31 2012-05-03 이성원 Method and apparatus for correcting distorted image
KR101233948B1 (en) 2010-09-01 2013-02-15 주식회사 나노포토닉스 Method and imaging system for obtaining digital pan·tilt images using rotationally symmetric wide-angle lens
JP2014099885A (en) * 2013-12-27 2014-05-29 Olympus Imaging Corp Imaging apparatus and image processing method

Similar Documents

Publication Publication Date Title
JP4975592B2 (en) Imaging device
JP5491235B2 (en) Camera calibration device
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
EP3016065B1 (en) Coordinate computation device and method, and image processing device and method
JP5222597B2 (en) Image processing apparatus and method, driving support system, and vehicle
US9196022B2 (en) Image transformation and multi-view output systems and methods
US9087256B2 (en) Dynamic image processing method and system for processing vehicular image
WO2009116328A1 (en) Image processing device and method, driving support system, and vehicle
JP4902368B2 (en) Image processing apparatus and image processing method
JP2006287892A (en) Driving support system
JP2010246088A (en) Device and method for adjusting image captured by on-board camera device, and on-board camera device
CN111800589B (en) Image processing method, device and system and robot
JP2009120135A (en) Imaging device
WO2017179722A1 (en) Image processing device and imaging device
JP2009123131A (en) Imaging apparatus
JP2010187161A (en) On-board camera system and image processing method
JP4679293B2 (en) In-vehicle panoramic camera system
JP2005182305A (en) Vehicle travel support device
JP5049304B2 (en) Device for displaying an image around a vehicle
WO2011158344A1 (en) Image processing method, program, image processing device, and imaging device
CN108513058B (en) Image device capable of compensating image change
JP2007158639A (en) Car driving support apparatus
JP5047912B2 (en) In-vehicle image processing apparatus and image processing method thereof
US20050030380A1 (en) Image providing apparatus, field-of-view changing method, and computer program product for changing field-of-view
JP6234335B2 (en) IMAGING DEVICE AND MOBILE BODY WITH IMAGING DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110928