JP5847570B2 - Image processing apparatus and control method thereof - Google Patents
Image processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP5847570B2 JP5847570B2 JP2011277660A JP2011277660A JP5847570B2 JP 5847570 B2 JP5847570 B2 JP 5847570B2 JP 2011277660 A JP2011277660 A JP 2011277660A JP 2011277660 A JP2011277660 A JP 2011277660A JP 5847570 B2 JP5847570 B2 JP 5847570B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- optical system
- imaging optical
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 63
- 238000000034 method Methods 0.000 title claims description 20
- 230000003287 optical effect Effects 0.000 claims description 46
- 238000003384 imaging method Methods 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 24
- 238000005520 cutting process Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 238000009966 trimming Methods 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置に関し、特に、撮像装置におけるイメージセンサーからのデータの読出し技術に関する。
The present invention relates to images processing device, in particular, to read technical data from the image sensor in the imaging apparatus.
従来、カメラから全方位画像を読み出す手法が数多く提案されている。特許文献1では、360度パノラマ画像を取り込むカメラ装置と、カメラ装置から取り込まれたパノラマ画像を表示する表示システムが提案されている。特に、ビューポートと呼ばれる360度パノラマ環状画像の一部を切り取った画像を矩形投影画像に変換し、ローカル受像機(もしくはコンピュータ)に送信して表示することが提案されている。 Conventionally, many methods for reading an omnidirectional image from a camera have been proposed. Patent Document 1 proposes a camera device that captures a 360-degree panoramic image and a display system that displays a panoramic image captured from the camera device. In particular, it has been proposed to convert an image obtained by cutting a part of a 360-degree panoramic annular image called a viewport into a rectangular projection image, and send it to a local receiver (or computer) for display.
特許文献2では、画像処理システムにおいて、広角撮影用のレンズを用いてカメラ装置で撮影された歪み画像の一部が切り出されて表示装置へ送信され、表示装置でレンズの歪み特性に応じた歪み補正が行われる。カメラ装置は、表示装置で表示される歪み補正後の表示画像の大きさに対応する画角情報を表示装置から受信する受信部を備える。また、カメラ装置は、表示装置から受信した画角情報に基づいて、表示画像に対応する歪み領域が含まれる切出し画像を歪み画像から切り出す画像切出し部を備える。カメラ装置は更に、レンズの歪み特性に基づいて、表示装置から受信した画角情報から算出した比率で切出し画像を縮小する画像縮小部を備える。 In Patent Document 2, in an image processing system, a part of a distortion image captured by a camera device using a lens for wide-angle imaging is cut out and transmitted to a display device, and the display device performs distortion corresponding to the distortion characteristics of the lens. Correction is performed. The camera device includes a receiving unit that receives angle-of-view information corresponding to the size of the display image after distortion correction displayed on the display device from the display device. In addition, the camera device includes an image cutout unit that cuts out a cutout image including a distortion region corresponding to the display image from the distortion image based on the view angle information received from the display device. The camera device further includes an image reduction unit that reduces the cut-out image at a ratio calculated from the angle-of-view information received from the display device based on the distortion characteristics of the lens.
特許文献2で参照されている特許文献3では、サーバ側で歪み補正手段を持ち、視線方向の変化に伴う画角設定手段に使用する設定情報を表示装置側(クライアント側)に通知する方式が提案されている。 In Patent Document 3, which is referred to in Patent Document 2, there is a method in which the server side has a distortion correction unit and notifies the display device side (client side) of setting information used for the angle-of-view setting unit accompanying a change in the line-of-sight direction. Proposed.
しかしながら、特許文献1の構成では、高画素センサーを用いる場合には、一部分の画像を見る毎に環状画像を全画素取り込むと、多大な取込み時間がかかるという問題がある。 However, in the configuration of Patent Document 1, when a high pixel sensor is used, there is a problem that it takes a lot of time to capture all the pixels of the annular image every time a partial image is viewed.
特許文献2の構成では、表示画像の大きさを表示装置側で決定し、通信で画角情報をカメラに送信しないと切り出す画像の大きさが決まらないという問題がある。また、表示側の画角情報に合わせていると、所望の画像が縮小されてしまい解像度が低下するという問題もある。さらに、イメージセンサーから直接切り出す場合に、表示側の画角と位置情報に合わせてしまうとイメージセンサーの特性に合わない画を切り出してしまうという問題もある。 In the configuration of Patent Document 2, there is a problem that the size of the image to be cut out cannot be determined unless the size of the display image is determined on the display device side and the angle of view information is not transmitted to the camera by communication. In addition, when matching with the view angle information on the display side, there is a problem that a desired image is reduced and resolution is lowered. Further, when the image sensor is directly cut out, there is a problem that an image that does not match the characteristics of the image sensor is cut out if it matches the angle of view and position information on the display side.
特許文献3の構成では、高画素センサーを用いる場合には、キャプチャ部でのデータサイズが大きくなり、画像処理負荷が大きくなるという問題がある。 In the configuration of Patent Document 3, when a high pixel sensor is used, there is a problem that the data size in the capture unit increases and the image processing load increases.
そこで本発明は、広角光学系を介してイメージセンサーに取り込まれた画像から切り出される被写体確認用の部分領域画像を、少ない処理負荷で、かつ高画質で、ユーザに提示することのできる画像処理装置を提供する。 The present invention, images of the partial area image for subject confirmation cut from captured on the image sensor through a wide-angle optical system image, with less processing load, and high image quality, to enable you to present to the user A processing device is provided.
本発明の一側面によれば、撮像光学系を介して結像された光を光電変換するイメージセンサーにより生成される画像における、対象物に対応する部分領域を、前記撮像光学系の光学特性に基づいて決定し、該部分領域の画像を切り出す切出し手段と、前記切出し手段により切り出された前記部分領域の画像に対して、前記撮像光学系の光学特性に基づいて幾何変換を行う画像処理手段と、前記画像処理手段によって幾何変換された前記部分領域の画像のサイズが、前記部分領域の画像を表示する表示手段における表示画角よりも大きい場合、前記表示画角に納まるように、前記画像処理手段によって幾何変換された前記部分領域の画像をトリミングするトリミング手段とを有することを特徴とする画像処理装置が提供される。 According to one aspect of the present invention, in the images of the light focused through the imaging optical system Ru made by Ri production to an image sensor for photoelectrically converting a partial area corresponding to the object, the imaging optical system determined based on the optical properties, and cut-out means for cutting out an image of the partial area on the image of the partial region extracted by said cut means, a geometric conversion based on optical characteristics of the imaging optical system When the image processing means to perform and the size of the image of the partial area geometrically transformed by the image processing means is larger than the display angle of view in the display means for displaying the image of the partial area, the image is included in the display angle of view. the geometric converted images processor you; and a trimming unit for trimming the image of the partial region is provided by the image processing means.
本発明によれば、広角光学系を介してイメージセンサーに取り込まれた画像から切り出される被写体確認用の部分領域画像を、少ない処理負荷で、かつ高画質で、ユーザに提示することができる。 According to the present invention, it is possible to present a subject-confirming partial region image cut out from an image captured by an image sensor via a wide-angle optical system to a user with a small processing load and high image quality.
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。 DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It shows only the specific example advantageous for implementation of this invention. Moreover, not all combinations of features described in the following embodiments are indispensable for solving the problems of the present invention.
<実施形態1>
以下、図1〜図5に基づき、本発明に係る実施形態1を説明する。
<Embodiment 1>
Hereinafter, Embodiment 1 which concerns on this invention is demonstrated based on FIGS.
図1は実施形態1における撮像装置のブロック図である。本実施形態において、外界からの光景を集約してセンサーに結像させる撮像光学系は、全方位ミラー&レンズ10によって構成される。全方位ミラー&レンズ10を介して結像された被写体像を光電変換するイメージセンサー11は、CMOSセンサーやCCDセンサー等の半導体センサーで構成される。本実施形態におけるイメージセンサー11は、全方位ミラー&レンズ10からの360度光景等を撮像する機能や、当該360度光景から一部分を切出す部分読出し機能を搭載している。センサー制御部12は、イメージセンサー11により光電変換されて生成された画像データを読出すデータ読出し制御と、読み出したデータの一時保存と、当該データへの現像処理等の画像処理の制御等を行う。幾何変換処理部13は、供給された画像データを、全方位ミラー&レンズ10の光学特性に基づき幾何補正して歪みを無くしたデータへの変換等を行う。描画表示処理部14は、センサー制御部12にて一時保存された全体視画像データ及び幾何変換処理部13で幾何補正され歪みを無くしたデータを、ディスプレイ15に合うように表示処理を施す。ディスプレイ15は、描画表示処理部14にて表示処理されたデータを表示する表示部である。操作部16は、ディスプレイ15に表示された全体視データの中の部分領域を指定する。 FIG. 1 is a block diagram of an imaging apparatus according to the first embodiment. In this embodiment, an imaging optical system that collects scenes from the outside world and forms an image on a sensor is constituted by an omnidirectional mirror and lens 10. An image sensor 11 that photoelectrically converts a subject image formed through an omnidirectional mirror & lens 10 is composed of a semiconductor sensor such as a CMOS sensor or a CCD sensor. The image sensor 11 in the present embodiment is equipped with a function for imaging a 360 degree scene from the omnidirectional mirror & lens 10 and a partial readout function for cutting out a part from the 360 degree scene. The sensor control unit 12 performs data read control for reading image data generated by photoelectric conversion by the image sensor 11, temporary storage of the read data, control of image processing such as development processing on the data, and the like. . The geometric conversion processing unit 13 performs geometric correction on the supplied image data based on the optical characteristics of the omnidirectional mirror & lens 10 to convert the data into data with no distortion. The drawing display processing unit 14 performs display processing so that the whole-view image data temporarily stored by the sensor control unit 12 and the data subjected to geometric correction by the geometric conversion processing unit 13 and free from distortion are matched with the display 15. The display 15 is a display unit that displays data subjected to display processing by the drawing display processing unit 14. The operation unit 16 designates a partial area in the whole view data displayed on the display 15.
全方位ミラー&レンズ10は、曲面ミラーを使った全方位ミラーとレンズとの組み合わせで構成され、これにより全方位撮像光学系を実現している。なお、全方位ミラーとレンズとの組み合わせの代わりに、全周魚眼レンズを用いて全方位撮像光学系を実現することも可能である。本実施形態では、全方位ミラー&レンズ10を、前者の全方位ミラーとレンズとの組み合わせで構成した例を取り上げる。 The omnidirectional mirror & lens 10 is composed of a combination of an omnidirectional mirror and a lens using a curved mirror, thereby realizing an omnidirectional imaging optical system. Note that an omnidirectional imaging optical system can be realized by using an omnidirectional fisheye lens instead of a combination of an omnidirectional mirror and a lens. In the present embodiment, an example in which the omnidirectional mirror & lens 10 is configured by a combination of the former omnidirectional mirror and a lens will be taken.
図2は、本実施形態における撮像装置の動作を示すフローチャートである。図3は、広角光学系に全方位ミラー&レンズ10を用いた場合、全体視画像データでのユーザ指定領域と、当該ユーザ指定領域を含む切出し矩形形状との関係を示す図である。図4は、当該ユーザ指定領域から切り出された矩形部分画像データを幾何変換して正視形にして表示した図である。図5は、広角光学系に全方位ミラー&レンズ10を用いた場合の切り出し矩形形状のイメージセンサー上での変化を表す図である。具体的には、図5は、ユーザ指定領域がイメージセンサー11上に映る円環映像上で円周方向に変化した際の、当該ユーザ指定領域が光学パラメータにて変換された形状領域を含む切り出し矩形形状の変化を示している。 FIG. 2 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment. FIG. 3 is a diagram showing a relationship between a user-specified area in the whole-view image data and a cut-out rectangular shape including the user-specified area when the omnidirectional mirror & lens 10 is used in the wide-angle optical system. FIG. 4 is a diagram in which rectangular partial image data cut out from the user-designated area is geometrically transformed and displayed as an orthographic shape. FIG. 5 is a diagram illustrating a change on the cut-out rectangular image sensor when the omnidirectional mirror & lens 10 is used in the wide-angle optical system. Specifically, FIG. 5 illustrates a cutout including a shape region in which the user-specified region is changed in the optical parameter when the user-specified region is changed in the circumferential direction on the annular image displayed on the image sensor 11. The change of a rectangular shape is shown.
まず、センサー制御部12は、全方位ミラー&レンズ10からの光を受けたイメージセンサー11から、全体視画像データ(歪データ)を読み出す(S100)。ここで、全体視画像データとは、全方位ミラーに映る景色全体が確認できる全体領域の画像を表すデータをいう。センサー制御部12はその後、読み出した全体視画像データに対して現像処理等を行い、描画表示処理部14に送る。 First, the sensor control unit 12 reads out the whole-view image data (distortion data) from the image sensor 11 that has received the light from the omnidirectional mirror & lens 10 (S100). Here, the whole-view image data refers to data representing an image of the entire area where the entire scene reflected on the omnidirectional mirror can be confirmed. Thereafter, the sensor control unit 12 performs development processing or the like on the read whole-view image data and sends it to the drawing display processing unit 14.
全体視画像データを受け取った描画表示処理部14は、ディスプレイ15の表示に適合するように当該全体視画像データに描画処理を施す。このとき、全体視画像データの画角がディスプレイ15の画角より大きい場合は、縮小処理を行う。なお、縮小処理を行っても、後述する部分領域の指定は相対位置で行うため、不都合はない。その後、描画処理を施された全体視画像データがディスプレイ15に表示される(S101)。 The drawing display processing unit 14 that has received the whole image data performs a drawing process on the whole image data so as to match the display on the display 15. At this time, if the angle of view of the whole-view image data is larger than the angle of view of the display 15, a reduction process is performed. Even if the reduction process is performed, there is no inconvenience because the partial area to be described later is designated at the relative position. Thereafter, the whole-view image data subjected to the drawing process is displayed on the display 15 (S101).
ユーザは、ディスプレイ15に表示された描画処理を施された全体視画像データを基に、操作部16によって対象物が映った部分領域を指定する(S102)。本実施形態では、部分領域を矩形形状として特定するものとする。そこで、この指定は、操作部16において、マウスカーソルにて矩形領域をドラッグすることで行うものでもよいし、タッチペンで四隅を指定するものであってもよい。操作部16によって指定された部分領域(以下、「部分視データ領域」という。)の枠が、全体視画像データ上に表示される(図3のa1)。部分視データ領域の領域情報は、センサー制御部12に送られる。 The user designates a partial area in which the object is reflected by the operation unit 16 based on the whole-view image data subjected to the drawing process displayed on the display 15 (S102). In the present embodiment, the partial area is specified as a rectangular shape. Therefore, this designation may be performed by dragging a rectangular area with the mouse cursor in the operation unit 16, or may be designated with the touch pen. A frame of a partial area designated by the operation unit 16 (hereinafter referred to as “partial view data area”) is displayed on the overall view image data (a1 in FIG. 3). The area information of the partial vision data area is sent to the sensor control unit 12.
センサー制御部12は、受信した部分視データ領域情報に基づき制御情報としての切出し矩形形状を算出する(S103)。本実施形態では、部分視データ領域を含む外周矩形(+α)の形状及び位置を、全方位ミラー&レンズ10の光学パラメータ等に基づき算出する(図3の破線枠)。一例として、縦横のサイズ及び縦横比(アスペクト比)が部分視データ領域とは異なる形状が算出される。 The sensor control unit 12 calculates a cut-out rectangular shape as control information based on the received partial vision data area information (S103). In the present embodiment, the shape and position of the outer peripheral rectangle (+ α) including the partial vision data area are calculated based on the optical parameters of the omnidirectional mirror & lens 10 (broken line frame in FIG. 3). As an example, a shape having a vertical and horizontal size and an aspect ratio (aspect ratio) different from that of the partial view data area is calculated.
具体的に説明する。例えば、全方位ミラーの1つである双曲面ミラーを用いた全方位撮像装置の場合を考える。この場合、対象物がイメージセンサー11上に映る場所が円環映像(図3)の中心部に寄るほど、すなわち、円環映像の中心部からの半径距離が短くなるほど、映像歪が大きくなるという光学特性を呈する。逆に、対象物がイメージセンサー11上に映る場所が円環映像の中心部から離れるほど、映像歪は小さくなる。 This will be specifically described. For example, consider the case of an omnidirectional imaging device using a hyperboloidal mirror that is one of the omnidirectional mirrors. In this case, the image distortion increases as the place where the object appears on the image sensor 11 is closer to the center of the annular image (FIG. 3), that is, as the radial distance from the center of the annular image becomes shorter. Exhibits optical properties. Conversely, the image distortion becomes smaller as the place where the object appears on the image sensor 11 is farther from the center of the annular image.
したがって、S102で指定された部分視データ領域を、光学パラメータを用いた計算により逆変換した形状(以下「扇形変換前形状」という。)及び位置が、円環映像(図3)の中心部に寄るほど、扇形変換前形状の内径側の映像が歪む。 Therefore, the shape obtained by inversely transforming the partial vision data area specified in S102 by calculation using the optical parameters (hereinafter referred to as “shape before sector conversion”) and the position are located at the center of the annular image (FIG. 3). The closer it is, the more the image on the inner diameter side of the shape before fan conversion is distorted.
また、センサー特性として、多くの場合、部分切り出し形状が矩形でしか切り出せない。そのため、対象物がイメージセンサー11上に映る場所として円環映像(図5)の中心部角度が、垂直や水平に近い場合は、扇形変換前形状に当てはめた切り出し用外接矩形と当該扇形変換前形状との間の差が小さくなる。その結果、部分切り出し形状は、扇形変換前形状との間の余白(+α)を小さく指定することが可能である(図5のa’11、a’14)。 As sensor characteristics, in many cases, the partial cutout shape can be cut out only in a rectangular shape. Therefore, when the center angle of the circular image (FIG. 5) is close to vertical or horizontal as a place where the object is reflected on the image sensor 11, the cutout circumscribed rectangle fitted to the shape before the sector conversion and the shape before the sector conversion. The difference between the shape is reduced. As a result, it is possible to specify a small margin (+ α) between the partial cutout shape and the shape before sector conversion (a′11 and a′14 in FIG. 5).
しかしながら、対象物がイメージセンサー11上に映る場所として円環映像(図5)の中心部角度が斜め約30度〜約80度付近の場合は、扇形変換前形状に当てはめた切り出し用外接矩形と当該扇形変換前形状との間の差が大きくなる。その結果、部分切り出し形状は、扇形変換前形状との間の余白(+α)を大きく、かつ、垂直方向に近い場合は縦長に、水平方向に近い場合は横長に、指定する必要がある。そのため、部分切り出し形状のアスペクト比を変化させる必要がある(図5のa’12、a’13)。 However, when the center angle of the circular image (FIG. 5) is about 30 degrees to about 80 degrees as a place where the object is reflected on the image sensor 11, the circumscribing rectangle for cutting applied to the shape before fan conversion is used. The difference from the shape before the sector conversion becomes large. As a result, the partial cut-out shape needs to be specified as a margin (+ α) between the pre-fan shape conversion shape and a vertically long shape when close to the vertical direction, and a horizontal shape when close to the horizontal direction. Therefore, it is necessary to change the aspect ratio of the partially cut out shape (a′12 and a′13 in FIG. 5).
さらに、映像歪補正後の対象物の外接矩形形状の映像をズームした際に映像の欠落が起きることを防ぐため、特に半径方向に余白(+α)を大きく指定する必要がある。 Furthermore, it is necessary to specify a large margin (+ α) particularly in the radial direction in order to prevent the loss of the image when zooming the circumscribed rectangular image of the target object after the image distortion correction.
以上のようにして、矩形読み出し形状である外矩形+αの形状及び位置を算出する。 As described above, the shape and position of the outer rectangle + α, which is the rectangular readout shape, are calculated.
本実施形態においては、図3のa’1が、a1より円周方向に大きい矩形領域が必要となる。 In the present embodiment, a rectangular region in which a′1 in FIG. 3 is larger in the circumferential direction than a1 is required.
センサー制御部12は、算出した外周矩形の形状及び位置を制御情報として、イメージセンサー11の部分読出し機能を用いて、以下の処理を行う。全体視画像データから一部分を切り出した、切出し矩形形状データ(以下、「矩形部分画像データ」という。)を読み出す(S106)。このときセンサー制御部12は、部分切出し位置としての撮像位置をイメージセンサー11の特性に合わせて設定するか否かを判断する(S104)。その設定が必要と判断されると、例えば、イメージセンサー11の画素がベイヤ配列の場合は、ベイヤのRGBの並ぶ単位が全体視データの並ぶ単位と同じになるように、撮像位置を決定する(S105)。 The sensor control unit 12 performs the following processing using the partial reading function of the image sensor 11 with the calculated shape and position of the outer peripheral rectangle as control information. Cutout rectangular shape data (hereinafter, referred to as “rectangular partial image data”) obtained by cutting out a part from the whole-view image data is read (S106). At this time, the sensor control unit 12 determines whether or not to set the imaging position as the partial cutout position according to the characteristics of the image sensor 11 (S104). If it is determined that the setting is necessary, for example, when the pixels of the image sensor 11 are in a Bayer array, the imaging position is determined so that the unit in which the RGB of the Bayer is arranged is the same as the unit in which the whole-view data is arranged ( S105).
例えば、センサー特性として、センサーの画素の並びが上記のようなRGBベイヤ配列の場合、4画素単位で切り出し位置をずらさないと色味が変わってしまう。そのため、上記の光学特性で算出した切り出し位置をセンサー特性である4画素単位の位置に補正する必要がある。 For example, as sensor characteristics, when the sensor pixels are arranged in the RGB Bayer arrangement as described above, the color changes unless the cutout position is shifted in units of four pixels. Therefore, it is necessary to correct the cut-out position calculated by the above optical characteristics to the position of the unit of 4 pixels that is the sensor characteristic.
センサー制御部12は、読み出した矩形部分画像データに現像処理等を行い、その処理済みの矩形部分画像データを幾何変換処理部13に送る。幾何変換処理部13は、当該矩形部分画像データに対し、全方位ミラー&レンズ10の光学パラメータに基づき画像データ幾何変換(歪補正ともいう)を行う(S107)。幾何変換処理部13は、幾何変換された矩形部分画像データを描画表示処理部14に送る。 The sensor control unit 12 performs development processing or the like on the read rectangular partial image data, and sends the processed rectangular partial image data to the geometric transformation processing unit 13. The geometric conversion processing unit 13 performs image data geometric conversion (also referred to as distortion correction) on the rectangular partial image data based on the optical parameters of the omnidirectional mirror & lens 10 (S107). The geometric transformation processing unit 13 sends the rectangular partial image data subjected to the geometric transformation to the drawing display processing unit 14.
描画表示処理部14は、その幾何変換された矩形部分画像データに対し、ディスプレイ15の表示に合うよう描画処理を施す。具体的には、ディスプレイ15の色味に合わせた色変換処理等を施す。このとき、描画表示処理部14は、幾何変換された矩形部分画像データの画角(サイズ)がディスプレイ15の表示画角より大きいか否かを判定する(S108)。幾何変換された矩形部分画像データの画角がディスプレイ15の表示画角より大きいと判定された場合、描画表示処理部14は、その矩形部分画像データにトリミング等を施して、ディスプレイ15の表示画角内に納まるようにする(S109)。こうして処理された矩形部分画像データが、ディスプレイ15に表示される(S110)(図4)。 The drawing display processing unit 14 performs drawing processing on the geometrically converted rectangular partial image data so as to match the display on the display 15. Specifically, a color conversion process or the like that matches the color of the display 15 is performed. At this time, the drawing display processing unit 14 determines whether or not the angle of view (size) of the geometrically converted rectangular partial image data is larger than the display angle of view of the display 15 (S108). When it is determined that the angle of view of the geometrically converted rectangular partial image data is larger than the display angle of view of the display 15, the drawing display processing unit 14 performs trimming on the rectangular partial image data and displays the display image of the display 15. It fits within the corner (S109). The rectangular partial image data processed in this way is displayed on the display 15 (S110) (FIG. 4).
<実施形態2>
次に第2の実施形態を説明する。
<Embodiment 2>
Next, a second embodiment will be described.
図6に本実施形態における撮像装置のブロック図を示す。図6では、図1に対して、動体を検知する動体検知処理部17が追加された以外は、図1と同様である。図1と同じ処理ブロックには同じ参照番号を付し、それらの説明は省略する。 FIG. 6 is a block diagram of the imaging apparatus according to this embodiment. 6 is the same as FIG. 1 except that a moving object detection processing unit 17 that detects a moving object is added to FIG. The same processing blocks as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
図7は、本実施形態における撮像装置の動作を示すフローチャートである。図8は、本実施形態における全体視画像データ(歪データ)の例を示す。図8において、b1で示される実線枠は、動体検知処理部17により得られた動体検知枠である。b’1で示される破線枠は、動体検知枠b1の位置と全方位ミラー&レンズ10の光学特性とから計算された有効矩形範囲(以下「動体視領域」という。)である。 FIG. 7 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment. FIG. 8 shows an example of the whole-view image data (distortion data) in the present embodiment. In FIG. 8, a solid line frame indicated by b <b> 1 is a moving object detection frame obtained by the moving object detection processing unit 17. A broken-line frame indicated by b'1 is an effective rectangular range (hereinafter referred to as "moving object viewing area") calculated from the position of the moving object detection frame b1 and the optical characteristics of the omnidirectional mirror & lens 10.
まず、センサー制御部12は、全方位ミラー&レンズ10からの光を受けたイメージセンサー11から全体視画像データ(歪データ)を読み出す(S200)。センサー制御部12は、読み出した全体視画像データに現像処理等を行い、これを動体検知処理部17に送る。動体検知処理部17は、受け取った全体視画像データに対し、動体検知処理を実行する(S201)。センサー制御部12は、動体検知処理により動体が検知されたか否かを判定する(S202)。動体検知処理により動体が検知されなかった場合は、処理はS208に進む。動体検知処理により動体が検知された場合は、センサー制御部12は、S203で、検知された動体の数が1つであるか複数であるかを判定する。検知された動体が1つである場合は、処理はS204に進む。 First, the sensor control unit 12 reads out the whole-view image data (distortion data) from the image sensor 11 that has received the light from the omnidirectional mirror & lens 10 (S200). The sensor control unit 12 performs development processing or the like on the read entire image data, and sends this to the moving object detection processing unit 17. The moving object detection processing unit 17 performs a moving object detection process on the received whole-view image data (S201). The sensor control unit 12 determines whether or not a moving object is detected by the moving object detection process (S202). If no moving object is detected by the moving object detection process, the process proceeds to S208. If a moving object is detected by the moving object detection process, the sensor control unit 12 determines whether the number of detected moving objects is one or more in S203. If the number of detected moving objects is one, the process proceeds to S204.
S204では、動体検知処理で得られた動体検知枠(b1)と、当該動体の位置及び、全方位ミラー&レンズ10の光学特性等により、部分読出し機能に指定する制御情報としての動体視領域(b’1)を算出する。例えば、縦横のサイズ及び縦横比(アスペクト比)が動体検知枠とは異なる矩形形状データが算出される。なお、動体視領域を算出する際、動体の移動方向の方により多くの余白をもって動体視領域を設定してもよい。 In S204, the moving object detection frame (b1) obtained by the moving object detection process, the position of the moving object, the optical characteristics of the omnidirectional mirror & lens 10, etc. b′1) is calculated. For example, rectangular shape data having a vertical and horizontal size and an aspect ratio (aspect ratio) different from those of the moving object detection frame are calculated. Note that when calculating the moving object visual region, the moving object visual region may be set with more margins in the moving direction of the moving object.
算出された動体視領域は、切出し矩形領域として設定(S205)される。次に、イメージセンサー11の特性にあった位置を撮像位置にしているかを判定する(S206)。特性にあった撮像位置でないと判断された場合は、全体視画像データのRGB画素並びと同じになるように、撮像位置としての切出し矩形位置を決定する(S207)。 The calculated moving object view area is set as a cut-out rectangular area (S205). Next, it is determined whether or not the position corresponding to the characteristics of the image sensor 11 is the imaging position (S206). If it is determined that the image pickup position does not meet the characteristics, a cut-out rectangular position as the image pickup position is determined so as to be the same as the RGB pixel arrangement of the whole-view image data (S207).
その後、切出し矩形領域と撮像位置とを制御情報として指定し、イメージセンサー11の機能である部分切出し機能を用いて、以下の処理を行う。すなわち、センサー制御部12は、全体視画像データから一部分を切り出した切出し矩形形状データ(以下「矩形部分画像データ」という。)を読み出す(S208)。矩形部分画像データは、幾何変換処理部13に送られる。幾何変換処理部13は、受け取った矩形部分画像データに対し、全方位ミラー&レンズ10の光学パラメータに基づいて、画像データ幾何変換を行う(S209)。幾何変換後の矩形部分画像データは、描画表示処理部14に送られる。 Thereafter, the cut-out rectangular area and the imaging position are designated as control information, and the following processing is performed using the partial cut-out function that is a function of the image sensor 11. That is, the sensor control unit 12 reads out cut-out rectangular shape data (hereinafter referred to as “rectangular partial image data”) obtained by cutting out a part from the whole-view image data (S208). The rectangular partial image data is sent to the geometric transformation processing unit 13. The geometric conversion processing unit 13 performs image data geometric conversion on the received rectangular partial image data based on the optical parameters of the omnidirectional mirror & lens 10 (S209). The rectangular partial image data after the geometric transformation is sent to the drawing display processing unit 14.
描画表示処理部14は、受け取った幾何変換後の矩形部分画像データを受け取った描画表示処理部14は、ディスプレイ15の表示に合うように描画処理を施す。このとき、ディスプレイ15の表示アスペクト比及び表示サイズに合わない場合は、矩形部分画像データをトリミング又はリサイズして合わせる処理を行う。その後、描画表示処理部14により、幾何変換後の矩形部分画像データが、ディスプレイ15に表示される(図4)(S210)。 The drawing display processing unit 14 that has received the received rectangular partial image data after geometric transformation performs drawing processing so as to match the display on the display 15. At this time, when the display aspect ratio and the display size of the display 15 are not matched, a process of trimming or resizing the rectangular partial image data is performed. Thereafter, the rectangular display image data after geometric transformation is displayed on the display 15 by the drawing display processing unit 14 (FIG. 4) (S210).
次に、S203で複数の動体が検知された場合の処理を説明する。図9には、全体視画像データ上に複数の動体検知枠C1,C2が示されている。破線の枠で示されるC’1,C’2は、動体検知枠C1、C2の位置及び全方位ミラー&レンズ10の光学特性等から計算される動体視領域である。 Next, processing when a plurality of moving objects are detected in S203 will be described. FIG. 9 shows a plurality of moving object detection frames C1 and C2 on the overall image data. C′1 and C′2 indicated by the broken line frames are moving object view areas calculated from the positions of the moving object detection frames C1 and C2, the optical characteristics of the omnidirectional mirror & lens 10, and the like.
S203で複数の動体が検知された場合は、操作部16を用いたユーザ操作により、全体視画像データ上で注視動体の指定(動体指定処理)を行うことができる(S211)。ここでは、図9のC1が指定されたと仮定する。センサー制御部12は、ユーザによって指定された動体検知枠C1と、当該動体の位置及び全方位ミラー&レンズ10の光学特性等より、部分読出し機能に指定する制御情報としての動体視領域C’1を算出する(S212)。その後、処理はS205に進む。 When a plurality of moving objects are detected in S203, a gaze moving object can be specified (moving object specifying process) on the whole-view image data by a user operation using the operation unit 16 (S211). Here, it is assumed that C1 in FIG. 9 is designated. The sensor control unit 12 uses the moving object detection frame C′1 as control information to be specified for the partial reading function based on the moving object detection frame C1 specified by the user, the position of the moving object, the optical characteristics of the omnidirectional mirror & lens 10, and the like. Is calculated (S212). Thereafter, the process proceeds to S205.
以上、本発明の実施形態を説明した。なお、本発明は上述の実施形態に限定されるものではない。例えば、以下のような変形も可能である。 The embodiments of the present invention have been described above. In addition, this invention is not limited to the above-mentioned embodiment. For example, the following modifications are possible.
実施形態1、2においては、広角光学系として全方位ミラーとレンズとの組み合わせを用いたが、上述したように、その代わりに、全周魚眼レンズ等を用いてもよい。なお、全周魚眼レンズを用いた全方位撮像光学系の場合は、全方位ミラーを用いた全方位撮像光学系の場合と光学特性が逆になる。対象物が映る場所として、円環映像の外周部に寄るほど、すなわち、円環映像の中心部から半径距離が長くなるほど、映像歪が大きくなる。 In Embodiments 1 and 2, a combination of an omnidirectional mirror and a lens is used as the wide-angle optical system. However, as described above, an all-around fisheye lens or the like may be used instead. In the case of an omnidirectional imaging optical system using an omnidirectional fisheye lens, the optical characteristics are opposite to those of an omnidirectional imaging optical system using an omnidirectional mirror. As the object is reflected, the closer to the outer periphery of the annular image, that is, the longer the radial distance from the center of the annular image, the greater the image distortion.
実施形態1、2においては、最後に、矩形部分画像データをディスプレイ15に表示するようにした。これに代えて、又はこれに加えて、矩形部分画像データをネットワーク先の端末へ配信する、あるいは、記憶装置に保存するようにしてもよい。 In the first and second embodiments, finally, the rectangular partial image data is displayed on the display 15. Instead of or in addition to this, the rectangular partial image data may be distributed to a network destination terminal or stored in a storage device.
実施形態1、2において、全体視画像データは、イメージセンサー11からの全画素読出しデータであってもよいし、間引き読出しデータであってもよい。 In the first and second embodiments, the whole-view image data may be all-pixel read data from the image sensor 11 or thinned-out read data.
実施形態1においては、操作部16を介したユーザ操作により切出し領域を指定したが、切出し画像データの特徴(例えば人体)を特定することによって切出し領域を自動指定してもよい。 In the first embodiment, the cutout area is designated by a user operation via the operation unit 16, but the cutout area may be automatically designated by specifying the feature (eg, human body) of the cutout image data.
実施形態2においては、複数の動体が検知された場合、操作部16を介したユーザ操作により注視動体を指定した。この代わりに、所定の条件下で自動で指定してもよいし、ある動体から一定時間毎に注視動体を切り替えて処理してもよい。所定の条件としては、動体の位置、動体のサイズ、動体の移動速度等に関連する条件が考えられる。 In the second embodiment, when a plurality of moving objects are detected, the gaze moving object is designated by a user operation via the operation unit 16. Instead, it may be automatically specified under a predetermined condition, or may be processed by switching a gaze moving body from a certain moving body at regular intervals. As the predetermined conditions, conditions related to the position of the moving object, the size of the moving object, the moving speed of the moving object, and the like can be considered.
実施形態2においては、動体検知処理部17をイメージセンサー11とは別のブロックとして構成した。しかし、イメージセンサー11が動体検知処理部17を兼ねる構成としてもよい。 In the second embodiment, the moving object detection processing unit 17 is configured as a block different from the image sensor 11. However, the image sensor 11 may serve as the moving object detection processing unit 17.
実施形態2において、動体の移動に合わせてS201〜S210の処理を繰り返し実行し、表示を更新することで、動体を追尾した矩形部分画像データを表示し、移動する被写体を確認するようにしてもよい。 In the second embodiment, the processing of S201 to S210 is repeatedly executed in accordance with the movement of the moving object, and the display is updated to display the rectangular partial image data tracking the moving object and confirm the moving subject. Good.
以上説明した実施形態によれば、広角光学系の撮像位置によって読み出す形状を動的に変化させることができる。また、イメージセンサー特性に合わせて切出し位置を設定することで、被写体を確認するためのデータ範囲を部分的に読み出すことを可能とし、処理するデータ量を削減することができる。さらに、部分的に読み出したデータは、最大の解像度でかつ色味が元のデータから変わらないため、被写体を容易に確認できるという効果がある。 According to the embodiment described above, the shape to be read can be dynamically changed depending on the imaging position of the wide-angle optical system. In addition, by setting the cutout position according to the image sensor characteristics, it is possible to partially read the data range for confirming the subject, and to reduce the amount of data to be processed. Furthermore, since the partially read data has the maximum resolution and the color does not change from the original data, there is an effect that the subject can be easily confirmed.
<他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.
Claims (11)
前記切出し手段により切り出された前記部分領域の画像に対して、前記撮像光学系の光学特性に基づいて幾何変換を行う画像処理手段と、
前記画像処理手段によって幾何変換された前記部分領域の画像のサイズが、前記部分領域の画像を表示する表示手段における表示画角よりも大きい場合、前記表示画角に納まるように、前記画像処理手段によって幾何変換された前記部分領域の画像をトリミングするトリミング手段と
を有することを特徴とする画像処理装置。 In images of the light focused through the imaging optical system Ru made by Ri production to an image sensor for photoelectrically converting a partial area corresponding to the object is determined based on optical characteristics of the imaging optical system, Clipping means for cutting out the image of the partial area;
Image processing means for performing geometric transformation on the image of the partial area cut out by the cutting means based on optical characteristics of the imaging optical system;
When the image size of the partial area geometrically transformed by the image processing means is larger than the display angle of view in the display means for displaying the image of the partial area, the image processing means is set so as to fall within the display angle of view. images processor you; and a trimming unit for trimming the image of the geometric transformation is the partial regions by.
前記切出し手段は、前記撮像光学系の光学特性と、前記画像における前記対象物の画像の位置とに基づいて、前記矩形形状の縦横のサイズ及びアスペクト比を決定する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The cutting means is configured to identify the partial region as a rectangular shape,
It said cutout means includes an optical characteristic of the imaging optical system, based on the position of the image of the object before Kiga image, claims and determines the size and aspect ratio of the aspect of the rectangular shape images processing device according to any one of claim 1 to 4.
前記動体検知手段により検知された動体の動体視領域を前記部分領域として設定する設定手段と、
を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 A motion detection means for detecting a moving object from the previous Kiga image,
Setting means for setting a moving object view area of the moving object detected by the moving object detection means as the partial area;
Further images processing device according to any one of claims 1 to 5, characterized in that it has a.
前記設定手段は、前記動体指定手段により指定された動体の動体視領域を前記部分領域として設定する
ことを特徴とする請求項6に記載の画像処理装置。 In the case where a plurality of moving objects are detected by the moving object detecting means, the moving object specifying means for specifying any one moving object from the plurality of moving objects by a user operation,
The setting means, images processing device according to claim 6, characterized in that to set the moving object vision area of the designated moving body by the moving object specifying means as the partial region.
前記切出しステップにより切り出された前記部分領域の画像に対して、前記撮像光学系の光学特性に基づいて幾何変換を行う画像処理ステップと、
前記画像処理ステップによって幾何変換された前記部分領域の画像のサイズが、前記部分領域の画像を表示する表示手段における表示画角よりも大きい場合、前記表示画角に納まるように、前記画像処理ステップによって幾何変換された前記部分領域の画像をトリミングするトリミングステップと
を有することを特徴とする画像処理装置の制御方法。 In images of the light focused through the imaging optical system Ru made by Ri raw Louis image sensor to photoelectrically converts the partial area corresponding to the object determined based on the optical characteristics of the imaging optical system and the cut-out step of cutting out the image of the partial region,
The image of the partial region cut out by the previous SL cutout step, an image processing step of performing geometric transformation on the basis of the optical characteristics of the imaging optical system,
If the size of the image of the partial area geometrically transformed by the image processing step is larger than the display angle of view in the display means for displaying the image of the partial area, the image processing step so as to fall within the display angle of view. geometric converted control method of image picture processor you; and a trimming step for trimming the image of the partial region by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011277660A JP5847570B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011277660A JP5847570B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013128256A JP2013128256A (en) | 2013-06-27 |
JP2013128256A5 JP2013128256A5 (en) | 2015-02-05 |
JP5847570B2 true JP5847570B2 (en) | 2016-01-27 |
Family
ID=48778535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011277660A Active JP5847570B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5847570B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2512628A (en) * | 2013-04-04 | 2014-10-08 | Sony Corp | Method and apparatus |
JP6472864B1 (en) * | 2017-11-29 | 2019-02-20 | 株式会社近江デジタルファブリケーションズ | Image distribution system and distribution image generation method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10174090A (en) * | 1996-12-11 | 1998-06-26 | Matsushita Electric Ind Co Ltd | Monitoring support device |
JP2005167638A (en) * | 2003-12-02 | 2005-06-23 | Sharp Corp | Mobile surrounding surveillance apparatus, vehicle, and image transforming method |
JP2010219872A (en) * | 2009-03-17 | 2010-09-30 | Panasonic Corp | Camera apparatus, display, system and method for processing image |
US8907985B2 (en) * | 2010-03-04 | 2014-12-09 | Panasonic Corporation | Image display device and image display method |
-
2011
- 2011-12-19 JP JP2011277660A patent/JP5847570B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013128256A (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12022196B2 (en) | Dual aperture zoom camera with video support and switching / non-switching dynamic control | |
JP5487722B2 (en) | Imaging apparatus and shake correction method | |
JP4434653B2 (en) | Portable electronic imaging device with digital zoom function and method for providing digital zoom function | |
KR101583646B1 (en) | Method and apparatus for generating omnidirectional plane image | |
JP5666069B1 (en) | Coordinate calculation apparatus and method, and image processing apparatus and method | |
CN111698419A (en) | Terminal photographing method and device and terminal | |
KR20180129667A (en) | Display control apparatus, display control method, and storage medium | |
US20100020202A1 (en) | Camera apparatus, and image processing apparatus and image processing method | |
JP5847570B2 (en) | Image processing apparatus and control method thereof | |
JP2009064225A (en) | Image processor and image processing method | |
JP2011082726A (en) | Image reproducing apparatus, and imaging apparatus | |
CN110995982B (en) | Image processing apparatus, control method therefor, imaging apparatus, and recording medium | |
JP4608436B2 (en) | Image shooting device | |
JP5641127B2 (en) | Imaging apparatus and shake correction method | |
JP2003219246A (en) | Electronic camera and electronic camera system | |
JP2005063141A5 (en) | ||
KR102636767B1 (en) | Method for capturing and processing a digital panoramic image | |
JP2005063141A (en) | Image conversion system and image conversion method | |
KR102498870B1 (en) | Camera system and method for processing image thereof | |
JP2007013791A (en) | Image processing apparatus and its method, as well as imaging apparatus | |
JP6566765B2 (en) | Imaging device | |
KR100936354B1 (en) | Apparatus and method for providing digital zoom | |
JP6732509B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP7676482B2 (en) | Camera system mounted on a moving object, image processing device, and image processing method | |
JP2025099296A (en) | Periphery monitoring system, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151125 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5847570 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |