JP6700935B2 - Imaging device, control method thereof, and control program - Google Patents
Imaging device, control method thereof, and control program Download PDFInfo
- Publication number
- JP6700935B2 JP6700935B2 JP2016087070A JP2016087070A JP6700935B2 JP 6700935 B2 JP6700935 B2 JP 6700935B2 JP 2016087070 A JP2016087070 A JP 2016087070A JP 2016087070 A JP2016087070 A JP 2016087070A JP 6700935 B2 JP6700935 B2 JP 6700935B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- focus
- image pickup
- unit
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の撮像部を有する撮像装置、その制御方法、および制御プログラムに関し、特に、複数の撮像部の視点が略一致するように配置された撮像装置に関する。 The present invention relates to an image pickup apparatus having a plurality of image pickup sections, a control method therefor, and a control program, and more particularly to an image pickup apparatus arranged so that the viewpoints of the plurality of image pickup sections are substantially the same.
一般に、広角レンズ又は魚眼レンズを光学系に用いて広い範囲を一度に撮影する撮像装置が知られている。ところが、広角レンズにおいては画角が制限される。一方、所謂全周魚眼レンズは180度の画角を有し、広い範囲を一度で撮影できるものの、レンズ周辺部における光学的収差が大きく、画角全域に亘って高解像度とすることが困難である。 2. Description of the Related Art Generally, there is known an imaging device that uses a wide-angle lens or a fish-eye lens in an optical system to shoot a wide range at once. However, the angle of view is limited in the wide-angle lens. On the other hand, a so-called all-round fish-eye lens has an angle of view of 180 degrees and can photograph a wide range at a time, but optical aberration is large at the lens peripheral portion, and it is difficult to achieve high resolution over the entire angle of view. ..
このような問題を解決するため、複数の撮像部を互いの視点が略一致するように配置した撮像装置(以下複眼撮像装置と呼ぶ)がある。この複眼撮像装置では、撮像部の各々で得られた撮影画像を繋ぎ合せて広い画角に亘ってシームレスでかつ高解像度の画像を得ている(特許文献1参照)。なお、広角レンズ又は魚眼レンズのように画角が広いレンズは被写界深度が深いので、絞りをあまり絞ることなく画面全域にフォーカスが合った画像を得ることができる。 In order to solve such a problem, there is an image pickup apparatus (hereinafter referred to as a compound eye image pickup apparatus) in which a plurality of image pickup sections are arranged so that their viewpoints substantially match each other. In this compound-eye image pickup device, the picked-up images obtained by the respective image pickup units are joined together to obtain a seamless and high-resolution image over a wide angle of view (see Patent Document 1). Since a wide-angle lens or a lens with a wide angle of view such as a fish-eye lens has a large depth of field, it is possible to obtain an image in which the entire area of the screen is in focus without squeezing the diaphragm too much.
ところが、上述の複眼撮像装置を用いて広い画角を高解像度で撮影する際には、画角の狭いレンズを用いる必要がある。そして、画角の狭いレンズでは、絞り込まない限り1つの被写体にフォーカスを合わせると、その前後の被写体にフォーカスが合わないという事態が生じ易くなる。一方、画角の狭いレンズにおいても近くの被写体から遠くの被写体までフォーカスを合わせることが可能な撮像装置として、所謂あおり機構を備える撮像装置がある(特許文献2参照)。 However, it is necessary to use a lens with a narrow angle of view when shooting a wide angle of view with high resolution using the above-mentioned compound eye imaging device. With a lens having a narrow angle of view, if one subject is brought into focus unless narrowed down, a situation in which subjects before and after that are not brought into focus easily occurs. On the other hand, there is an image pickup device provided with a so-called tilt mechanism as an image pickup device capable of focusing a near subject to a far subject even with a lens having a narrow angle of view (see Patent Document 2).
ところが、上述の特許文献1および2に記載の技術を単純に組み合わせても、複数の撮像部の各々で撮影された撮影画像を繋ぎ合わせると、繋ぎ合わせた画像の繋ぎ目部分が不自然となってしまう。つまり、フォーカス面および被写界深度が撮像部毎に異なる結果、フォーカス面および被写界深度がずれた状態での画像を合成すると、繋ぎ目目部分でフォーカスずれが生じる。 However, even if the techniques described in Patent Documents 1 and 2 described above are simply combined, when the captured images captured by each of the plurality of image capturing units are joined together, the joint portion of the joined images becomes unnatural. Will end up. That is, as a result of the focus plane and the depth of field differing for each imaging unit, when images with different focus planes and depth of field are combined, a focus shift occurs at the joint portion.
従って、本発明の目的は、画像の繋ぎ目部分でフォーカスずれが生じることなく、広い画角を高解像度で撮影することのできる撮像装置、その制御方法、および制御プログラムを提供することにある。 Therefore, an object of the present invention is to provide an image pickup apparatus capable of shooting a wide angle of view with high resolution without causing a focus shift at a joint portion of images, a control method thereof, and a control program.
上記の目的を達成するため、本発明による撮像装置は、複数の撮像部を備え、前記複数の撮像部の各々に備えられた撮像素子によって撮影画像を得る撮像装置であって、前記複数の撮像部はその視点が互いに略一致するように配置されており、前記複数の撮像部におけるフォーカスを制御する第1の制御手段と、前記撮像素子について前記撮像部の光軸に対する傾きであるあおり角度を制御する第2の制御手段とを有し、前記第1の制御手段によって前記複数の撮像部の少なくとも1つにおいてフォーカス制御が行われると、前記第2の制御手段は、前記フォーカス制御が行われた撮像部のフォーカス面に応じて、前記フォーカス制御が行われた撮像部に隣接する撮像部において前記あおり角度を調整することを特徴とする。 In order to achieve the above-mentioned object, an imaging device according to the present invention is an imaging device that includes a plurality of imaging units and obtains a captured image by an imaging element provided in each of the plurality of imaging units. The sections are arranged so that their viewpoints are substantially coincident with each other, and a first control unit that controls focus in the plurality of image pickup units and a tilt angle that is a tilt with respect to the optical axis of the image pickup unit with respect to the image pickup device are set. When a focus control is performed by at least one of the plurality of imaging units by the first control unit, the second control unit performs the focus control. According to the focus surface of the image pickup unit, the tilt angle is adjusted in the image pickup unit adjacent to the image pickup unit on which the focus control is performed.
本発明によれば、画像の繋ぎ目部分でフォーカスずれが生じることなく、広い画角を高解像度で撮影することができる。 According to the present invention, it is possible to shoot a wide angle of view with high resolution without defocusing at a joint portion of images.
以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。 Hereinafter, an example of the imaging device according to the embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例を表示装置とともに示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing an example of an image pickup apparatus according to the first embodiment of the present invention together with a display device.
図1においては、撮像装置1はネットワーク3を介して表示装置(以下ビューワー端末と呼ぶ)2に接続されている。図示の撮像装置1は、第1〜第7の撮像部110〜170を有している。さらに、撮像装置1は、制御パラメータ算出部101、画像合成部102、画像圧縮部103、および通信部104を備えている。第1の撮像部110は、レンズ制御部111、レンズ112、撮像面(撮像素子)113、およびあおり制御部114を備えている。なお、図示はしないが、第2〜第7の撮像部120〜170は第1の撮像部110と同様の構成を有している。また、以下の説明では、複数の撮像部を備える撮像装置を複眼撮像装置と呼ぶ。 In FIG. 1, the imaging device 1 is connected to a display device (hereinafter referred to as a viewer terminal) 2 via a network 3. The illustrated image pickup apparatus 1 includes first to seventh image pickup units 110 to 170. Further, the image pickup apparatus 1 includes a control parameter calculation unit 101, an image synthesis unit 102, an image compression unit 103, and a communication unit 104. The first image pickup unit 110 includes a lens control unit 111, a lens 112, an image pickup surface (image pickup element) 113, and a tilt control unit 114. Although not shown, the second to seventh image capturing units 120 to 170 have the same configuration as the first image capturing unit 110. Further, in the following description, an image pickup device including a plurality of image pickup units is referred to as a compound eye image pickup device.
ここで、第1の撮像部110に注目して、レンズ制御部111は、制御パラメータ算出部101で取得したフォーカス情報および絞り値に基づいてレンズ112のフォーカス制御および絞り制御を行う。あおり制御部114は、制御パラメータ算出部101で求められたあおり角度情報に基づいて撮像面(撮像素子)113の傾き(レンズ112の光軸方向の傾き)を制御する。つまり、あおり制御部114は撮像面113の奥行き方向の傾きを制御する。 Here, focusing on the first imaging unit 110, the lens control unit 111 performs focus control and aperture control of the lens 112 based on the focus information and aperture value acquired by the control parameter calculation unit 101. The tilt control unit 114 controls the tilt of the imaging surface (image sensor) 113 (the tilt of the lens 112 in the optical axis direction) based on the tilt angle information obtained by the control parameter calculation unit 101. That is, the tilt control unit 114 controls the inclination of the imaging surface 113 in the depth direction.
第1〜第7の撮像部110〜170で得られた撮影画像は、画像合成部102に入力される。以下、第1〜第7の撮像部110〜170で得られた撮影画像をそれぞれ第1〜第7の撮影画像と呼ぶ。画像合成部102は第1〜第7の撮影画像をシームレスに繋ぎ合わせて合成画像(以下全体画像とも呼ぶ)を生成する。 The captured images obtained by the first to seventh image capturing units 110 to 170 are input to the image combining unit 102. Hereinafter, the captured images obtained by the first to seventh image capturing units 110 to 170 are referred to as first to seventh captured images, respectively. The image composition unit 102 seamlessly connects the first to seventh captured images to generate a composite image (hereinafter also referred to as an entire image).
全体画像は画像圧縮部103においてネットワーク配信可能なデータサイズに圧縮される。そして、圧縮後の全体画像は通信部104によってネットワーク3を介してビューワー端末2に配信される。 The entire image is compressed by the image compression unit 103 to a data size that can be distributed via the network. Then, the compressed whole image is distributed to the viewer terminal 2 via the network 3 by the communication unit 104.
ビューワー端末2は、メイン画像表示部201、全体画像表示部202、画像切り出し・デワープ部203、画像伸長部204、操作入力部205、操作コマンド生成・解釈部206、および通信部207を有している。通信部207によって圧縮後の全体画像を受信すると、画像伸長部204は当該圧縮後の全体画像を伸長する。そして、当該全体画像は全体画像表示部202に表示される。画像切り出し・デワープ部203は全体画像について射影変換による歪みの補正(デワープ)を行うとともに、全体画像の部分切り出しを行って、当該部分画像をメイン画像としてメイン画像表示部201に表示する。 The viewer terminal 2 has a main image display unit 201, a whole image display unit 202, an image cutout/dewarp unit 203, an image decompression unit 204, an operation input unit 205, an operation command generation/interpretation unit 206, and a communication unit 207. There is. When the communication unit 207 receives the compressed whole image, the image expansion unit 204 expands the compressed whole image. Then, the whole image is displayed on the whole image display unit 202. The image cutout/dewarp unit 203 performs distortion correction (dewarp) by projective transformation on the entire image, performs partial cutout of the entire image, and displays the partial image as a main image on the main image display unit 201.
操作入力部205はフォーカスおよび絞り、切り出し部分に関するユーザー操作入力を受け付ける。操作コマンド生成・解釈部206ユーザー操作入力をカメラ制御パラメータとして、ネットワーク配信可能なコマンドに変換して通信部207を介して撮像装置1に送信する。 The operation input unit 205 receives user operation inputs regarding the focus, aperture, and cutout portion. The operation command generation/interpretation unit 206 uses the user operation input as a camera control parameter, converts it into a network distributable command, and transmits it to the imaging device 1 via the communication unit 207.
図2は、図1に示す撮像装置の外観を示す図である。 FIG. 2 is a diagram showing an appearance of the image pickup apparatus shown in FIG.
図2において、下側の図は真下から撮像装置を見上げた状態を示す図であり、上側の図は水平よりもやや下側から撮像装置を見上げた状態を示す図である。 In FIG. 2, the lower diagram is a diagram showing a state of looking up the image pickup device from directly below, and the upper diagram is a diagram showing a state of looking up the image pickup device from slightly below the horizontal.
レンズ112〜172はそれぞれ第1〜第7撮像部110〜170に備えられている。レンズ112〜172は互いの視点が略一致しており、これらレンズ112〜172によってパン方向に360度、チルト方向に180度の画角を隙間なくカバーする。 The lenses 112 to 172 are provided in the first to seventh image pickup units 110 to 170, respectively. The viewpoints of the lenses 112 to 172 are substantially the same, and the lenses 112 to 172 cover an angle of view of 360 degrees in the pan direction and 180 degrees in the tilt direction without a gap.
図3は、図1に示す第1〜第7の撮像部で得られた撮影画像の一例を示す図である。また、図4は第1〜第7の撮影画像を合成して得られた全体画像の一例を示す図である。 FIG. 3 is a diagram showing an example of captured images obtained by the first to seventh image capturing units shown in FIG. FIG. 4 is a diagram showing an example of the entire image obtained by combining the first to seventh photographed images.
いま、第1〜第7の撮影画像301〜307が第1〜第7の撮像部110〜170で得られたとする。画像合成部102は、第1〜第7の撮影画像301〜307をレンズの画角、視線方向、およびあおり角度に応じて合成する。これによって、図4に示す全体画像が得られる。 Now, it is assumed that the first to seventh captured images 301 to 307 are obtained by the first to seventh image capturing units 110 to 170. The image combining unit 102 combines the first to seventh captured images 301 to 307 according to the angle of view of the lens, the line-of-sight direction, and the tilt angle. As a result, the entire image shown in FIG. 4 is obtained.
図4に示す例では、全体画像は所謂全周魚眼レンズで撮影を行って得た画像と同様に円形の平面画像になる。なお、全体画像を第1〜第7の撮像部110〜170において略一致した視点を中心とする球体に射影した立体画像としてもよい。さらには、全体画像を、パン方向を横軸とし、チルト方向を縦軸とする矩形のパノラマ画像としてもよい。 In the example shown in FIG. 4, the entire image is a circular planar image similar to the image obtained by shooting with a so-called all-round fisheye lens. Note that the entire image may be a stereoscopic image projected on a sphere centered on substantially matching viewpoints in the first to seventh imaging units 110 to 170. Further, the entire image may be a rectangular panoramic image having the pan direction as the horizontal axis and the tilt direction as the vertical axis.
上記の全体画像は、レンズの絞りを絞りこんで画面全域にフォーカスが合った状態、つまり、パンフォーカスで撮影された画像によっても得ることができるが、絞りを開いた場合には上記のような全体画像は得られない。 The whole image above can be obtained by narrowing down the aperture of the lens and focusing on the entire screen, that is, an image taken with pan focus, but when the aperture is opened The whole image cannot be obtained.
図5は従来の複眼撮像装置によるフォーカス面と被写界深度とを説明するための図である。また、図6は、図1に示す複眼撮像装置によるフォーカス面と被写界深度とを説明するための図である。 FIG. 5 is a diagram for explaining the focus plane and the depth of field by the conventional compound-eye imaging device. Further, FIG. 6 is a diagram for explaining the focus plane and the depth of field by the compound-eye imaging device shown in FIG.
図5および図6を参照して、視野210〜230、フォーカス面211〜231、および被写界深度212〜232はそれぞれ撮像部110〜130の視野、フォーカス面、および被写界深度を示す。ここで、フォーカス面と被写界深度との傾きは撮像面113のあおり角度に依存し、フォーカス面の位置はフォーカス値に依存する。そして、被写界深度の幅は絞り値に依存する。 5 and 6, fields of view 210 to 230, focus planes 211 to 231, and depths of field 212 to 232 indicate the fields of view, focus planes, and depth of field of the imaging units 110 to 130, respectively. Here, the inclination between the focus surface and the depth of field depends on the tilt angle of the imaging surface 113, and the position of the focus surface depends on the focus value. The width of the depth of field depends on the aperture value.
ここでは、視野210〜230は簡略化のため、第1〜第7の撮像部110〜1130において重複部分を除いた視野を示しており、実際には撮像部110〜130で得られた撮影画像にはより広い範囲が写ることになる。図5においては撮像部110〜130のフォーカス面および被写界深度が互いに一致しない。一方、図6においては撮像部110〜130のフォーカス面および被写界深度が互いに一致する。なお、従来の複眼撮像装置においては、図1に示すあおり制御部114は備えられていない。 Here, for the sake of simplification, the visual fields 210 to 230 are the visual fields excluding the overlapping portions in the first to seventh image capturing units 110 to 1130, and actually the captured images obtained by the image capturing units 110 to 130. Will show a wider range. In FIG. 5, the focus plane and the depth of field of the image capturing units 110 to 130 do not match each other. On the other hand, in FIG. 6, the focus planes and the depth of field of the image capturing units 110 to 130 match each other. The conventional compound-eye imaging device does not include the tilt control unit 114 shown in FIG. 1.
図7は、従来の複眼撮像装置および図1に示す複眼撮像装置において絞りを開放にした際に撮像部の1つで得られた撮影画像を示す図である。また、図8は、従来の複眼撮像装置および図1に示す複眼撮像装置において絞りを開放にした際に得られた全体画像を示す図である。なお、ここでは、撮像部の1つは、例えば、第2の差像部120である。 FIG. 7 is a diagram showing a captured image obtained by one of the image capturing units when the diaphragm is opened in the conventional compound eye image capturing apparatus and the compound eye image capturing apparatus shown in FIG. FIG. 8 is a diagram showing an entire image obtained when the diaphragm is opened in the conventional compound-eye imaging device and the compound-eye imaging device shown in FIG. Note that, here, one of the imaging units is, for example, the second difference image unit 120.
図7において、左側に示す画像は従来の複眼撮像装置で得られた撮影画像を示し、右側に示す画像は図1に示す複眼撮像装置で得られた画像を示す。左側に示す撮影画像では、一番奥に位置する人物にフォーカスが合っており、手前の2人については被写界深度から外れているためフォーカスが合っていない。一方、右側に示す撮影画像では、全ての人物について胴体にはフォーカスが合っていないものの、頭部にフォーカスが合った状態になる。なお、下向きの第1の撮像部110(図2参照)で得られた撮影画像については、従来複眼の撮像装置においても頭部にフォーカスが合った状態となる。 In FIG. 7, the image shown on the left side is a photographed image obtained by the conventional compound eye imaging device, and the image on the right side is the image obtained by the compound eye imaging device shown in FIG. In the photographed image shown on the left side, the person located at the innermost position is in focus, and the two people in the foreground are out of the depth of field and therefore out of focus. On the other hand, in the photographed image shown on the right side, the body is not in focus for all persons, but the head is in focus. Regarding the captured image obtained by the downward first imaging unit 110 (see FIG. 2 ), the head is in focus even in the conventional compound-eye imaging device.
図8において、上側に示す全体画像401でおいては、同一の身長の人物であっても、人物の位置によって全身がぼやけるか又は全身にフォーカスが合った状態となる。さらには、身体の一部にのみフォーカスが合った状態となって他の部分がぼやけた状態となる。一方、下側に示す全体画像402においては、同一の身長の人物であれば、人物の位置に拘わらず頭部にフォーカスが合った状態になる。 In the entire image 401 shown on the upper side in FIG. 8, even if a person has the same height, the whole body is blurred or the whole body is in focus depending on the position of the person. Furthermore, only one part of the body is in focus, and the other part is blurred. On the other hand, in the whole image 402 shown on the lower side, if the person has the same height, the head is in focus regardless of the position of the person.
この結果、顔認証などの用途に用いる場合には、全体画像402の方が安定的に顔認証などを行うことができる。さらに、全体画像401においては、人物が撮影画像の繋ぎ目付近に位置する場合には、撮影画像の間でフォーカスずれが生じて不自然な画像となる。一方、全体画像402においては、人物が撮影画像の繋ぎ目付近に位置したとしても不自然な画像とはならない。 As a result, when used for applications such as face authentication, the whole image 402 can perform face authentication more stably. Further, in the whole image 401, when a person is located near the joint between the photographed images, a defocus occurs between the photographed images, resulting in an unnatural image. On the other hand, in the whole image 402, even if a person is located near the joint between the photographed images, it does not become an unnatural image.
図9は、図1に示す複眼撮像装置においてフォーカス面、レンズ面、および撮像面の位置関係を説明するシャインプルーフの原理を示す図である。 FIG. 9 is a diagram showing the principle of Scheimpflug for explaining the positional relationship among the focus surface, the lens surface, and the image pickup surface in the compound-eye image pickup apparatus shown in FIG.
図9において左側の図に示すように、レンズ面(Lens Plane)および撮像面(Image Plane)が平行である場合には、フォーカス面(Subject Plane)もこれらと平行となる。ここで、撮像面のあおり角度を調整して、撮像面がレンズ面と平行でない状態とする。この場合、図9において右側の図に示すように、フォーカス面は必ずレンズ面と撮像面との交点(Scheimpluflug Intersection)と交わる。これがシャインプルーフの原理である。なお、フォーカス面の傾きはレンズ面と撮像面との距離に応じて変化する。 As shown in the diagram on the left side in FIG. 9, when the lens surface (Lens Plane) and the imaging surface (Image Plane) are parallel, the focus surface (Subject Plane) is also parallel to these. Here, the tilt angle of the imaging surface is adjusted so that the imaging surface is not parallel to the lens surface. In this case, as shown in the diagram on the right side in FIG. 9, the focus surface always intersects with the intersection (Scheimpflug Intersection) between the lens surface and the imaging surface. This is the principle of Scheimpflug. The tilt of the focus surface changes according to the distance between the lens surface and the imaging surface.
図10は、図1に示す複眼撮像装置において大人よりも背が低い子供の頭部にフォーカス面を合わせた場合のフォーカス面および被写界深度を説明するための図である。 FIG. 10 is a diagram for explaining the focus surface and the depth of field when the focus surface is adjusted to the head of a child shorter than an adult in the compound-eye imaging apparatus shown in FIG.
第1〜第7の撮像部110〜130のフォーカス面211〜231および被写界深度212〜232は、フォーカス制御によってレンズ面と撮像面の距離を変化させることによって図6に示す状態よりも下に移動する。フォーカス面211〜231および被写界深度212〜232が下側に移動しても、図6に示す状態と同様に互いに一致している。単純にフォーカス制御を行うのみでは、フォーカス面211〜231および被写界深度212〜232を互いに一致させることはできない。このため、あおり角度および絞りをフォーカス制御に連動して調整する。これによって、子供の位置に拘わらず子供の頭部にフォーカスが合った状態となって、子供の顔認証を安定的に行うことができる。 The focus surfaces 211 to 231 and the depths of field 212 to 232 of the first to seventh imaging units 110 to 130 are lower than those shown in FIG. 6 by changing the distance between the lens surface and the imaging surface by focus control. Move to. Even if the focus planes 211 to 231 and the depths of field 212 to 232 are moved downward, they match each other as in the state shown in FIG. The focus planes 211 to 231 and the depths of field 212 to 232 cannot be matched with each other simply by performing focus control. Therefore, the tilt angle and the diaphragm are adjusted in conjunction with the focus control. As a result, the head of the child is in focus regardless of the position of the child, and the face authentication of the child can be stably performed.
図11は、図1に示す撮像装置の制御(カメラ制御)を説明するためのフローチャートである。ここでは、ユーザーがビューワー端末2において撮像装置1のフォーカス操作を行った際の撮像装置における処理について説明する。 FIG. 11 is a flowchart for explaining control of the image pickup apparatus shown in FIG. 1 (camera control). Here, a process in the imaging device when the user performs the focus operation of the imaging device 1 on the viewer terminal 2 will be described.
いま、ユーザーがビューワー端末2において操作入力部205によって第1の撮像部110のフォーカス制御を要求したとする。当該フォーカス制御要求に応じて、操作コマンド生成・解釈部206はフォーカス制御コマンドを生成する。そして、操作コマンド生成・解釈部206は通信部207によって当該フォーカス制御コマンドをネットワーク3を介して撮像装置2に送信する。 Now, it is assumed that the user requests the focus control of the first imaging unit 110 by the operation input unit 205 in the viewer terminal 2. In response to the focus control request, the operation command generation/interpretation unit 206 generates a focus control command. Then, the operation command generation/interpretation unit 206 transmits the focus control command to the imaging device 2 via the network 3 by the communication unit 207.
撮像装置1は通信部104によってフォーカス制御コマンドを受信する。制御パラメータ算出部101は第1の撮像部110を制御した後のフォーカス面および被写界深度に応じて、第2および第3の撮像部120および130のフォーカス値、絞り値、およびあおり角度を算出する(ステップS101)。ここでは、算出に用いられる計算式については省略するが、シャインプルーフの原理を用いて、第2および第3の撮像部120および130のレンズの画角および視線方向など撮像部の特性に基づいて算出が行われる。なお、第2および第3の撮像部120および130は第1の撮像部110に隣接する撮像部である。 The imaging apparatus 1 receives the focus control command via the communication unit 104. The control parameter calculation unit 101 determines the focus value, aperture value, and tilt angle of the second and third image capturing units 120 and 130 according to the focus surface and the depth of field after controlling the first image capturing unit 110. Calculate (step S101). Although the calculation formula used for the calculation is omitted here, the Scheimpflug principle is used to determine the characteristics of the imaging unit such as the angle of view and the line-of-sight direction of the lenses of the second and third imaging units 120 and 130. Calculation is performed. The second and third image capturing units 120 and 130 are image capturing units adjacent to the first image capturing unit 110.
次に、第2および第3の撮像部120および130において、レンズ制御部111はステップS101で算出されたフォーカス値および絞り値に基づいてレンズ112のフォーカスおよび絞りを制御する(ステップS102)。そして、第2および第3の撮像部120および130において、あおり制御部114はステップS101で算出されたあおり角度に基づいて撮像面のあおり角度を制御する(ステップS103)。その後、撮像装置1はカメラ制御を終了する。 Next, in the second and third imaging units 120 and 130, the lens control unit 111 controls the focus and aperture of the lens 112 based on the focus value and aperture value calculated in step S101 (step S102). Then, in the second and third image pickup units 120 and 130, the tilt control unit 114 controls the tilt angle of the imaging surface based on the tilt angle calculated in step S101 (step S103). Then, the imaging device 1 ends the camera control.
このように、本発明の第1の実施形態では、第1の撮像部110の制御結果に応じて他の撮像部においてフォーカスおよび絞りを制御するとともに、撮像面のあおり角度を制御する。この結果、全体画像においては繋ぎ目部分においてフォーカスずれが生じることなく、画角が広い高解像度の全体画像を得ることができる。さらには、被写界深度が浅い大口径のレンズを用いても暗視性能および解像度を高めることが可能となる。 As described above, in the first embodiment of the present invention, the focus and diaphragm are controlled in the other image capturing units according to the control result of the first image capturing unit 110, and the tilt angle of the image capturing surface is controlled. As a result, it is possible to obtain a high-resolution whole image having a wide angle of view without causing a focus shift in the joint portion in the whole image. Furthermore, it is possible to improve night-vision performance and resolution even when using a large-diameter lens with a shallow depth of field.
[第2の実施形態]
続いて、本発明の第2の実施形態による撮像装置の一例について説明する。
[Second Embodiment]
Next, an example of the image pickup apparatus according to the second embodiment of the present invention will be described.
図12は、本発明の第2の実施形態による撮像装置の一例をビューワー端末とともに示すブロック図である。 FIG. 12: is a block diagram which shows an example of the imaging device by the 2nd Embodiment of this invention with a viewer terminal.
図示の撮像装置およびビューワー端末について図1に示す例と同一の構成要素については同一の参照番号を付す。また、ここでは、第1〜第7の撮像部110〜170の各々には、あおり制御部114が備えられておらず、他の構成は図1に示す例と同様である。 The same components as those in the example shown in FIG. 1 in the illustrated image pickup apparatus and viewer terminal are designated by the same reference numerals. Further, here, each of the first to seventh imaging units 110 to 170 is not provided with the tilt control unit 114, and the other configurations are the same as those in the example shown in FIG. 1.
このため、撮像面113のあおり角度は組み立ての際に固定されるか又は出荷後の設置の際に手動で調整される。よって、撮像装置を設置した後、ビューワー端末のコマンドによってあおり角度の調整を行うことはできない。 Therefore, the tilt angle of the imaging surface 113 is fixed at the time of assembly or manually adjusted at the time of installation after shipping. Therefore, the tilt angle cannot be adjusted by the command of the viewer terminal after the image pickup apparatus is installed.
図13は、図12に示す複眼撮像装置のフォーカス面と被写界深度を説明するための図である。 FIG. 13 is a diagram for explaining the focus plane and the depth of field of the compound-eye imaging device shown in FIG.
いま、前述の図10で説明したように、第1〜第7の撮像部110〜170は子供の頭部にフォーカスが合うように設置された状態であるとする。この状態で、ビューワー端末2から大人の頭部にフォーカスが合うようにフォーカス操作を行うと、図13に示すようにフォーカス面と被写界深度とが変化する。 Now, as described above with reference to FIG. 10, it is assumed that the first to seventh imaging units 110 to 170 are installed so as to be focused on the head of the child. In this state, when the focus operation is performed from the viewer terminal 2 so that the adult's head is in focus, the focus surface and the depth of field change as shown in FIG.
図13に示す状態では、図6に示す大人の頭部にフォーカスが合った状態と異なり、第1の撮像部110のフォーカス面211と第2および第3の撮像部120および130のフォーカス面221および231とは一致しない。つまり、撮像装置の設置後においては撮像面のあおり角度の調整が行えない結果、全体画像の繋ぎ目部分においてフォーカス位置および被写界深度のみが一致する。 In the state shown in FIG. 13, unlike the state in which the adult head shown in FIG. 6 is in focus, the focus surface 211 of the first imaging unit 110 and the focus surfaces 221 of the second and third imaging units 120 and 130. And 231 do not match. That is, as the tilt angle of the image pickup surface cannot be adjusted after the image pickup apparatus is installed, only the focus position and the depth of field match at the joint portion of the entire image.
このため、第2の実施形態では、第1の実施形態と異なって、同一の身長の人物であっても、人物が撮像装置から離れるほど頭部にフォーカス(焦点)が合わない状態になる。一方、第2の実施形態による撮像装置では、従来の複眼撮像装置とは異なって、人物が撮影画像の繋ぎ目付近に位置する場合であっても、撮影画像間においてフォーカスずれは生じることがなく、不自然な画像とはならない。 Therefore, in the second embodiment, unlike the first embodiment, even a person of the same height is in a state in which the head is not focused as the person moves away from the imaging device. On the other hand, in the image pickup apparatus according to the second embodiment, unlike the conventional compound-eye image pickup apparatus, even when the person is located near the joint between the picked-up images, no focus shift occurs between the picked-up images. , It does not look unnatural.
図14は、本発明の第2の実施形態による撮像装置の制御(カメラ制御)を説明するためのフローチャートである。 FIG. 14 is a flowchart for explaining control of the image pickup apparatus (camera control) according to the second embodiment of the present invention.
いま、ユーザーがビューワー端末2において操作入力部205によって第1の撮像部110のフォーカス制御を要求したとする。当該フォーカス制御要求に応じて、操作コマンド生成・解釈部206はフォーカス制御コマンドを生成する。そして、操作コマンド生成・解釈部206は通信部207によって当該フォーカス制御コマンドをネットワーク3を介して撮像装置2に送信する。 Now, it is assumed that the user requests the focus control of the first imaging unit 110 by the operation input unit 205 in the viewer terminal 2. In response to the focus control request, the operation command generation/interpretation unit 206 generates a focus control command. Then, the operation command generation/interpretation unit 206 transmits the focus control command to the imaging device 2 via the network 3 by the communication unit 207.
撮像装置1は通信部104によってフォーカス制御コマンドを受信する。制御パラメータ算出部101は第1の撮像部110を制御した後のフォーカス面および被写界深度に応じて、第2および第3の撮像部120および130のフォーカス値および絞り値を算出する(ステップS201)。 The imaging apparatus 1 receives the focus control command via the communication unit 104. The control parameter calculation unit 101 calculates the focus value and aperture value of the second and third image capturing units 120 and 130 according to the focus surface and the depth of field after controlling the first image capturing unit 110 (step). S201).
次に、第2および第3の撮像部120および130において、レンズ制御部111はステップS201で算出されたフォーカス値および絞り値に基づいてレンズ112のフォーカスおよび絞りを制御する(ステップS202)。その後、撮像装置1はカメラ制御を終了する。 Next, in the second and third imaging units 120 and 130, the lens control unit 111 controls the focus and aperture of the lens 112 based on the focus value and aperture value calculated in step S201 (step S202). Then, the imaging device 1 ends the camera control.
このように、本発明の第2の実施形態では、第1の撮像部110の制御結果に応じて他の撮像部120〜170においてフォーカスおよび絞りを制御する。これによって、全体画像においては繋ぎ目部分においてフォーカスずれが生じることなく、画角が広い高解像度の全体画像を得ることができる。さらには、被写界深度が浅い大口径のレンズを用いても暗視性能および解像度を高めることが可能となる。 As described above, in the second embodiment of the present invention, the focus and the diaphragm are controlled in the other image capturing units 120 to 170 according to the control result of the first image capturing unit 110. As a result, it is possible to obtain a high-resolution whole image with a wide angle of view without causing a focus shift in the joint portion in the whole image. Furthermore, it is possible to improve night-vision performance and resolution even when using a large-diameter lens with a shallow depth of field.
[第3の実施形態]
続いて、本発明の第3の実施形態による撮像装置の一例について説明する。
[Third Embodiment]
Next, an example of the image pickup apparatus according to the third embodiment of the present invention will be described.
図15は、本発明の第3の実施形態による撮像装置の一例をビューワー端末とともに示すブロック図である。 FIG. 15: is a block diagram which shows an example of the imaging device by the 3rd Embodiment of this invention with a viewer terminal.
図示の撮像装置およびビューワー端末について図1に示す例と同一の構成要素については同一の参照番号を付す。図示の撮像装置1においては第1〜第3の撮像部110〜130が備えてられている。さらに、撮像装置1は画像切り出し部105を有している。また、ビューワー端末2には画像切り出し・デワープ処理部203が備えられていない。つまり、図示の例では、撮像装置1に備えられた画像切り出し部105が全体画像から部分画像を切り出して切り出し画像を得る。このため、撮像装置1は、ビューワー端末に全体画像および切り出し画像の少なくとも1つを配信することになる。 The same components as those in the example shown in FIG. 1 in the illustrated image pickup apparatus and viewer terminal are designated by the same reference numerals. The illustrated image pickup apparatus 1 includes first to third image pickup units 110 to 130. Further, the image pickup apparatus 1 has an image cutout unit 105. Further, the viewer terminal 2 is not provided with the image cutout/dewarp processing unit 203. That is, in the illustrated example, the image cutout unit 105 included in the image pickup apparatus 1 cuts out a partial image from the entire image to obtain a cutout image. Therefore, the image pickup apparatus 1 delivers at least one of the whole image and the cutout image to the viewer terminal.
図16は、図15に示す撮像装置の外観を示す図である。 FIG. 16 is a diagram showing an appearance of the image pickup apparatus shown in FIG.
図2は、図1に示す撮像装置の外観を示す図である。 FIG. 2 is a diagram showing an appearance of the image pickup apparatus shown in FIG.
図2において、下側の図は真下から撮像装置を見上げた状態を示す図であり、上側の図は水平よりもやや下側から撮像装置を見上げた状態を示す図である。 In FIG. 2, the lower diagram is a diagram showing a state of looking up the image pickup device from directly below, and the upper diagram is a diagram showing a state of looking up the image pickup device from slightly below the horizontal.
レンズ112〜132はそれぞれ第1〜第3撮像部110〜130に備えられている。レンズ112〜132は互いの視点が略一致しており、これらレンズ112〜132によってパン方向に180度の画角を隙間なくカバーするように撮像装置1が配置されている。 The lenses 112 to 132 are provided in the first to third image pickup units 110 to 130, respectively. The viewpoints of the lenses 112 to 132 are substantially coincident with each other, and the imaging device 1 is arranged so that the lenses 112 to 132 cover a field angle of 180 degrees in the pan direction without a gap.
図17は、図15に示す複眼撮像装置によるフォーカス面および被写界深度の一例を示す図である。また、図18は、図17に示す状態で得られた撮影画像および全体画像の一例を示す図である。なお、図18においては、説明の便宜上、2つの撮像部で得られた撮影画像が示されている。 FIG. 17 is a diagram showing an example of the focus plane and the depth of field by the compound-eye imaging device shown in FIG. Further, FIG. 18 is a diagram showing an example of a photographed image and an entire image obtained in the state shown in FIG. Note that in FIG. 18, for convenience of description, captured images obtained by the two image capturing units are shown.
図17において、視野210、フォーカス面211、および被写界深度212は第1および撮像部110における視野、フォーカス面、および被写界深度を示す。また、視野220、フォーカス面221、および被写界深度222は第2の撮像部120の視野、フォーカス面、および被写界深度を示す。フォーカス面と被写界深度との傾きは撮像面113のあおり角度に依存する。また、フォーカス面の位置はフォーカス値に依存し、被写界深度の幅は絞り値に依存する。 In FIG. 17, the field of view 210, the focus surface 211, and the depth of field 212 indicate the field of view, the focus surface, and the depth of field in the first and imaging units 110. The field of view 220, the focus surface 221, and the depth of field 222 indicate the field of view, the focus surface, and the depth of field of the second imaging unit 120. The tilt between the focus plane and the depth of field depends on the tilt angle of the imaging plane 113. Further, the position of the focus surface depends on the focus value, and the width of the depth of field depends on the aperture value.
ビューワー端末2において全体画像表示部202に所定の大きさ以上の全体画像が表示されている場合には、フォーカス面と被写界深度とは図17に示す状態となる。この場合には、第1および第2の撮像部110および120のフォーカス面および被写界深度は互いに一致する。 When the entire image display unit 202 of the viewer terminal 2 displays an entire image of a predetermined size or more, the focus plane and the depth of field are in the state shown in FIG. In this case, the focus planes and depths of field of the first and second imaging units 110 and 120 match each other.
第1の撮像部110で得られた撮影画像1810と第2の撮像部120で得られた撮影画像1820は大人の頭部にフォーカスが合った状態となって、子供および大人の胴体部分にはフォーカスが合わない状態になる。撮影画像1810と撮影画像1820とを合成した全体画像1830においはフォーカスずれが生じない自然な画像となる。 The photographed image 1810 obtained by the first image pickup unit 110 and the photographed image 1820 obtained by the second image pickup unit 120 are in focus on the head of an adult, and the torso portion of the child and the adult The focus is out of focus. The entire image 1830 obtained by combining the captured image 1810 and the captured image 1820 is a natural image in which no focus shift occurs.
図19は、図15に示す複眼撮像装置によるフォーカス面および被写界深度の他の例を示す図である。また、図20は、図19に示す状態で得られた撮影画像、全体画像、および切り出し画像の一例を示す図である。 FIG. 19 is a diagram showing another example of the focus plane and the depth of field by the compound-eye imaging device shown in FIG. 20 is a diagram showing an example of the photographed image, the entire image, and the cut-out image obtained in the state shown in FIG.
いま、ユーザーが操作入力部205を用いて全体画像を所定の大きさ未満の表示にするか又は非表示として、かつ繋ぎ目部分を含まない撮影画像の一部を切り出して切り出し画像としてメイン画像表示部201に表示したとする。この場合、フォーカス面と被写界深度とは図19に示す状態となる。視野213は画像切り出し部105によって全体画像又は撮影画像からその一部を切り出した切り出し画像(部分画像)1812の視野である。 Now, the user uses the operation input unit 205 to display or hide the entire image smaller than a predetermined size, and cuts out a part of the captured image that does not include the joint part and displays the main image as a cutout image. Suppose that it is displayed on the part 201. In this case, the focus surface and the depth of field are in the state shown in FIG. The field of view 213 is a field of view of a cutout image (partial image) 1812 obtained by cutting out a part of the entire image or the captured image by the image cutout unit 105.
部分画像1812の視野は撮影画像1810のうち子供の全身を含む範囲1811であるので、ここでは、子供の全身にフォーカスが合うように第1の撮像部110におけるフォーカス面211と被写界深度212とが垂直方向に変化する。この際、切り出し対象ではない撮影画像1820を得た第2の撮像部120におけるフォーカス面221および被写界深度222は変化しない。よって、第1および第2の撮像部110および120におけるフォーカス面および被写界深度は一致しなくなって、全体画像1830にはフォーカスずれが生じて不自然な画像となる。一方、ここでは、全体画像を所定の大きさ未満で表示しているのでユーザーには不自然さが目立たなくなる。ここでは、所定の大きさとは画像の不自然さが目立つ境界の大きさ(閾値)をいう。 Since the field of view of the partial image 1812 is the range 1811 that includes the entire body of the child in the captured image 1810, here, the focus plane 211 and the depth of field 212 in the first imaging unit 110 are focused so that the entire body of the child is in focus. And change vertically. At this time, the focus surface 221 and the depth of field 222 in the second image capturing unit 120, which has obtained the captured image 1820 that is not the extraction target, does not change. Therefore, the focus plane and the depth of field in the first and second image capturing units 110 and 120 do not match, and the entire image 1830 is out of focus and becomes an unnatural image. On the other hand, here, since the entire image is displayed in a size smaller than the predetermined size, the unnaturalness is not noticeable to the user. Here, the predetermined size refers to the size (threshold) of the boundary where the unnaturalness of the image is noticeable.
なお、全体画像を所定の大きさ以上で表示し、かつ繋ぎ目部分を含まない撮影画像の一部を切り出してメイン画像表示部201に表示した際には、全体画像は不自然となるが、部分画像をメイン画像表示部201に表示しているので問題はない。 When the entire image is displayed in a predetermined size or more and a part of the captured image that does not include the joint portion is cut out and displayed on the main image display unit 201, the entire image looks unnatural, Since the partial image is displayed on the main image display unit 201, there is no problem.
図21は、本発明の第3の実施形態による撮像装置の制御(カメラ制御)を説明するためのフローチャートである。ここでは、ビューワー端末2において第1の撮像部110のフォーカス操作、全体画像の表示/非表示、全体画像の大きさの変更、部分画像の表示/非表示、および切り出し範囲の変更の少なくとも1つが行われてものとする。当該操作が行われると、操作コマンド生成・解釈部206は通信部207によって操作コマンドをネットワーク3を介して撮像装置1に送信する。 FIG. 21 is a flow chart for explaining the control (camera control) of the image pickup apparatus according to the third embodiment of the present invention. Here, at least one of the focus operation of the first imaging unit 110, the display/non-display of the whole image, the change of the size of the whole image, the display/non-display of the partial image, and the change of the cutout range are performed in the viewer terminal 2. Shall be done. When the operation is performed, the operation command generation/interpretation unit 206 transmits the operation command to the imaging device 1 via the network 3 by the communication unit 207.
撮像装置1は通信部104によって操作コマンドを受信する。制御パラメータ算出部101は操作コマンドにおいて全体画像が所定の大きさ以上であるか否かを判定する(ステップS301)。全体画像が所定の大きさ以上であると(ステップS301において、YES)、制御パラメータ算出部101は部分画像が繋ぎ目を含むか否かを判定する(ステップS302)。 The imaging device 1 receives the operation command via the communication unit 104. The control parameter calculation unit 101 determines whether or not the entire image is larger than a predetermined size in the operation command (step S301). If the entire image is equal to or larger than the predetermined size (YES in step S301), control parameter calculation unit 101 determines whether the partial image includes a joint (step S302).
部分画像が繋ぎ目を含む場合には(ステップS302において、YES)、制御パラメータ算出部101は第1の撮像部110を制御した後のフォーカス面および被写界深度を得る。そして、制御ブラメーター算出部101は、当該フォーカス面および被写界深度を得る。第2および第3の撮像部120および130のフォーカス値、絞り値、およびあおり角度を算出する(ステップS303)。ここでは、制御パラメータ算出部101はシャインプルーフの原理を用いて、第2および第3の撮像部120〜130のレンズの画角および視線方向など撮像部の特性に基づいてフォーカス値、絞り値、およびあおり角度を算出する。 When the partial image includes a joint (YES in step S302), control parameter calculation unit 101 obtains the focus plane and the depth of field after controlling first imaging unit 110. Then, the control parameter calculation unit 101 obtains the focus plane and the depth of field. The focus value, aperture value, and tilt angle of the second and third image capturing units 120 and 130 are calculated (step S303). Here, the control parameter calculation unit 101 uses the Scheimpflug principle, based on the characteristics of the imaging unit such as the angle of view and the line-of-sight direction of the lenses of the second and third imaging units 120 to 130. And the tilt angle is calculated.
次に、第2および第3の撮像部120および130において、レンズ制御部111はステップS303で算出されたフォーカス値および絞り値に基づいてレンズ112のフォーカスおよび絞りを制御する(ステップS304)。そして、第2および第3の撮像部120および130において、あおり制御部114はステップS303で算出されたあおり角度に基づいて撮像面のあおり角度を制御する(ステップS305)。その後、撮像装置1はカメラ制御を終了する。 Next, in the second and third imaging units 120 and 130, the lens control unit 111 controls the focus and aperture of the lens 112 based on the focus value and aperture value calculated in step S303 (step S304). Then, in the second and third imaging units 120 and 130, the tilt control unit 114 controls the tilt angle of the imaging surface based on the tilt angle calculated in step S303 (step S305). Then, the imaging device 1 ends the camera control.
全体画像が所定の大きさ未満であると(ステップS301において、NO)、制御パラメータ算出部101は部分画像に対応する撮像部のフォーカス値、絞り値、およびあおり角度を算出する(ステップS306)。そして、処理はステップS304に進み、部分画像に対応する撮像部において、レンズ制御部111はステップS306で求めたフォーカス値および絞り値に基づいてレンズ112のフォーカスおよび絞りを制御する。続いて、処理はステップS305に進み、部分画像に対応する撮像部において、あおり制御部114はステップS306で求めたあおり角度に基づいて撮像面のあおり角度を制御する。 If the entire image is smaller than the predetermined size (NO in step S301), control parameter calculation unit 101 calculates the focus value, aperture value, and tilt angle of the imaging unit corresponding to the partial image (step S306). Then, the process proceeds to step S304, and in the imaging unit corresponding to the partial image, the lens control unit 111 controls the focus and the aperture of the lens 112 based on the focus value and the aperture value obtained in step S306. Subsequently, the process proceeds to step S305, and the tilt control unit 114 controls the tilt angle of the imaging surface based on the tilt angle obtained in step S306 in the imaging unit corresponding to the partial image.
なお、部分画像が繋ぎ目を含まないと(ステップS302において、NO)、制御パラメータ算出部101はステップS306の処理に進む。 If the partial image does not include a joint (NO in step S302), the control parameter calculation unit 101 proceeds to the process of step S306.
このように、本発明の第3の実施形態では、全体画像が所定の大きさ以上であり、かつ部分画像が繋ぎ目を含むと第1の撮像部110の制御結果に応じて他の撮像部においてフォーカス、絞り、およびあおり角度を制御する。また、全体画像が所定の大きさ未満であるか又は部分画像が繋ぎ目を含まないと部分画像に対応する撮像部においてフォーカス、絞り、およびあおり角度を制御する。この結果、全体画像においては繋ぎ目部分においてフォーカスずれが生じることなく、画角が広い高解像度の全体画像を得ることができる。さらには、被写界深度が浅い大口径のレンズを用いても暗視性能および解像度を高めることが可能となる。 As described above, in the third embodiment of the present invention, when the entire image is larger than or equal to a predetermined size and the partial image includes a joint, another image capturing unit is operated according to the control result of the first image capturing unit 110. Controls the focus, aperture, and tilt angle at. If the entire image is smaller than a predetermined size or if the partial image does not include a joint, the focus, diaphragm, and tilt angle are controlled in the imaging unit corresponding to the partial image. As a result, it is possible to obtain a high-resolution whole image with a wide angle of view without defocusing at the joint portion in the whole image. Furthermore, it is possible to enhance night-vision performance and resolution even when using a large-diameter lens with a shallow depth of field.
上述の説明から明らかなように、図1に示す例では、制御パラメータ算出部101およびレンズ制御部111が第1の制御手段として機能し、制御パラメータ算出部101およびあおり制御部114が第2の制御手段として機能する。 As is clear from the above description, in the example shown in FIG. 1, the control parameter calculation unit 101 and the lens control unit 111 function as the first control unit, and the control parameter calculation unit 101 and the tilt control unit 114 are the second control unit. It functions as a control means.
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described above based on the embodiments, the present invention is not limited to these embodiments, and various embodiments within the scope not departing from the gist of the present invention are also included in the present invention. ..
例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the functions of the above-described embodiments may be used as a control method, and the imaging apparatus may be caused to execute this control method. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging device. The control program is recorded in, for example, a computer-readable recording medium.
[その他の実施形態]
上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも本発明は実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
A program that implements one or more functions of the above-described embodiments is supplied to a system or device via a network or a storage medium. The present invention can also be implemented by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1 撮像装置
101 制御パラメータ算出部
102 画像合成部
103 画像圧縮部
104 通信部
110〜170 撮像部
111 レンズ制御部
112 レンズ
113 撮像面
114 あおり制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 101 Control parameter calculation part 102 Image composition part 103 Image compression part 104 Communication part 110-170 Imaging part 111 Lens control part 112 Lens 113 Imaging surface 114 A tilt control part
Claims (10)
前記複数の撮像部はその視点が互いに略一致するように配置されており、
前記複数の撮像部におけるフォーカスを制御する第1の制御手段と、
前記撮像素子について前記撮像部の光軸に対する傾きであるあおり角度を制御する第2の制御手段とを有し、
前記第1の制御手段によって前記複数の撮像部の少なくとも1つにおいてフォーカス制御が行われると、前記第2の制御手段は、前記フォーカス制御が行われた撮像部のフォーカス面に応じて、前記フォーカス制御が行われた撮像部に隣接する撮像部において前記あおり角度を調整することを特徴とする撮像装置。 An image pickup apparatus comprising a plurality of image pickup units, wherein an image pickup device provided in each of the plurality of image pickup units obtains a photographed image,
The plurality of imaging units are arranged so that their viewpoints substantially match each other,
First control means for controlling focus in the plurality of imaging units;
A second control unit that controls a tilt angle that is an inclination of the image pickup device with respect to the optical axis of the image pickup unit;
When focus control is performed by at least one of the plurality of image pickup units by the first control unit, the second control unit causes the focus control unit to perform the focus control according to the focus surface of the image pickup unit where the focus control is performed. An imaging apparatus, wherein the tilt angle is adjusted in an imaging unit adjacent to a controlled imaging unit.
前記第2の制御手段は、前記複数の撮像部で得られた撮影画像を合成して得られる前記全体画像の表示が所定の大きさ以上であり、かつ前記部分画像に前記全体画像を生成する際の繋ぎ目が含まれているかどうかを判定し、前記全体画像の表示が前記所定の大きさ以上であり前記部分画像に前記繋ぎ目が含まれている場合に、前記部分画像に存在する被写体に応じて、前記隣接する撮像部の前記あおり角度を調整することを特徴とする請求項5に記載の撮像装置。 A cutout unit for cutting out a part of the captured image as a partial image,
The second control means displays the whole image obtained by combining the picked-up images obtained by the plurality of image pickup units with a predetermined size or more, and generates the whole image in the partial image. It is determined whether or not a joint at the time is included, and if the display of the entire image is equal to or larger than the predetermined size and the partial image includes the joint, it is present in the partial image. The image pickup apparatus according to claim 5 , wherein the tilt angle of the adjacent image pickup units is adjusted according to a subject .
前記複数の撮像部におけるフォーカスを制御する第1の制御ステップと、
前記撮像素子について前記撮像部の光軸に対する傾きであるあおり角度を制御する第2の制御ステップとを有し、
前記第1の制御ステップで前記複数の撮像部の少なくとも1つにおいてフォーカス制御が行われると、前記第2の制御ステップでは、前記フォーカス制御が行われた撮像部のフォーカス面に応じて、前記フォーカス制御が行われた撮像部に隣接する撮像部において前記あおり角度を調整することを特徴とする制御方法。 A method for controlling an image pickup apparatus, comprising: a plurality of image pickup sections arranged so that their viewpoints substantially match each other, and obtaining a picked-up image by an image pickup element provided in each of the plurality of image pickup sections,
A first control step of controlling focus in the plurality of imaging units;
A second control step of controlling a tilt angle which is an inclination of the image pickup device with respect to an optical axis of the image pickup section,
When focus control is performed in at least one of the plurality of image capturing units in the first control step, in the second control step, the focus control is performed according to the focus surface of the image capturing unit in which the focus control is performed. A control method characterized in that the tilt angle is adjusted in an imaging unit adjacent to the controlled imaging unit.
前記撮像装置が備えるコンピュータに、
前記複数の撮像部におけるフォーカスを制御する第1の制御ステップと、
前記撮像素子について前記撮像部の光軸に対する傾きであるあおり角度を制御する第2の制御ステップと実行させ、
前記第1の制御ステップで前記複数の撮像部の少なくとも1つにおいてフォーカス制御が行われると、前記第2の制御ステップでは、前記フォーカス制御が行われた撮像部のフォーカス面に応じて、前記フォーカス制御が行われた撮像部に隣接する撮像部において前記あおり角度を調整することを特徴とする制御プログラム。 A control program used in an image pickup apparatus, comprising a plurality of image pickup sections arranged so that viewpoints are substantially coincident with each other, and obtained by an image pickup device provided in each of the plurality of image pickup sections,
In the computer included in the imaging device,
A first control step of controlling focus in the plurality of imaging units;
A second control step of controlling a tilt angle which is an inclination of the image pickup device with respect to the optical axis of the image pickup unit;
When focus control is performed in at least one of the plurality of image capturing units in the first control step, in the second control step, the focus control is performed according to the focus surface of the image capturing unit in which the focus control is performed. A control program for adjusting the tilt angle in an image pickup unit adjacent to a controlled image pickup unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087070A JP6700935B2 (en) | 2016-04-25 | 2016-04-25 | Imaging device, control method thereof, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087070A JP6700935B2 (en) | 2016-04-25 | 2016-04-25 | Imaging device, control method thereof, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017199958A JP2017199958A (en) | 2017-11-02 |
JP6700935B2 true JP6700935B2 (en) | 2020-05-27 |
Family
ID=60239679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016087070A Active JP6700935B2 (en) | 2016-04-25 | 2016-04-25 | Imaging device, control method thereof, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6700935B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7146444B2 (en) * | 2018-05-11 | 2022-10-04 | キヤノン株式会社 | Control device, control method and program |
JP6569157B1 (en) * | 2018-06-27 | 2019-09-04 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Control device, imaging device, moving object, control method, and program |
JP7207888B2 (en) * | 2018-07-31 | 2023-01-18 | キヤノン株式会社 | CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD OF CONTROL DEVICE, AND PROGRAM |
JP7210246B2 (en) * | 2018-11-30 | 2023-01-23 | キヤノン株式会社 | Imaging device, imaging device control method, information processing device, imaging system, program, and storage medium |
-
2016
- 2016-04-25 JP JP2016087070A patent/JP6700935B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017199958A (en) | 2017-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6100089B2 (en) | Image processing apparatus, image processing method, and program | |
JP5480798B2 (en) | Imaging device | |
KR102225617B1 (en) | Method of setting algorithm for image registration | |
JP4072330B2 (en) | Display device and information processing method | |
JP6700935B2 (en) | Imaging device, control method thereof, and control program | |
JP2015176559A (en) | information processing method, information processing apparatus, and program | |
JPWO2012002046A1 (en) | Stereoscopic panorama image synthesis device, compound eye imaging device, and stereo panorama image synthesis method | |
KR20180129667A (en) | Display control apparatus, display control method, and storage medium | |
JP2013025649A (en) | Image processing device, image processing method, and program | |
TWI676855B (en) | Projector calibration method and projection system using the same | |
US20120242791A1 (en) | 3-d video processing device and 3-d video processing method | |
JP2010181826A (en) | Three-dimensional image forming apparatus | |
JP5889022B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2019029721A (en) | Image processing apparatus, image processing method, and program | |
WO2014141653A1 (en) | Image generation device, imaging device, and image generation method | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP6166985B2 (en) | Image generating apparatus and image generating program | |
WO2015053728A2 (en) | An objective creating three dimensional content to be directly displayed on 3d televisions | |
KR101237975B1 (en) | Image processing apparatus | |
JP5202448B2 (en) | Image processing system and method | |
JP2019008494A (en) | Image processing device | |
JP2012191380A (en) | Camera, image conversion apparatus, and image conversion method | |
JP2019047145A (en) | Image processing system, imaging apparatus, control method and program of image processing system | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
CN102478756B (en) | Method and apparatus for shooting stereoscopic film |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6700935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |