JP4799366B2 - Imaging apparatus and image reproduction apparatus - Google Patents
Imaging apparatus and image reproduction apparatus Download PDFInfo
- Publication number
- JP4799366B2 JP4799366B2 JP2006292163A JP2006292163A JP4799366B2 JP 4799366 B2 JP4799366 B2 JP 4799366B2 JP 2006292163 A JP2006292163 A JP 2006292163A JP 2006292163 A JP2006292163 A JP 2006292163A JP 4799366 B2 JP4799366 B2 JP 4799366B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- shooting
- bracket
- imaging
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 104
- 238000001514 detection method Methods 0.000 claims description 50
- 230000003287 optical effect Effects 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 description 53
- 210000000887 face Anatomy 0.000 description 29
- 238000000034 method Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000000605 extraction Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Description
本発明は、デジタルスチルカメラ又はデジタルビデオカメラ等の撮像装置に関し、特に、自動的に焦点や露出等の撮影条件を設定する技術に関する。また本発明は、その撮像装置にて撮影された画像を再生表示する画像再生装置に関する。 The present invention relates to an imaging apparatus such as a digital still camera or a digital video camera, and more particularly to a technique for automatically setting shooting conditions such as focus and exposure. The present invention also relates to an image reproduction apparatus that reproduces and displays an image captured by the imaging apparatus.
自動合焦機能(オートフォーカス機能)を備えた従来の撮像装置では、画面中央部の1つ又は複数の領域を測距領域として自動合焦を行うのが一般的である。しかしながら、この測距方式では、人物を撮影する際、人物と測距領域が重なる構図にして自動合焦を行い、合焦後、希望の構図に変更して撮影を行う必要がある。 In a conventional imaging apparatus having an autofocus function (autofocus function), it is common to perform autofocus using one or a plurality of areas at the center of the screen as a distance measurement area. However, in this distance measurement method, when a person is photographed, it is necessary to perform autofocusing with a composition in which the person and the distance measurement area overlap, and after focusing, change to the desired composition and perform photographing.
このような手間を省くことを目的として、撮影領域内に含まれる人物の顔を検出し、検出された顔を含む領域を測距領域として自動合焦制御を行う手法が開示されている(例えば、下記特許文献1参照)。
In order to save such trouble, a technique for detecting a human face included in a shooting area and performing automatic focusing control using the area including the detected face as a distance measurement area is disclosed (for example, , See
ところが、撮影環境や撮影者の意図は常に一定という訳ではないため、顔を含む領域を測距領域とすることが常に最も好ましいとは限らない。 However, since the shooting environment and the photographer's intention are not always constant, it is not always preferable to set the area including the face as the distance measurement area.
また、撮影領域内に顔が複数含まれる場合は、顔に着目した撮影条件が複数存在するようになる(例えば、第1の顔を測距領域に含めた撮影条件と、第2の顔を測距領域に含めた撮影条件)。このような場合は、複数の撮影条件(撮影パラメータ)の中から1つの撮影条件を、撮像装置における自動設定、撮影者による事前設定または撮影直前の手動設定などによって選択し、その選択した1つの撮影条件を適用して実際の撮影を行っていた。 In addition, when a plurality of faces are included in the shooting area, there are a plurality of shooting conditions focusing on the face (for example, the shooting conditions including the first face in the distance measurement area and the second face. Shooting conditions included in the distance measurement area). In such a case, one shooting condition is selected from among a plurality of shooting conditions (shooting parameters) by automatic setting in the imaging apparatus, presetting by the photographer or manual setting immediately before shooting, and the selected one Actual shooting was performed by applying shooting conditions.
しかしながら、上述したように撮影環境や撮影者の意図は常に一定という訳ではないため、自動設定や事前設定では、このような状況の違いを的確に反映することは難しい。また、撮影直前に撮影者が手動設定する場合、手動操作によるタイムラグが発生するため、所望の撮影タイミングを逃すといった問題がある。 However, as described above, since the photographing environment and the photographer's intention are not always constant, it is difficult to accurately reflect such a difference in the situation with the automatic setting or the prior setting. In addition, when the photographer manually sets immediately before shooting, there is a problem that a desired shooting timing is missed because a time lag occurs due to manual operation.
人物の顔に着目した撮影を行う場合を例にとり、従来の手法の問題点を説明したが、人物の顔以外の物体に着目して撮影を行う場合も同様の問題が発生しうる。 The problem of the conventional method has been described by taking the case of taking a picture focusing on a person's face as an example, but the same problem may occur when taking a picture focusing on an object other than the person's face.
そこで本発明は、手動操作によるタイムラグ等を生じさせることなく、撮影者の意図に近い画像の取得可能性の向上に寄与する撮像装置を提供することを目的とする。また本発明は、その撮像装置にて撮影された画像の確認容易化に寄与する画像再生装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an imaging apparatus that contributes to an improvement in the possibility of acquiring an image close to the photographer's intention without causing a time lag or the like due to manual operation. Another object of the present invention is to provide an image reproducing apparatus that contributes to facilitating the confirmation of an image photographed by the imaging apparatus.
上記目的を達成するために本発明に係る撮像装置は、撮像手段の撮影によって得られた撮影画像の中から所定種類の物体を検出する物体検出手段と、前記撮影画像上における前記物体についての情報に基づいて、撮影条件を表す撮影パラメータを複数生成するパラメータ生成手段と、を備え、特殊撮影を行うための所定の撮影指示がなされた際、事前に生成された各撮影パラメータを適用して順次撮影を行うことにより、前記複数の撮影パラメータによる複数の撮影画像を複数のブラケット画像として得ることを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention includes an object detection unit that detects a predetermined type of object from a captured image obtained by imaging by an imaging unit, and information about the object on the captured image. And a parameter generating means for generating a plurality of shooting parameters representing shooting conditions, and when a predetermined shooting instruction for performing special shooting is given, each shooting parameter generated in advance is sequentially applied. A plurality of captured images based on the plurality of imaging parameters are obtained as a plurality of bracket images by performing imaging.
これにより、所定の撮影指示(例えば、1回のシャッタボタン押下)によって、複数の撮影パラメータに従った複数のブラケット画像が撮影される。このため、撮影者が意図した画像が、この撮影指示によって得られる可能性が高まる。 Thereby, a plurality of bracket images according to a plurality of shooting parameters are shot in accordance with a predetermined shooting instruction (for example, pressing the shutter button once). For this reason, the possibility that an image intended by the photographer is obtained by this photographing instruction is increased.
具体的には例えば、前記情報は、前記撮影画像上における前記物体の位置を特定する。 Specifically, for example, the information specifies the position of the object on the captured image.
更に具体的には例えば、前記情報は、前記撮影画像上における、前記物体の大きさ及び個数の少なくとも一方を特定する。 More specifically, for example, the information specifies at least one of the size and the number of the objects on the captured image.
また例えば、前記撮像装置は、前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段と、各ブラケット画像を、ファイル名を付けて記憶する記憶手段と、前記順序付け指示による前記複数のブラケット画像間の順序に基づいて、各ブラケット画像に対応付けられた前記ファイル名を変更するファイル名変更手段と、を更に備えている。 Further, for example, the imaging apparatus includes an instruction receiving unit that receives an ordering instruction for ordering the plurality of bracket images, a storage unit that stores each bracket image with a file name, and the plurality of the ordering instructions. File name changing means for changing the file name associated with each bracket image based on the order between the bracket images;
これにより、ファイル管理上の便宜が図られる。 This facilitates file management.
また例えば、前記撮像装置は、前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段を、更に備え、次回以降の前記特殊撮影に対する複数の撮影パラメータの適用順序は、前記順序付け指示を考慮して設定される。 In addition, for example, the imaging apparatus further includes an instruction receiving unit that receives an ordering instruction for ordering the plurality of bracket images, and the order of application of the plurality of shooting parameters to the special shooting after the next time includes the ordering instruction. Set in consideration.
これにより、次回以降の特殊撮影において、撮影者の意図により合致した順序での各撮影パラメータの適用が期待される。 Thereby, it is expected that the shooting parameters are applied in the order that matches the intention of the photographer in the next and subsequent special shooting.
また例えば、各撮影パラメータは、前記物体を含む被写体についての光学像を前記撮像手段の撮像素子上で結像させるためのフォーカスレンズの位置を特定し、前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記フォーカスレンズの位置の変化方向の同一性を考慮して設定される。 Further, for example, each shooting parameter specifies a position of a focus lens for forming an optical image of a subject including the object on an imaging element of the imaging unit, and the order of application of the plurality of shooting parameters is It is set in consideration of the same change direction of the focus lens position during shooting of a plurality of bracket images.
また例えば、各撮影パラメータは、前記撮像手段の撮像素子への入射光量を制御する絞りの開度を特定し、前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記開度の変化方向の同一性を考慮して設定される。 Further, for example, each shooting parameter specifies the aperture of the diaphragm that controls the amount of light incident on the image sensor of the imaging means, and the application order of the plurality of shooting parameters is the same as that during the shooting of the plurality of bracket images. It is set in consideration of the identity of the change direction of the opening.
これらは、複数のブラケット画像の撮影時間の短縮化に寄与する。この結果、被写体或いは撮影者にとってより望ましいタイミングで撮影を行うことが可能となる。 These contribute to shortening the photographing time of a plurality of bracket images. As a result, it is possible to perform shooting at a timing more desirable for the subject or the photographer.
また具体的には例えば、前記物体は、人物の顔を含む。 More specifically, for example, the object includes a human face.
また、上記目的を達成するために本発明に係る画像再生装置は、前記撮像装置にて得られた撮影画像を表示可能な表示手段と、前記表示手段の表示内容を制御する表示制御手段と、を備え、前記表示制御手段は、前記撮像装置による前記特殊撮影に対応する画像を前記表示手段に表示させる際、前記複数のブラケット画像の中から択一的に代表画像を選び、前記特殊撮影に対応する表示領域に該代表画像を表示させることを特徴とする。 In order to achieve the above object, an image reproduction apparatus according to the present invention includes a display unit capable of displaying a captured image obtained by the imaging device, a display control unit for controlling display contents of the display unit, The display control means selectively displays a representative image from the plurality of bracket images when the display means displays an image corresponding to the special shooting by the imaging device. The representative image is displayed in a corresponding display area.
前記特殊撮影によって撮影画像枚数が増大するが、上記の如く画像生成装置を形成することにより、撮影済みの画像の確認容易化が図られる。 Although the number of shot images increases due to the special shooting, it is possible to easily check the shot images by forming the image generation device as described above.
また例えば、上記画像再生装置において、前記表示領域に表示される前記代表画像は、前記複数のブラケット画像の中で、時間に応じて自動的に或いは外部からの切り換え指示に応じて切り換わる。 Further, for example, in the image reproduction device, the representative image displayed in the display area is switched automatically in accordance with time or in response to an external switching instruction in the plurality of bracket images.
本発明の撮像装置によれば、手動操作によるタイムラグ等を生じさせることなく、撮影者の意図に近い画像を取得できる可能性が高まる。また本発明の画像再生装置によれば、撮影済みの画像の確認容易化が図られる。 According to the imaging apparatus of the present invention, there is an increased possibility that an image close to the photographer's intention can be acquired without causing a time lag due to manual operation. In addition, according to the image reproducing apparatus of the present invention, it is possible to easily confirm a captured image.
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to third embodiments will be described later. First, matters common to each embodiment or items referred to in each embodiment will be described.
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、静止画を撮影可能なデジタルスチルカメラ、又は、静止画及び動画を撮影可能なデジタルビデオカメラである。
FIG. 1 is an overall block diagram of an
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、制御部13と、顔検出部14と、表示部15と、記録媒体16と、操作部17と、を備えている。
The
図2に撮像部11の内部構成図を示す。撮像部11にカラーフィルタなどを用いることにより、撮像装置1は、撮影によってカラー画像を生成可能なように構成されている。撮像部11は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。
FIG. 2 shows an internal configuration diagram of the
モータ等から成るドライバ34は、制御部13からの制御信号に基づいて、ズームレンズ30及びフォーカスレンズ31の移動を制御し、光学系35のズーム倍率や焦点距離を制御する。また、ドライバ34は、制御部13からの制御信号に基づいて絞り32の開度(開口部の大きさ)を制御する。
A driver 34 composed of a motor or the like controls the movement of the
被写体からの入射光は、光学系35を構成する各レンズ及び絞り32を介して、撮像素子33に入射する。光学系35を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。
Incident light from the subject enters the image sensor 33 through the lenses and the
撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサからなる。撮像素子33は、光学系35及び絞り32を介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各画素からの電気信号は、タイミングジェネレータ(不図示)からの駆動パルスに従って、後段のAFE12に順次出力される。
The image sensor 33 is composed of, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor 33 photoelectrically converts an optical image incident through the
AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、制御部13に出力する。
The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the
制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としても機能する。制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。
The
制御部13は、撮影画像中のフォーカス検出領域内のコントラスト量に応じたAF評価値を検出するAF評価値検出部21を含む。図3は、このAF評価値検出部21の内部ブロック図である。AF評価値検出部21は、抽出部41、HPF(ハイパスフィルタ)42及び積算部43を、有して構成される。
The
抽出部41は、撮影画像を表す映像信号より輝度信号を抽出する。この際、撮影画像の、フォーカス検出領域内の輝度信号のみを抽出する。HPF42は、抽出部41によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。
The
積算部43は、HPF42によって抽出された高域周波数成分を積算することにより、フォーカス検出領域内の画像のコントラスト量に応じたAF評価値を求める。AF評価値は、撮影画像ごとに算出される。AF評価値は、該コントラスト量に概ね比例し、該コントラスト量が増大するにつれて増大する。そして、フォーカスレンズ31の位置が光軸方向に変化するに従い、画像のコントラスト量は変化し、AF評価値も変化する。
The accumulating
通常、制御部13は、AF評価値が最大値(付近)に保たれるように所謂山登り演算を用いて、ドライバ34を介してフォーカスレンズ31の位置を制御する。この結果、同一の光学像に対する、フォーカス検出領域内の画像のコントラスト量は最大値(付近)に保たれる。つまり、フォーカス検出領域内に収まる被写体の光学像が撮像素子33上に結像するように、フォーカスレンズ31の位置は制御される(フォーカス検出領域内に収まる被写体にピントが合う)。
Normally, the
制御部13は、更に、撮影画像の明るさに応じたAE評価値を検出するAE評価値検出部22を含む。
The
AE評価値検出部22は、撮影画像を表す映像信号より輝度信号を抽出する。この際、各撮影画像の、明るさ評価領域内の輝度信号のみを抽出する。AE評価値検出部23は、抽出した明るさ評価領域内についての輝度信号を積算することにより、明るさ評価領域内の画像の明るさに比例したAE評価値を求める。AE評価値は、撮影画像ごとに算出される。
The AE evaluation
通常、制御部13は、逐次算出されるAE評価値が一定値に保たれるように、ドライバ34を介して絞り32の開度を制御する。光学系35に入射する光学像が同じである場合、絞り32の開度が大きくなるに従って、撮像素子33への単位時間当たりの入射光量は増大し、輝度信号の値は増大する。
Normally, the
図1の顔検出部14は、各撮影画像の中から人物の顔を検出して、顔を含む顔領域を抽出する。顔検出部14の検出結果を受け、制御部13は、画像上における、顔の大きさや位置を認識する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出部14は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように撮影画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報、特開2006−72770号公報又は上記特許文献1に記載の手法を用いて顔(顔領域)を検出しても良い。
The
典型的には例えば、入力画像(即ち、撮影画像)内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジ等である。 Typically, for example, the similarity between both images is determined by comparing the image of the region of interest set in the input image (that is, the captured image) with a reference face image having a predetermined image size. Based on this, it is detected whether or not a face is included in the region of interest (whether or not the region of interest is a face region). The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.
入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。 In the input image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image of the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image.
また、入力画像(即ち、撮影画像)を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。 Further, the input image (that is, the photographed image) is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.
図1の表示部15は、液晶ディスプレイパネル等から成る表示装置であり、直前のフレームにて撮影された画像や記録媒体16に記録されている画像などを表示する。制御部13は、表示部15の表示内容を制御する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、制御部13による制御の下、撮影画像などを記憶する。操作部17は、シャッタボタン17a及び所謂十字キー(不図示)等から成り、外部からの操作を受け付ける。操作部17に対する操作内容は、制御部13に伝達される。
The
撮像装置1の動作モードには、静止画(及び動画)の撮影が可能な撮影モードと、記録媒体16に記録された静止画(及び動画)を表示部15に再生表示する再生モードと、が含まれる。操作部17に対する操作に応じて、各モード間の遷移は実施される。撮影モードでは、シャッタボタン17aが押下されているか否かに拘らず、所定のフレーム周期(例えば、1/60秒)にて順次撮影が行われ、順次得られる撮影画像は表示部15に更新表示される(所謂プレビュー表示が行われる)。
The operation modes of the
そして、操作部17に対して所定の操作を施すことにより、撮影モードにおいて、ブラケット撮影(特殊撮影)を行うことが可能となっている。説明の便宜上、このブラケット撮影を実行する撮影モードをブラケット撮影モードという。ブラケット撮影モードは、撮影モードに含まれる1つの動作モードである。
Then, by performing a predetermined operation on the
以下、ブラケット撮影モードに着目した実施例として、第1〜第3実施例を例示する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。 Hereinafter, first to third examples will be illustrated as examples focusing on the bracket photographing mode. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.
<<第1実施例>>
まず、第1実施例について説明する。ブラケット撮影モードでは、顔検出部14による顔検出機能が利用される。具体的な例として、第1実施例では、撮影領域内に3つの顔が含まれている場合の動作を説明する。図4は、この3つの顔を被写体として含んだ撮影画像を表している。これら3つの顔を、夫々、顔F1、F2及びF3と呼ぶことにする。尚、図4及び顔の図示を含む後述の各図において、図示の煩雑化防止のため、顔以外の人体の構成要素(胴体や手足など)の図示を省略している。
<< First Example >>
First, the first embodiment will be described. In the bracket shooting mode, the face detection function by the
図4に示すような撮影画像が顔検出部14に入力されると、顔検出部14は、その撮影画像の中から顔F1、F2及びF3を検出して、顔F1を含む顔領域RF1、顔F2を含む顔領域RF2及び顔F3を含む顔領域RF3を抽出する。各顔領域の外形形状は、検出された顔の外形形状と一致する。各顔領域を、顔を囲む最小の矩形領域として定義しても良い。
When a captured image as shown in FIG. 4 is input to the
制御部13(又は顔検出部14)は、画像上における顔領域RF1、RF2及びRF3の大きさ(即ち、画像上における顔F1、F2及びF3の大きさ)を算出する。画像上における顔領域の大きさは、該顔領域の面積或いは該顔領域を構成する画素数で表される。今の例の場合、顔領域RF1、RF2及びRF3の内、顔領域RF1の大きさが最も大きいものとする(換言すれば、顔F1、F2及びF3の内、顔F3の大きさが最も大きいものとする)。 The control unit 13 (or the face detection unit 14) calculates the sizes of the face regions R F1 , R F2 and R F3 on the image (that is, the sizes of the faces F1, F2 and F3 on the image). The size of the face area on the image is represented by the area of the face area or the number of pixels constituting the face area. In the case of the present example, it is assumed that the size of the face region R F1 is the largest among the face regions R F1 , R F2 and R F3 (in other words, the size of the face F3 among the faces F1, F2 and F3) Is the largest).
そして、制御部13は、顔領域RF1、RF2及びRF3の位置関係を評価し、画像上において、最も中央に近い顔領域RF1、RF2及びRF3を特定する。例えば、図5に示す如く、顔領域RF1、RF2及びRF3の中心位置CF1、CF2及びCF3を算出する。図5において、COは、撮影画像全体の中央点を表している。画像上において、各中心位置は、画像の原点Xを基準とした、水平座標と垂直座標によって表される。制御部13は、中心位置CF1、CF2及びCF3と中央点COとの各距離を算出して、各距離同士を比較し、最も距離が短い中心位置に対応する顔領域を、最も中央に近い顔領域として特定する。今の例の場合、顔F2についての中心位置CF2が中央点COに最も近いため、顔領域RF2が最も中央に近い顔領域として特定される。
Then, the
[撮影パラメータ生成]
図4及び図5に示す撮影画像が得られた場合、パラメータ生成手段としても機能する制御部13は、4つの撮影パラメータを生成する。各撮影パラメータは、ブラケット撮影における撮影条件を表しており、具体的には、図2のフォーカスレンズ31の位置と絞り32の開度を定める。この4つの撮影パラメータを、第1、第2、第3及び第4の撮影パラメータと呼ぶ。
[Shooting parameter generation]
When the captured images shown in FIGS. 4 and 5 are obtained, the
第1の撮影パラメータは、顔F1〜F3の内、最も中央に位置する顔F2の撮影に適した撮影パラメータ(中央優先パラメータ)とされる。第1の撮影パラメータの作成に際して、図6(a)に示す如く、画像上に顔F2に着目した領域102が定義される。領域102は、例えば、顔領域RF2そのもの、或いは、顔領域RF2を含む矩形領域、或いは、顔領域RF2に内包される矩形領域(顔F2の一部を含む矩形領域)である。図6(a)は、領域102が顔領域RF2を含む矩形領域である場合を例示している(後述する領域101及び103も同様)。
The first shooting parameter is a shooting parameter (center priority parameter) suitable for shooting the face F2 located at the center of the faces F1 to F3. When creating the first shooting parameter, as shown in FIG. 6A, an
制御部13は、領域102をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域102に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置を算出する。領域102に着目して算出された、このフォーカスレンズ31の位置を、位置P1という。位置P1は、第1の撮影パラメータに含められる。
Based on the AF evaluation value calculated by treating the
また、制御部13は、領域102を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域102内の画像の明るさが所定の明るさとなるような、絞り32の開度を算出する。領域102に着目して算出された、この絞り32の開度を、開度O1という。開度O1は、第1の撮影パラメータに含められる。
Further, the
第2の撮影パラメータは、顔F1〜F3の内、最も大きさが大きい顔F1の撮影に適した撮影パラメータ(サイズ優先パラメータ)とされる。第2の撮影パラメータの作成に際して、図6(b)に示す如く、画像上に顔F1に着目した領域101が定義される。領域101は、例えば、顔領域RF1そのもの、或いは、顔領域RF1を含む矩形領域、或いは、顔領域RF1に内包される矩形領域(顔F1の一部を含む矩形領域)である。
The second shooting parameter is a shooting parameter (size priority parameter) suitable for shooting the face F1 having the largest size among the faces F1 to F3. When creating the second imaging parameter, as shown in FIG. 6B, an
制御部13は、領域101をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P2という)を算出する。
Based on the AF evaluation value calculated by treating the
また、制御部13は、領域101を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101内の画像の明るさが所定の明るさとなるような、絞り32の開度(これを、開度O2という)を算出する。位置P2及び開度O2は、第2の撮影パラメータに含められる。
Further, the
第3の撮影パラメータは、顔F1〜F3を均等に取り扱った撮影パラメータ(全顔平均パラメータ)とされる。第3の撮影パラメータの作成に際して、図6(c)に示す如く、領域101及び102に加えて、画像上に顔F3に着目した領域103が定義される。領域103は、例えば、顔領域RF3そのもの、或いは、顔領域RF3を含む矩形領域、或いは、顔領域RF3に内包される矩形領域(顔F3の一部を含む矩形領域)である。
The third shooting parameter is a shooting parameter (all face average parameter) in which the faces F1 to F3 are handled equally. When creating the third imaging parameter, as shown in FIG. 6C, in addition to the
制御部13は、領域101、102及び103の合計領域をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101、102及び103に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P3という)を算出する。領域101、102及び103の合計領域をフォーカス検出領域としているため、顔F1、F2及びF3についての結像点は撮像素子33上にない場合もある。
Based on the AF evaluation value calculated by treating the total area of the
また、制御部13は、領域101、102及び103の合計領域を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101、102及び103の合計領域内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度O3という)を算出する。位置P3及び開度O3は、第3の撮影パラメータに含められる。
Further, the
第4の撮影パラメータは、撮影領域全体を平均的に着目した撮影パラメータ(全体平均パラメータ)とされる。第4の撮影パラメータの作成に際して、図6(d)に示す如く、領域104が定義される。領域104は、例えば、撮影画像の全体領域、或いは、撮影画像の全体領域よりも若干小さい矩形領域とされる。領域104を定義するに際して、顔検出の結果は利用されない。
The fourth imaging parameter is an imaging parameter (overall average parameter) that focuses on the entire imaging area on average. When creating the fourth imaging parameter, an
制御部13は、領域104をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域104に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置P4という)を算出する。
Based on the AF evaluation value calculated by treating the
また、制御部13は、領域104を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域104内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度O4という)を算出する。位置P4及び開度O4は、第4の撮影パラメータに含められる。
Further, the
[撮影パラメータに基づくブラケット撮影]
ブラケット撮影モードにおいて、シャッタボタン17aを押下することにより、制御部13は、第1、第2、第3及び第4の撮影パラメータを適用してフォーカスレンズ31の位置及び絞り32の開度を制御しつつブラケット撮影を行い、これによって撮像部11から4枚の撮影画像(静止画)得る。この4枚の撮影画像を、第1、第2、第3及び第4のブラケット画像と呼ぶ。第1〜第4のブラケット画像は、連続的に撮影される(即ち、連続撮影される)。第1、第2、第3及び第4のブラケット画像は、夫々、第1、第2、第3及び第4の撮影パラメータに対応する。
[Bracket shooting based on shooting parameters]
In the bracket shooting mode, by pressing the
つまり、第1のブラケット画像は、フォーカスレンズ31の位置を位置P1とし且つ絞り32の開度を開度O1とした上で撮影された画像であり、第2のブラケット画像は、フォーカスレンズ31の位置を位置P2とし且つ絞り32の開度を開度O2とした上で撮影された画像であり、第3のブラケット画像は、フォーカスレンズ31の位置を位置P3とし且つ絞り32の開度を開度O3とした上で撮影された画像であり、第4のブラケット画像は、フォーカスレンズ31の位置を位置P4とし且つ絞り32の開度を開度O4とした上で撮影された画像である。
That is, the first bracket image is an image that is taken after setting the position of the
第1〜第4の撮影パラメータの適用順序(換言すれば、第1〜第4のブラケット画像の撮影順序)の決定手法については後述するとして、今、第1、第2、第3及び第4の撮影パラメータの順番で撮影パラメータを適用することにより、第1、第2、第3、第4のブラケット画像の順番で撮影が行われたものとする。 A method for determining the application order of the first to fourth imaging parameters (in other words, the imaging order of the first to fourth bracket images) will be described later, and the first, second, third, and fourth are now described. It is assumed that shooting is performed in the order of the first, second, third, and fourth bracket images by applying the shooting parameters in the order of the shooting parameters.
図7は、第1〜第4のブラケット画像が撮影された後の、表示部15の表示画面を表す。表示画面の全表示領域には、互いに異なる表示領域111、112、113及び114が含まれ、表示領域111、112、113及び114に、夫々、第1、第2、第3、第4のブラケット画像を表示される。図7に示す如く、第1〜第4のブラケット画像は、同一の表示画面上に並べられて同時表示される(即ち、一覧表示される)。撮影者は、この一覧表示を視ることによって、容易に各ブラケット画像を確認することができる。
FIG. 7 shows a display screen of the
尚、図7(及び後述する図8)の各画像では、図6の領域101〜104の外形を表す四角枠が示されているが、表示画面上において、それらの四角枠を表示するか否かは任意である。また、第1、第2、第3、第4のブラケット画像を、顔の写り具合が良い順に並べて表示画面上に表示しても良い。例えば、各ブラケット画像から人物の目の領域を抽出して画像解析により目の開閉状態を検出する。そして、目が閉じている顔に対応するブラケット画像は、顔の映り具合が比較的悪く、目が開いている顔に対応するブラケット画像は、顔の映り具合が比較的良いと判断する。
In each image of FIG. 7 (and FIG. 8 to be described later), a square frame representing the outer shape of the
ユーザは、操作部17を用い、第1〜第4のブラケット画像を好みの順番で選択していくことで(即ち、第1〜第4のブラケット画像に対して順序付けを施すことで)、表示画面上における各ブラケット画像の表示位置を変更することができる。例えば、操作部17に対して所定の操作を施すことにより、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択したとする。この選択によって、図8に示す如く、表示領域111、112、113及び114に、夫々、第2、第3、第1、第4のブラケット画像が表示されるようになる。
The user uses the
また、第1〜第4のブラケット画像は、撮影と同時に、記録媒体16にファイル名を付けて記憶されていくのであるが、上記の選択によって、該ファイル名は変更可能である。つまり例えば、第1、第2、第3、第4のブラケット画像は、当初、夫々、image001_01、image001_02、image001_03、image001_04というファイル名が付された上で記録媒体16に記録されるのであるが、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択することによって、第1のブラケット画像に対応するファイル名はimage001_03に、第2のブラケット画像に対応するファイル名はimage001_01に、第3のブラケット画像に対応するファイル名はimage001_02に変更される。
In addition, the first to fourth bracket images are stored with file names attached to the
このように、操作部17は、4枚のブラケット画像を順序付けるための順序付け指示を受け付け、制御部13は、この順序付け指示に従って、一覧表示における各ブラケット画像の表示位置(表示順序)及び各ブラケット画像に対応するファイル名を変更する。ユーザの好み順に応じてファイル名を付すことによって、ファイル管理上の便宜が図られる。順序付け指示は、上述の如く例えば、第1〜第4のブラケット画像を順番に選択するという、操作部17に対する操作によって実現される。
In this way, the
また、上記の順序付け指示によって、各撮影パラメータ間の順序付けを実行することもできる。例えば、第2、第3、第1、第4のブラケット画像の順番で各ブラケット画像を選択することにより、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合を考える。この場合、これに合わせて各撮影パラメータ間を順序付け、この各撮影パラメータ間の順序付けを、次回以降のブラケット撮影に際して利用する。 Further, it is possible to execute the ordering between the shooting parameters by the ordering instruction. For example, when the order is made in the order of the second, third, first, and fourth bracket images by selecting the bracket images in the order of the second, third, first, and fourth bracket images. think of. In this case, the respective shooting parameters are ordered in accordance with this, and the ordering between the respective shooting parameters is used in the next bracket shooting.
例えば、次回以降のブラケット撮影に際して、図4と同様、撮影領域内に3つの顔が存在している場合は、
「3つの顔の内、最も大きさが大きい顔の撮影に適した撮影パラメータ(上記の第2の撮影パラメータに相当)」を適用した撮影を最初に行い、
「3つの顔を均等に取り扱った撮影パラメータ(上記の第3の撮影パラメータに相当)」を適用した撮影を2番目に行い、
「3つの顔の内、最も中央に位置する顔の撮影に適した撮影パラメータ(上記の第1の撮影パラメータに相当)」を適用した撮影を3番目に行い、
「撮影領域全体を平均的に着目した撮影パラメータ(上記の第4の撮影パラメータに相当)」を適用した撮影を最後に行うようにする。
For example, when there are three faces in the shooting area in the bracket shooting from the next time, as in FIG.
First, taking a picture using “shooting parameters suitable for shooting the largest face among the three faces (corresponding to the second shooting parameter above)”,
Secondly, taking a picture using the "shooting parameters that handle three faces equally (corresponding to the third shooting parameter above)"
The third shooting is performed by applying the “shooting parameters suitable for shooting the face located at the center of the three faces (corresponding to the first shooting parameter described above)”.
Shooting is performed last by applying “shooting parameters focusing on the entire shooting area on average (corresponding to the fourth shooting parameter)”.
このように、今回のブラケット撮影に対する順序付け指示によって、次回以降のブラケット撮影における、各撮影パラメータの適用順序(換言すれば、各ブラケット画像の撮影順序)を定めるようにする。順序付け指示は、ユーザの、撮影パラメータ(撮影条件)の好みの順番を表すものと推測される。このため、上記の如くブラケット画像の撮影順序を定めることにより、次回以降のブラケット撮影において、ユーザがより好む撮影パラメータによるブラケット画像がシャッタボタン17a押下直後により近いタイミングで撮影されるようになる。つまり、ユーザの意図により合致した順序で撮影が行われるようになる。尚、上記の撮影順序を決定するために必要な情報(順序付け指示の内容など)は、適宜、記録媒体16に記録される。
In this manner, the order of application of the respective shooting parameters (in other words, the shooting order of the bracket images) is determined in the subsequent bracket shooting in accordance with the ordering instruction for the current bracket shooting. The ordering instruction is presumed to represent the user's preferred order of shooting parameters (shooting conditions). For this reason, by determining the shooting order of the bracket images as described above, the bracket image based on the shooting parameters that the user prefers is shot at a timing closer to the time immediately after the
また、各撮影パラメータの適用順序を、上記の順序付け指示に基づくのではなく、ブラケット撮影期間における、フォーカスレンズ31の位置の変化方向の同一性及び/又は絞り32の開度の変化方向の同一性に基づいて、決定するようにしてもよい。
In addition, the application order of the shooting parameters is not based on the above-described ordering instruction, but the change direction of the
例えば、上述の第1〜第4の撮影パラメータを生成した後、フォーカスレンズ31の位置を表す位置P1〜P4を参照し、第1〜第4のブラケット画像を連続撮影する間におけるフォーカスレンズ31の位置の変化方向が同一方向になるように、第1〜第4の撮影パラメータの適用順序を決定する。例えば、位置P1、P2、P3及びP4の順番でフォーカスレンズ31の位置が撮像素子33に近くなる場合、第1、第2、第3及び第4の撮影パラメータをこの順番で適用して各ブラケット画像を撮影する(これにより、第1、第2、第3及び第4のブラケット画像がこの順番で撮影される)。勿論、この逆の順番で撮影することも可能である。
For example, after generating the first to fourth shooting parameters, the focus lens during continuous shooting of the first to fourth bracket images with reference to the positions P 1 to P 4 representing the position of the
また例えば、上述の第1〜第4の撮影パラメータを生成した後、絞り32の開度を表す開度O1〜O4を参照し、第1〜第4のブラケット画像を連続撮影する間における絞り32の開度の変化方向が同一方向になるように、第1〜第4の撮影パラメータの適用順序を決定する。例えば、開度O1、O2、O3及びO4の順番で絞り32の開度が小さくなる場合、第1、第2、第3及び第4の撮影パラメータをこの順番で適用して各ブラケット画像を撮影する(これにより、第1、第2、第3及び第4のブラケット画像がこの順番で撮影される)。勿論、この逆の順番で撮影することも可能である。
Further, for example, after the first to fourth imaging parameters are generated, the opening O 1 to O 4 representing the opening of the
このように各撮影パラメータの適用順序を定めることによりフォーカスレンズ31や絞り32の動きが連続的になるため、各ブラケット画像を得るための連続撮影時間が短縮され、被写体或いは撮影者にとってより望ましいタイミングで撮影を行うことが可能となる。
Since the movement of the
[ブラケット撮影の動作手順]
次に、図9を参照して、ブラケット撮影の動作手順を説明する。図9は、ブラケット撮影の動作手順を表すフローチャートである。この動作手順の説明の際、説明の具体化のため、上述した例示内容(撮影領域に3つの顔F1〜F3が含まれている等の例示内容)を適宜引用する。
[Bracketing operation procedure]
Next, an operation procedure of bracket shooting will be described with reference to FIG. FIG. 9 is a flowchart showing an operation procedure of bracket shooting. In the description of this operation procedure, the above-described example contents (example contents including three faces F1 to F3 included in the imaging region) are appropriately cited for the purpose of concrete description.
まず、ステップS1において、顔検出部14に撮影画像が与えられ、続くステップS2において、顔検出部14は該撮影画像から顔を検出して顔領域を抽出する。そして、ステップS3において、制御部13は、ステップS2の顔検出結果に基づいて複数の撮影パラメータを算出する。具体的には例えば、上述の第1〜第4の撮影パラメータが算出される。続くステップS4では、ステップS2及びS3の処理結果を参照しつつ、上述の如く過去のブラケット撮影に対する順序付け指示などに基づいて、各撮影パラメータの適用順序を設定する。ステップS4の処理を終えるとステップS5に移行する。
First, in step S1, a photographed image is given to the
ステップS1〜S4の処理は、例えば、シャッタボタン17aを半押しした後に、実施される。シャッタボタン17aは、外力に応じて2段階に押下される。シャッタボタン17aに対する、比較的小さな外力によって半押しが実施され、比較的大きな外力によって全押しが実施される。
Steps S1 to S4 are performed after the
ステップS5において、制御部13は、シャッタボタン17aが押下されたか否かを確認する。より具体的には、シャッタボタン17aが全押しされたか否かを確認する。ここにおけるシャッタボタン17aの全押しは、1つのブラケット撮影の実施を指示する。シャッタボタン17aの全押しが行われた場合はステップS6に移行し、行われていない場合はステップS5の処理が繰り返される。
In step S5, the
ステップS6では、ステップS3にて算出された各撮影パラメータ及びステップS4にて設定された適用順序に従って、各ブラケット画像を順次撮影する。図4に示す例の場合、4枚のブラケット画像を順次撮影する。撮影された各ブラケット画像は、ファイル名を付されて記録媒体16に記録される。
In step S6, each bracket image is sequentially photographed according to each photographing parameter calculated in step S3 and the application order set in step S4. In the example shown in FIG. 4, four bracket images are sequentially captured. Each captured bracket image is recorded on the
各ブラケット画像の撮影が完了すると、ステップS7において、制御部13は表示部15に各ブラケット画像を一覧表示させる。これにより、表示部15の表示画面は、図7に示すような表示画面となる。
When the shooting of each bracket image is completed, in step S7, the
ステップS7に続くステップS8において、撮像装置1は、ユーザによる上記順序付け指示を受け付ける状態に移行する。この際、ユーザは、表示画面上に表示された各ブラケット画像を自分の好みの順番で選択することにより、各ブラケット画像に対する順序付けを行う。順序付け指示を受けると、ステップS9に移行する。
In step S8 following step S7, the
ステップS9では、ステップS8にて与えられた順序付け指示の内容に従い、必要に応じて、表示画面上における各ブラケット画像を並べ替えると共に各ブラケット画像に付されたファイル名を変更する。 In step S9, according to the contents of the ordering instruction given in step S8, the bracket images on the display screen are rearranged and the file names given to the bracket images are changed as necessary.
続くステップS10において、制御部13は、ステップS8にて与えられた順序付け指示の内容を記録媒体16に記録する。この記録内容は、次回以降のブラケット撮影における各撮影パラメータの適用順序の設定に利用される。ステップS10の処理を終えると、今回のブラケット撮影は終了し、次回のブラケット撮影の指示を受け付ける状態に移行する。
In subsequent step S10, the
[画像の表示]
次に、再生モードにおける特徴的な動作について説明する。再生モードには、複数の画像を一覧表示するサムネイル画像再生モードと、1枚の画像のみを表示する通常再生モードと、が含まれる。操作部17に対する操作に応じて各モード間の遷移は実施される。サムネイル画像再生モードにおける表示制御について説明する。
[Display image]
Next, a characteristic operation in the playback mode will be described. The playback mode includes a thumbnail image playback mode in which a plurality of images are displayed in a list and a normal playback mode in which only one image is displayed. Transition between the modes is performed in accordance with an operation on the
サムネイル画像再生モードでは、記録媒体16に記録されている複数の画像が表示部15に一覧表示される。一覧表示される各画像は、記録媒体16に記録されている各画像(即ち、各撮影画像)の縮小画像に相当する所謂サムネイル画像である。但し、或る着目画像に関し、該着目画像と該着目画像のサムネイル画像は、画像サイズが異なるだけで本質的には同じ画像である。このため、記述の簡略化上、本明細書では「着目画像の縮小画像(サムネイル画像)を表示する」場合でも、「着目画像を表示する」と表現する。
In the thumbnail image reproduction mode, a plurality of images recorded on the
サムネイル画像再生モードでは、表示部15の表示画面における全表示領域が、例えば6つの分割表示領域に分割される。図10は、全表示領域が、6つの分割表示領域121〜126に分割されている様子を示している。
In the thumbnail image reproduction mode, the entire display area on the display screen of the
サムネイル画像再生モードにおいて一覧表示される画像の中に、ブラケット撮影に対応する画像が含まれる場合、制御部13は、複数のブラケット画像の中から1枚のブラケット画像を代表画像として選択して、該代表画像を該ブラケット撮影に対応する分割表示領域に表示させる。
When an image corresponding to bracket shooting is included in the images displayed as a list in the thumbnail image playback mode, the
例えば、記録媒体16に、5回の通常撮影に基づく5枚の画像と1回のブラケット撮影に基づく4枚のブラケット画像(第1〜第4のブラケット画像)が記録されている場合を考える。ここで、通常撮影とは、シャッタボタン17aに対する1回の押下に応じて1枚の撮影画像を記録媒体16に記録する撮影を指す。この場合、例えば、図11に示す如く、分割表示領域121、123〜126の夫々に通常撮影に対する撮影画像(より詳しくは、該撮影画像の縮小画像)を表示させ、分割表示領域122に上記代表画像(より詳しくは、該代表画像の縮小画像)を表示させる。これにより、一連のブラケット画像を保存しつつ、撮影済みの画像の確認容易化が図られる。
For example, consider a case where five images based on five normal shootings and four bracket images (first to fourth bracket images) based on one bracket shooting are recorded on the
代表画像は、例えば、上記の順序付け指示の内容に従って定められる。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、第2のブラケット画像が代表画像とされる。 The representative image is determined, for example, according to the contents of the ordering instruction. That is, for example, when the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, the second bracket image is set as the representative image.
また、一定時間間隔をおいて、第1〜第4のブラケット画像の中で、代表画像を自動的に変更するようにしてもよい。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、最初は、第2のブラケット画像を代表画像として分割表示領域122に表示し、一定時間経過後、第3のブラケット画像を代表画像として分割表示領域122に更新表示する。以後、一定時間が経過する度に、分割表示領域122に更新表示されるべき代表画像を、第1のブラケット画像、第4のブラケット画像へと変更し、第4のブラケット画像の次は第2のブラケット画像に戻るようにする。
Further, the representative image may be automatically changed in the first to fourth bracket images at regular time intervals. That is, for example, when the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, first, the second bracket image is used as a representative image in the divided
また、時間に応じて自動的に代表画像を変更するのではなく、操作部17に対する、代表画像の切り換えを指示する操作(切り換え指示)に応じて、分割表示領域122に表示されるべき代表画像を順次切り換えてもよい。
Also, instead of automatically changing the representative image according to the time, the representative image to be displayed in the divided
また、表示画面における全表示領域内に1枚の画像のみを再生表示する通常再生モードにおいても、サムネイル画像再生モードと同様に処理することが可能である。即ち例えば、図9のステップS8において、第2、第3、第1、第4のブラケット画像の順番で順序付けがなされた場合、通常再生モードにおいて、第2のブラケット画像を代表画像として表示する。その後、サムネイル画像再生モードと同様、時間経過に応じて或いは操作部17に対する操作に応じて、再生表示する画像を第3、第1、第4のブラケット画像の順番で変更していく。
In the normal playback mode in which only one image is played back and displayed in the entire display area on the display screen, the same processing as in the thumbnail image playback mode can be performed. That is, for example, if the second, third, first, and fourth bracket images are ordered in step S8 of FIG. 9, the second bracket image is displayed as a representative image in the normal playback mode. Thereafter, as in the thumbnail image playback mode, the images to be played back and displayed are changed in the order of the third, first, and fourth bracket images as time elapses or in response to an operation on the
また、4枚のブラケット画像の内の何れを代表画像とするかを、予め定めておいてもよい(これは、サムネイル画像再生モードと通常再生モードにおいて共通する)。例えば、4枚のブラケット画像の内、最初に撮影されたブラケット画像を代表画像として定めるようにしてもよい。 Further, which of the four bracket images is used as the representative image may be determined in advance (this is common in the thumbnail image playback mode and the normal playback mode). For example, among the four bracket images, the first bracket image taken may be determined as the representative image.
<<第2実施例>>
撮影領域内に3つの顔が含まれている場合を想定して第1実施例を説明したが、撮影領域内に含まれる顔の個数が幾つであっても本発明は有効に機能する。例えば、撮影領域内に含まれる顔の個数が1である場合を、第2実施例として説明する。撮影領域内に含まれる顔が、図12に示す如く、顔F1であるとする。
<< Second Example >>
Although the first embodiment has been described on the assumption that three faces are included in the shooting area, the present invention functions effectively regardless of the number of faces included in the shooting area. For example, a case where the number of faces included in the shooting area is 1 will be described as a second embodiment. Assume that the face included in the imaging region is a face F1 as shown in FIG.
この場合、第1実施例と同様、顔検出部14は、その撮影画像の中から顔F1を検出して、顔F1を含む顔領域RF1を抽出する。そして、この撮影画像に対し、制御部13は、2つの撮影パラメータを生成する。この2つの撮影パラメータを、撮影パラメータPRA1、PRA2と呼ぶことにする。
In this case, as in the first embodiment, the
撮影パラメータPRA1は、顔F1の撮影に適した撮影パラメータ(顔優先パラメータ)とされる。撮影パラメータPRA1の作成に際して、図13(a)に示す如く、画像上に顔F1に着目した領域101が定義される。
The shooting parameter PR A1 is a shooting parameter (face priority parameter) suitable for shooting the face F1. When the shooting parameter PR A1 is created, as shown in FIG. 13A, an
制御部13は、領域101をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域101に収まる被写体についての光学像が撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置PA1という)を算出する。また、制御部13は、領域101を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域101内の画像の明るさが所定の明るさとなるような、絞り32の開度(これを、開度OA1という)を算出する。位置PA1及び開度OA1は、撮影パラメータPRA1に含められる。
Based on the AF evaluation value calculated by treating the
撮影パラメータPRA2は、第1実施例における第4の撮影パラメータと同様の処理にて算出される。撮影パラメータPRA2は、撮影領域全体を平均的に着目した撮影パラメータ(全体平均パラメータ)とされる。撮影パラメータPRA2の作成に際して、図13(b)に示す如く、領域104が定義される。
The shooting parameter PR A2 is calculated by the same process as the fourth shooting parameter in the first embodiment. The imaging parameter PR A2 is an imaging parameter (overall average parameter) that focuses on the entire imaging area on average. When the shooting parameter PR A2 is created, a
制御部13は、領域104をフォーカス検出領域として取り扱って算出されたAF評価値に基づき、そのAF評価値が最大となるような、即ち、領域104に収まる被写体についての光学像が平均的に撮像素子33上で結像するような、フォーカスレンズ31の位置(これを、位置PA2という)を算出する。また、制御部13は、領域104を明るさ評価領域として取り扱って算出されたAE評価値に基づき、そのAE評価値が所定値となるような、即ち、領域104内の画像の明るさ(平均的明るさ)が所定の明るさとなるような、絞り32の開度(これを、開度OA2という)を算出する。位置PA2及び開度OA2は、撮影パラメータPRA2に含められる。
Based on the AF evaluation value calculated by treating the
ブラケット撮影の指示がなされた際は、撮影パラメータPRA1に従うブラケット画像と撮影パラメータPRA2に従うブラケット画像とが連続撮影される。 When an instruction for bracket shooting is given, a bracket image according to the shooting parameter PR A1 and a bracket image according to the shooting parameter PR A2 are continuously shot.
<<第3実施例>>
また例えば、撮影領域内に含まれる顔の個数が2である場合を、第3実施例として説明する。撮影領域内に含まれる顔が、図14に示す如く、顔F1と顔F2であるとする。
<< Third Example >>
Further, for example, a case where the number of faces included in the imaging region is 2 will be described as a third embodiment. Assume that the faces included in the imaging region are a face F1 and a face F2, as shown in FIG.
この場合、第1実施例と同様、顔検出部14は、その撮影画像の中から顔F1及びF2を検出して、顔F1を含む顔領域RF1と顔F2を含む顔領域RF2を抽出する。そして、この撮影画像に対し、制御部13は、4つの撮影パラメータを生成する。この4つの撮影パラメータを、撮影パラメータPRB1、PRB2、PRB3及びPRB4と呼ぶことにする。
In this case, as in the first embodiment, the
図4にて示される、第1実施例で想定した撮影対象と、図14にて示される、第3実施例で想定した撮影対象との比較において、説明の簡略化上、前者における顔F3を単に削除したものが後者に相当し、それ以外の点において両者が一致するものとする。 In the comparison between the imaging target assumed in the first embodiment shown in FIG. 4 and the imaging target assumed in the third embodiment shown in FIG. 14, the face F3 in the former is shown for simplicity of explanation. It is assumed that what is simply deleted corresponds to the latter, and the other points coincide with each other.
そうすると、撮影パラメータPRB1の算出の際、図6(a)と同様、図15(a)に示す如く画像上に顔F2に着目した領域102が定義され、撮影パラメータPRB1は、第1実施例に係る第1の撮影パラメータと同様のものとなる。撮影パラメータPRB2の算出の際、図6(b)と同様、図15(b)に示す如く画像上に顔F1に着目した領域101が定義され、撮影パラメータPRB2は、第1実施例に係る第2の撮影パラメータと同様のものとなる。
Then, when calculating the shooting parameter PR B1 , as in FIG. 6A, a
撮影パラメータPRB3の算出の際、図15(c)に示す如く領域101及び102が定義される。撮影パラメータPRB3は、第1実施例に係る第3の撮影パラメータと同様の手法にて算出されるが、第3の撮影パラメータと異なり領域103が定義されないため(図6(c)参照)、領域101及び102の合計領域が、撮影パラメータを算出するためのフォーカス検出領域と明るさ評価領域として取り扱われる。
When the shooting parameter PR B3 is calculated,
撮影パラメータPRB4の算出の際、図6(d)と同様、図15(d)に示す如く領域104が定義され、撮影パラメータPRB4は、第1実施例に係る第4の撮影パラメータと同様の手法にて算出される。
When calculating the shooting parameter PR B4, the
ブラケット撮影の指示がなされた際は、撮影パラメータPRB1、PRB2、PRB3及びPRB4に従う各ブラケット画像(合計4枚のブラケット画像)が連続撮影される。 When the bracket shooting instruction is given, each bracket image (a total of four bracket images) according to the shooting parameters PR B1 , PR B2 , PR B3, and PR B4 is continuously shot.
図6と図15を参照した説明から理解されるように、撮影画像に含まれる顔が複数である場合は、
複数の顔の内、最も中央に位置する顔に着目した撮影パラメータ(PRB1等)と、
最も大きさが大きい顔に着目した撮影パラメータ(PRB2等)と、
複数の顔の全てに着目した撮影パラメータ(PRB3等)と、
背景をも含む所定領域全体に着目した撮影パラメータ(PRB4等)と、
が生成される。撮影画像に含まれる顔が4以上であっても上述と同様の手法によって複数の撮影パラメータが生成され、ブラケット撮影の実行指示に従って複数の撮影パラメータによる複数のブラケット画像が連続撮影される。
As understood from the description with reference to FIGS. 6 and 15, when there are a plurality of faces included in the captured image,
Shooting parameters (PR B1 etc.) focusing on the face located at the center of a plurality of faces,
Shooting parameters (PR B2 etc.) focusing on the largest face,
Shooting parameters (PR B3 etc.) focusing on all of the faces,
Shooting parameters (PR B4, etc.) focusing on the entire predetermined area including the background,
Is generated. Even if there are four or more faces included in the photographed image, a plurality of photographing parameters are generated by the same method as described above, and a plurality of bracket images with a plurality of photographing parameters are continuously photographed in accordance with a bracket photographing execution instruction.
<<変形等>>
上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
上述の実施形態では、撮影画像の映像信号に基づいてフォーカスレンズ31の位置を制御するようにしているが、フォーカス検出領域内の被写体と撮像装置1との間の距離を測定する測距センサ(不図示)を撮像装置1に搭載し、該測距センサの測定結果に基づいてフォーカスレンズ31の位置を制御するようにしてもよい。
[Note 1]
In the above-described embodiment, the position of the
この場合、各撮影パラメータは、測距センサの測定結果を参照して算出される。例えば、第1実施例の図6(a)に対応する位置P1を算出する際は、測距センサの測定結果に基づいて、領域102に収まる被写体についての光学像が撮像素子33上で結像するようなフォーカスレンズ31の位置を算出し、この位置を位置P1とすればよい。
In this case, each imaging parameter is calculated with reference to the measurement result of the distance measuring sensor. For example, when the position P 1 corresponding to FIG. 6A of the first embodiment is calculated, an optical image of the subject that falls within the
[注釈2]
上述の実施形態では、撮影画像の中から顔を検出し、その顔についての情報に基づいて各撮影パラメータを算出するようにしているが、撮影画像の中から検出される物体は顔以外であってもよい。例えば、検出される物体は、顔を含む、人物の上半身や人物の全身であってもよい。
[Note 2]
In the above-described embodiment, a face is detected from a captured image and each shooting parameter is calculated based on information about the face. However, an object detected from the captured image is other than a face. May be. For example, the detected object may be the upper body of a person including the face or the whole body of the person.
撮影画像の中から人物の上半身や人物の全身を検出する手法として様々な手法が知られており、本発明は、何れの手法をも採用可能である。人物の上半身や人物の全身を、顔検出を利用し、顔を基準として検出するようにしてもよいし、撮影画像中の物体の輪郭(人物のシルエット)から検出するようにしてもよい。 Various methods are known as a method for detecting the upper body of a person or the whole body of a person from a photographed image, and any method can be employed in the present invention. The upper body of the person and the whole body of the person may be detected using the face detection and based on the face, or may be detected from the contour of the object (person's silhouette) in the captured image.
[注釈3]
また、上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
[Note 3]
In addition, the specific numerical values shown in the above description are merely examples, and can naturally be changed to various numerical values.
[注釈4]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、上記ブラケット撮影を行うために必要な演算処理は、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 4]
In addition, the
ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、上記ブラケット撮影を行うために必要な演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。
When the
[注釈5]
図1の顔検出部14は、撮影画像の中から所定種類の物体を検出する物体検出手段として機能する。顔検出部14は、所定種類の物体として人物の顔を検出する。上述したように、物体検出手段によって検出される所定種類の物体は、顔以外であってもよく、人物の上半身や人物の全身であってもよい。
[Note 5]
The
上述の実施形態において、各撮影パラメータを生成するパラメータ生成手段、及び、各ブラケット画像に付されるファイル名を変更するファイル名変更手段は、図1の制御部13によって実現される。上述の実施形態において、上述の順序付け指示を受け付ける指示受付手段は、図1の操作部17によって実現される。
In the above-described embodiment, the parameter generating means for generating each shooting parameter and the file name changing means for changing the file name assigned to each bracket image are realized by the
また、上述の実施形態において、制御部13と表示部15とから成る部位は、画像再生装置としても機能する。この画像再生装置に、記録媒体16及び/又は操作部17が含まれていると考えることもできる。
In the above-described embodiment, the part composed of the
また、撮像装置1の構成要素によって形成される上記画像再生装置の機能を、同等の機能を備えた他の機器(例えばコンピュータ)にて実現することも可能である。この場合、この他の機器が、画像再生装置として機能する。
In addition, the function of the image reproducing device formed by the components of the
1 撮像装置
11 撮像部
12 AFE
13 制御部
14 顔検出部
15 表示部
16 記録媒体
17 操作部
17a シャッタボタン
21 AF評価値検出部
22 AE評価値検出部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
DESCRIPTION OF
DESCRIPTION OF
Claims (9)
前記撮影画像上における前記物体についての情報に基づいて、撮影条件を表す撮影パラメータを複数生成するパラメータ生成手段と、を備え、
特殊撮影を行うための所定の撮影指示がなされた際、事前に生成された各撮影パラメータを適用して順次撮影を行うことにより、前記複数の撮影パラメータによる複数の撮影画像を複数のブラケット画像として得る、撮像装置であって、
前記複数のブラケット画像を順序付けるための順序付け指示を受け付ける指示受付手段を、更に備え、
次回以降の前記特殊撮影に対する複数の撮影パラメータの適用順序は、前記順序付け指示を考慮して設定される
ことを特徴とする撮像装置。 An object detection means for detecting a predetermined type of object from a photographed image obtained by photographing by the imaging means;
Parameter generating means for generating a plurality of shooting parameters representing shooting conditions based on information about the object on the shot image;
When a predetermined shooting instruction for performing special shooting is given, a plurality of shooting images based on the plurality of shooting parameters are converted into a plurality of bracket images by sequentially performing shooting by applying each shooting parameter generated in advance. An imaging device ,
An instruction receiving means for receiving an ordering instruction for ordering the plurality of bracket images;
The application order of the plurality of shooting parameters for the special shooting after the next time is set in consideration of the ordering instruction.
An imaging apparatus characterized by that.
ことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the information specifies a position of the object on the captured image.
ことを特徴とする請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the information specifies at least one of a size and a number of the objects on the captured image.
前記順序付け指示による前記複数のブラケット画像間の順序に基づいて、各ブラケット画像に対応付けられた前記ファイル名を変更するファイル名変更手段と、を更に備えた
ことを特徴とする請求項1〜請求項3の何れかに記載の撮像装置。 Storage means for storing each bracket image with a file name;
The file name changing means for changing the file name associated with each bracket image based on the order between the plurality of bracket images in accordance with the ordering instruction. Item 4. The imaging device according to any one of Items 3 to 3.
前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記フォーカスレンズの位置の変化方向の同一性を考慮して設定される
ことを特徴とする請求項1〜請求項4の何れかに記載の撮像装置。 Each shooting parameter specifies a position of a focus lens for forming an optical image of a subject including the object on an imaging element of the imaging unit,
The application order of the plurality of shooting parameters is set in consideration of the same change direction of the focus lens position during shooting of the plurality of bracket images.
The imaging apparatus according to any one of claims 1 to 4 , wherein the imaging apparatus is characterized in that
前記複数の撮影パラメータの適用順序は、その複数のブラケット画像を撮影する間における前記開度の変化方向の同一性を考慮して設定される
ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。 Each shooting parameter specifies the aperture of the diaphragm that controls the amount of light incident on the imaging device of the imaging means,
The application order of the plurality of shooting parameters is set in consideration of the same change direction of the opening during the shooting of the plurality of bracket images.
The imaging device according to any one of claims 1 to 5 , wherein
ことを特徴とする請求項1〜請求項6の何れかに記載の撮像装置。 The object includes a human face
The imaging apparatus according to any one of claims 1 to 6 , wherein
前記表示手段の表示内容を制御する表示制御手段と、を備え、Display control means for controlling the display content of the display means,
前記表示制御手段は、前記撮像装置による前記特殊撮影に対応する画像を前記表示手段に表示させる際、前記複数のブラケット画像の中から択一的に代表画像を選び、前記特殊撮影に対応する表示領域に該代表画像を表示させるThe display control unit selectively displays a representative image from the plurality of bracket images when displaying an image corresponding to the special shooting by the imaging device on the display unit, and displays corresponding to the special shooting. Display the representative image in the area
ことを特徴とする画像再生装置。An image reproducing apparatus characterized by that.
ことを特徴とする請求項8に記載の画像再生装置。 The representative image displayed in the display area is switched automatically among the plurality of bracket images according to time or according to a switching instruction from the outside.
The image reproducing apparatus according to claim 8, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292163A JP4799366B2 (en) | 2006-10-27 | 2006-10-27 | Imaging apparatus and image reproduction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292163A JP4799366B2 (en) | 2006-10-27 | 2006-10-27 | Imaging apparatus and image reproduction apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008109551A JP2008109551A (en) | 2008-05-08 |
JP4799366B2 true JP4799366B2 (en) | 2011-10-26 |
Family
ID=39442516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006292163A Expired - Fee Related JP4799366B2 (en) | 2006-10-27 | 2006-10-27 | Imaging apparatus and image reproduction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4799366B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5191864B2 (en) * | 2008-11-05 | 2013-05-08 | 富士フイルム株式会社 | Three-dimensional display device, method and program |
JP5329311B2 (en) * | 2009-06-15 | 2013-10-30 | オリンパスイメージング株式会社 | Imaging apparatus, imaging method, playback apparatus, and playback method |
US8743269B2 (en) | 2009-06-15 | 2014-06-03 | Olympus Imaging Corp. | Photographing device, photographing method, and playback method |
KR101838033B1 (en) * | 2011-11-25 | 2018-03-15 | 삼성전자 주식회사 | Method and apparatus for providing image photography of a user device |
JP5968102B2 (en) | 2012-06-15 | 2016-08-10 | キヤノン株式会社 | Image recording apparatus and image reproducing apparatus |
JP5603978B2 (en) * | 2013-07-23 | 2014-10-08 | オリンパスイメージング株式会社 | Imaging apparatus and imaging method |
US9313397B2 (en) * | 2014-05-30 | 2016-04-12 | Apple Inc. | Realtime capture exposure adjust gestures |
JP6298494B2 (en) * | 2016-07-07 | 2018-03-20 | キヤノン株式会社 | Image reproducing apparatus and control method thereof |
JP7469329B2 (en) * | 2019-11-25 | 2024-04-16 | 富士フイルム株式会社 | How to create the video |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06194714A (en) * | 1992-06-02 | 1994-07-15 | Nikon Corp | Automatic bracketing device for camera |
JP4160205B2 (en) * | 1999-06-18 | 2008-10-01 | オリンパス株式会社 | Electronic still camera |
JP2001061128A (en) * | 1999-08-19 | 2001-03-06 | Sony Corp | Image pickup unit |
JP4706159B2 (en) * | 2001-09-20 | 2011-06-22 | 株式会社ニコン | Image reproducing apparatus and image reproducing method |
JP4553346B2 (en) * | 2003-10-22 | 2010-09-29 | キヤノン株式会社 | Focus adjustment device and focus adjustment method |
-
2006
- 2006-10-27 JP JP2006292163A patent/JP4799366B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008109551A (en) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4799366B2 (en) | Imaging apparatus and image reproduction apparatus | |
JP4760742B2 (en) | Digital camera, information display method, and information display control program | |
US8284264B2 (en) | Imaging apparatus, method, and program | |
JP4787180B2 (en) | Imaging apparatus and imaging method | |
US7668451B2 (en) | System for and method of taking image | |
JP5380784B2 (en) | Autofocus device, imaging device, and autofocus method | |
JP2013013050A (en) | Imaging apparatus and display method using imaging apparatus | |
JP5635211B2 (en) | Imaging device | |
JP5228354B2 (en) | Digital camera | |
JP2011217103A (en) | Compound eye photographing method and apparatus | |
JP2013008004A (en) | Imaging apparatus | |
JP2010118882A (en) | Imaging device | |
JP2006067452A (en) | Video recording apparatus, and electronic camera | |
JP2009118083A (en) | Digital camera | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP2007225897A (en) | Focusing position determination device and method | |
JP4173459B2 (en) | Digital camera | |
JP2008263478A (en) | Imaging apparatus | |
JP5217942B2 (en) | Focus adjustment device and imaging device | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2003241066A (en) | Camera | |
JP5415208B2 (en) | Imaging device | |
JP5069076B2 (en) | Imaging apparatus and continuous imaging method | |
JP2008028956A (en) | Imaging apparatus and method for generating image signal for detecting target therein | |
JP4948091B2 (en) | Optical equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110705 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110802 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |