Nothing Special   »   [go: up one dir, main page]

JP2014220546A - Image recorder and image recording method - Google Patents

Image recorder and image recording method Download PDF

Info

Publication number
JP2014220546A
JP2014220546A JP2013096005A JP2013096005A JP2014220546A JP 2014220546 A JP2014220546 A JP 2014220546A JP 2013096005 A JP2013096005 A JP 2013096005A JP 2013096005 A JP2013096005 A JP 2013096005A JP 2014220546 A JP2014220546 A JP 2014220546A
Authority
JP
Japan
Prior art keywords
post
image
additional data
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013096005A
Other languages
Japanese (ja)
Inventor
尚子 渡澤
Naoko Tozawa
尚子 渡澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013096005A priority Critical patent/JP2014220546A/en
Publication of JP2014220546A publication Critical patent/JP2014220546A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the amount of additional data added to range reduction image data and to reduce adverse effects that an image becomes unnatural since the range reduction image data is gradation-adjusted.SOLUTION: An image recorder includes: an image signal generation section for generating image data of high gradation; a region detection section for detecting a region becoming a target of post processing from the generated high gradation image data; a calculation section for calculating a post processing evaluation value of the detected region; a range reduction section for compressing gradation of the high gradation image data and generating range reduction image data; an additional data generation section for generating additional data corresponding to data dissipated by the gradation compression by the range reduction section; and a recording section for associatively recording the reduction image data generated by the range reduction section and the additional data generated by the additional data generation section. The additional data generation section controls a generation method of the additional data in accordance with the post processing evaluation value calculated by the calculation section.

Description

本発明は、高階調の画像データを記録するデジタルカメラなどの画像記録装置及びその方法に関する。   The present invention relates to an image recording apparatus such as a digital camera that records high gradation image data and a method thereof.

デジタルカメラやデジタルビデオカメラといった画像記録装置は、撮像した被写体像を、CMOSセンサやCCD等の撮像素子により画素単位で光電変換し、光の強度に応じた映像信号に変換して、画像信号処理を行う。撮像素子のダイナミックレンジは狭く、明るい被写体と暗い被写体との輝度差が大きいシーンにおいては、両被写体を適性露光で撮影することは困難である。このような問題を解決する為に、同一シーンにおいて露光量の異なる複数枚の画像を撮影し、複数枚の画像データを合成してダイナミックレンジを拡張した画像を得る方法が、近年提案されるようになってきた。拡張された高ダイナミックレンジの画像データをそのまま記録すると膨大な記録容量が必要となり、また表示装置が対応するレンジ幅にも制限がある為、現実的には高ダイナミックレンジの画像データをそのまま記録できない。そこで、標準的なレンジ幅である例えば8ビットの画像データにレンジ縮小して記録する必要がある。   Image recording devices such as digital cameras and digital video cameras photoelectrically convert captured subject images pixel by pixel using an image sensor such as a CMOS sensor or CCD, and convert them into video signals according to the light intensity for image signal processing. I do. In a scene where the dynamic range of the image sensor is narrow and the brightness difference between a bright subject and a dark subject is large, it is difficult to capture both subjects with appropriate exposure. In order to solve such a problem, a method has recently been proposed in which a plurality of images with different exposure amounts are photographed in the same scene, and a plurality of image data are combined to obtain an image with an expanded dynamic range. It has become. If the extended high dynamic range image data is recorded as it is, an enormous recording capacity is required, and the range width supported by the display device is also limited, so in reality it is impossible to record the high dynamic range image data as they are. . Therefore, it is necessary to reduce the range to 8 bits of image data, which is a standard range width, for recording.

特許文献1では、高ダイナミックレンジの画像データを標準的なファイルフォーマットにて記録すると共に、必要に応じて、撮像当初の高ダイナミックレンジのデータを有効利用可能な装置について開示されている。   Patent Document 1 discloses an apparatus that records high dynamic range image data in a standard file format and can effectively use high dynamic range data at the beginning of imaging as necessary.

特開2002−152680号公報JP 2002-152680 A

特許文献1に記載されている構成は、レンジ縮小処理段階で削除した差分ファイルと、差分ファイルが得られた履歴となるパラメータを記録することにより、撮影後に編集ソフトを利用して復元するものである。特許文献1では差分ファイルとパラメータを利用することによって、高ダイナミックレンジを有するレンジ拡大画像データを再現することができる。しかしながら、レンジ拡大画像データを完全に再現させる為に、逆変換処理工程を経て差分データを算出する負荷に加え、撮影後に編集ソフトを用いて後処理する可能性が低い画像データについても、冗長に付加データを記録しているという問題があった。   The configuration described in Patent Document 1 records the difference file deleted at the range reduction processing stage and the parameter that becomes the history of the difference file, and restores it using the editing software after shooting. is there. In Patent Document 1, it is possible to reproduce range-enlarged image data having a high dynamic range by using a difference file and parameters. However, in order to completely reproduce the range-enlarged image data, in addition to the load of calculating the difference data through the inverse conversion process, image data that is unlikely to be post-processed using editing software after shooting is also redundant. There was a problem of recording additional data.

そこで、本発明の目的は、レンジ縮小画像データに付加する付加データの量を低減し、且つ、レンジ縮小画像データに対して階調調整を行ったことで不自然な画像となってしまう弊害を低減することを可能にする画像記録装置及びその方法を提供することにある。   Accordingly, an object of the present invention is to reduce the amount of additional data to be added to the range reduced image data and to adversely affect an unnatural image by performing gradation adjustment on the range reduced image data. An object of the present invention is to provide an image recording apparatus and a method thereof that can be reduced.

上記目的を達成するために、本発明の画像記録装置は、高階調の画像データを生成する画像信号生成手段と、前記画像信号生成手段によって生成された高階調画像データから後処理の対象となる領域を検出する領域検出手段と、前記領域検出手段によって検出された領域の後処理評価値を算出する算出手段と、前記高階調画像データを階調圧縮してレンジ縮小画像データを生成するレンジ縮小手段と、前記レンジ縮小手段による階調圧縮によって消失されたデータに基づく付加データを生成する付加データ生成手段と、前記レンジ縮小手段で生成されたレンジ縮小画像データと、前記付加データ生成手段で生成された付加データとを関連付けて記録する記録手段とを有し、前記付加データ生成手段は、前記算出手段によって算出された後処理評価値に応じて付加データの生成方法を制御することを特徴とする。   In order to achieve the above object, an image recording apparatus of the present invention is an image signal generating unit that generates high gradation image data, and is subjected to post-processing from the high gradation image data generated by the image signal generating unit. Area detection means for detecting an area, calculation means for calculating a post-processing evaluation value of the area detected by the area detection means, and range reduction for generating range-reduced image data by gradation-compressing the high-gradation image data Means, additional data generating means for generating additional data based on data lost by tone compression by the range reducing means, range reduced image data generated by the range reducing means, and generated by the additional data generating means And recording means for recording the additional data in association with each other, and the additional data generating means is a post-process calculated by the calculating means And controlling the method for generating additional data in accordance with the value.

本発明によれば、レンジ縮小画像データに付加する付加データの量を低減し、且つ、撮影後に階調調整を行った際に、トーンジャンプが発生して輝度の変化が少ない平坦領域において疑似輪郭が発生し不自然な画像となってしまうような弊害を防ぐことができる。   According to the present invention, the amount of additional data to be added to the range-reduced image data is reduced, and when the gradation adjustment is performed after shooting, a pseudo contour is generated in a flat region where a tone jump occurs and a change in luminance is small. It is possible to prevent an adverse effect such that an unnatural image occurs.

本発明の実施形態1に係る画像記録装置の構成を表すブロック図である。It is a block diagram showing the structure of the image recording device which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画像処理部の詳細なブロック図である。It is a detailed block diagram of an image processing unit according to the first embodiment of the present invention. 階調補正処理の階調補正前と階調補正後の画素値の関係を説明する図である。It is a figure explaining the relationship between the pixel value before gradation correction of a gradation correction process, and after gradation correction. 本発明の実施形態1に係る画像解析部の詳細なブロック図である。It is a detailed block diagram of the image analysis part which concerns on Embodiment 1 of this invention. 平坦領域であるか否かの判定動作を説明する図である。It is a figure explaining the determination operation | movement of whether it is a flat area | region. 後処理評価値テーブルの例である。It is an example of a post-processing evaluation value table. 本発明の実施形態1に係る記録処理の動作フローチャートである。It is an operation | movement flowchart of the recording process which concerns on Embodiment 1 of this invention. 付加データ生成テーブルの例である。It is an example of an additional data generation table. 記録ファイルフォーマットの概念図である。It is a conceptual diagram of a recording file format. 本発明の実施形態1に係る画像解析部の変形例を表すブロック図である。It is a block diagram showing the modification of the image analysis part which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係る記録処理の動作フローチャートである。It is an operation | movement flowchart of the recording process which concerns on Embodiment 2 of this invention. 後処理編集ソフトのGUI例である。It is an example of GUI of post-processing editing software.

以下、図面を参照しながら、本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施形態1)
図1は、本発明の実施形態1に係る画像記録装置の構成を表すブロック図である。以下、画像記録装置の一例としてデジタルカメラに適用した例を説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image recording apparatus according to Embodiment 1 of the present invention. Hereinafter, an example applied to a digital camera as an example of an image recording apparatus will be described.

図1において、光学系101は、撮像レンズや焦点レンズ等からなるレンズ群および、ズームやフォーカスを制御する駆動系である。光学系101のレンズ群は、被写体からの反射光を集光し、撮像素子102に被写体像を結像する。撮像素子102は、例えばCMOSセンサやCCD等の撮像素子であり、光学系101が結像した被写体像を、光の強度に応じて画素単位で光電変換し、アナログ画像信号をアナログ信号処理部103に出力する。アナログ信号処理部103は、入力されたアナログ画像信号に対し、例えばノイズ除去やゲインコントロール等の信号処理を行い、A/D変換部104に出力する。A/D変換部104は、アナログ信号処理部103で信号処理が適用されたアナログ画像信号をA/D変換し、得られたデジタル画像を画像処理部105に出力する。画像処理部105は、A/D変換部104から出力されたデジタル信号に対し、ROM113に記憶されている設定値に従い、様々な画像処理を行う。   In FIG. 1, an optical system 101 is a lens group including an imaging lens, a focus lens, and the like, and a drive system that controls zoom and focus. The lens group of the optical system 101 collects reflected light from the subject and forms a subject image on the image sensor 102. The image sensor 102 is an image sensor such as a CMOS sensor or a CCD, for example, and subjects the subject image formed by the optical system 101 to photoelectric conversion in units of pixels in accordance with the light intensity, and converts the analog image signal to the analog signal processing unit 103. Output to. The analog signal processing unit 103 performs signal processing such as noise removal and gain control on the input analog image signal and outputs the signal to the A / D conversion unit 104. The A / D conversion unit 104 A / D converts the analog image signal to which the signal processing is applied by the analog signal processing unit 103, and outputs the obtained digital image to the image processing unit 105. The image processing unit 105 performs various image processing on the digital signal output from the A / D conversion unit 104 according to the setting value stored in the ROM 113.

例えば、画像処理部105のブロック図の例を図2に示す。図2において、A/D変換部104から出力されたデジタル信号は、画像信号生成部201に入力される。画像信号生成部201では入力されたデジタル信号からR(赤)信号、G(緑)信号、B(青)信号それぞれを生成する。例えば、CCDの総画素数Nに対して、緑の解像度がN/2、赤・青の解像度がN/4のような単板方式のベイヤ配列のデジタル信号が入力された場合、画素毎に周辺の画素値を用いて補間することでN個のR(赤)信号、G(緑)信号、B(青)信号を生成する。   For example, an example of a block diagram of the image processing unit 105 is shown in FIG. In FIG. 2, the digital signal output from the A / D conversion unit 104 is input to the image signal generation unit 201. The image signal generation unit 201 generates an R (red) signal, a G (green) signal, and a B (blue) signal from the input digital signal. For example, when a digital signal of a single-plate type Bayer arrangement in which the resolution of green is N / 2 and the resolution of red and blue is N / 4 with respect to the total number N of CCD pixels is input for each pixel. N R (red) signals, G (green) signals, and B (blue) signals are generated by interpolation using peripheral pixel values.

画像信号生成部201において生成されたRGB信号は、WB検出部202及びWB処理部203にそれぞれ送られる。WB検出部202では撮影した画像データから撮影画像に適したホワイトバランスのゲイン値を算出する。WB処理部203ではWB検出部202で得られたホワイトバランスのゲイン値を画像のRGBの各画素値に乗算する。ホワイトバランスのゲイン値が乗算された画像データは、一旦RAM114に記録される。複数回の撮影毎に、画像データと不図示の画像解析部115で画像解析して得られた画像データの特徴量をRAM114に記録する。画像解析部115については、後述でブロック図を用いて詳細に説明する。画像データ合成部204では、RAM114に記録されている露出の異なる所定数の画像データの加算合成を行うことで高ダイナミックレンジ画像を生成し、合成後の画像をRAM114に記録する。補正量算出部205は、RAM114に記録されている各画像の特徴量、合成画像の特徴量のデータを基に、階調補正量を算出する。例えば、ガンマ処理や、暗い部分をゲインアップしてコントラストを改善させるブラックストレッチ処理や、明るい部分をゲインダウンして白飛びを防ぐニー処理等の補正量を算出する。   The RGB signals generated by the image signal generation unit 201 are sent to the WB detection unit 202 and the WB processing unit 203, respectively. The WB detection unit 202 calculates a gain value of white balance suitable for the captured image from the captured image data. The WB processing unit 203 multiplies the RGB pixel values of the image by the white balance gain value obtained by the WB detection unit 202. The image data multiplied by the white balance gain value is temporarily recorded in the RAM 114. The image data and the feature amount of the image data obtained by image analysis by the image analysis unit 115 (not shown) are recorded in the RAM 114 every time the image is taken a plurality of times. The image analysis unit 115 will be described in detail later using a block diagram. The image data synthesis unit 204 generates a high dynamic range image by adding and synthesizing a predetermined number of image data with different exposures recorded in the RAM 114, and records the synthesized image in the RAM 114. The correction amount calculation unit 205 calculates the gradation correction amount based on the feature amount data of each image and the feature amount data of the composite image recorded in the RAM 114. For example, a correction amount is calculated such as gamma processing, black stretch processing for improving contrast by increasing gain in a dark portion, and knee processing for reducing bright portion to prevent overexposure.

階調圧縮部206は、RAM114に記録されている合成画像データに対して補正量算出部205から出力される階調補正量を用いて階調補正し、補正後の合成画像データを出力する。ここで行われる階調補正には、線形処理と非線形処理があり、図3に階調補正処理の階調補正前と階調補正後の画素値の関係を示す。横軸は階調処理前の画素値の大きさ、縦軸は階調処理後の画素値の大きさ、(a)は線形処理、(b)は非線形処理のレベル変換の関係を示す。図3(a)に示す線形処理は、線形的にレベル変換する処理である。例えば14ビットの映像信号を8ビットの映像信号にレンジ縮小する場合、14ビットは16384レベル、8ビットは256レベルを表現可能であるから、16384/256=64、即ち64分の1にレベル圧縮することになる。このレベル圧縮により多くの情報を消失することになる。具体的に2進数を用いて説明すると、14ビットデータ[11111010000100]=16004を64で割り算して8ビットデータに丸めると、左に6ビットシフトするので[11111010]=250となる。これを64倍して逆変換、すなわち右に6ビットシフトしても[11111010000000]=16000となり、元のデータには完全には戻らない。一方、(b)に示す非線形処理のレベル変換は、人の目で見た印象に近い自然な画像を実現する為の特性を用いてレベル圧縮を行う。非線形処理も前述した線形処理と同様に、元のデータには完全には戻らず、輝度によって圧縮率が異なり、画素値が低輝度部においては低圧縮、高輝度部においては高圧縮されることになる。また、非線形処理には、暗い部分をゲインアップしてコントラストを改善させるブラックストレッチ処理や、明るい部分をゲインダウンして白飛びを防ぐニー処理を含む。 The gradation compression unit 206 performs gradation correction on the composite image data recorded in the RAM 114 using the gradation correction amount output from the correction amount calculation unit 205, and outputs corrected composite image data. The gradation correction performed here includes linear processing and non-linear processing. FIG. 3 shows the relationship between pixel values before and after gradation correction in the gradation correction processing. The horizontal axis indicates the pixel value before gradation processing, the vertical axis indicates the pixel value after gradation processing, (a) indicates the linear processing, and (b) indicates the level conversion relationship of the nonlinear processing. The linear process shown in FIG. 3A is a process for linearly converting the level. For example, when reducing the range of a 14-bit video signal to an 8-bit video signal, it is possible to express 16384 levels and 8 bits can represent 256 levels, so that 16384/256 = 64, that is, 1/64 level compression. Will do. A lot of information is lost by this level compression. Specifically, using binary numbers, 14-bit data [11111010000100] 2 = 16044 is divided by 64 and rounded to 8-bit data, resulting in a 6-bit shift to the left, resulting in [11111010] 2 = 250. Even if this is multiplied by 64 and inverted, that is, shifted to the right by 6 bits, [11111010000000] 2 = 16000, and the original data is not completely restored. On the other hand, the level conversion of the non-linear processing shown in (b) performs level compression using characteristics for realizing a natural image close to the impression seen by human eyes. Similar to the linear processing described above, the non-linear processing is not completely restored to the original data, the compression rate varies depending on the luminance, and the pixel value is low compressed in the low luminance portion and high compressed in the high luminance portion. become. Non-linear processing includes black stretch processing that improves contrast by increasing gain in dark portions, and knee processing that gains gain reduction in bright portions and prevents whiteout.

なお、本実施形態ではRAM114に記録されている画像解析部115が解析した各画像の特徴量、合成画像の特徴量のデータを基に補正量算出部205において階調補正量を算出する例を説明したが、各画像の特徴量を使用しても良い。即ち、ROM113に予め置いてあるテーブルデータから階調補正量を求めて階調圧縮部206で階調補正処理を行う構成にしても良い。   In the present embodiment, an example in which the correction amount calculation unit 205 calculates the tone correction amount based on the feature amount data of each image and the feature amount data of the composite image analyzed by the image analysis unit 115 recorded in the RAM 114. As described above, the feature amount of each image may be used. That is, the gradation correction amount may be obtained from the table data previously set in the ROM 113 and the gradation correction processing may be performed by the gradation compression unit 206.

また、本実施形態では最も一般的に利用されている8ビットデータに階調補正する例を説明したが、標準的なファイルフォーマットに従っていればこれに限るものではない。   In this embodiment, an example in which gradation correction is performed on the most commonly used 8-bit data has been described. However, the present invention is not limited to this as long as it follows a standard file format.

また、本実施形態では、露出の異なる所定の複数枚の画像信号を撮影し合成することで高ダイナミックレンジの画像データを生成する例を説明したが、高ダイナミックレンジの画像を生成することが出来れば、これに限るものではない。例えば、撮像素子102のセンサが高ビット対応したセンサであっても良い。例えば入力された8ビットの画素値に対して、平坦部、ディテール部、ノイズ部などといった様々な映像信号の特徴解析を行い、補間値を算出することにより8+nビット、例えば14ビット精度のデータを生成して高階調画像データを得るような構成でも良い。   Further, in the present embodiment, an example in which high dynamic range image data is generated by photographing and combining a plurality of predetermined image signals with different exposures has been described. However, an image with a high dynamic range can be generated. For example, it is not limited to this. For example, the sensor of the image sensor 102 may be a sensor that supports high bits. For example, the characteristics of various video signals such as a flat part, detail part, noise part, etc. are analyzed with respect to the input 8-bit pixel value, and the interpolation value is calculated to obtain 8 + n-bit, for example, 14-bit precision data. It may be configured to generate high gradation image data.

付加データ生成部106は、画像処理部105でレンジ縮小した画像データに付加するデータを生成する。コーデック部107は、画像処理部105で画像処理が適用されたデジタル画像を、後述する記録媒体108に記録するデータ形式に従い符号化処理を行い、記録媒体108に出力する。また、コーデック部107は記録媒体108に記録されている符号化済み画像データを復号し、画像表示部109などに出力する。記録媒体108は、例えばデジタルカメラ100が備える内蔵メモリや、メモリカードやHDD等のデジタルカメラ100に着脱可能に接続される外部記録媒体であり、デジタルカメラ100で撮像した画像を記録する。画像表示部109は、例えば小型液晶ディスプレイ(LCD)等の表示装置であり、画像処理部105が出力したデジタル画像をスルー表示することで、デジタルカメラ100の電子ビューファインダとして機能する。また画像表示部109は、前述のように、コーデック部107で復号した画像データを表示することが可能である。   The additional data generation unit 106 generates data to be added to the image data whose range has been reduced by the image processing unit 105. The codec unit 107 performs an encoding process on the digital image to which the image processing is applied by the image processing unit 105 in accordance with a data format recorded on a recording medium 108 described later, and outputs the encoded image to the recording medium 108. The codec unit 107 decodes the encoded image data recorded on the recording medium 108 and outputs the decoded image data to the image display unit 109 or the like. The recording medium 108 is an external recording medium that is detachably connected to the digital camera 100 such as a built-in memory of the digital camera 100, a memory card, or an HDD, and records an image captured by the digital camera 100. The image display unit 109 is a display device such as a small liquid crystal display (LCD), for example, and functions as an electronic viewfinder of the digital camera 100 by displaying through the digital image output from the image processing unit 105. Further, the image display unit 109 can display the image data decoded by the codec unit 107 as described above.

制御部111は、例えばCPUであり、デジタルカメラ100が備える各ブロックの全体の動作を制御する。操作入力部112は、デジタルカメラ100が備える、例えばレリーズボタンやメニューボタン、タッチパネル等のユーザ入力を検出する入力インタフェースであり、ユーザの操作により入力された情報を、制御部111に伝える。ROM113は、不揮発性の読み出し専用の半導体メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、出力解像度や記録画質等、デジタルカメラ100の撮像に関する設定や、各ブロックの動作に必要な設定値等を記憶する。RAM114は、揮発性の読み書き可能なメモリであり、動作用の定数、変数、ROM113から読みだしたプログラム等を展開するRAMである。制御部111は、例えばROM113に記憶されているデジタルカメラ100が備える各ブロックの動作プログラムを読み出し、RAM114に展開し、実行することにより、デジタルカメラ100が備える各ブロックの動作を制御する。画像解析部115は、制御部111の指示によりRAM114に記憶された画像データの解析を行う。   The control unit 111 is a CPU, for example, and controls the overall operation of each block included in the digital camera 100. The operation input unit 112 is an input interface that is included in the digital camera 100 and detects user input such as a release button, menu button, touch panel, and the like, and transmits information input by a user operation to the control unit 111. The ROM 113 is a non-volatile read-only semiconductor memory, and in addition to an operation program for each block included in the digital camera 100, settings related to imaging of the digital camera 100, such as output resolution and recording image quality, and operation for each block are necessary. Stores setting values and the like. The RAM 114 is a volatile readable / writable memory, and is a RAM that develops operation constants, variables, programs read from the ROM 113, and the like. For example, the control unit 111 reads the operation program of each block included in the digital camera 100 stored in the ROM 113, develops the program in the RAM 114, and executes the program, thereby controlling the operation of each block included in the digital camera 100. The image analysis unit 115 analyzes the image data stored in the RAM 114 according to an instruction from the control unit 111.

図4に画像解析部115のブロック図の例を示す。平坦領域検出部401は、RAM114に記録された合成画像データである高階調の画像データから被写体領域として平坦領域を検出する。例えば、平坦領域検出部401には、RAM114から画素信号のR成分、G成分、B成分のデータが入力され、ROM113からR成分、G成分、B成分各々の閾値である閾値Rth、Gth、Bth設定値が入力される。平坦領域検出部401は、連続する画素値のR成分、G成分、B成分の変化の有無を検出することで平坦領域であるか否かを検出する。 FIG. 4 shows an example of a block diagram of the image analysis unit 115. The flat area detection unit 401 detects a flat area as a subject area from high gradation image data which is composite image data recorded in the RAM 114. For example, the R region, G component, and B component data of the pixel signal is input from the RAM 114 to the flat region detection unit 401, and threshold values R th and G th that are threshold values of the R component, the G component, and the B component from the ROM 113, respectively. , Bth set value is input. The flat region detection unit 401 detects whether or not the region is a flat region by detecting the presence or absence of changes in the R component, G component, and B component of the continuous pixel values.

次に、図5に示すように、入力される画像データを縦横L×M分割し、各々のブロックにおいて平坦領域であるか否かの判定フラグを付ける。平坦領域面積算出部402は、平坦領域検出部401で検出したブロック毎の平坦領域判定フラグを基に平坦領域の面積、及び画面全体における平坦領域が占める割合を算出する。なお、本実施形態では、平坦領域であるか否かを画素値の連続性で検出している。これは、画素値が緩やかに変化していくグラデーションのような変化がある時に、階調圧縮で下位ビットが消失すると擬似輪郭が発生して、目立つということに着目しているので、そのような検出方法を提案している。しかし、平坦領域であるか否かの判断は、画素値の連続性だけでなく、画素値の分散値を評価値として検出しても同様な効果は得られるので、本発明の他の実施形態となる。   Next, as shown in FIG. 5, the input image data is divided into vertical and horizontal L × M, and a determination flag as to whether or not each block is a flat region is attached. The flat region area calculation unit 402 calculates the area of the flat region and the ratio of the flat region in the entire screen based on the flat region determination flag for each block detected by the flat region detection unit 401. In the present embodiment, whether or not a flat region is detected is detected by the continuity of pixel values. This is because, when there is a gradation-like change in which the pixel value changes slowly, it focuses on the fact that pseudo contours are generated and become conspicuous if the lower bits are lost by gradation compression. A detection method is proposed. However, since it is possible to determine whether or not the region is a flat region by detecting not only the continuity of pixel values but also the variance of pixel values as evaluation values, other embodiments of the present invention can be obtained. It becomes.

顔検出部・顔認識部404は、主要被写体検出として、人物の顔画像の検出および顔の認識を行う。即ち、撮影画像の中から主要被写体である顔部分を検出し、顔検出部で検出された人物の顔から、予め登録された顔に合致する顔を認識する。顔検出処理および顔認識処理に関しては既知の技術を適用可能である。例えば、顔検出処理に関しては、制御部111の制御下で当該画像データにバンドパスフィルタを作用させることで、画像のエッジ成分を検出する。その後、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、制御部111は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。顔認識処理の例としては、撮影前に主被写体として認識させる人物の顔を予め撮影してRAM114に記録(登録)しておく。そして、前述の顔検出処理で検出した顔の特徴量と、記録(登録)済みの人物の顔の特徴量と比較することにより、どの検出した顔がどの人物の顔であるかを特定する。   The face detection unit / face recognition unit 404 detects a human face image and recognizes a face as main subject detection. In other words, the face portion that is the main subject is detected from the photographed image, and the face that matches the face registered in advance is recognized from the face of the person detected by the face detection unit. Known techniques can be applied to the face detection process and the face recognition process. For example, regarding the face detection process, an edge component of an image is detected by applying a bandpass filter to the image data under the control of the control unit 111. Thereafter, pattern matching is performed on the detected edge component, and a candidate group of eyes, nose, mouth, and ears is extracted. Then, the control unit 111 determines that an eye pair that satisfies a preset condition (for example, distance between two eyes, inclination, etc.) from the extracted eye candidate group is an eye pair. Narrow down only a certain candidate group. Then, the face candidate is detected by associating the narrowed-down eye candidate group with other parts (nose, mouth, ears) that form a face corresponding thereto, and through a preset non-face condition filter. As an example of face recognition processing, a person's face to be recognized as a main subject is photographed in advance and recorded (registered) in the RAM 114 before photographing. Then, by comparing the feature amount of the face detected by the above-described face detection processing with the feature amount of the face of the recorded (registered) person, which detected face is which person's face is specified.

後処理評価値算出部403は、平坦領域面積算出部402の算出結果及び顔検出部・顔認識部404の検出結果に応じて後処理の対象領域の後処理評価値を算出する。   The post-processing evaluation value calculation unit 403 calculates a post-processing evaluation value for the post-processing target region according to the calculation result of the flat region area calculation unit 402 and the detection result of the face detection unit / face recognition unit 404.

図6に後処理評価値の算出に用いる後処理評価値テーブルの例を示す。後処理評価値テーブルとは、平坦領域面積算出部402で算出した平坦領域の画面全体の面積割合をS、顔検出・顔認識部404による顔検出評価値をP、顔認識評価値をQで表わす。そして、各々の評価値に対応した後処理評価値を後処理評価値A、後処理評価値Bとして対応付けしたテーブルである。601は、平坦領域の面積割合S、602は後処理評価値A、603は顔検出評価値P・顔認識評価値Q、604は後処理評価値Bを示す。例えば、画像データにおいて平坦領域の面積割合が多く、RAM114に予め記録された顔データであると認識された場合は、後処理評価値A、Bは高くなる。逆に、平坦領域の面積割合が小さく、顔検出されなかった場合には、後処理評価値A、Bは低くなる。   FIG. 6 shows an example of a post-process evaluation value table used for calculating the post-process evaluation value. In the post-processing evaluation value table, the area ratio of the entire flat area screen calculated by the flat area calculation unit 402 is S, the face detection evaluation value by the face detection / face recognition unit 404 is P, and the face recognition evaluation value is Q. Represent. And it is the table which matched the post-processing evaluation value corresponding to each evaluation value as the post-processing evaluation value A and the post-processing evaluation value B. Reference numeral 601 denotes an area ratio S of a flat region, 602 denotes a post-processing evaluation value A, 603 denotes a face detection evaluation value P / face recognition evaluation value Q, and 604 denotes a post-processing evaluation value B. For example, if the area ratio of the flat region is large in the image data and the face data is recognized as pre-recorded in the RAM 114, the post-processing evaluation values A and B are high. Conversely, when the area ratio of the flat region is small and no face is detected, the post-processing evaluation values A and B are low.

以上、本実施形態におけるデジタルカメラ100の構成と各ブロックの動作について説明した。上述のようにデジタルカメラ100は光学系101を通して撮像した画像を符号化し、記録媒体に付加することが可能である。   The configuration of the digital camera 100 and the operation of each block in the present embodiment have been described above. As described above, the digital camera 100 can encode an image captured through the optical system 101 and add it to a recording medium.

次に、図7のフローチャートを用いてデジタルカメラ100の記録時の処理を詳細に説明する。図7は、本発明の実施形態1に係る記録処理の動作フローチャートである。図7のフローチャートは、制御部111によって各処理ブロックを制御し実行される処理手順を図示したものであり、制御部111が、メモリ(ROM)に格納されているプログラムをメモリ(RAM)に展開し、CPUが実行することにより実現される。   Next, the recording process of the digital camera 100 will be described in detail using the flowchart of FIG. FIG. 7 is an operation flowchart of a recording process according to the first embodiment of the present invention. The flowchart of FIG. 7 illustrates a processing procedure executed by controlling each processing block by the control unit 111. The control unit 111 expands a program stored in the memory (ROM) into the memory (RAM). However, this is realized by the execution of the CPU.

ステップS701において、画像処理部105は、高階調画像データを生成する。本実施形態では、画像処理部105に含まれる画像データ合成部204において、露出の異なる複数枚の画像を合成することで高階調画像データを生成する。ステップS702において、画像解析部115は、画像処理部105に含まれる画像データ合成部204から出力される高階調画像データの平坦領域を、平坦領域検出部401を用いて検出する。ステップS703において、画像解析部115は、ステップS702で検出された平坦領域の面積及び画面全体における面積割合を算出する。   In step S701, the image processing unit 105 generates high gradation image data. In the present embodiment, the image data combining unit 204 included in the image processing unit 105 generates high gradation image data by combining a plurality of images with different exposures. In step S <b> 702, the image analysis unit 115 detects a flat area of the high gradation image data output from the image data synthesis unit 204 included in the image processing unit 105 using the flat area detection unit 401. In step S703, the image analysis unit 115 calculates the area of the flat region detected in step S702 and the area ratio in the entire screen.

ステップS704において、制御部111は、ステップS703で算出された平坦領域の面積割合が、ROM113に予め記録されている任意の閾値設定値よりも大きいか否かを判定する。平坦領域が任意の閾値設定値よりも大きいと判定された場合は、ステップS705に進む。平坦領域が任意の閾値設定値よりも小さいと判定された場合は、ステップS709に進む。   In step S <b> 704, the control unit 111 determines whether the area ratio of the flat region calculated in step S <b> 703 is larger than an arbitrary threshold setting value recorded in advance in the ROM 113. If it is determined that the flat region is larger than the arbitrary threshold setting value, the process proceeds to step S705. If it is determined that the flat area is smaller than an arbitrary threshold value, the process proceeds to step S709.

ステップS705において、画像解析部115に含まれる後処理評価値算出部403は、平坦領域面積算出部402で算出した面積割合と顔検出部・顔認識部404で算出した顔検出評価値、顔認識評価値に応じて後処理評価値を算出する。例えば、図6に示した後処理評価値テーブルを用いて、後処理評価値Aが30、後処理評価値Bが40という結果が得られた場合は、各々の評価値を加算することで後処理評価値を30+40=70と算出する。   In step S705, the post-processing evaluation value calculation unit 403 included in the image analysis unit 115 calculates the area ratio calculated by the flat region area calculation unit 402, the face detection evaluation value calculated by the face detection unit / face recognition unit 404, and face recognition. A post-processing evaluation value is calculated according to the evaluation value. For example, when the post-process evaluation value A is 30 and the post-process evaluation value B is 40 using the post-process evaluation value table shown in FIG. The processing evaluation value is calculated as 30 + 40 = 70.

ステップS706において、画像処理部105に含まれる階調圧縮部206において、補正量算出部205の補正量に基づきレンジ縮小画像データを生成する。ステップS707において、付加データ生成部106は、ステップS705において後処理評価値算出部403で算出した後処理評価値に応じて、付加データを生成する。例えば、付加データ生成部106は、図8に示した付加データ生成テーブルに基づいて、付加データを生成する。付加データ生成テーブルについては後述する。   In step S706, the gradation compression unit 206 included in the image processing unit 105 generates range reduced image data based on the correction amount of the correction amount calculation unit 205. In step S707, the additional data generation unit 106 generates additional data according to the post-processing evaluation value calculated by the post-processing evaluation value calculation unit 403 in step S705. For example, the additional data generation unit 106 generates additional data based on the additional data generation table shown in FIG. The additional data generation table will be described later.

ステップS708において、画像処理部105で生成した画像データと付加データ生成部106で生成した付加データとを関連付けて記録媒体108に記録する。どのように関連付けて記録するかについては、図9を用いて後述する。ステップS709において、ステップS704において平坦領域の全体に占める割合が所定の閾値(設定値)よりも小さい場合は、付加データを記録せずにレンジ縮小画像データのみを記録する。   In step S708, the image data generated by the image processing unit 105 and the additional data generated by the additional data generating unit 106 are associated with each other and recorded on the recording medium 108. How to associate and record will be described later with reference to FIG. In step S709, when the ratio of the entire flat area in step S704 is smaller than a predetermined threshold value (set value), only the reduced range image data is recorded without recording the additional data.

図8に示す付加データ生成テーブルとは、後処理評価値算出部403で算出した後処理評価値と付加データ生成部106で生成する付加データの下位ビット幅の対応付けを示すテーブルである。801は、後処理評価値算出部403で算出した後処理評価値、802は付加データの下位ビット幅を示す。例えば、画像データ合成部204で生成した14ビットの高階調画像データを階調処理により8ビットのレンジ縮小画像データにレンジ縮小する場合に、消失した下位6ビットを後処理評価値に応じて1ビットから6ビットを付加データの対象とする。付加データ生成部106は、対象となった下位ビットをコーデック部107で圧縮する。例えば、図6に示した後処理評価値テーブルにより、後処理評価値算出部403は、後処理評価値Aが30、後処理評価値Bが40であった場合に、最終的な後処理評価値を30+40=70と加算して求める。次に付加データ生成部106は、図8の付加データ生成テーブルにより、後処理評価値が70の場合は、付加データの下位ビット幅を4ビットと決定する。   The additional data generation table shown in FIG. 8 is a table showing the correspondence between the post-processing evaluation value calculated by the post-processing evaluation value calculation unit 403 and the lower bit width of the additional data generated by the additional data generation unit 106. Reference numeral 801 denotes a post-processing evaluation value calculated by the post-processing evaluation value calculation unit 403, and 802 denotes a lower bit width of the additional data. For example, when 14-bit high gradation image data generated by the image data composition unit 204 is subjected to range reduction to 8-bit range reduced image data by gradation processing, the lost lower 6 bits are set to 1 according to the post-processing evaluation value. 6 bits to 6 bits are the target of additional data. The additional data generation unit 106 compresses the target lower bits by the codec unit 107. For example, according to the post-process evaluation value table shown in FIG. 6, the post-process evaluation value calculation unit 403 allows the final post-process evaluation value when the post-process evaluation value A is 30 and the post-process evaluation value B is 40. The value is obtained by adding 30 + 40 = 70. Next, when the post-processing evaluation value is 70, the additional data generation unit 106 determines that the lower bit width of the additional data is 4 bits according to the additional data generation table of FIG.

図9に記録媒体108の記録ファイルフォーマットの概念図を示す。本実施形態によれば、画像処理部105から出力されるレンジ縮小画像データと付加データ生成部106から出力される付加データとを、コーデック部107において各々符号化して記録媒体108に記録する。レンジ縮小画像データは、標準的なフォーマットの画像データであり、例えば8ビットのJPEG圧縮形式のデータである。一方、付加データは、図8の付加データ生成テーブルに基づいて消失される下位ビットのビット幅を対象とし、コーデック部107において上位ビットよりも符号化効率を高く、高圧縮したデータである。本実施形態で、付加データの符号化圧縮率を高めるのは、メインの画像のように本データがなくてもメインの画像が破綻することがないので、その重要性を加味して、メインの画像データより符号化圧縮率を高めている。   FIG. 9 shows a conceptual diagram of the recording file format of the recording medium 108. According to the present embodiment, the reduced range image data output from the image processing unit 105 and the additional data output from the additional data generation unit 106 are encoded by the codec unit 107 and recorded on the recording medium 108. The range-reduced image data is image data in a standard format, for example, 8-bit JPEG compression format data. On the other hand, the additional data is data that has a higher compression efficiency than the upper bits and is highly compressed in the codec unit 107 for the bit width of the lower bits that are lost based on the additional data generation table of FIG. In this embodiment, the encoding compression rate of the additional data is increased because the main image does not fail even if there is no main data like the main image. The encoding compression rate is higher than that of image data.

また、付加データの下位ビットの発生パターンは、画素ごとの相関は低く、発生確率に依存するような形で発生するので、発生確率を効率的に符号化圧縮する算術符号化等を用いると、さらに、高効率に符号化圧縮することも可能となる。   In addition, since the generation pattern of the lower bits of the additional data has a low correlation for each pixel and occurs in a form that depends on the occurrence probability, using arithmetic coding or the like that efficiently encodes and compresses the occurrence probability, Furthermore, it is possible to perform encoding and compression with high efficiency.

付加データを画像データに関連付ける方法としては、図9(a)に示すように付加データ全てをレンジ縮小画像データに埋め込む場合と、図9(b)に示すように付加データの情報のみをレンジ縮小画像データに付加する場合とがある。図9(a)の例では画像データの後に、生成した付加データを埋め込んでいるが、埋め込まれる位置はこれに限るものではなく、画像データのヘッダ部に埋め込んでも良い。図9(a)において901は画像データであり、例えばJPEG圧縮方式のデータである。902、903、904は付加データブロックで、902は付加データのブロックヘッダ、903は付加データのボディ、904は付加データのフッタである。ヘッダ902とフッタ904は画像データに付加データが連結されているかどうかを正しく認識する為に、付加データブロックの識別情報、サイズ等が記録されている。図9(b)において905は画像データであり、906は付加データの情報、907は付加データを示している。画像データ905に、付加データの情報906のみを付加することにより、付加データ907を画像データと関連付けている。図9(b)の例では画像データの後に生成した付加データの情報としてファイル名のみが付加され、付加データは別に独立して存在している例を示している。付加する位置はこれに限るものではなく、付加データの情報を画像データのヘッダの一部に付加しても良い。また、付加データの情報としてファイル名を付加する例で説明したが、これに限るものではなく付加データの位置を付加データの情報として付加しても良い。   As a method of associating the additional data with the image data, the case where all the additional data is embedded in the range-reduced image data as shown in FIG. It may be added to image data. In the example of FIG. 9A, the generated additional data is embedded after the image data. However, the embedded position is not limited to this, and may be embedded in the header portion of the image data. In FIG. 9A, reference numeral 901 denotes image data, for example, JPEG compression data. Reference numerals 902, 903, and 904 denote additional data blocks, reference numeral 902 denotes a block header of additional data, reference numeral 903 denotes a body of additional data, and reference numeral 904 denotes a footer of additional data. The header 902 and the footer 904 record identification information, size, and the like of the additional data block in order to correctly recognize whether the additional data is connected to the image data. In FIG. 9B, reference numeral 905 denotes image data, reference numeral 906 denotes additional data information, and reference numeral 907 denotes additional data. By adding only the additional data information 906 to the image data 905, the additional data 907 is associated with the image data. In the example of FIG. 9B, only the file name is added as the information of the additional data generated after the image data, and the additional data exists separately. The position to be added is not limited to this, and the information of the additional data may be added to a part of the header of the image data. Further, although an example in which a file name is added as additional data information has been described, the present invention is not limited to this, and the position of the additional data may be added as additional data information.

このように本実施形態では、撮影後に編集ソフトを用いて後処理する可能性のある領域、即ち空等の輝度が平坦な平坦領域、更には主被写体に平坦領域がある場合(顔の肌等)といったシーンを絞って、レンジ縮小画像データに付加データを関連付けて記録する。こうすることにより、出来るだけ記録データ量を少なく、且つ、レンジ縮小画像データに対して階調調整を行った際に、トーンジャンプが発生し疑似輪郭等の不自然な画像が作成される弊害を防ぐことが可能である。   As described above, in this embodiment, an area that may be post-processed by using editing software after shooting, that is, a flat area with a flat brightness such as the sky, and a flat area in the main subject (such as facial skin) ) And the additional data is recorded in association with the reduced range image data. By doing this, the amount of recorded data is reduced as much as possible, and when the tone adjustment is performed on the range-reduced image data, a tone jump occurs and an unnatural image such as a pseudo contour is created. It is possible to prevent.

なお、本実施形態においては、画像解析部115において、顔検出・顔認識の評価値を用いる例を説明したが、これに限らない。例えば画像解析部115においてユーザが撮影後に編集ソフトを用いて後処理で調整する可能性の高い被写体や画像パターンを検出する検出ブロックを更に備える構成にし、各ブロックで算出された評価値を加算して最終的な後処理評価値を算出する構成でも良い。   In the present embodiment, the image analysis unit 115 uses the face detection / face recognition evaluation value. However, the present invention is not limited to this. For example, the image analysis unit 115 further includes a detection block that detects a subject or an image pattern that is likely to be adjusted by post-processing using an editing software after shooting, and adds the evaluation value calculated in each block. The final post-processing evaluation value may be calculated.

図10に画像解析部115の変形例を示す。図10の画像解析部115は、図4で説明した画像解析部115の例に、解析する機能ブロックを更に加えたものである。よって図4と同符号のついた機能ブロックは、図4で説明したものと同様であるためここでの説明は省略する。   FIG. 10 shows a modification of the image analysis unit 115. The image analysis unit 115 in FIG. 10 is obtained by further adding a function block to be analyzed to the example of the image analysis unit 115 described in FIG. Therefore, the functional blocks having the same reference numerals as those in FIG. 4 are the same as those described in FIG.

図10において、ユーザ設定情報取得部1001は、ユーザがデジタルカメラ100のタッチパネル等を用いて、任意に後処理予定の被写体を設定した際の設定情報を取得する。例えば、ユーザが被写体を設定する際に被写体及び後処理の重要度を入力する場合、ユーザが設定した重要度が高い程、ユーザ設定情報取得部1001から出力される評価値を高くし、後処理評価値算出部403の後処理評価値は高く算出されることになる。これは、ユーザが注目している画像なので階調制御をやり直す可能性が高いという理由で重みを付加していることになる。   In FIG. 10, a user setting information acquisition unit 1001 acquires setting information when the user arbitrarily sets a subject to be post-processed using the touch panel of the digital camera 100 or the like. For example, when the user inputs the subject and the importance of post-processing when setting the subject, the higher the importance set by the user, the higher the evaluation value output from the user setting information acquisition unit 1001, and post-processing The post-process evaluation value of the evaluation value calculation unit 403 is calculated to be high. This is because weight is added because it is highly likely that the tone control will be performed again because the image is focused on by the user.

また、記憶色を検出する記憶色検出部1002は、夕焼けや桜の花などといった記憶色を検出する。例えば、夕焼け色や桜色のRGB値を予めROM113に記録しておき、記憶色検出部1002は、高階調画像データのRGB値とROM113に記録されている記憶色のRGB値が近ければ近い程、記憶色検出部1002から出力される評価値を高くする。こうすることで、後処理評価値算出部403の後処理評価値は高く算出されることになる。これは、人が記憶して印象に残りやすい部分に関して、階調制御をやり直す可能性が高いという理由で重みを付加していることになる。   A memory color detection unit 1002 that detects a memory color detects a memory color such as a sunset or a cherry blossom. For example, the RGB values of the sunset color and cherry blossom color are recorded in the ROM 113 in advance, and the memory color detection unit 1002 indicates that the closer the RGB value of the high gradation image data and the RGB value of the memory color recorded in the ROM 113 are, The evaluation value output from the memory color detection unit 1002 is increased. By doing so, the post-processing evaluation value of the post-processing evaluation value calculation unit 403 is calculated to be high. This is because a weight is added because there is a high possibility that the gradation control is performed again on a portion that is easily memorized and remains in the impression.

高輝度領域検出部1003は、階調圧縮部206において階調補正する際に圧縮率が高くなる高輝度部を検出する。例えば、高輝度である程、階調圧縮部206での階調圧縮率が高くなり、消失する下位ビット幅が大きくなってしまう為、高輝度である程、高輝度領域検出部1003から出力される評価値を高くする。こうすることで、後処理評価値算出部403の後処理評価値は高く算出されることになる。これは、階調圧縮で削減されたデータの中で、輝度の高い目立ち易い部分に関して、階調制御をやり直す可能性が高いという理由で重みを付加していることになる。   The high-intensity area detection unit 1003 detects a high-intensity part with a high compression rate when the gradation compression unit 206 performs gradation correction. For example, the higher the luminance is, the higher the gradation compression rate in the gradation compression unit 206 is, and the lower bit width to be lost is larger. Therefore, the higher the luminance is, the higher the luminance is output from the high luminance region detection unit 1003. Increase the evaluation value. By doing so, the post-processing evaluation value of the post-processing evaluation value calculation unit 403 is calculated to be high. This is because a weight is added because there is a high possibility that the gradation control is performed again on a portion with high brightness and conspicuous in the data reduced by the gradation compression.

露出段差情報検出部1004は、画像データ合成部204に入力される所定の複数枚の画像データの露出段差情報を検出する。例えば、露出段差が大きければ大きい程、階調圧縮部206において階調圧縮する際に消失する下位ビット幅が大きくなってしまう為、露出段差が大きい程、露出段差情報検出部1004から出力される評価値を高くする。こうすることで、後処理評価値算出部403の後処理評価値は高く算出されることになる。   The exposure step information detection unit 1004 detects the exposure step information of a plurality of predetermined image data input to the image data composition unit 204. For example, the larger the exposure step, the larger the lower bit width that disappears when the tone compression unit 206 performs tone compression. Therefore, the larger the exposure step, the more output from the exposure step information detection unit 1004. Increase the evaluation value. By doing so, the post-processing evaluation value of the post-processing evaluation value calculation unit 403 is calculated to be high.

テクスチャ領域検出部1005は、高周波成分を多く持つ複雑な画柄を持つテクスチャ領域を検出する。例えば、画像から画素値の分散値を抽出し、所定値より大きい値を有するものを検出することでテクスチャ領域を検出する。テクスチャ領域は平坦領域と比較して、階調圧縮によるトーンジャンプで疑似輪郭が発生しても、画柄が複雑なので疑似輪郭が発生していても目立たないという特徴がある。そこで、テクスチャパターンであればある程、テクスチャ領域検出部1005から出力される評価値を高くする。こうすることで、後処理評価値算出部403の後処理評価値は、これまでのブロックとは逆に低く算出されることになる。   The texture area detection unit 1005 detects a texture area having a complicated pattern having many high frequency components. For example, a texture region is detected by extracting a variance value of pixel values from an image and detecting one having a value larger than a predetermined value. Compared with the flat area, the texture area has a feature that even if a pseudo contour is generated by tone jump by gradation compression, even if a pseudo contour is generated because the pattern is complicated, the texture area is not conspicuous. Therefore, the evaluation value output from the texture region detection unit 1005 is increased as the texture pattern is increased. By doing so, the post-processing evaluation value of the post-processing evaluation value calculation unit 403 is calculated to be lower than the previous blocks.

なお、後処理評価値算出部403において、1001〜1005の各々のブロックで算出した評価値から最終的な後処理評価値を算出するような構成としても良い。   The post-processing evaluation value calculation unit 403 may be configured to calculate a final post-processing evaluation value from the evaluation values calculated in the respective blocks 1001 to 1005.

なお、本実施形態においては、後処理評価値が高かった画像に対して、図8の付加データ生成テーブルに基づいて、画面全体の全画素に対して同様の下位ビット幅を付加データの対象範囲として、付加データを生成する構成としたがこれに限らない。例えば、より付加データの量を削減したい場合においては、階調圧縮部206で用いた特性、即ちガンマ処理、ニー処理、ブラックストレッチ処理の特性から、画素毎に輝度値に応じて階調圧縮率を算出する。そして、その算出結果から階調圧縮率が高い程、後処理評価値が高くなるよう算出し、付加データの下位ビット幅を画素毎に制御する構成としても良い。その場合は、後処理評価値が所定値よりも低い画素に対しては、付加データをなしとするか、もしくは0詰めして、ビット幅を全画素合わせる構成としても良い。   In the present embodiment, for the image having a high post-processing evaluation value, based on the additional data generation table in FIG. However, the present invention is not limited to this. For example, when it is desired to further reduce the amount of additional data, the gradation compression rate is determined according to the luminance value for each pixel from the characteristics used in the gradation compression unit 206, that is, the characteristics of gamma processing, knee processing, and black stretch processing. Is calculated. Then, the post-processing evaluation value may be calculated to be higher as the gradation compression rate is higher from the calculation result, and the lower bit width of the additional data may be controlled for each pixel. In such a case, for the pixel whose post-processing evaluation value is lower than the predetermined value, the additional data may be omitted, or zero-padded so that the bit width is adjusted to all pixels.

(実施形態2)
次に、実施形態2として、動画像を撮像し、動画像データを記録する場合に本発明を適用する例について説明する。
(Embodiment 2)
Next, as Embodiment 2, an example in which the present invention is applied when a moving image is captured and moving image data is recorded will be described.

なお、実施形態2においては、画像記録装置の一例として実施形態1と同じくデジタルカメラに本発明を適用した例を説明することとし、基本構成は実施形態1と共通である。以下の説明においては実施例1との差異点である動作フローチャートと後処理の編集ソフトにおけるGUI例のみの説明とする。   In the second embodiment, an example in which the present invention is applied to a digital camera as in the first embodiment will be described as an example of an image recording apparatus, and the basic configuration is the same as that in the first embodiment. In the following description, only an operation flowchart, which is a difference from the first embodiment, and a GUI example in post-processing editing software will be described.

図11のフローチャートを用いてデジタルカメラ100の動画像データ記録時の処理を詳細に説明する。図11は、本発明の実施形態2に係る記録処理の動作フローチャートである。図11のフローチャートは、制御部111によって各処理ブロックを制御し実行される処理手順を図示したものであり、制御部111が、メモリ(ROM)に格納されているプログラムをメモリ(RAM)に展開し、CPUが実行することにより実現される。なお、図11のフローチャートのうち、図7と同符号のついた処理は、実施形態1と同様であるため、ここでの説明は省略する。   The processing at the time of recording moving image data of the digital camera 100 will be described in detail using the flowchart of FIG. FIG. 11 is an operation flowchart of recording processing according to Embodiment 2 of the present invention. The flowchart of FIG. 11 illustrates a processing procedure executed by controlling each processing block by the control unit 111. The control unit 111 expands a program stored in the memory (ROM) to the memory (RAM). However, this is realized by the execution of the CPU. In the flowchart of FIG. 11, the processes denoted by the same reference numerals as those in FIG. 7 are the same as those in the first embodiment, and thus the description thereof is omitted here.

ステップS701からS704において、後処理評価値を算出するまでのフローは実施例形態1における図7での説明と同様である。   In steps S701 to S704, the flow until the post-processing evaluation value is calculated is the same as that described with reference to FIG.

ステップS1101において、不図示のシーンチェンジ検出部の検出結果を基に、後処理評価値算出部403はある所定フレーム数分の後処理評価値を算出する。例えば、後処理評価値算出部403は、所定期間である30フレーム分は一定の後処理評価値を用いる構成とし、付加データ生成等の演算処理時間を短縮する。その場合に、後処理評価値の変化点のつなぎ目が不自然にならないよう、不図示のシーンチェンジ検出部の検出結果を基に、後処理評価値の変化点をシーンの切れ目と同じになるよう制御部111は制御する。   In step S1101, the post-processing evaluation value calculation unit 403 calculates post-processing evaluation values for a predetermined number of frames based on the detection result of a scene change detection unit (not shown). For example, the post-processing evaluation value calculation unit 403 is configured to use a constant post-processing evaluation value for 30 frames, which is a predetermined period, and shorten the calculation processing time such as additional data generation. In that case, based on the detection result of the scene change detection unit (not shown), the change point of the post-processing evaluation value is made the same as the scene break so that the transition point of the post-processing evaluation value does not become unnatural. The control unit 111 controls.

ステップS706からS709において、レンジ縮小画像データに付加データを関連付けて記録するフローは実施例形態1における図7での説明と同様である。   In steps S706 to S709, the flow for recording the additional data in association with the reduced range image data is the same as that described with reference to FIG.

ステップS1102において、記録する動画像データが終了しているか否かを判定する。既に全ての動画像データが入力されていれば、記録処理は終了となり、終了していなければ、S701に移る。   In step S1102, it is determined whether the moving image data to be recorded has been completed. If all moving image data has already been input, the recording process ends. If not, the process moves to S701.

次に、記録した動画像データを後処理する際の編集ソフトのGUI例を図12に示す。図12において、画面左側1201は動画像データファイルのファイル一覧を示し、記録された動画像データのサムネイルを上から下に撮影順序通りに表示している。画面右側1202は、タイムライン表示であり、図12の例ではファイル一覧1201にあるサムネイル2にあたるファイル名:002.MTSをユーザが選択した場合の例を示している。後処理評価値算出部403で算出した最終後処理評価値に応じて、後処理したくなりそうなシーンをタイムライン上に後処理必要度:高(1204、1210)や後処理必要度:中(1207)といった具合に、タイムライン上で表示している例である。これによって、ユーザが一目で、どのあたりのシーンを編集ソフトで編集した方が良さそうかといった提示をタイムライン上で識別することができる。後処理評価値が高いシーンに関しては、本実施形態の画像記録装置においては高階調データの下位ビットを多く付加データとしてレンジ縮小画像データに付加して記録している。そのため、ユーザが後処理で階調を調整したとしても、トーンジャンプが発生することはなく、疑似輪郭が発生して不自然な画像となることを防ぐことができる。   Next, FIG. 12 shows an example of GUI of editing software when post-processing the recorded moving image data. In FIG. 12, the left side 1201 of the screen shows a file list of moving image data files, and the thumbnails of the recorded moving image data are displayed in the shooting order from top to bottom. The right side 1202 of the screen is a timeline display. In the example of FIG. 12, the file name corresponding to the thumbnail 2 in the file list 1201 is “002. The example in case a user selects MTS is shown. Depending on the final post-processing evaluation value calculated by the post-processing evaluation value calculation unit 403, a scene that is likely to be post-processed is displayed on the timeline with a post-processing necessity level of high (1204, 1210) or a post-processing necessity level: medium. (1207) is an example displayed on the timeline. Accordingly, it is possible to identify on the timeline the presentation of which scene is likely to be edited with editing software at a glance. For a scene with a high post-processing evaluation value, in the image recording apparatus of this embodiment, a large number of lower bits of high gradation data are added as additional data to the range-reduced image data and recorded. Therefore, even if the user adjusts the gradation by post-processing, tone jump does not occur, and it is possible to prevent a pseudo contour from being generated and an unnatural image.

以上説明したように、本実施形態の画像記録装置は、実施形態1に加えて動画像データに対し、編集ソフト等を用いて後処理する場合に、後処理する可能性のあるシーンに絞って、レンジ縮小画像データに付加データを関連付けて記録する構成とした。これにより、出来るだけ記録データ量を少なく、且つ、レンジ縮小画像データに対して階調調整を行った際に、不自然な画像となる弊害を防ぐことが可能となる。   As described above, the image recording apparatus according to the present embodiment focuses on scenes that may be post-processed when moving image data is post-processed using editing software or the like in addition to the first embodiment. The additional reduced data is associated with the range reduced image data and recorded. This makes it possible to reduce the amount of recording data as much as possible, and to prevent the adverse effect of an unnatural image when tone adjustment is performed on range-reduced image data.

なお、実施形態2において、例えば、ユーザが撮影時にタッチパネル等を用いて、任意に後処理する予定の被写体を設定しても良く、設定した情報を取得するユーザ設定情報取得部1001を備えても良い。また、夕焼けや桜の花などといった記憶色を検出する記憶色検出部1002や階調圧縮部206において階調補正する際に圧縮率が高くなる高輝度部を検出する高輝度領域検出部1003を備えても良い。また、画像データ合成部204に入力される所定の複数枚の画像データの露出段差情報を検出する露出段差情報検出部1004、テクスチャ領域を検出するテクスチャ領域検出部1005などといったブロックを更に備えても良い。このように、実施形態1での説明と同様に各ブロックで算出した各々の評価値から後処理評価値を算出し、この後処理評価値の高いシーンをユーザが後処理した方が良いシーンとする構成にしても良い。   In the second embodiment, for example, the user may arbitrarily set a subject to be post-processed by using a touch panel or the like at the time of shooting, and may include a user setting information acquisition unit 1001 that acquires the set information. good. In addition, a memory color detection unit 1002 that detects a memory color such as sunset or cherry blossoms, and a high luminance region detection unit 1003 that detects a high luminance part whose compression rate is high when gradation correction is performed in the gradation compression unit 206 are provided. May be. The image processing apparatus further includes blocks such as an exposure step information detection unit 1004 that detects exposure step information of a plurality of predetermined image data input to the image data composition unit 204, a texture region detection unit 1005 that detects a texture region, and the like. good. As described above, the post-processing evaluation value is calculated from each evaluation value calculated in each block in the same manner as described in the first embodiment, and the user should post-process a scene having a high post-processing evaluation value. You may make it the structure to carry out.

なお、入力される動画像データを所定フレーム毎に後処理評価値算出する構成としたが、これに限ったものではなく、例えば、後処理評価値を間引いて算出し、間引いたフレームに関しては、補間して評価値を算出するような構成としても良い。   In addition, although it was set as the structure which calculates the post-processing evaluation value for every predetermined | prescribed frame for the moving image data input, it is not restricted to this, for example, it calculates by thinning out the post-processing evaluation value, The evaluation value may be calculated by interpolation.

(その他の実施形態)
さらに、上述した各実施形態におけるフローチャートに示した各処理は、各処理の機能を実現する為のコンピュータプログラムを本件発明の画像符号化装置が動作するシステムのメモリから読み出してシステムのCPUが実行することによっても実現できる。この場合、メモリに記憶されたプログラムは本件発明を構成する。
(Other embodiments)
Furthermore, each process shown in the flowchart in each embodiment described above is executed by the CPU of the system by reading a computer program for realizing the function of each process from the memory of the system in which the image encoding apparatus of the present invention operates. Can also be realized. In this case, the program stored in the memory constitutes the present invention.

上記プログラムは、前述した機能の一部を実現する為のものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、フローチャート図に示した各処理の全部または一部の機能を専用のハードウェアにより実現してもよい。また、フローチャート図に示した各処理の機能を実現する為のプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Moreover, you may implement | achieve the function of all or one part of each process shown to the flowchart figure with exclusive hardware. In addition, a program for realizing the function of each process shown in the flowchart diagram is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

ここで、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置を含む。さらに、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Here, the “computer-readable recording medium” includes a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, a program that holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or client when the program is transmitted via a network such as the Internet or a communication line such as a telephone line Shall also be included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、或いは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.

以上、本発明を好ましい実施例により説明したが、本発明は上述した実施例に限ることなくクレームに示した範囲で種々の変更が可能である。   Although the present invention has been described with reference to the preferred embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims.

101 光学系
102 撮像素子
103 アナログ信号処理部
104 A/D変換部
105 画像処理部
106 付加データ生成部
107 コーデック部
108 記録媒体
109 画像表示部
111 制御部
112 操作入力部
113 ROM
114 RAM
115 画像解析部
DESCRIPTION OF SYMBOLS 101 Optical system 102 Image pick-up element 103 Analog signal processing part 104 A / D conversion part 105 Image processing part 106 Additional data generation part 107 Codec part 108 Recording medium 109 Image display part 111 Control part 112 Operation input part 113 ROM
114 RAM
115 Image analysis unit

Claims (13)

高階調の画像データを生成する画像信号生成手段と、
前記画像信号生成手段によって生成された高階調画像データから後処理の対象となる領域を検出する領域検出手段と、
前記領域検出手段によって検出された領域の後処理評価値を算出する算出手段と、
前記高階調画像データを階調圧縮してレンジ縮小画像データを生成するレンジ縮小手段と、
前記レンジ縮小手段による階調圧縮によって消失されたデータに基づく付加データを生成する付加データ生成手段と、
前記レンジ縮小手段で生成されたレンジ縮小画像データと、前記付加データ生成手段で生成された付加データとを関連付けて記録する記録手段とを有し、
前記付加データ生成手段は、前記算出手段によって算出された後処理評価値に応じて付加データの生成方法を制御することを特徴とする画像記録装置。
Image signal generating means for generating high gradation image data;
A region detecting unit for detecting a region to be post-processed from the high gradation image data generated by the image signal generating unit;
Calculating means for calculating a post-processing evaluation value of the area detected by the area detecting means;
Range reduction means for gradation-compressing the high gradation image data to generate range reduced image data;
Additional data generation means for generating additional data based on data lost by gradation compression by the range reduction means;
Recording means for associating and recording the range reduced image data generated by the range reduction means and the additional data generated by the additional data generation means;
The image recording apparatus, wherein the additional data generation unit controls a method of generating additional data according to the post-processing evaluation value calculated by the calculation unit.
前記領域検出手段は、
前記高階調画像データにおける輝度の変化が少ない平坦領域を検出する平坦領域検出手段と、
前記平坦領域検出手段によって検出された平坦領域の面積を算出する面積算出手段とを有し、
前記面積算出手段によって算出された平坦領域の面積が所定の割合よりも大きい場合に、前記後処理の対象領域として検出することを特徴とする請求項1に記載の画像記録装置。
The region detecting means includes
Flat area detecting means for detecting a flat area with a small change in luminance in the high gradation image data;
An area calculating means for calculating the area of the flat area detected by the flat area detecting means,
The image recording apparatus according to claim 1, wherein when the area of the flat area calculated by the area calculating unit is larger than a predetermined ratio, the area is detected as a target area for the post-processing.
前記算出手段は、
前記領域検出手段により検出された前記後処理の対象領域において、主要被写体を検出する被写体検出手段と、
前記被写体検出手段の検出結果に基づいて前記後処理評価値を算出することを特徴とする請求項1又は2に記載の画像記録装置。
The calculating means includes
Subject detection means for detecting a main subject in the target area of the post-processing detected by the area detection means;
The image recording apparatus according to claim 1, wherein the post-processing evaluation value is calculated based on a detection result of the subject detection unit.
前記算出手段は、後処理評価値テーブルを用いて前記後処理評価値を算出することを特徴とする請求項3に記載の画像記録装置。   The image recording apparatus according to claim 3, wherein the calculation unit calculates the post-processing evaluation value using a post-processing evaluation value table. 前記被写体検出手段は、前記高階調画像データから人物の顔を検出する顔検出手段と、人物の顔を認識する顔認識手段のうち、少なくともいずれか一つを備えることを特徴とする請求項3に記載の画像記録装置。   4. The subject detection means comprises at least one of a face detection means for detecting a human face from the high gradation image data and a face recognition means for recognizing a human face. The image recording apparatus described in 1. 前記レンジ縮小手段は、少なくともガンマ処理、ニー処理、又は、ブラックストレッチ処理のいずれかを行う非線形処理手段を含むことを特徴とする請求項1乃至4の何れか1項に記載の画像記録装置。   5. The image recording apparatus according to claim 1, wherein the range reduction unit includes a non-linear processing unit that performs at least one of gamma processing, knee processing, and black stretch processing. 6. 前記算出手段は、
高輝度領域を検出する手段と、
記憶色を検出する手段と、
前記画像信号生成手段で用いた露出段差を検出する手段と、
テクスチャ領域を検出する手段とを有し、
いずれかの検出結果に応じて、前記後処理評価値の値をより高くすることを特徴とする請求項1乃至6の何れか1項に記載の画像記録装置。
The calculating means includes
Means for detecting a high brightness area;
Means for detecting a memory color;
Means for detecting an exposure step used in the image signal generating means;
Means for detecting a texture region,
The image recording apparatus according to claim 1, wherein the post-processing evaluation value is increased according to any detection result.
前記付加データ生成手段は、前記領域検出手段により検出された後処理の対象領域が含まれる画面全体に対して前記付加データを生成することを特徴とする請求項1乃至7の何れか1項に記載の画像記録装置。   The said additional data production | generation means produces | generates the said additional data with respect to the whole screen including the object area | region of the post-processing detected by the said area | region detection means, The any one of Claim 1 thru | or 7 characterized by the above-mentioned. The image recording apparatus described. 前記付加データ生成手段は、前記後処理評価値が所定値よりも低い画素に対しては、付加データをなしとするか、0詰めしてビット幅を全画素合わせることを特徴とする請求項1乃至7の何れか1項に記載の画像記録装置。   2. The additional data generation unit is characterized in that the additional data is not added to a pixel whose post-processing evaluation value is lower than a predetermined value, or zero-padded and the bit width is adjusted to all pixels. 8. The image recording apparatus according to any one of items 1 to 7. 前記算出手段は、
シーンチェンジ検出手段を有し、
前記シーンチェンジ検出手段によって検出されたシーンチェンジの検出結果に従って前記後処理評価値を算出することを特徴とする請求項1乃至9の何れか1項に記載の画像記録装置。
The calculating means includes
Having scene change detection means,
The image recording apparatus according to claim 1, wherein the post-processing evaluation value is calculated according to a scene change detection result detected by the scene change detection unit.
高階調の画像データを生成する画像信号生成工程と、
前記画像信号生成工程において生成された高階調画像データから後処理の対象となる領域を検出する領域検出工程と、
前記領域検出工程において検出された領域の後処理評価値を算出する算出工程と、
前記高階調画像データを階調圧縮してレンジ縮小画像データを生成するレンジ縮小工程と、
前記レンジ縮小工程における階調圧縮によって消失されたデータに基づく付加データを生成する付加データ生成工程と、
前記レンジ縮小工程で生成されたレンジ縮小画像データと、前記付加データ生成工程で生成された付加データとを関連付けて記録する記録工程とを有し、
前記付加データ生成工程では、前記算出された後処理評価値に応じて付加データの生成方法を制御することを特徴とする画像記録方法。
An image signal generation step for generating high gradation image data;
A region detecting step of detecting a region to be post-processed from the high gradation image data generated in the image signal generating step;
A calculation step of calculating a post-processing evaluation value of the region detected in the region detection step;
A range reduction process for generating range reduced image data by gradation compressing the high gradation image data;
An additional data generation step of generating additional data based on the data lost by the gradation compression in the range reduction step;
A recording step of associating and recording the range reduced image data generated in the range reduction step and the additional data generated in the additional data generation step;
In the additional data generation step, an additional data generation method is controlled according to the calculated post-processing evaluation value.
コンピュータに、請求項11に記載の画像記録方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the image recording method of Claim 11. 請求項12に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2013096005A 2013-04-30 2013-04-30 Image recorder and image recording method Pending JP2014220546A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013096005A JP2014220546A (en) 2013-04-30 2013-04-30 Image recorder and image recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013096005A JP2014220546A (en) 2013-04-30 2013-04-30 Image recorder and image recording method

Publications (1)

Publication Number Publication Date
JP2014220546A true JP2014220546A (en) 2014-11-20

Family

ID=51938667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013096005A Pending JP2014220546A (en) 2013-04-30 2013-04-30 Image recorder and image recording method

Country Status (1)

Country Link
JP (1) JP2014220546A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075321A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Image capture apparatus, electronic device and image capture method
WO2024010129A1 (en) * 2022-07-07 2024-01-11 엘지전자 주식회사 Display device and operation method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075321A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Image capture apparatus, electronic device and image capture method
WO2024010129A1 (en) * 2022-07-07 2024-01-11 엘지전자 주식회사 Display device and operation method thereof
KR20240006798A (en) * 2022-07-07 2024-01-16 엘지전자 주식회사 A display device and operating method thereof
KR102661177B1 (en) * 2022-07-07 2024-04-29 엘지전자 주식회사 A display device and operating method thereof

Similar Documents

Publication Publication Date Title
JP4321287B2 (en) Imaging apparatus, imaging method, and program
JP4973098B2 (en) Image processing apparatus, image processing method, and program
US10861136B2 (en) Image processing apparatus, image processing method, and storage medium
KR101626004B1 (en) Method and apparatus for selective support of the RAW format in digital imaging processor
KR100942634B1 (en) Image correction device, image correction method, and computer readable medium
KR20120086088A (en) Method and Apparatus for Processing Image
WO2009060970A1 (en) Signal processing apparatus and signal processing program
JP4916378B2 (en) Imaging apparatus, image processing apparatus, image file, and gradation correction method
KR20150141059A (en) Apparatus and method for providing thumbnail image of moving picture
KR101248902B1 (en) Image processing apparatus and method having function of image correction based on luminous intensity around
JP6937603B2 (en) Image processing equipment and its control methods, programs, and storage media
JP2015064768A (en) Imaging device, image modification device, and control method and program of imaging device and image modification device
JP2014107837A (en) Imaging apparatus, image processing system, and control method
JP2014220546A (en) Image recorder and image recording method
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP5202190B2 (en) Image processing method and image processing apparatus
WO2018179523A1 (en) Electronic device and program
JP6740109B2 (en) Image processing apparatus, image processing method, and program
JP5316869B2 (en) Image processing apparatus, image processing method, and program
JP5111317B2 (en) Digital camera
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP2015080157A (en) Image processing device, image processing method and program
JP6257319B2 (en) Imaging apparatus and image processing apparatus
WO2018179522A1 (en) Electronic device, program, and playback device
JP2016129281A (en) Image processor