JP2006203566A - Imaging apparatus, image processing apparatus and image processing method - Google Patents
Imaging apparatus, image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2006203566A JP2006203566A JP2005013200A JP2005013200A JP2006203566A JP 2006203566 A JP2006203566 A JP 2006203566A JP 2005013200 A JP2005013200 A JP 2005013200A JP 2005013200 A JP2005013200 A JP 2005013200A JP 2006203566 A JP2006203566 A JP 2006203566A
- Authority
- JP
- Japan
- Prior art keywords
- data
- scene
- image
- shooting
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 400
- 238000003384 imaging method Methods 0.000 title claims abstract description 220
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 107
- 238000006243 chemical reaction Methods 0.000 claims description 103
- 230000008569 process Effects 0.000 claims description 59
- 238000012937 correction Methods 0.000 abstract description 119
- 238000003860 storage Methods 0.000 abstract description 42
- 230000010365 information processing Effects 0.000 abstract description 15
- 238000004364 calculation method Methods 0.000 description 46
- 238000004458 analytical method Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 24
- 238000005457 optimization Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 16
- 238000012546 transfer Methods 0.000 description 13
- 230000035945 sensitivity Effects 0.000 description 12
- 238000013500 data storage Methods 0.000 description 10
- 239000000463 material Substances 0.000 description 9
- 101100115215 Caenorhabditis elegans cul-2 gene Proteins 0.000 description 8
- 230000001186 cumulative effect Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 8
- 230000003595 spectral effect Effects 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000004321 preservation Methods 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 241000255777 Lepidoptera Species 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- BYJQAPYDPPKJGH-UHFFFAOYSA-N 3-(2-carboxyethyl)-1h-indole-2-carboxylic acid Chemical compound C1=CC=C2C(CCC(=O)O)=C(C(O)=O)NC2=C1 BYJQAPYDPPKJGH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000723369 Cocculus trilobus Species 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000009125 cardiac resynchronization therapy Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 238000005092 sublimation method Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Facsimiles In General (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、デジタルカメラ等の撮像装置、撮像装置により得られたデジタル画像データに対して出力媒体上での鑑賞画像を形成するために画像処理を施す画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for performing image processing to form an appreciation image on an output medium with respect to an image capturing apparatus such as a digital camera and digital image data obtained by the image capturing apparatus.
近年、デジタルカメラ等の撮像装置で撮影されたデジタル画像データは、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスからハードコピー画像としてプリントされたりする等、その表示・プリント方法は多種多様化してきている。 In recent years, digital image data photographed by an imaging device such as a digital camera is displayed on a display device such as a CRT (Cathode Ray Tube), a liquid crystal display, a plasma display, or a small liquid crystal monitor of a mobile phone, or a digital printer, an inkjet There are a variety of display / printing methods such as printing as a hard copy image from an output device such as a printer or a thermal printer.
デジタル画像データを鑑賞用途で表示・プリントする際には、鑑賞に使用するディスプレイモニタ上、或いはハードコピー上において所望の画質が得られるように階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理を施すことが一般に行われている。 When displaying and printing digital image data for viewing purposes, gradation adjustment, brightness adjustment, color balance adjustment, sharpness enhancement to obtain the desired image quality on the display monitor or hard copy used for viewing. In general, various image processes represented by the above are performed.
例えば、撮像装置特性に依存したシーン参照生データに、シーン参照生データを標準化するための再現補助データを添付して記録することにより、汎用性のある画像データを生成する技術が開示されている(特許文献1参照)。 For example, a technique for generating versatile image data by recording reproduction reference data for standardizing scene reference raw data attached to scene reference raw data depending on imaging device characteristics is disclosed. (See Patent Document 1).
また、近年、デジタルカメラで撮影した画像データを、パーソナルコンピュータ等を介さずに、直接インクジェットプリンタ等に伝送して出力を行うPictBridgeと称する規格(CIPA DC-001)が提案されている。また、RAWデータを、現像ソフトを介さずに直接インクジェットプリンタ等で出力することも行われている。
しかしながら、一般的にデジタルカメラの撮影では、全ての撮影が最適な光源条件や露出条件で撮影されるわけではない。撮影された画像のシーン状態がいわゆる逆光、アンダー、ハイコントラスト等、鑑賞に好ましくない状態である場合には、最適な鑑賞画像を得ることが困難であった。 However, in general, in digital camera shooting, not all shooting is performed under optimal light source conditions and exposure conditions. When the scene state of the photographed image is not suitable for viewing such as so-called backlight, under, high contrast, etc., it is difficult to obtain an optimal viewing image.
本発明は上記の従来技術における問題に鑑みてなされたものであって、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる撮像装置、画像処理装置及び画像処理方法を提供することを課題とする。 The present invention has been made in view of the above-described problems in the prior art, and is an imaging apparatus and image processing capable of forming an optimal appreciation image according to a shooting scene without accompanying information loss of captured image information. It is an object to provide an apparatus and an image processing method.
上記課題を解決するために、請求項1に記載の発明は、撮像装置において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録制御手段と、を備えたことを特徴とする。
In order to solve the above-described problem, the invention described in
ここで、本願明細書の記載において「生成」とは、本発明に係る撮像装置及び画像処理装置内において作用するプログラム、処理回路が、画像信号やデータを新たに作り出すことである。「作成」を同義語として用いることもある。 Here, in the description of the present specification, “generation” means that a program or a processing circuit that operates in the imaging apparatus and the image processing apparatus according to the present invention newly creates an image signal and data. “Create” may be used as a synonym.
また、「撮像装置」とは、光電変換機能を有する撮像素子(イメージセンサ)を備えた装置であって、所謂デジタルカメラやスキャナがこれに含まれる。撮像素子の一例としては、CCD(電荷結合素子(Charge Coupled Device))と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与したCCD型撮像素子や、CMOS型撮像素子が挙げられる。これらの撮像素子の出力電流はA/D変換器によりデジタル化される。この段階での各色チャンネルの内容は、撮像素子固有の分光感度に基づいた信号強度となっている。 The “imaging device” is a device including an imaging element (image sensor) having a photoelectric conversion function, and includes a so-called digital camera and scanner. As an example of the image pickup device, there is a CCD type image pickup device provided with a color sensitivity by combining a CCD (Charge Coupled Device), a charge transfer mechanism, and a checkered color filter, or a CMOS type image pickup device. Can be mentioned. The output currents of these image sensors are digitized by an A / D converter. The contents of each color channel at this stage are signal intensities based on the spectral sensitivity unique to the image sensor.
また、「撮像装置の装置特性に依存したシーン参照生データ」とは、被写体に忠実な情報を記録した撮像装置直接の生出力信号であり、前記A/D変換器によりデジタル化されたデータそのものや、該データに固定パターンノイズ・暗電流ノイズ等のノイズ補正を行ったデータを意味し、RAWデータが含まれる。このシーン参照生データは、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGB(Reference Input Medium Metric RGB)やERIMM RGB(Extended Reference Input Medium Metric RGB)(Journal of Imaging Science and Technology 45巻 418〜426頁(2001年)参照)、sRGB(IEC61966-2-1)、scRGB(IEC61966-2-2)等の標準化された色空間にマッピングする処理を省略したことを特徴とする。シーン参照生データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照生データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。 The “scene reference raw data depending on the device characteristics of the imaging device” is a raw output signal directly recorded on the imaging device in which information faithful to the subject is recorded, and the data itself digitized by the A / D converter. Or data obtained by performing noise correction such as fixed pattern noise and dark current noise on the data, and includes RAW data. This scene reference raw data is generated by image processing that modifies the contents of the data to improve the effects during image viewing such as gradation conversion, sharpness enhancement, and saturation enhancement, and each color channel based on the spectral sensitivity inherent to the image sensor. The signal intensity of RIM RGB (Reference Input Medium Metric RGB) or ERIM RGB (Extended Reference Input Medium Metric RGB) (see Journal of Imaging Science and Technology 45, pp. 418-426 (2001)), sRGB (IEC61966-2- 1) The process of mapping to a standardized color space such as scRGB (IEC61966-2-2) is omitted. The information amount (for example, the number of gradations) of the scene reference raw data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. . For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference raw data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.
また、「撮像装置固有の装置特性を補正する処理」とは、前述した「シーン参照生データ」を後述する「シーン参照画像データ」に変換する処理を意味する。この処理の内容はシーン参照生データの状態に依存するが、少なくとも撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピングする処理が含まれる。例えば、シーン参照生データが、カラーフィルタ配列に基づく補間処理を行っていない場合には、該処理の実施が加えて必要になる(カラーフィルタ配列に基づく補間処理の詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編51頁に記載されている。)。この結果、シーン参照生データとほぼ同一の情報量を有しつつも、異なる撮像装置間での信号値の差異が補正されたシーン参照画像データが得られる。
Further, “processing for correcting device characteristics unique to the imaging device” means processing for converting the above-described “scene reference raw data” into “scene reference image data” described later. The content of this process depends on the state of the scene reference raw data, but includes a process of mapping the signal intensity of each color channel based on at least the spectral sensitivity unique to the image sensor to a standard color space such as RIM RGB or ERIMM RGB. For example, when the scene reference raw data is not subjected to interpolation processing based on the color filter array, it is necessary to perform the processing (for details of the interpolation processing based on the color filter array, see, for example, “Fine (Imaging and digital photography ",
また、「再現補助データ」とは、データ内に記載された情報のみを活用して、撮像装置固有の装置特性を補正する処理が実施可能であるデータを意味する。少なくとも、撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピングすることが可能になる情報、すなわち撮像素子固有の分光感度特性かRIMM RGBのような特定の標準色空間に変換する時に使用すべきマトリックス係数が記載されている必要がある。例えば、撮像装置の機種名だけが記載されている場合は、本処理を実施する画像処理装置が機種名と前記マトリックス係数の対応表を保有していない可能性があるので十分なデータとは言えない。また例えば、本処理を実施する際に十分な情報が直接記載されていなくても、該情報のインターネット上での所在個所を示すURLが記載されている場合は、本処理を行うのに十分なデータとみなすことができる。これらの「再現補助データ」は、アドビシステム社推奨の画像フォーマットDigital Negative(DNG)に従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。 In addition, “reproduction assistance data” means data that can be used to correct the device characteristics unique to the imaging device by using only the information described in the data. Information that makes it possible to map at least the signal intensity of each color channel based on the spectral sensitivity of the image sensor itself to a standard color space such as RIM RGB or ERIMM RGB, that is, the spectral sensitivity characteristic specific to the image sensor or RIMM RGB It is necessary to describe matrix coefficients to be used when converting to a specific standard color space. For example, if only the model name of the imaging device is described, the image processing device performing this processing may not have a correspondence table between the model name and the matrix coefficient, so it can be said that the data is sufficient. Absent. Also, for example, even if sufficient information is not directly described when performing this processing, if the URL indicating the location of the information on the Internet is described, sufficient information is sufficient to perform this processing. It can be regarded as data. These “reproduction auxiliary data” are preferably recorded as tag information to be written in the header portion of the image file, such as a DNG tag according to the image format Digital Negative (DNG) recommended by Adobe Systems.
また、「再現補助データ」を、「シーン参照生データ」とは独立してメディアに保存する態様である場合には、「再現補助データ」、「シーン参照生データ」の何れか、又は両方に対し、両者を関連付けるための情報を付与するか、又は別途関連情報の記載されたステータス情報ファイルを添付する必要がある。 In addition, when the “reproduction auxiliary data” is stored in the media independently of the “scene reference raw data”, either “reproduction auxiliary data”, “scene reference raw data”, or both On the other hand, it is necessary to attach information for associating the two or attach a status information file in which related information is separately described.
また、「撮影情報データ」とは、撮影時の撮影条件設定の記録であり、Exifファイルのヘッダ部に書き込まれるタグ情報と同じものを含んでもよい。具体的には露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度、被写体の種類に関する情報等を示すタグ(コード)等である。 The “shooting information data” is a record of shooting condition settings at the time of shooting, and may include the same tag information written in the header portion of the Exif file. Specifically, exposure time, shutter speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, strobe emission, subject area, white balance, zoom magnification, subject composition, shooting scene type, A tag (code) or the like indicating information on the amount of reflected light of the strobe light source, shooting saturation, type of subject, and the like.
「撮影情報データ」は、撮像装置の露出設定や焦点機能の自動化のために、カメラに備えられたセンサの撮影時に得た値、前記センサの値から加工されたデータ、或いは前記センサの値に基づいて設定されたカメラの撮影条件に分類されるが、これ以外にも撮像装置に備えられた、撮影モードダイヤル(例えばポートレート、スポーツ、マクロ撮影モード等)や、ストロボ強制発光の設定スイッチ等を撮影者がマニュアルで設定した情報も含まれる。 “Photographing information data” is a value obtained at the time of photographing by a sensor provided in the camera, data processed from the value of the sensor, or a value of the sensor in order to automate the exposure setting and focus function of the imaging device. It is classified into the camera shooting conditions set on the basis of this, but in addition to this, a shooting mode dial (for example, portrait, sports, macro shooting mode, etc.), a strobe forced flash setting switch, etc. Also included is information manually set by the photographer.
また、「撮影シーン」とは、撮影時の光源条件や露出条件による撮影画像の状態を意味する。例えば、「適正」、「逆光」、「アンダー」、「ハイコントラスト」等の状態がある。 The “photographing scene” means a state of a photographed image according to a light source condition or an exposure condition at the time of photographing. For example, there are states such as “appropriate”, “backlight”, “under”, and “high contrast”.
また、「シーン判別指標データ」とは、上記の撮影シーンの度合いを表すものであり、例えば、逆光度、アンダー度、ハイコントラスト度等が挙げられる。「シーン判別指標データ」は、DNGフォーマットに従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。 The “scene discrimination index data” represents the degree of the above-described shooting scene, and includes, for example, the backlight intensity, the under degree, the high contrast degree, and the like. The “scene discrimination index data” is preferably recorded as tag information written in a header portion in an image file, such as a DNG tag according to the DNG format.
また、「メディア」とは、撮像装置の出力するシーン参照生データ等の保存に用いる記憶媒体であって、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、ハードディスク、フロッピー(登録商標)ディスク、磁気記憶媒体(MO)、或いはCD−R等、何れであってもよい。また、記憶媒体に書き込むユニットは、撮像装置と一体であっても、コードを介して有線状態で接続された書き込みユニット、通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置されたユニット等の何れの態様であってもよい。「メディアに記録する」時のファイル形式は、撮像装置固有の形式ではなく、TIFF(Tagged Image File Format)、JPEG(Joint Photographic Experts Group)、Exif(Exchangeable Image File Format)等の規格化された汎用のファイル形式で記録されるのが好ましい。 The “media” is a storage medium used to store scene reference raw data output from the imaging apparatus, and is a compact flash (registered trademark), memory stick, smart media, multimedia card, hard disk, floppy (registered trademark). ) Any of disk, magnetic storage medium (MO), CD-R, etc. In addition, the unit for writing to the storage medium is installed in a wired state via a cord even if it is integrated with the imaging device, installed independently or remotely in a wireless state via communication or the Internet Any aspect of the unit or the like may be used. The file format when recording to media is not a format specific to the imaging device, but is a standardized standard such as TIFF (Tagged Image File Format), JPEG (Joint Photographic Experts Group), Exif (Exchangeable Image File Format) The file format is preferably recorded.
請求項2に記載の発明は、請求項1に記載の撮像装置において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、前記表示用画像データを表示する表示手段と、を備え、前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。 According to a second aspect of the present invention, in the imaging device according to the first aspect, display image data generating means for generating display image data based on the scene reference raw data, and the display image data are displayed. Display means, wherein the scene determination index data generation means generates scene determination index data using the display image data.
請求項3に記載の発明は、画像処理装置において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力手段と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えたことを特徴とする。 According to a third aspect of the present invention, in the image processing apparatus, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data. Input means for inputting auxiliary data, shooting information data that is shooting condition settings at the time of shooting, and scene determination index data for determining a shooting scene, and the scene reference raw data, based on the reproduction auxiliary data, A scene reference image data generating unit that generates scene reference image data by performing a process for correcting device characteristics unique to the imaging device, and the scene reference image data generated by the scene reference image data generating unit Based on the information data and the scene discrimination index data, image processing for forming an optimal viewing image on the output medium is performed. Characterized in that and a referred image data generating means for generating a referred image data Te.
ここで、「入力」とは、撮像装置の出力する「シーン参照生データ」、「再現補助データ」、「撮影情報データ」及び「シーン判別指標データ」を、撮像装置から本発明の画像処理装置に伝達することを意味する。 Here, “input” refers to “scene reference raw data”, “reproduction assistance data”, “imaging information data”, and “scene discrimination index data” output from the imaging apparatus, from the imaging apparatus to the image processing apparatus of the present invention. Means to communicate.
例えば、撮像装置と上述した記憶媒体への書き込みユニットが接続状態にあるとき、画像処理装置が、撮像装置から直接「シーン参照生データ」等を読み出せる機能を併せ持つ態様である場合には、本発明の画像処理装置は撮像装置との接続手段を有し、この接続手段が、本発明の入力手段に相当する。また、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、或いはCD−R等、可搬式の「メディア」を用いる場合には、本発明の画像処理装置は対応する読み取り手段を有し、この読み取り手段が、本発明の入力手段に相当する。さらに、書き込みユニットが通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置された態様であるとき、本発明の画像処理装置は、通信やインターネットに接続する通信手段を有し、この通信手段が本発明の入力手段に相当する。 For example, when the image processing apparatus has a function of reading “scene reference raw data” directly from the image capturing apparatus when the image capturing apparatus and the above-described storage medium writing unit are connected, this The image processing apparatus of the present invention has a connection means for connecting to the imaging apparatus, and this connection means corresponds to the input means of the present invention. When using portable “media” such as CompactFlash (registered trademark), memory stick, smart media, multimedia card, floppy (registered trademark) disk, magneto-optical storage medium (MO), or CD-R The image processing apparatus of the present invention has corresponding reading means, and this reading means corresponds to the input means of the present invention. Further, when the writing unit is an independent or remotely installed state connected wirelessly via communication or the Internet, the image processing apparatus of the present invention has communication means for connecting to the communication or the Internet. This communication means corresponds to the input means of the present invention.
また、「シーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto-electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものであることが好ましい。シーン参照画像データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。 The “scene reference image data” means that the signal intensity of each color channel based on at least the spectral sensitivity of the image sensor itself has been mapped to a standard color space such as RIM RGB, ERIMM RGB, etc., and gradation conversion / sharpness enhancement / It means image data in a state in which image processing for modifying data contents in order to improve the effect at the time of image viewing such as saturation enhancement is omitted. In addition, scene reference image data is a correction of photoelectric conversion characteristics of the imaging device (opto-electronic conversion function defined by ISO1452; for example, “Fine Imaging and Digital Photography” of Corona Co., Ltd., page 449 of the Japan Photographic Society Publishing Committee). It is preferable to have performed. The information amount (for example, the number of gradations) of the scene reference image data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. . For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.
また、「出力媒体」とは、例えば、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙である。 The “output medium” is, for example, a display device such as a CRT, a liquid crystal display, or a plasma display, or a paper for generating a hard copy image such as a silver salt photographic paper, an inkjet paper, or a thermal printer paper.
ここで、「鑑賞画像参照データ」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力デバイス等の出力媒体上での鑑賞画像形成に用いるデジタル画像データを意味する。 Here, “appreciation image reference data” means appreciation image formation on an output medium such as a display device such as a CRT, a liquid crystal display, or a plasma display, or an output device such as a silver salt photographic paper, an ink jet paper, or a thermal printer paper. This means digital image data used for.
また、「最適な鑑賞画像を形成するための画像処理」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得るための処理である。例えば、sRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また色域の圧縮以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、或いは覆い焼き処理等の画像処理が行われることは言うまでもない。 “Image processing to form an optimal viewing image” is optimal on display devices such as CRTs, liquid crystal displays, and plasma displays, and on output media such as silver halide photographic paper, inkjet paper, and thermal printer paper. This is a process for obtaining a clear image. For example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, processing is performed so as to obtain an optimum color reproduction within the color gamut of the sRGB standard. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, or dodging is performed.
請求項4に記載の発明は、請求項3に記載の画像処理装置において、前記鑑賞画像参照データ生成手段は、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする。 According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the appreciation image reference data generation means is a gradation adjustment method applied to the scene reference image data based on the scene discrimination index data, and The adjustment amount is determined.
請求項5に記載の発明は、撮像装置において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成手段と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録制御手段と、を備えたことを特徴とする。 According to a fifth aspect of the present invention, in the imaging apparatus, scene reference raw data generating means for generating scene reference raw data depending on the device characteristics of the imaging apparatus by imaging, and an apparatus specific to the imaging apparatus for the scene reference raw data Reproduction auxiliary data generation means for generating reproduction auxiliary data used when performing processing for correcting characteristics, shooting information data generation means for generating shooting information data that is shooting condition settings at the time of shooting, and for determining a shooting scene Scene discrimination index data generating means for generating the scene discrimination index data, tone conversion data generating means for generating tone conversion data based on the scene discrimination index data, and the reproduction auxiliary data in the scene reference raw data And recording control means for attaching the photographing information data and the gradation conversion data, and further recording on a medium. And butterflies.
請求項6に記載の発明は、請求項5に記載の撮像装置において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、前記表示用画像データを表示する表示手段と、を備え、前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。 According to a sixth aspect of the present invention, in the imaging device according to the fifth aspect, display image data generating means for generating display image data based on the scene reference raw data, and the display image data are displayed. Display means, wherein the scene determination index data generation means generates scene determination index data using the display image data.
請求項7に記載の発明は、画像処理装置において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力手段と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えたことを特徴とする。 According to the seventh aspect of the present invention, in the image processing apparatus, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics specific to the imaging device to the scene reference raw data. Auxiliary data, input means for inputting photographing information data and gradation conversion data that are photographing condition settings at the time of photographing, and device characteristics specific to the imaging device based on the reproduction auxiliary data with respect to the scene reference raw data Scene reference image data generation means for generating scene reference image data by performing processing for correcting the image, and the shooting information data and the gradation conversion for the scene reference image data generated by the scene reference image data generation means Appreciation image that generates appreciation image reference data by performing image processing to form an optimal appreciation image on the output medium based on the data A reference data generating means, characterized by comprising a.
請求項8に記載の発明は、画像処理方法において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録工程と、を含むことを特徴とする。 According to an eighth aspect of the present invention, in the image processing method, a scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging, and the scene reference raw data is unique to the imaging device. A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting the apparatus characteristics, a shooting information data generation step for generating shooting information data which is shooting condition setting at the time of shooting, and a shooting scene are determined. A scene discrimination index data generating step for generating scene discrimination index data for recording, and a recording step of attaching the reproduction auxiliary data, the shooting information data, and the scene discrimination index data to the scene reference raw data, and further recording the data on a medium It is characterized by including these.
請求項9に記載の発明は、請求項8に記載の画像処理方法において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、前記表示用画像データを表示する表示工程と、を含み、前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。 According to a ninth aspect of the present invention, in the image processing method according to the eighth aspect, a display image data generating step for generating display image data based on the scene reference raw data, and the display image data are displayed. And displaying the scene determination index data using the display image data in the scene determination index data generation step.
請求項10に記載の発明は、画像処理方法において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力工程と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、を含むことを特徴とする。 According to the tenth aspect of the present invention, in the image processing method, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when the scene reference raw data is subjected to processing for correcting the device characteristics unique to the imaging device. Auxiliary data, input process of inputting scene determination index data for determining shooting information data and shooting scene settings that are shooting conditions at the time of shooting, and the scene reference raw data, based on the reproduction auxiliary data, A scene reference image data generation step for generating scene reference image data by performing a process for correcting device characteristics unique to the imaging device, and the shooting for the scene reference image data generated in the scene reference image data generation step Image processing for forming an optimal viewing image on the output medium based on the information data and the scene discrimination index data Characterized in that it comprises a and a referred image data generating step of generating a referred image data by performing.
請求項11に記載の発明は、請求項10に記載の画像処理方法において、前記鑑賞画像参照データ生成工程では、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする。 According to an eleventh aspect of the present invention, in the image processing method according to the tenth aspect, in the appreciation image reference data generation step, a gradation adjustment method applied to the scene reference image data based on the scene discrimination index data, and The adjustment amount is determined.
請求項12に記載の発明は、画像処理方法において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成工程と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録工程と、を含むことを特徴とする。 According to a twelfth aspect of the present invention, in the image processing method, a scene reference raw data generation step of generating scene reference raw data depending on device characteristics of the imaging device by imaging, and the scene reference raw data is unique to the imaging device. A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting the apparatus characteristics, a shooting information data generation step for generating shooting information data which is shooting condition setting at the time of shooting, and a shooting scene are determined. A scene discrimination index data generating step for generating scene discrimination index data for generating, a tone conversion data generating step for generating tone conversion data based on the scene discrimination index data, and the reproduction assistance for the scene reference raw data A recording step of attaching data, the photographing information data, and the gradation conversion data, and further recording the data on a medium. And butterflies.
請求項13に記載の発明は、請求項12に記載の画像処理方法において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、前記表示用画像データを表示する表示工程と、を含み、前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。 A thirteenth aspect of the present invention is the image processing method according to the twelfth aspect of the present invention, wherein a display image data generating step for generating display image data based on the scene reference raw data and the display image data are displayed. And displaying the scene determination index data using the display image data in the scene determination index data generation step.
請求項14に記載の発明は、画像処理方法において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力工程と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、を含むことを特徴とする。 According to the fourteenth aspect of the present invention, in the image processing method, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data. An input process for inputting auxiliary data, shooting information data that is a shooting condition setting at the time of shooting, and gradation conversion data, and device characteristics specific to the imaging device based on the reproduction auxiliary data with respect to the scene reference raw data A scene reference image data generation step for generating scene reference image data by performing a process of correcting the image, and the shooting information data and the gradation conversion for the scene reference image data generated in the scene reference image data generation step Based on the data, the image processing for generating the optimum viewing image on the output medium is performed to generate the viewing image reference data. Characterized in that it comprises an image reference data generating step.
請求項1、8に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを生成し、これらをシーン参照生データに添付し、メディアに記録するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。 According to the first and eighth aspects of the present invention, the scene reference raw data depending on the device characteristics of the imaging device, the reproduction auxiliary data used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data, Shooting information data, which is the shooting condition setting at the time of shooting, and scene discrimination index data for discriminating the shooting scene are generated, and these are attached to the scene reference raw data and recorded on the media. In addition, information for forming an optimal appreciation image according to the shooting scene can be provided to an external device.
請求項2、9に記載の発明によれば、シーン参照生データより画像サイズが小さい表示用画像データを用いるので、効率的にシーン判別指標データを生成することができる。 According to the second and ninth aspects of the present invention, since the display image data having a smaller image size than the scene reference raw data is used, the scene determination index data can be generated efficiently.
請求項3、10に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力し、シーン参照生データに対して、再現補助データに基づいて、撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成し、生成されたシーン参照画像データに対して、撮影情報データ及びシーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。 According to the third and tenth aspects of the present invention, the scene reference raw data that depends on the device characteristics of the imaging device, the reproduction assistance data that is used when the scene reference raw data is subjected to processing for correcting the device characteristics unique to the imaging device, Inputs shooting information data, which is shooting condition settings at the time of shooting, and scene discrimination index data for discriminating the shooting scene, and corrects the device characteristics specific to the imaging device based on the reproduction assistance data for the scene reference raw data To generate scene reference image data, and to form an optimal viewing image on the output medium based on the shooting information data and the scene determination index data with respect to the generated scene reference image data Appreciation image reference data is generated by performing image processing, so that an optimal appreciation image can be formed according to the shooting scene without any information loss of captured image information. Can.
請求項4、11に記載の発明によれば、シーン判別指標データに基づいて、シーン参照画像データに施す階調調整方法及び調整量を決定するので、撮影シーンに応じて最適な階調調整を行うことができる。 According to the fourth and eleventh aspects of the present invention, since the gradation adjustment method and the adjustment amount to be applied to the scene reference image data are determined based on the scene discrimination index data, the optimum gradation adjustment is performed according to the shooting scene. It can be carried out.
請求項5、12に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを生成し、これらをシーン参照生データに添付し、メディアに記録するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。
According to the inventions described in
請求項6、13に記載の発明によれば、シーン参照生データより画像サイズが小さい表示用画像データを用いるので、効率的にシーン判別指標データを生成することができる。 According to the sixth and thirteenth aspects of the present invention, since the display image data having an image size smaller than the scene reference raw data is used, the scene discrimination index data can be efficiently generated.
請求項7、14に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力し、シーン参照生データに対して、再現補助データに基づいて、撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成し、生成されたシーン参照画像データに対して、撮影情報データ及び階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。
According to the invention described in
[第1の実施の形態]
図1〜図14を参照して、本発明の第1の実施の形態における撮像装置51及び画像処理装置131について説明する。
[First Embodiment]
The
<撮像装置51の構成>
まず、撮像装置51の構成を説明する。
図1は、撮像装置51の機能的構成を示すブロック図である。図1に示すように、撮像装置51は、レンズ1、絞り2、CCD3、アナログ処理回路4、A/D変換器5、一時記憶メモリ6、画像処理部7、制御部8、撮影情報データ処理部9、装置特性補正情報処理部10、表示用画像データ生成部11、シーン判別指標データ生成部12、操作部13、表示部14、ヘッダ情報処理部15、記憶デバイス16、CCD駆動回路17、焦点距離調整回路18、自動焦点駆動回路19、モータ20、ストロボ駆動回路21、ストロボ22等を備えて構成されている。
<Configuration of
First, the configuration of the
FIG. 1 is a block diagram illustrating a functional configuration of the
撮像装置51の光学系は、レンズ1、絞り2、CCD(固体撮像素子)3を備えて構成されている。
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。CCD3は、レンズ1により受光面上に結像された被写体光を、CCD3内のセンサ毎に光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路17から出力されるタイミングパルスに制御されることにより、この撮像信号をアナログ処理回路4へ順次出力する。
The optical system of the
The
アナログ処理回路4は、CCD3から入力された撮像信号に対して、R、G、B信号の増幅やノイズの低減処理等を行う。このアナログ処理回路4における処理は、操作部13からの操作信号に応じ制御部8を介してON/OFFが切り替えられるようになっている。
The analog processing circuit 4 performs R, G, B signal amplification, noise reduction processing, and the like on the image pickup signal input from the CCD 3. The processing in the analog processing circuit 4 is switched ON / OFF via the
A/D変換器5は、アナログ処理回路4から入力された撮像信号をデジタル画像データに変換して出力する。
一時記憶メモリ6は、バッファメモリ等であり、A/D変換器5から出力されたデジタル画像データを一時格納する。
The A /
The
画像処理部7は、デジタル画像データの階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画質向上処理の他、画像サイズの変更、トリミング、アスペクト変換等の処理を行う。この画像処理部7における処理は、操作部13からの操作信号に応じ制御部8を介してON/OFFが切り替えられるようになっている。
The
制御部8は、CPU(Central Processing Unit)等により構成され、記憶デバイス16に記憶されている撮像装置51の制御プログラムを読み出して、読み出したプログラムに従って撮像装置51全体の制御を行う。具体的には、制御部8は、自動焦点駆動回路19、焦点距離調整回路18、CCD駆動回路17、アナログ処理回路4、一時記憶メモリ6、画像処理部7、撮影情報データ処理部9、装置特性補正情報処理部10、表示用画像データ生成部11、シーン判別指標データ生成部12、操作部13、表示部14、ストロボ駆動回路21の制御を行い、撮影を行う。
The
制御部8は、操作部13によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Aを行い、撮影時におけるアナログ処理回路4における信号増幅やノイズの低減処理や画像処理部7における処理を省略し、記憶デバイス16の記録メディアに、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6をヘッダ情報として書き込むとともに、撮影されたデジタル画像データをシーン参照生データd2として記録する。例えば、撮像装置特性補正データd1及びシーン判別指標データd6はDNGタグに書き込み、撮影情報データd3はExifタグに書き込む。制御部8は、特許請求の範囲に記載の撮像装置のシーン参照生データ生成手段及び記録制御手段としての機能を有する。
When the output of scene reference raw data is specified by the
撮影情報データ処理部9は、撮影情報データd3を生成する。撮影情報データd3は、例えばカメラ名称やコード番号等、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度等の撮影条件設定や、被写体の種類に関する情報等である。撮影情報データ処理部9は、特許請求の範囲に記載の撮像装置の撮影情報データ生成手段としての機能を有する。
The shooting information
装置特性補正情報処理部10は、操作部13からの操作信号により、制御部8の制御下においてアナログ処理回路4及び画像処理部7での処理を行わないシーン参照生データd2を記憶デバイス16の記録メディアに記録する場合に、このシーン参照生データd2に撮像装置固有の装置特性を補正する処理(以下、撮像装置特性補正処理という。)を施す際に用いる撮像装置特性補正データd1を生成し、ヘッダ情報処理部15に出力する。この撮像装置特性補正データd1は、特許請求の範囲に記載の「再現補助データ」に相当するものである。なお、装置特性補正情報処理部10は、特許請求の範囲に記載の撮像装置の再現補助データ生成手段としての機能を有する。
In response to an operation signal from the
表示用画像データ生成部11は、撮像装置特性補正データd1及び撮影情報データd3に基づいて、シーン参照生データd2から鑑賞画像参照データd5を生成し、鑑賞画像参照データd5を縮小することにより表示用画像データを生成する。一般的に、表示装置の画像サイズは、鑑賞画像参照データd5よりも小さいので、公知の画像サイズ縮小方法、例えば、間引き、複数画素の平均、バイリニア、バイキュービック法等の補間方法を用いることができる。表示用画像データ生成部11は、生成した表示用画像データを表示部14及びシーン判別指標データ生成部12に出力する。表示用画像データに対して、必要に応じて鮮鋭強調処理、ノイズ除去処理等を行ってもよいが、シーン判別指標データ生成部12において、シーン判別指標データd6を生成するために表示用画像データを用いるので、鮮鋭強調処理、ノイズ除去処理等を行わない方が好ましい。ただし、シーン判別指標データ生成後に、これらの処理を行ってもよい。
The display image
シーン判別指標データ生成部12は、表示用画像データ生成部11により生成された表示用画像データを用いて、撮影シーンを判別するためのシーン判別指標データd6を生成する。画像サイズが小さい方が処理時間やメモリ等の面で効率的に処理を行うことができるので、シーン判別指標データd6を生成する際には、シーン参照生データd2ではなく、表示用画像データを用いることが好ましい。シーン判別指標データ生成部12は、特許請求の範囲に記載の撮像装置のシーン判別指標データ生成手段としての機能を有する。
The scene determination index
図2に、シーン判別指標データ生成部12の内部構成を示す。シーン判別指標データ生成部12は、図2に示すように、割合算出部31及び指標算出部32により構成される。割合算出部31は、表色系変換部33、ヒストグラム作成部34、占有率演算部35により構成される。
FIG. 2 shows an internal configuration of the scene discrimination index
表色系変換部33は、表示用画像データのRGB(Red,Green,Blue)値をHSV表色系に変換する。HSV表色系とは、画像データを、色相(Hue)、彩度(Saturation)、明度(Value又はBrightness)の3つの要素で表すものであり、マンセルにより提案された表色体系を元にして考案されたものである。
The color
なお、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」の意味である。以下の記載において、HSV表色系のV(0〜255)を「明度」として用いるが、他のいかなる表色系の明るさを表す単位系を用いてもよい。 “Lightness” means “brightness” that is generally used unless otherwise noted. In the following description, V (0 to 255) of the HSV color system is used as “brightness”, but a unit system representing the brightness of any other color system may be used.
ヒストグラム作成部34は、画像データを、所定の色相と明度の組み合わせからなる領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。また、ヒストグラム作成部34は、画像データを、当該画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。
The
占有率演算部35は、明度と色相の組み合わせによって分割された領域毎に、ヒストグラム作成部34において算出された累積画素数の全画素数(画像データ全体)に占める割合を示す第1の占有率を算出する。また、占有率演算部35は、画像データの画面の外縁からの距離と明度の組み合わせによって分割された領域毎に、ヒストグラム作成部34において算出された累積画素数の全画素数(画像データ全体)に占める割合を示す第2の占有率を算出する。
The occupancy
指標算出部32は、撮影シーンを判別するためのシーン判別指標データd6を算出する。具体的に、指標算出部32は、占有率演算部35において領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第1の係数(表1参照)を乗算して和をとることにより、撮影シーンを判別するための指標1を算出する。撮影シーンとは、順光、逆光、ストロボ等の、被写体を撮影する時の光源条件及びアンダー撮影等の露出条件を示す。指標1は、屋内撮影度、近接撮影度、顔色高明度等のストロボ撮影時の特徴を示すもので、ストロボ撮影シーンと判別されるべき画像を他の撮影シーンから分離するためのものである。
The
また、指標算出部32は、占有率演算部35において領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第2の係数(表2参照)を乗算して和をとることにより、撮影シーンを判別するための指標2を算出する。指標2は、屋外撮影度、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に示すもので、逆光撮影シーンと判別されるべき画像を他の撮影シーンから分離するためのものである。
In addition, the
さらに、指標算出部32は、占有率演算部35において領域毎に算出された第2の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第3の係数(表3参照)を乗算して和をとることにより、撮影シーンを判別するための指標3を算出する。指標3は、逆光とストロボ間における、画像データの画面の中心と外側の明暗関係の差異を示すものであり、逆光撮影シーン又はストロボ撮影シーンと判別されるべき画像のみを定量的に示すものである。
Furthermore, the
また、指標算出部32は、画像データの画面中央部における肌色の平均輝度値、画像データの最大輝度値と平均輝度値との差分値、輝度標準偏差、画面中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値(後述の式(6)参照)のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、撮影シーンを判別するための指標4を算出する。指標4は、ストロボ撮影シーンとアンダー撮影シーンにおける、画像データの画面の中心と外側の明暗関係の差異を示すだけでなく、輝度ヒストグラムにおける分布情報を示すものであり、ストロボ撮影シーン又はアンダー撮影シーンと判別されるべき画像のみを定量的に示すものである。
In addition, the
また、指標算出部32は、指標1、指標3及び画面中央部における肌色の平均輝度値(以下、指標4’という。)に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標5を算出する(後述の式(8)参照)。さらに、指標算出部32は、指標2、指標3及び指標4’に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出する(後述の式(9)参照)。なお、指標算出部32における指標1〜6の具体的な算出方法は、後述の本実施の形態の動作説明において詳細に説明する。
Further, the
操作部13には、図示しないレリーズボタン、電源のON/OFFボタン、ズームボタン等の各種機能ボタン、カーソルキー等が設けられ、各ボタンやキーに対応する操作信号を入力信号として制御部8に出力する。操作部13は、シーン参照生データの出力を指定するための機能ボタンを備えている。
The
表示部14は、制御部8からの制御信号により、表示用画像データを表示するとともに、撮像装置51の使用者が撮影に関する設定や条件を確認するための情報を表示する。
The
ヘッダ情報処理部15は、一時記憶メモリ6に格納されたデジタル画像データに対して、撮影情報データ処理部9により生成された撮影情報データd3、装置特性補正情報処理部10により生成された撮像装置特性補正データd1、シーン判別指標データ生成部12により生成されたシーン判別指標データd6をヘッダ情報として書き込み処理する。
The header
記憶デバイス16は、不揮発性の半導体メモリ等により構成されており、撮影されたデジタル画像データを記録するメモリカード等の記録メディアと、撮像装置51の制御プログラムが記憶された読み出し可能なメモリとにより構成されている。
The
CCD駆動回路17は、制御部8から出力される制御信号をもとにタイミングパルスを出力し、CCD3の駆動制御を行う。
The
焦点距離調整回路18は、制御部8からの制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
自動焦点駆動回路19は、制御部8からの制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
The focal
The automatic
ストロボ駆動回路21は、制御部8からの制御信号により、被写体輝度が低い時にストロボ22を駆動制御して発光させる。
ストロボ22は、電池電圧を所定の高電圧に昇圧させ、電荷をコンデンサに蓄える。そして、ストロボ駆動回路21により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。
The
The
<撮像装置51の動作>
次に、撮像装置51の動作について説明する。
図3は、図1に示す撮像装置51において、操作部13により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部8の制御により実行されるシーン参照生データ保存処理Aを示すフローチャートである。以下、図3を参照してシーン参照生データ保存処理Aについて説明する。
<Operation of
Next, the operation of the
FIG. 3 shows the control of the
操作部13のレリーズボタンが押下されると、制御部8により、各部が制御され撮影が行われる(ステップS1)。CCD3から得られた撮像信号は、A/D変換器5によりデジタル画像データに変換され、シーン参照生データd2が生成される(ステップS2)。また、装置特性補正情報処理部10により撮像装置特性補正データd1が生成され(ステップS3)、撮影情報データ処理部9により撮影情報データd3が生成される(ステップS4)。また、表示用画像データ生成部11により表示用画像データが生成され、シーン判別指標データ生成部12により表示用画像データを用いてシーン判別指標データd6が生成される(ステップS5)。
When the release button of the
ここで、図4を参照して、シーン判別指標データ生成処理について説明する。
図4に示すように、まず、割合算出部31において、表示用画像データが所定の画像領域に分割され、各分割領域が画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップS11)。占有率算出処理の詳細は、後に図5、図6を参照して説明する。
Here, with reference to FIG. 4, the scene discrimination index data generation process will be described.
As shown in FIG. 4, first, the
次いで、割合算出部31において算出された占有率(第1の占有率、第2の占有率)と、少なくとも、画像データの画面中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、撮影シーンを判別するための(光源条件及び露出条件を定量的に表す)シーン判別指標データd6(指標1〜6)が算出される(ステップS12)。ステップS12における指標算出処理は、後に詳細に説明する。
Subsequently, the occupation ratio (first occupation ratio, second occupation ratio) calculated in the
次に、図5を参照して、割合算出部31において実行される第1の占有率算出処理について詳細に説明する。
Next, the first occupancy rate calculation process executed in the
まず、画像データのRGB(Red,Green,Blue)値がHSV表色系に変換される(ステップS21)。次いで、画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS22)。 First, RGB (Red, Green, Blue) values of image data are converted into the HSV color system (step S21). Next, the image data is divided into regions composed of a combination of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S22).
明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(2)を満たす色相’(H)を肌色領域(H1)とし、式(2)を満たさない領域を(H2)とする。ただし、入力画像データの値をInR、InG、InBとする。 Lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (2) is defined as the flesh-colored area (H1), and the area that does not satisfy the formula (2) is ( H2). However, the values of the input image data are InR, InG, and InB.
10 < 彩度(S) <175、
色相’(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相’(H) = 色相(H) − 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (1)
として、
色相’(H)/輝度(Y) < 3.0 × (彩度(S)/255) + 0.7 (2)
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (1)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) + 0.7 (2)
したがって、画像データの分割領域の数は4×7=28個となる。なお、式(1)及び(2)において明度(V)を用いることも可能である。 Therefore, the number of divided areas of the image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the expressions (1) and (2).
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出される(ステップS23)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとする。 When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S23). Let Rij be the first occupancy calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj.
次に、指標1及び指標2の算出方法について説明する。
表1に、ストロボ撮影としての確度、すなわち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表1に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 1 shows, for each divided area, the first coefficient necessary for calculating the
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1は、式(3)のように定義される。
表2に、逆光撮影としての確度、すなわち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表2に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2は、式(4)のように定義される。
次に、図6を参照して、指標3を算出するために割合算出部31において実行される第2の占有率算出処理について詳細に説明する。
Next, the second occupancy ratio calculation process executed in the
まず、画像データのRGB値がHSV表色系に変換される(ステップS31)。次いで、画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS32)。 First, the RGB values of the image data are converted into the HSV color system (step S31). Next, the image data is divided into regions each composed of a combination of the distance from the outer edge of the captured image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S32).
図7(a)〜(d)に、画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図7(a)に示す領域n1が外枠であり、図7(b)に示す領域n2が、外枠の内側の領域であり、図7(c)に示す領域n3が、領域n2のさらに内側の領域であり、図7(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。したがって、画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。 7A to 7D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the image data. A region n1 illustrated in FIG. 7A is an outer frame, a region n2 illustrated in FIG. 7B is a region inside the outer frame, and a region n3 illustrated in FIG. A region n4 shown in FIG. 7D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the image data is divided into regions each having a combination of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.
2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出される(ステップS33)。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとする。 When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S33). The second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is defined as Qij.
次に、指標3の算出方法について説明する。
表3に、指標3を算出するために必要な第3の係数を分割領域別に示す。表3に示された各分割領域の係数は、各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 3 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the second occupancy rate Qij of each divided area is multiplied, and is set in advance according to the shooting conditions.
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3は、式(5)のように定義される。
次に、指標4の算出方法について説明する。
まず、画像データのRGB(Red,Green,Blue)値から、式(1)を用いて輝度Yを算出する。また、画像データの画面中央部における肌色領域の平均輝度値x1を算出する。ここで、画面中央部とは、例えば、図7において、領域n3及び領域n4により構成される領域である。次いで、画像データの最大輝度値と平均輝度値との差分値x2を算出する。
Next, a method for calculating the index 4 will be described.
First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data using Equation (1). Also, the average luminance value x1 of the skin color area in the center of the screen of the image data is calculated. Here, the center of the screen is, for example, an area configured by an area n3 and an area n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the image data is calculated.
次いで、画像データの輝度の標準偏差x3を算出し、画面中央部における平均輝度値x4を算出する。また、画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5を算出する。この比較値x5は、下記の式(6)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (6)
Next, the standard deviation x3 of the luminance of the image data is calculated, and the average luminance value x4 at the center of the screen is calculated. Also, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the image data and the average luminance value Yskin_ave of the skin color area is calculated. This comparison value x5 is expressed as the following equation (6).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (6)
次いで、算出された値x1〜x5のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される。指標4は、下記の式(7)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(−0.01)×x4+0.03×x5−6.50 (7)
Next, the index 4 is calculated by multiplying each of the calculated values x1 to x5 by a fourth coefficient set in advance according to the photographing condition and taking the sum. The index 4 is defined as the following formula (7).
Index 4 = 0.06 × x1 + 1.13 × x2 + 0.02 × x3 + (− 0.01) × x4 + 0.03 × x5−6.50 (7)
また、画像データの画面中央部における肌色領域の平均輝度値を指標4’とする。ここでの画面中央部とは、例えば、図7の領域n2、領域n3及び領域n4から構成される領域である。 Further, the average luminance value of the skin color area in the center of the screen of the image data is set as an index 4 '. Here, the center of the screen is, for example, an area composed of the area n2, the area n3, and the area n4 in FIG.
また、指標5は、指標1、指標3、指標4’を用いて式(8)のように定義され、指標6は、指標2、指標3、指標4’を用いて式(9)のように定義される。
指標5=0.46×指標1+0.61×指標3+0.01×指標4’−0.79 (8)
指標6=0.58×指標2+0.18×指標3+(−0.03)×指標4’+3.34 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
In addition, the
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.
図3に戻り、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6の生成後、シーン参照生データd2のファイルヘッダに撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6がタグ情報として記録、添付され(ステップS6)、添付済みのデータファイルが作成される(ステップS7)。この添付済みのデータファイルは、撮像装置51に着脱可能に構成された記憶デバイス16の記録メディアに記録、保存される(ステップS8)。
Returning to FIG. 3, after generating the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the scene discrimination index data d6, the imaging device characteristic correction data d1 and the shooting information are added to the file header of the scene reference raw data d2. Data d3 and scene discrimination index data d6 are recorded and attached as tag information (step S6), and an attached data file is created (step S7). The attached data file is recorded and stored in the recording medium of the
図8は、ステップS8で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図8に示すように、撮影されたデジタル画像データは、シーン参照生データd2として記録され、そのヘッダ領域に、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6が記録されている。この記録メディアを撮像装置51から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6をこれらの外部装置に出力することができる。したがって、撮像装置51によれば、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。
FIG. 8 is a diagram showing a data structure of the digital image data recorded on the recording medium of the
以上、撮像装置51について説明したが、これはシーン参照生データ、再現補助データ、撮影情報データ及びシーン判別指標データを生成する装置の一例に過ぎず、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等、アナログカメラにより記録された写真感光材料の駒画像データを入力するフィルムスキャナや、銀塩印画紙であるカラーペーパー上に再現された画像データ、その他の反射原稿、透過原稿上に再現された画像データを入力するフラットベッドスキャナ等を使用して画像データを取得し、これに基づいてデータを生成する形態でもよい。
The
<画像処理装置131の構成>
次に、画像処理装置131の構成を説明する。
図9は、画像処理装置131の機能的構成を示すブロック図である。図9に示すように、画像処理装置131は、入力部101、ヘッダ情報解析部102、撮像装置特性補正データd1に基づいてシーン参照生データd2に撮像装置特性補正処理を施してシーン参照画像データd4を生成する撮像装置特性補正処理部114、撮像装置特性補正処理部114により生成されたシーン参照画像データd4に最適な鑑賞画像を形成するための画像処理(以下、最適化処理という。)を施して鑑賞画像参照データd5を生成する最適化処理部115により構成されている。撮像装置特性補正処理部114と、最適化処理部115にはヘッダ情報解析部102がそれぞれ接続されており、さらに最適化処理部115には、記憶デバイス111、出力デバイス112、表示デバイス113がそれぞれ接続可能な状態となっている。以上の各構成要素はCPU等により構成される制御部116の統括的な制御下において動作する。
<Configuration of
Next, the configuration of the
FIG. 9 is a block diagram illustrating a functional configuration of the
入力部101は、記録メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置51により撮影されたデータのファイル(図8参照)が記録された記録メディアが装着されると、入力部101は、記録されたデータファイルを読み出して、ヘッダ情報解析部102へ出力する。なお、本実施の形態においては、入力部101は、装着された記録メディアからデータを読み出すこととして説明するが、データ通信ケーブルや、無線又は有線の通信手段を備え、これらの通信手段を介してデータを入力するようにしてもよい。入力部101は、特許請求の範囲に記載の画像処理装置の入力手段としての機能を有する。
The
ヘッダ情報解析部102は、入力部101から入力されたデータを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、シーン判別指標データd6とに分け、撮像装置特性補正データd1を装置特性補正処理部103aへ、シーン参照生データd2をシーン参照画像データ生成部104へ、撮影情報データd3を撮影情報データ処理部106へ、シーン判別指標データd6をシーン判別指標データ処理部107へ出力する。
The header
撮像装置特性補正処理部114は、図9に示すように、装置特性補正処理部103a、処理条件テーブル103b、シーン参照画像データ生成部104及び一時記憶メモリ105を有して構成されている。撮像装置特性補正処理部114は、特許請求の範囲に記載の画像処理装置のシーン参照画像データ生成手段としての機能を有する。
As shown in FIG. 9, the imaging device characteristic
装置特性補正処理部103aは、ヘッダ情報解析部102から撮像装置特性補正データd1が入力されると、処理条件テーブル103bの参照により、シーン参照画像データd4の生成条件を決定する。処理条件テーブル103bは、撮像装置の特性毎に、シーン参照画像データd4を生成するための処理条件を対応付けて記憶するテーブルである。
When the imaging device characteristic correction data d1 is input from the header
シーン参照画像データ生成部104は、ヘッダ情報解析部102から入力されたシーン参照生データd2に対して、装置特性補正処理部103aにより決定された生成条件により撮像装置特性補正処理を施して撮像装置特性に依存しないシーン参照画像データd4を生成し、一時記憶メモリ105に出力する。具体的には、撮像装置特性補正処理には、少なくともシーン参照生データd2を生成した撮像装置の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えばRIMM RGBやERIMM RGB等の標準色空間にマッピングする処理が含まれる。
The scene reference image
一時記憶メモリ105は、シーン参照画像データ生成部104により生成されたシーン参照画像データd4を一時的に記憶する。
The
図9に示すように、最適化処理部115は、撮影情報データ処理部106、シーン判別指標データ処理部107、鑑賞画像参照データ生成部108、一時記憶メモリ109及び設定入力部110を有して構成されている。最適化処理部115は、特許請求の範囲に記載の画像処理装置の鑑賞画像参照データ生成手段としての機能を有する。
As illustrated in FIG. 9, the
撮影情報データ処理部106は、ヘッダ情報解析部102から入力された撮影情報データd3に基づいて、撮影条件に応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。
The shooting information
シーン判別指標データ処理部107は、シーン判別指標データd6(指標1〜6)に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。
The scene discrimination index
図10に、シーン判別指標データ処理部107の内部構成を示す。シーン判別指標データ処理部107は、図10に示すように、シーン判別部121、階調調整方法決定部122、階調調整パラメータ算出部123、階調調整量算出部124により構成される。
FIG. 10 shows the internal configuration of the scene discrimination index
シーン判別部121は、シーン判別指標データd6に基づいて、画像データの撮影シーン(光源条件及び露出条件)を判別する。
The
階調調整方法決定部122は、シーン判別部121において判別された撮影シーンに応じて、画像データに対する階調調整方法を決定する。例えば、撮影シーンが順光である場合は、図11(a)に示すように、入力された画像データの画素値を平行移動(オフセット)補正する方法(階調調整方法A)が適用される。撮影シーンが逆光である場合は、図11(b)に示すように、入力された画像データの画素値をガンマ補正する方法(階調調整方法B)が適用される。撮影シーンがストロボである場合は、図11(c)に示すように、入力された画像データの画素値をガンマ補正及び平行移動(オフセット)補正する方法(階調調整方法C)が適用される。撮影シーンがアンダーである場合は、図11(b)に示すように、入力された画像データの画素値をガンマ補正する方法(階調調整方法B)が適用される。
The gradation adjustment
階調調整パラメータ算出部123は、シーン判別指標データd6に基づいて、階調調整に必要なパラメータ(キー補正値等)を算出する。
The tone adjustment
階調調整量算出部124は、階調調整パラメータ算出部123において算出された階調調整パラメータに基づいて、画像データに対する階調調整量を算出する。具体的に、階調調整量算出部124は、階調調整方法決定部122において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、階調調整パラメータ算出部123において算出された階調調整パラメータに対応する階調変換曲線を選択する。なお、階調調整パラメータ算出部123において算出された階調調整パラメータに基づいて階調変換曲線(階調調整量)を算出するようにしてもよい。
The tone adjustment
図9に示す設定入力部110は、画像処理装置131にて生成したデジタル画像データを出力する記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報が入力されると、この操作情報を鑑賞画像参照データ生成部108に出力する。
When the operation information regarding the types of the
鑑賞画像参照データ生成部108は、一時記憶メモリ105からシーン参照画像データd4を読み出し、撮影情報データ処理部106で決定された鑑賞画像参照データd5の生成条件、シーン判別指標データ処理部107で決定された鑑賞画像参照データd5の生成条件、及び設定入力部110から入力された記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報に基づき、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データd5を生成し、操作情報とともに一時記憶メモリ109へ出力する。最適化処理には、例えば、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。さらに、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。
The appreciation image reference
一時記憶メモリ109は、制御部116からの制御により鑑賞画像参照データ生成部108から入力された鑑賞画像参照データd5を設定入力部110からの操作情報に従い、記憶デバイス111、出力デバイス112、表示デバイス113の何れかに出力する。
The
<画像処理装置131の動作>
図12は、画像処理装置131の各部が連携することにより実行される画像データ生成処理Aを示すフロー図である。以下、図12を参照して画像処理装置131の動作について説明する。
<Operation of
FIG. 12 is a flowchart showing an image data generation process A executed by the cooperation of the respective units of the
図8に示したデータ構造の画像データファイルが記録された記録メディアが装着されると、入力部101により、記録メディアに記録されたデジタル画像データファイルが入力される(ステップ41)。入力されたデジタル画像データは、ヘッダ情報解析部102によりその内容が解析され(ステップS42)、シーン参照生データd2(ステップS43)、撮像装置特性補正データd1(ステップS44)、撮影情報データd3(ステップS45)、シーン判別指標データd6(ステップS46)に分けられ、シーン参照生データd2及び撮像装置特性補正データd1は撮像装置特性補正処理部114へ、撮影情報データd3及びシーン判別指標データd6は最適化処理部115へ出力される。
When the recording medium on which the image data file having the data structure shown in FIG. 8 is recorded, the digital image data file recorded on the recording medium is input by the input unit 101 (step 41). The contents of the input digital image data are analyzed by the header information analysis unit 102 (step S42), raw scene reference data d2 (step S43), imaging device characteristic correction data d1 (step S44), and shooting information data d3 ( Step S45) is divided into scene discrimination index data d6 (step S46). The scene reference raw data d2 and the imaging device characteristic correction data d1 are sent to the imaging device characteristic
撮像装置特性補正データd1が撮像装置特性補正処理部114へ入力されると、装置特性補正処理部103aにより処理条件テーブル103bが参照され、シーン参照画像データd4を生成するための処理条件が決定される。シーン参照画像データ生成部104により、シーン参照生データd2に対して、この処理条件に基づいて撮像装置特性補正処理が施され(ステップS47)、シーン参照画像データd4が生成されて最適化処理部115に出力される(ステップS48)。
When the imaging apparatus characteristic correction data d1 is input to the imaging apparatus characteristic
また、撮影情報データd3が最適化処理部115へ入力されると、撮影情報データ処理部106により、撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。
Further, when the shooting information data d3 is input to the
また、シーン判別指標データd6が最適化処理部115へ入力されると、シーン判別指標データ処理部107により、シーン判別指標データd6(指標1〜6)に基づいて、画像処理条件決定処理が行われる(ステップS49)。
When the scene determination index data d6 is input to the
図13を参照して、画像処理条件決定処理を詳細に説明する。
まず、シーン判別指標データd6(例えば、指標4、指標5及び指標6)の値に基づいて、画像データの撮影シーン(光源条件及び露出条件)が判別される(ステップS61)。以下、撮影シーン(光源条件及び露出条件)の判別方法について説明する。
The image processing condition determination process will be described in detail with reference to FIG.
First, based on the value of the scene determination index data d6 (for example, index 4,
図14(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標5及び指標6を算出し、各光源条件での指標5及び指標6の値をプロットしたものである。図14(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多いことがわかる。このように指標5及び指標6の値により撮影シーンを定量的に判別することができる。
In FIG. 14A, 60 images are taken under each light source condition of forward light, backlight, and strobe, and
図14(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標5が0.5より大きい画像の指標4及び指標5を算出し、プロットしたものである。図14(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。
FIG. 14B is a graph in which index 4 and
撮影シーンが判別されると、その判別された撮影シーンに応じて、画像データに対する階調調整方法が決定される(ステップS62)。例えば、撮影シーンが順光である場合は階調調整方法A(図11(a))が選択され、逆光である場合は階調調整方法B(図11(b))が選択され、ストロボである場合は階調調整方法C(図11(c))が選択され、アンダーである場合は、階調調整方法B(図11(b))が選択される。 When the shooting scene is determined, a gradation adjustment method for the image data is determined in accordance with the determined shooting scene (step S62). For example, the gradation adjustment method A (FIG. 11 (a)) is selected when the shooting scene is a direct light, and the gradation adjustment method B (FIG. 11 (b)) is selected when the shooting scene is a backlight, and the strobe is used. In some cases, the gradation adjustment method C (FIG. 11C) is selected, and in the case of under, the gradation adjustment method B (FIG. 11B) is selected.
階調調整方法が決定されると、指標に基づいて、階調調整に必要なパラメータ(階調調整パラメータ)が算出される(ステップS63)。なお、以下では、8bitの画像データは16bitへと事前に変換されているものとし、画像データの値の単位は16bitであるものとする。 When the gradation adjustment method is determined, parameters (gradation adjustment parameters) necessary for gradation adjustment are calculated based on the index (step S63). In the following, it is assumed that 8-bit image data is converted to 16-bit in advance, and the unit of the image data value is 16-bit.
階調調整パラメータとして、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
The following P1-P9 parameters are calculated as tone adjustment parameters.
P1: Average luminance of the entire photographing screen P2: Block division average luminance P3: Average luminance of the skin color area (H1) P4:
P5: Reproduction target correction value = luminance reproduction target value (30360) -P4
P6: Offset
P7: Key correction value P7 ':
P8:
P9: Offset
パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(10)、式(11)、式(12)のように定義される。
P7(キー補正値)=[P3−((指標6/6)×18000+22000)]/24.78 (10)
P7’(キー補正値2)=[P3−((指標4/6)×10000+30000)]/24.78 (11)
P8(輝度補正値2)=(指標5/6)×17500 (12)
The key correction value of parameter P7, the
P7 (key correction value) = [P3-((
P7 ′ (key correction value 2) = [P3 − ((index 4/6) × 10000 + 30000)] / 24.78 (11)
P8 (Luminance correction value 2) = (
階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、画像データに対する階調調整量が決定される(ステップS64)。そして、ステップS62において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、ステップS63において算出された階調調整パラメータに対応する階調変換曲線が選択(決定)される。なお、ステップS63において算出された階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出するようにしてもよい。 When the tone adjustment parameter is calculated, the tone adjustment amount for the image data is determined based on the calculated tone adjustment parameter (step S64). Then, a gradation conversion curve corresponding to the gradation adjustment parameter calculated in step S63 is selected from a plurality of gradation conversion curves set in advance corresponding to the gradation adjustment method determined in step S62 ( It is determined. Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter calculated in step S63.
以下、各撮影シーン(光源条件及び露出条件)の階調変換曲線の決定方法について説明する。
撮影シーンが順光である場合、パラメータP1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(13)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (13)
したがって、撮影シーンが順光の場合、図11(a)に示す複数の階調変換曲線の中から、式(13)に対応する階調変換曲線が選択される。又は、式(13)に基づいて階調変換曲線を算出(決定)してもよい。
Hereinafter, a method for determining a gradation conversion curve for each shooting scene (light source condition and exposure condition) will be described.
When the photographic scene is front light, offset correction (parallel shift of 8-bit value) for matching the parameter P1 with P5 is performed by the following equation (13).
RGB value of output image = RGB value of input image + P6 (13)
Therefore, when the photographic scene is a continuous light, a gradation conversion curve corresponding to Expression (13) is selected from the plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (13).
撮影シーンが逆光である場合、図11(b)に示す複数の階調変換曲線の中から、式(10)に示すパラメータP7(キー補正値)に対応する階調変換曲線が選択される。なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。
When the shooting scene is backlit, a gradation conversion curve corresponding to the parameter P7 (key correction value) shown in Expression (10) is selected from the plurality of gradation conversion curves shown in FIG. When the shooting scene is backlit, it is preferable to perform a dodging process together with the gradation conversion process. In this case, it is desirable to adjust the degree of dodging processing according to the
撮影シーンがアンダーである場合、図11(b)に示す複数の階調変換曲線の中から、式(11)に示すパラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。 When the shooting scene is under, a gradation conversion curve corresponding to the parameter P7 ′ (key correction value 2) shown in Expression (11) is selected from the plurality of gradation conversion curves shown in FIG. The When the shooting scene is under, the dodging process as shown in the case of backlight is not performed.
撮影シーンがストロボである場合、オフセット補正(8bit値の平行シフト)を式(14)により行う。
出力画像のRGB値=入力画像のRGB値+P9 (14)
したがって、撮影シーンがストロボの場合、図11(c)に示す複数の階調変換曲線の中から、式(14)に対応する階調変換曲線が選択される。又は、式(14)に基づいて階調変換曲線を算出(決定)してもよい。
When the shooting scene is a strobe, offset correction (parallel shift of 8-bit value) is performed by Expression (14).
RGB value of output image = RGB value of input image + P9 (14)
Therefore, when the shooting scene is a strobe, a gradation conversion curve corresponding to Expression (14) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (14).
図12に戻り、撮像装置特性補正処理部114から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部108により、撮影情報データ処理部106で決定された処理条件、シーン判別指標データ処理部107で決定された処理条件、及び設定入力部110から入力された操作情報に基づいて出力先に応じた最適化処理が施され(ステップS50)、鑑賞画像参照データd5が生成されて、設定入力部110により設定されたデバイスに出力される(ステップS51)。
Returning to FIG. 12, the scene reference image data d4 input from the imaging device characteristic
以上説明したように、画像処理装置131によれば、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6を入力し、シーン参照生データd2に対して、撮像装置特性補正データd1に基づいて、撮像装置特性補正処理を施してシーン参照画像データd4を生成し、シーン参照画像データd4に対して、撮影情報データd3及びシーン判別指標データd6に基づいて、最適化処理を施して鑑賞画像参照データd5を生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。また、シーン判別指標データd6に基づいて、シーン参照画像データd4に施す階調調整方法及び調整量を決定するので、撮影シーンに応じて最適な階調調整を行うことができる。
As described above, according to the
[第2の実施の形態]
次に、図15〜図20を参照して、本発明の第2の実施の形態における撮像装置52及び画像処理装置132について説明する。
[Second Embodiment]
Next, an
<撮像装置52の構成>
図15は、第2の実施の形態における撮像装置52の機能的構成を示すブロック図である。撮像装置52は、第1の実施の形態に示した撮像装置51に、階調変換データ生成部23を追加した構成である。撮像装置52において、第1の実施の形態に示した撮像装置51と同一の構成部分については同一の符号を付し、その構成については説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
<Configuration of
FIG. 15 is a block diagram illustrating a functional configuration of the
制御部8は、操作部13によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Bを行い、撮影時におけるアナログ処理回路4における信号増幅やノイズの低減処理や画像処理部7における処理を省略し、記憶デバイス16の記録メディアに、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7をヘッダ情報として書き込むとともに、撮影されたデジタル画像データをシーン参照生データd2として記録する。例えば、撮像装置特性補正データd1及び階調変換データd7はDNGタグに書き込み、撮影情報データd3はExifタグに書き込む。
When the output of scene reference raw data is specified by the
階調変換データ生成部23は、シーン判別指標データ生成部12により生成されたシーン判別指標データd6に基づいて、階調変換データd7を生成する。階調変換データd7は、階調変換前後の値を定めたデータであり、ルックアップテーブルでもよいし、階調変換を示す変換式データでもよい。階調変換データ生成部23は、第1の実施の形態に示した画像処理装置131のシーン判別指標データ処理部107と同様の構成であるため、説明を省略する。階調変換データ生成部23は、特許請求の範囲に記載の撮像装置の階調変換データ生成手段としての機能を有する。
The gradation conversion
ヘッダ情報処理部15は、一時記憶メモリ6に格納されたデジタル画像データに対して、撮影情報データ処理部9により生成された撮影情報データd3、装置特性補正情報処理部10により生成された撮像装置特性補正データd1、階調変換データ生成部23により生成された階調変換データd7をヘッダ情報として書き込み処理する。
The header
<撮像装置52の動作>
次に、撮像装置52の動作について説明する。
図16は、図15に示す撮像装置52において、操作部13により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部8の制御により実行されるシーン参照生データ保存処理Bを示すフローチャートである。以下、図16を参照してシーン参照生データ保存処理Bについて説明する。
<Operation of
Next, the operation of the
FIG. 16 shows an
操作部13のレリーズボタンが押下されると、制御部8により、各部が制御され撮影が行われる(ステップS71)。CCD3から得られた撮像信号は、A/D変換器5によりデジタル画像データに変換され、シーン参照生データd2が生成される(ステップS72)。また、装置特性補正情報処理部10により撮像装置特性補正データd1が生成され(ステップS73)、撮影情報データ処理部9により撮影情報データd3が生成される(ステップS74)。また、シーン判別指標データ生成部12によりシーン判別指標データd6が生成され、階調変換データ生成部23により、シーン判別指標データd6に基づいて階調変換データd7が生成される(ステップS75)。
When the release button of the
ここで、図17を参照して、階調変換データ生成処理について説明する。
まず、シーン判別指標データd6(例えば、指標4、指標5及び指標6)の値に基づいて、画像データの撮影シーン(光源条件及び露出条件)が判別される(ステップS81)。撮影シーンの判別方法については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS61と同様である。
Here, the gradation conversion data generation processing will be described with reference to FIG.
First, based on the value of the scene determination index data d6 (for example, index 4,
撮影シーンが判別されると、その判別された撮影シーンに応じて、画像データに対する階調調整方法が決定される(ステップS82)。階調調整方法の決定については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS62と同様である。 When the shooting scene is determined, a gradation adjustment method for the image data is determined according to the determined shooting scene (step S82). The determination of the gradation adjustment method is the same as step S62 in the image processing condition determination process (see FIG. 13) of the first embodiment.
階調調整方法が決定されると、指標に基づいて、階調調整に必要なパラメータ(階調調整パラメータ)が算出される(ステップS83)。階調調整パラメータの算出については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS63と同様である。 When the gradation adjustment method is determined, parameters (gradation adjustment parameters) necessary for gradation adjustment are calculated based on the index (step S83). The calculation of the gradation adjustment parameter is the same as step S63 in the image processing condition determination process (see FIG. 13) of the first embodiment.
階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、画像データに対する階調調整量が決定される(ステップS84)。そして、ステップS82において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、ステップS83において算出された階調調整パラメータに対応する階調変換曲線が選択(決定)され、階調変換データd7が生成される(ステップS85)。なお、ステップS83において算出された階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出し、階調変換データd7を生成するようにしてもよい。 When the tone adjustment parameter is calculated, the tone adjustment amount for the image data is determined based on the calculated tone adjustment parameter (step S84). Then, a gradation conversion curve corresponding to the gradation adjustment parameter calculated in step S83 is selected from a plurality of gradation conversion curves set in advance corresponding to the gradation adjustment method determined in step S82 ( The gradation conversion data d7 is generated (step S85). Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter calculated in step S83, and the gradation conversion data d7 may be generated.
図16に戻り、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7の生成後、シーン参照生データd2のファイルヘッダに撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7がタグ情報として記録、添付され(ステップS76)、添付済みのデータファイルが作成される(ステップS77)。この添付済みのデータファイルは、撮像装置52に着脱可能に構成された記憶デバイス16の記録メディアに記録、保存される(ステップS78)。
Returning to FIG. 16, after generating the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7, the imaging device characteristic correction data d1 and the shooting information are added to the file header of the scene reference raw data d2. Data d3 and gradation conversion data d7 are recorded and attached as tag information (step S76), and an attached data file is created (step S77). The attached data file is recorded and stored in the recording medium of the
図18は、ステップS78で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図18に示すように、撮影されたデジタル画像データは、シーン参照生データd2として記録され、そのヘッダ領域に、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7が記録されている。この記録メディアを撮像装置51から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7をこれらの外部装置に出力することができる。したがって、撮像装置52によれば、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。
FIG. 18 is a diagram showing a data structure of the digital image data recorded on the recording medium of the
<画像処理装置132の構成>
図19は、第2の実施の形態における画像処理装置132の機能的構成を示すブロック図である。画像処理装置132は、第1の実施の形態に示した画像処理装置131のシーン判別指標データ処理部107に代えて、階調変換データ処理部117を備えた構成である。画像処理装置132において、第1の実施の形態に示した画像処理装置131と同一の構成部分については同一の符号を付し、その構成については説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
<Configuration of
FIG. 19 is a block diagram illustrating a functional configuration of the
入力部101は、記録メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置52により撮影されたデータのファイル(図18参照)が記録された記録メディアが装着されると、入力部101は、記録されたデータファイルを読み出して、ヘッダ情報解析部102へ出力する
The
ヘッダ情報解析部102は、入力部101から入力されたデータを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、階調変換データd7とに分け、撮像装置特性補正データd1を装置特性補正処理部103aへ、シーン参照生データd2をシーン参照画像データ生成部104へ、撮影情報データd3を撮影情報データ処理部106へ、階調変換データd7を階調変換データ処理部117へ出力する。
The header
階調変換データ処理部117は、ヘッダ情報解析部102から入力された階調変換データd7に基づいて、鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。
The gradation conversion
鑑賞画像参照データ生成部108は、一時記憶メモリ105からシーン参照画像データd4を読み出し、撮影情報データ処理部106で決定された鑑賞画像参照データd5の生成条件、階調変換データ処理部117で決定された鑑賞画像参照データd5の生成条件、及び設定入力部110から入力された記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報に基づき、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データd5を生成し、操作情報とともに一時記憶メモリ109へ出力する。
The appreciation image reference
<画像処理装置132の動作>
図20は、画像処理装置132の各部が連携することにより実行される画像データ生成処理Bを示すフロー図である。以下、図20を参照して画像処理装置132の動作について説明する。
<Operation of
FIG. 20 is a flowchart showing an image data generation process B executed by cooperation of the units of the
図18に示したデータ構造の画像データファイルが記録された記録メディアが装着されると、入力部101により、記録メディアに記録されたデジタル画像データファイルが入力される(ステップ91)。入力されたデジタル画像データは、ヘッダ情報解析部102によりその内容が解析され(ステップS92)、シーン参照生データd2(ステップS93)、撮像装置特性補正データd1(ステップS94)、撮影情報データd3(ステップS95)、階調変換データd7(ステップS96)に分けられ、シーン参照生データd2及び撮像装置特性補正データd1は撮像装置特性補正処理部114へ、撮影情報データd3及び階調変換データd7は最適化処理部115へ出力される。
When the recording medium on which the image data file having the data structure shown in FIG. 18 is loaded, the digital image data file recorded on the recording medium is input by the input unit 101 (step 91). The contents of the input digital image data are analyzed by the header information analysis unit 102 (step S92), raw scene reference data d2 (step S93), imaging device characteristic correction data d1 (step S94), and shooting information data d3 ( Step S95) and gradation conversion data d7 (step S96). The scene reference raw data d2 and the imaging device characteristic correction data d1 are sent to the imaging device characteristic
撮像装置特性補正データd1が撮像装置特性補正処理部114へ入力されると、装置特性補正処理部103aにより処理条件テーブル103bが参照され、シーン参照画像データd4を生成するための処理条件が決定される。シーン参照画像データ生成部104により、シーン参照生データd2に対して、この処理条件に基づいて撮像装置特性補正処理が施され(ステップS97)、シーン参照画像データd4が生成されて最適化処理部115に出力される(ステップS98)。
When the imaging apparatus characteristic correction data d1 is input to the imaging apparatus characteristic
また、撮影情報データd3が最適化処理部115へ入力されると、撮影情報データ処理部106により、撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。
Further, when the shooting information data d3 is input to the
また、階調変換データd7が最適化処理部115へ入力されると、階調変換データ処理部117により、階調変換データd7に基づいて、鑑賞画像参照データd5を生成するための処理条件が決定される。
When the gradation conversion data d7 is input to the
そして、撮像装置特性補正処理部114から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部108により、撮影情報データ処理部106で決定された処理条件、階調変換データ処理部117で決定された処理条件及び設定入力部110から入力された操作情報に基づいて出力先に応じた最適化処理が施され(ステップS99)、鑑賞画像参照データd5が生成されて、設定入力部110により設定されたデバイスに出力される(ステップS100)。
Then, the scene reference image data d4 input from the imaging device characteristic
以上説明したように、画像処理装置132によれば、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7を入力し、シーン参照生データd2に対して、撮像装置特性補正データd1に基づいて、撮像装置特性補正処理を施してシーン参照画像データd4を生成し、シーン参照画像データd4に対して、撮影情報データd3及び階調変換データd7に基づいて、最適化処理を施して鑑賞画像参照データd5を生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。
As described above, according to the
なお、第2の実施の形態では、撮像装置52において、シーン参照生データd2に、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7を添付することとしたが、さらに、シーン判別指標データd6を添付することとしてもよい。
In the second embodiment, in the
[第3の実施の形態]
<画像記録装置201の構成>
次に、図21〜図24を参照して、本発明の第3の実施の形態の画像記録装置201について説明する。
図21は、画像記録装置201の概観構成を示す斜視図である。画像記録装置201は、出力デバイスとして画像を形成する画像記録手段と、表示デバイスとしてCRTディスプレイモニタと、を備える。
[Third Embodiment]
<Configuration of
Next, an
FIG. 21 is a perspective view illustrating an overview configuration of the
図21に示すように、画像記録装置201には、本体202の一側面にマガジン装填部203が備えられている。本体202の内側には、出力メディアである銀塩印画紙に露光する露光処理部204と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部205が備えられ、作成されたプリントは、本体202の他側面に設けられたトレー206に排出される。
As shown in FIG. 21, the
また、本体202の上部には、表示装置としてのCRT208、透過原稿を読み込む装置であるフィルムスキャナ部209、反射原稿入力装置210、操作部211が備えられている。このCRT208が、プリントを作成しようとする画像データの画像を画面に表示する表示手段を構成している。さらに、本体202には、各種デジタル記録媒体に記録された画像データを読み取り可能な画像読込部214、各種デジタル記録媒体に画像信号を書き込み(出力)可能な画像書込部215が備えられている。また、本体202の内部には、これらの各部を集中制御する制御部207が備えられている。
In addition, a
画像読込部214には、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214bが備えられ、PCカード213aやフロッピーディスク213bが差し込み可能になっている。PCカード213aは、デジタルカメラで撮像された複数の駒画像データが記録されたメモリを有する。フロッピーディスク213bには、例えば、デジタルカメラで撮像された複数の駒画像データが記録されている。その他、駒画像データを有する記録媒体としては、マルチメディアカード、メモリースティック、CD−ROM等が挙げられる。
The
画像書込部215には、フロッピーディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、それぞれ、FD216a、MO216b、光ディスク216cが差し込み可能になっており、画像データを画像記録メディアに書き込むことができるようになっている。光ディスク216cとしては、CD−R、DVD−R等がある。
The
なお、図21では、操作部211、CRT208、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214が、本体202に一体的に備えられた構造となっているが、これらのいずれか1つ以上を別体として設けるようにしてもよい。
In FIG. 21, the
なお、図21に示した画像記録装置201では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。
In the
<画像記録装置201の内部構成>
図22は、画像記録装置201の内部構成を示すブロック図である。画像記録装置201は、図22に示すように、制御部207、露光処理部204、プリント作成部205、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214、通信手段(入力)240、画像書込部215、データ蓄積手段271、操作部211、CRT208、通信手段(出力)241から構成される。
<Internal Configuration of
FIG. 22 is a block diagram showing an internal configuration of the
制御部207は、マイクロコンピュータにより構成され、ROM等の記憶部(図示略)に記憶されている画像処理プログラム等の各種制御プログラムと、CPU(図示略)との協働により、画像記録装置201を構成する各部の動作を制御する。
The
制御部207は、画像処理部270を有し、操作部211からの入力信号に基づいて、フィルムスキャナ部209や反射原稿入力装置210により取得した画像データ、画像読込部214から読み込まれた画像データ、外部機器から通信手段(入力)240を介して入力された画像データに対して、画像処理を施して出力用画像データ生成し、露光処理部204に出力する。また、画像処理部270は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。画像処理部270の出力先としては、CRT208、画像書込部215、通信手段(出力)241等がある。
The
露光処理部204は、感光材料に画像の露光を行い、この感光材料をプリント作成部205に出力する。プリント作成部205は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。
The
フィルムスキャナ部209は、アナログカメラにより撮像されてネガフィルムを現像して得られる現像済みのネガフィルムNからの駒画像データを読み込む。反射原稿入力装置210は、駒画像を印画紙に焼き付けて現像処理したプリントPからの駒画像データを読み込む。
The
フィルムスキャナ部209や反射原稿入力装置210から読み込まれる原稿としては、写真感光材料があり、この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等がある。この写真感光材料には、アナログカメラにより撮像した駒画像データが記録される。フィルムスキャナ部209のフィルムスキャナにより、デジタル画像データに変換し、駒画像データとすることができる。また、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置210のフラットベッドスキャナにより、駒画像データに変換することができる。
An original read from the
画像読込部214は、PCカード213aやフロッピーディスク213bに記録された駒画像データを読み出して制御部207に転送する。この画像読込部214は、画像転送手段230として、PCカード用アダプタ214a、フロッピーディスク用アダプタ214b等を有する。画像読込部214は、PCカード用アダプタ214aに差し込まれたPCカード213aや、フロッピーディスク用アダプタ214bに差し込まれたフロッピーディスク213bに記録された駒画像データを読み取り、制御部207に転送する。PCカード用アダプタ214aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。
The
通信手段(入力)240は、画像記録装置201が設置された施設内の別のコンピュータや、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像データやプリント命令信号を受信する。
The communication means (input) 240 receives image data representing a captured image and a print command signal from another computer in the facility where the
画像書込部215は、画像搬送部231として、フロッピーディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cを備えている。画像書込部215は、制御部207から入力される書込信号に従って、フロッピーディスク用アダプタ215aに差し込まれたフロッピーディスク216a、MO用アダプタ215bに差し込まれたMO216b、光ディスク用アダプタ215cに差し込まれた光ディスク216cに、生成された画像データを書き込む。
The
データ蓄積手段271は、画像データとそれに対応するオーダー情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)等の情報を記憶し、順次蓄積する。
The
操作部211は、情報入力手段212を有する。情報入力手段212は、例えば、タッチパネル等により構成されており、情報入力手段212の押下信号を入力信号として制御部207に出力する。なお、操作部211は、キーボードやマウス等を備えて構成するようにしてもよい。CRT208は、制御部207から入力された表示制御信号に従って、画像データ等を表示する。
The
通信手段(出力)241は、画像処理を施した後の画像データと付帯するオーダー情報とを、画像記録装置201が設置された施設内の他のコンピュータや、インターネット等を介した遠方のコンピュータに対して送信する。
The communication means (output) 241 transfers the image data after the image processing and the accompanying order information to another computer in the facility where the
<画像処理部270の構成>
図23は、画像記録装置201の画像処理部270の機能的構成を示すブロック図である。画像処理部270は、図23に示すように、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、ヘッダ情報解析部302、装置特性補正処理部303a、処理条件テーブル303b、シーン参照画像データ生成部304、撮影情報データ処理部306、シーン判別指標データ処理部307、鑑賞画像参照データ生成部308から構成される。
<Configuration of
FIG. 23 is a block diagram illustrating a functional configuration of the
フィルムスキャンデータ処理部701は、フィルムスキャナ部209から入力された画像データに対し、フィルムスキャナ部209固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。また、フィルムスキャンデータ処理部701は、フィルムサイズ、ネガポジ種別、フィルムに光学的あるいは磁気的に記録されたISO感度、メーカー名、主要被写体に関わる情報・撮影条件に関する情報(例えばAPSの記載情報内容)等も併せて画像調整処理部704に出力する。
The film scan
反射原稿スキャンデータ処理部702は、反射原稿入力装置210から入力された画像データに対し、反射原稿入力装置210固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。
The reflected original scan
画像データ書式解読処理部703は、画像転送手段230や通信手段(入力)240から入力された画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等を行い、画像処理部270内の演算に適したデータ形式に変換し、画像調整処理部704に出力する。また、画像データ書式解読処理部703は、第1の実施の形態に示した撮像装置51による形式の画像データファイル(図8参照)が画像転送手段230又は通信手段(入力)240から入力されたか否かを判別し、入力された画像データをヘッダ情報解析部302に出力する。
The image data format
また、フィルムスキャナ部209、反射原稿入力装置210、画像転送手段230、通信手段(入力)240からの主要被写体に関わる情報及び撮影条件に関する情報を補足・補充する形で、操作部211から該情報を画像調整処理部704に送ることもできる。
Further, the information from the
出力画像の大きさについての指定は操作部211から入力される。この他に、通信手段(入力)240から取得した出力画像の大きさについて指定があった場合や、画像転送手段230が取得した画像データのヘッダ情報やタグ情報に埋め込まれた出力画像の大きさについての指定があった場合には、画像データ書式解読処理部703が該情報を検出し、画像調整処理部704へ出力する。
The designation about the size of the output image is input from the
ヘッダ情報解析部302は、入力された画像データを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、シーン判別指標データd6とに分ける。そして、シーン参照生データd2をシーン参照画像データ生成部304へ、撮像装置特性補正データd1を装置特性補正処理部303aへ、撮影情報データd3を撮影情報データ処理部306へ、シーン判別指標データd6をシーン判別指標データ処理部307へ出力する。
The header
装置特性補正処理部303aは、ヘッダ情報解析部302から撮像装置特性補正データd1が入力されると、処理条件テーブル303bの参照により、シーン参照画像データd4の生成条件を決定する。処理条件テーブル303bは、撮像装置の特性毎に、シーン参照画像データd4を生成するための処理条件を対応付けて記憶するテーブルである。
When the imaging device characteristic correction data d1 is input from the header
シーン参照画像データ生成部304は、ヘッダ情報解析部302から入力されたシーン参照生データd2に対して、装置特性補正処理部303aにより決定された生成条件により撮像装置特性補正処理を施して撮像装置特性に依存しないシーン参照画像データd4を生成し、鑑賞画像参照データ生成部308とデータ蓄積手段271に出力する。
The scene reference image data generation unit 304 performs an imaging device characteristic correction process on the scene reference raw data d2 input from the header
撮影情報データ処理部306は、ヘッダ情報解析部302から入力された撮影情報データd3に基づいて、撮影条件に応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部308に出力する。
The shooting information
シーン判別指標データ処理部307は、シーン判別指標データd6に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部308に出力する。シーン判別指標データ処理部307は、第1の実施の形態の画像処理装置131のシーン判別指標データ処理部107と同様の構成である。
The scene discrimination index
画像調整処理部704は、操作部211及び制御部207からの指令に基づき、出力先のデバイス及び出力メディアに適合された鑑賞画像参照データd5を生成するための画像処理条件を、鑑賞画像参照データ生成部308へと転送する。
The image
鑑賞画像参照データ生成部308は、撮影情報データ処理部306で決定された画像処理条件、シーン判別指標データ処理部307で決定された画像処理条件、及び画像調整処理部704から送信された画像処理条件に基づき、シーン参照画像データd4から鑑賞画像参照データd5を生成する。
The appreciation image reference
画像調整処理部704は、操作部211又は制御部207の指令に基づいて、フィルムスキャナ部209、反射原稿入力装置210、画像転送手段230、通信手段(入力)240から受け取った画像データに対して、出力メディア上で画像を観察する際に好ましい印象を与える画像となるように画像処理を行い出力用のデジタル画像データを生成し、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、データ蓄積手段271へ処理済みの画像信号を送出する。
The image
CRT固有処理部705は、画像調整処理部704から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT208に出力する。
The CRT
プリンタ固有処理部(1)706は、画像調整処理部704から入力された画像データに対して、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、露光処理部204に出力する。
A printer-specific processing unit (1) 706 performs printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image
画像記録装置201に、大判インクジェットプリンタ等の外部プリンタ251が接続されている場合には、接続されたプリンタ毎にプリンタ固有処理部(2)707が設けられている。このプリンタ固有処理部(2)707は、画像調整処理部704から入力された画像データに対して、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行う。
When an
画像データ書式作成処理部708は、画像調整処理部704から入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部231や通信手段(出力)241に出力する。
The image data format
なお、鑑賞画像参照データ生成部308において生成される画像データは、上記CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708における処理を前提としたものであり、画像データ書式作成処理部708においては、鑑賞画像参照データd5の書式に基づき、CRT用、露光処理部用、外部プリンタ用、通信手段(出力)用等、最適化した画像データであることを示すステータスファイルを添付した上で、個々に画像搬送部231に送信され、保存することが可能である。
Note that the image data generated by the appreciation image reference
以上の、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708という区分は、画像処理部270の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
The above-described film scan
また、ヘッダ情報解析部302、装置特性補正処理部303a、シーン参照画像データ生成部304、撮影情報データ処理部306、シーン判別指標データ処理部307、鑑賞画像参照データ生成部308という区分は、画像処理部270における本発明の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
The header
<画像処理部270の動作>
図24は、画像処理部270の各部が連携することにより実行される画像形成処理を示すフロー図である。以下、図24を参照して画像処理部270各部の動作について説明する。
<Operation of
FIG. 24 is a flowchart showing an image forming process executed by cooperation of the units of the
画像転送手段230又は通信手段(入力)240から画像処理部270にデータが入力され(ステップS101)、画像データ書式解読処理部703により当該入力データが図8に示した形式の画像データファイルであると判別されると(ステップS102)、入力されたデジタル画像データファイルはヘッダ情報解析部302によりその内容が解析され(ステップS103)、シーン参照生データd2(ステップS104)、撮像装置特性補正データd1(ステップS105)、撮影情報データd3(ステップS106)、シーン判別指標データd6(ステップS107)に分けられる。
Data is input to the
撮像装置特性補正データd1は、装置特性補正処理部303aに出力され、装置特性補正処理部303aによる処理条件テーブル303bの参照によりシーン参照画像データd4を生成するための処理条件が決定される。シーン参照生データd2は、シーン参照画像データ生成部304に出力され、装置特性補正処理部303aで決定された処理条件に基づいて撮像装置特性補正処理が施され(ステップS108)、シーン参照画像データd4が生成されて鑑賞画像データ生成部308に出力される(ステップS109)。
The imaging device characteristic correction data d1 is output to the device characteristic
撮影情報データd3は、撮影情報データ処理部306に出力され、撮影情報データ処理部306により撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。また、操作部211及び制御部207からの指令に基づき、画像調整処理部704において、出力デバイス及び出力メディアに適合された鑑賞画像参照データd5を生成するための画像処理条件が決定される。
The shooting information data d3 is output to the shooting information
シーン判別指標データd6は、シーン判別指標データ処理部307に出力され、シーン判別指標データ処理部307によりシーン判別指標データd6に基づいて画像処理条件決定処理が行われる(ステップS110)。画像処理条件決定処理については、第1の実施の形態に示した画像処理条件決定処理(図13参照)と同様であるため、説明を省略する。
The scene discrimination index data d6 is output to the scene discrimination index
シーン参照画像データ生成部304から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部308により、撮影情報データ処理部306により決定された画像処理条件、シーン判別指標データ処理部307で決定された画像処理条件、及び画像調整処理部704により決定された画像処理条件に基づいて最適化処理が施され(ステップS111)、鑑賞画像参照データd5が生成される(ステップS112)。鑑賞画像参照データd5は、出力先に応じてCRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708の何れかの処理部に出力される。鑑賞画像参照データd5は、出力された処理部において、出力先に応じた固有の処理が施され(ステップS113)、操作部211により指定された出力先から出力される(ステップS114)。
以上で、画像形成処理が終了する。
The scene reference image data d4 input from the scene reference image data generation unit 304 is determined by the appreciation image reference
This completes the image forming process.
以上説明したように、画像記録装置201によれば、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6が添付されたシーン参照生データd2を取得して、撮像画像情報の情報損失を伴うことなく鑑賞画像参照データd5を生成し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等の出力媒体上に、撮影シーンに応じて最適な鑑賞画像を形成することができる。
As described above, according to the
なお、第3の実施の形態では、シーン判別指標データ処理部307において、シーン判別指標データd6に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定することとしたが、第2の実施の形態における画像処理装置132と同様に、撮像装置52により生成された画像データファイル(図18参照)を取得し、階調変換データd7に基づいて階調変換を行うこととしてもよい。
In the third embodiment, the scene discrimination index
1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 制御部
9 撮影情報データ処理部
10 装置特性補正情報処理部
11 表示用画像データ生成部
12 シーン判別指標データ生成部
13 操作部
14 表示部
15 ヘッダ情報処理部
16 記憶デバイス
17 CCD駆動回路
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 ストロボ駆動回路
22 ストロボ
23 階調変換データ生成部
31 割合算出部
32 指標算出部
33 表色系変換部
34 ヒストグラム作成部
35 占有率演算部
51 撮像装置
52 撮像装置
101 入力部
102 ヘッダ情報解析部
103a 装置特性補正処理部
103b 処理条件テーブル
104 シーン参照画像データ生成部
105 一時記憶メモリ
106 撮影情報データ処理部
107 シーン判別指標データ処理部
108 鑑賞画像参照データ生成部
109 一時記憶メモリ
110 設定入力部
111 記憶デバイス
112 出力デバイス
113 表示デバイス
114 撮像装置特性補正処理部
115 最適化処理部
116 制御部
117 階調変換データ処理部
121 シーン判別部
122 階調調整方法決定部
123 階調調整パラメータ算出部
124 階調調整量算出部
131 画像処理装置
132 画像処理装置
201 画像記録装置
202 本体
203 マガジン装填部
204 露光処理部
205 プリント作成部
206 トレー
207 制御部
208 CRT
209 フィルムスキャナ部
210 反射原稿入力装置
211 操作部
212 情報入力手段
214 画像読込部
215 画像書込部
230 画像転送手段
231 画像搬送部
240 通信手段(入力)
241 通信手段(出力)
251 外部プリンタ
270 画像処理部
701 フィルムスキャンデータ処理部
702 反射原稿スキャンデータ処理部
703 画像データ書式解読処理部
704 画像調整処理部
705 CRT固有処理部
706 プリンタ固有処理部(1)
707 プリンタ固有処理部(2)
708 画像データ書式作成処理部
302 ヘッダ情報解析部
303a 装置特性補正処理部
303b 処理条件テーブル
304 シーン参照画像データ生成部
306 撮影情報データ処理部
307 シーン判別指標データ処理部
308 鑑賞画像参照データ生成部
271 データ蓄積手段
d1 撮像装置特性補正データ
d2 シーン参照生データ
d3 撮影情報データ
d4 シーン参照画像データ
d5 鑑賞画像参照データ
d6 シーン判別指標データ
d7 階調変換データ
1
4 Analog processing circuit 5 A / D converter 6 Temporary storage memory 7 Image processing unit 8 Control unit 9 Shooting information data processing unit 10 Device characteristic correction information processing unit 11 Display image data generation unit 12 Scene discrimination index data generation unit 13 Operation Unit 14 Display unit 15 Header information processing unit 16 Storage device 17 CCD drive circuit 18 Focal length adjustment circuit 19 Automatic focus drive circuit 20 Motor 21 Strobe drive circuit 22 Strobe 23 Gradation conversion data generation unit 31 Ratio calculation unit 32 Index calculation unit 33 Color system conversion unit 34 Histogram creation unit 35 Occupancy rate calculation unit 51 Imaging device 52 Imaging device 101 Input unit 102 Header information analysis unit 103a Device characteristic correction processing unit 103b Processing condition table 104 Scene reference image data generation unit 105 Temporary storage memory 106 Imaging information data processing unit 107 Scene discrimination index data processing unit 108 Appreciation image reference data generation unit 109 Temporary storage memory 110 Setting input unit 111 Storage device 112 Output device 113 Display device 114 Imaging device characteristic correction processing unit 115 Optimization processing unit 116 Control unit 117 Tone conversion data Processing unit 121 Scene determination unit 122 Gradation adjustment method determination unit 123 Gradation adjustment parameter calculation unit 124 Gradation adjustment amount calculation unit 131 Image processing device 132 Image processing device 201 Image recording device 202 Main body 203 Magazine loading unit 204 Exposure processing unit 205 Print creation unit 206 Tray 207 Control unit 208 CRT
209
241 Communication means (output)
251
707 Printer-specific processing unit (2)
708 Image data format
Claims (14)
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。 Raw scene reference data generation means for generating raw scene reference data depending on the device characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data used when performing processing for correcting the device characteristics specific to the imaging apparatus to the scene reference raw data;
Shooting information data generating means for generating shooting information data which is shooting condition settings at the time of shooting;
Scene discrimination index data generating means for generating scene discrimination index data for discriminating a shooting scene;
Attached to the scene reference raw data, the reproduction auxiliary data, the shooting information data and the scene determination index data, and further recording control means for recording on the medium,
An imaging apparatus comprising:
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、
前記表示用画像データを表示する表示手段と、
を備え、
前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする撮像装置。 The imaging device according to claim 1,
Display image data generating means for generating display image data based on the scene reference raw data;
Display means for displaying the display image data;
With
The scene determination index data generation means generates scene determination index data using the display image data.
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えたことを特徴とする画像処理装置。 Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And input means for inputting scene discrimination index data for discriminating the shooting scene;
Scene reference image data generating means for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
Image processing for forming an optimal viewing image on an output medium is performed on the scene reference image data generated by the scene reference image data generation unit based on the shooting information data and the scene determination index data. Appreciation image reference data generating means for generating appreciation image reference data,
An image processing apparatus comprising:
前記鑑賞画像参照データ生成手段は、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The image processing apparatus characterized in that the appreciation image reference data generation means determines a gradation adjustment method and an adjustment amount to be applied to the scene reference image data based on the scene discrimination index data.
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、
前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。 Raw scene reference data generation means for generating raw scene reference data depending on the device characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data used when performing processing for correcting the device characteristics specific to the imaging apparatus to the scene reference raw data;
Shooting information data generating means for generating shooting information data which is shooting condition settings at the time of shooting;
Scene discrimination index data generating means for generating scene discrimination index data for discriminating a shooting scene;
Gradation conversion data generating means for generating gradation conversion data based on the scene determination index data;
Attached to the scene reference raw data, the reproduction auxiliary data, the shooting information data and the gradation conversion data, and further recording control means for recording on a medium,
An imaging apparatus comprising:
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、
前記表示用画像データを表示する表示手段と、
を備え、
前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする撮像装置。 The imaging apparatus according to claim 5,
Display image data generating means for generating display image data based on the scene reference raw data;
Display means for displaying the display image data;
With
The scene determination index data generation means generates scene determination index data using the display image data.
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えたことを特徴とする画像処理装置。 Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And input means for inputting gradation conversion data;
Scene reference image data generating means for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated by the scene reference image data generation means, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the gradation conversion data. Appreciation image reference data generating means for generating appreciation image reference data,
An image processing apparatus comprising:
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録工程と、
を含むことを特徴とする画像処理方法。 A scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging,
A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting device characteristics specific to the imaging apparatus to the scene reference raw data;
A shooting information data generation step for generating shooting information data that is shooting condition settings at the time of shooting;
A scene determination index data generation step for generating scene determination index data for determining a shooting scene;
Attaching the reproduction assistance data, the shooting information data, and the scene determination index data to the scene reference raw data, and further recording the medium,
An image processing method comprising:
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、
前記表示用画像データを表示する表示工程と、
を含み、
前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする画像処理方法。 The image processing method according to claim 8.
A display image data generation step of generating display image data based on the scene reference raw data;
A display step of displaying the display image data;
Including
In the scene discrimination index data generation step, scene discrimination index data is generated using the display image data.
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、
前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、
を含むことを特徴とする画像処理方法。 Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data which is a shooting condition setting at the time of shooting And an input process for inputting scene discrimination index data for discriminating a shooting scene,
A scene reference image data generation step for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated in the scene reference image data generation step, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the scene determination index data Appreciation image reference data generation step for generating appreciation image reference data by performing,
An image processing method comprising:
前記鑑賞画像参照データ生成工程では、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする画像処理方法。 The image processing method according to claim 10,
In the appreciation image reference data generation step, a gradation adjustment method and an adjustment amount to be applied to the scene reference image data are determined based on the scene determination index data.
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、
前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成工程と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録工程と、
を含むことを特徴とする画像処理方法。 A scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging,
A reproduction auxiliary data generation step of generating reproduction auxiliary data used when performing processing for correcting device characteristics specific to the imaging apparatus to the scene reference raw data;
A shooting information data generation step for generating shooting information data that is shooting condition settings at the time of shooting;
A scene determination index data generation step for generating scene determination index data for determining a shooting scene;
A gradation conversion data generation step for generating gradation conversion data based on the scene determination index data;
Attaching the reproduction assistance data, the shooting information data and the gradation conversion data to the scene reference raw data, and further recording on a medium,
An image processing method comprising:
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、
前記表示用画像データを表示する表示工程と、
を含み、
前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする画像処理方法。 The image processing method according to claim 12.
A display image data generation step of generating display image data based on the scene reference raw data;
A display step of displaying the display image data;
Including
In the scene discrimination index data generation step, scene discrimination index data is generated using the display image data.
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、
前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、
を含むことを特徴とする画像処理方法。 Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And an input process for inputting gradation conversion data;
A scene reference image data generating step for generating scene reference image data by performing a process for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated in the scene reference image data generation step, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the gradation conversion data. Appreciation image reference data generation step for generating appreciation image reference data by performing,
An image processing method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013200A JP2006203566A (en) | 2005-01-20 | 2005-01-20 | Imaging apparatus, image processing apparatus and image processing method |
PCT/JP2005/023006 WO2006077702A1 (en) | 2005-01-20 | 2005-12-15 | Imaging device, image processing device, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005013200A JP2006203566A (en) | 2005-01-20 | 2005-01-20 | Imaging apparatus, image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006203566A true JP2006203566A (en) | 2006-08-03 |
Family
ID=36692096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005013200A Pending JP2006203566A (en) | 2005-01-20 | 2005-01-20 | Imaging apparatus, image processing apparatus and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2006203566A (en) |
WO (1) | WO2006077702A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034227A (en) * | 1999-07-15 | 2001-02-09 | Hitachi Ltd | Display device and its driving method |
JP2009171282A (en) * | 2008-01-17 | 2009-07-30 | Nikon Corp | Electronic camera |
JP2009260565A (en) * | 2008-04-15 | 2009-11-05 | Canon Inc | Imaging apparatus and control method thereof, and program |
US8525888B2 (en) | 2008-01-17 | 2013-09-03 | Nikon Corporation | Electronic camera with image sensor and rangefinding unit |
JP2013225802A (en) * | 2012-04-23 | 2013-10-31 | Nikon Corp | Digital camera, color conversion information generating program, color conversion program, and recording control program |
JP2015023514A (en) * | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, imaging apparatus, control method and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3294089B2 (en) * | 1995-11-21 | 2002-06-17 | 松下電器産業株式会社 | Imaging device |
JP3899497B2 (en) * | 1997-10-24 | 2007-03-28 | 株式会社ニコン | Electronic camera, electronic camera control method, and recording medium |
JP4126640B2 (en) * | 2000-03-08 | 2008-07-30 | 富士フイルム株式会社 | Electronic camera |
JP2004096500A (en) * | 2002-08-30 | 2004-03-25 | Konica Minolta Holdings Inc | Image pickup apparatus, image processing apparatus, and image recording apparatus |
JP2004259177A (en) * | 2003-02-27 | 2004-09-16 | Fuji Photo Film Co Ltd | Image processing device and program |
-
2005
- 2005-01-20 JP JP2005013200A patent/JP2006203566A/en active Pending
- 2005-12-15 WO PCT/JP2005/023006 patent/WO2006077702A1/en not_active Application Discontinuation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034227A (en) * | 1999-07-15 | 2001-02-09 | Hitachi Ltd | Display device and its driving method |
JP2009171282A (en) * | 2008-01-17 | 2009-07-30 | Nikon Corp | Electronic camera |
US8525888B2 (en) | 2008-01-17 | 2013-09-03 | Nikon Corporation | Electronic camera with image sensor and rangefinding unit |
JP2009260565A (en) * | 2008-04-15 | 2009-11-05 | Canon Inc | Imaging apparatus and control method thereof, and program |
JP2013225802A (en) * | 2012-04-23 | 2013-10-31 | Nikon Corp | Digital camera, color conversion information generating program, color conversion program, and recording control program |
JP2015023514A (en) * | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, imaging apparatus, control method and program |
Also Published As
Publication number | Publication date |
---|---|
WO2006077702A1 (en) | 2006-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4131192B2 (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP2004173010A (en) | Image pickup device, image processor, image recorder, image processing method, program and recording medium | |
US20040247175A1 (en) | Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus | |
JP2005026800A (en) | Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus | |
JPWO2005079056A1 (en) | Image processing apparatus, photographing apparatus, image processing system, image processing method and program | |
WO2006123492A1 (en) | Image processing method, image processing device, imaging device and image processing program | |
JP2004096500A (en) | Image pickup apparatus, image processing apparatus, and image recording apparatus | |
US20040041920A1 (en) | Image forming method, image processing apparatus, and image recording apparatus | |
JP2006203566A (en) | Imaging apparatus, image processing apparatus and image processing method | |
JP2004096505A (en) | Image processing method, image processing apparatus, image recording apparatus, program, and recording medium | |
JP2004088345A (en) | Image forming method, image processor, print preparation device, and storage medium | |
JP2004336521A (en) | Image processing method, image processor, and image recording apparatus | |
WO2006033235A1 (en) | Image processing method, image processing device, imaging device, and image processing program | |
WO2006077703A1 (en) | Imaging device, image processing device, and image recording device | |
JP2006203571A (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP2007312294A (en) | Imaging apparatus, image processor, method for processing image, and image processing program | |
JP2004096508A (en) | Image processing method, image processing apparatus, image recording apparatus, program, and recording medium | |
WO2006033236A1 (en) | Image processing method, image processing device, imaging device, and image processing program | |
JP2004328530A (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP2004328534A (en) | Image forming method, image processing apparatus and image recording apparatus | |
JP4623024B2 (en) | Electronic camera | |
JP4292873B2 (en) | Image processing method, image processing apparatus, and image recording apparatus | |
JP2006203565A (en) | Apparatus and method for processing image, and image recording apparatus | |
WO2006033234A1 (en) | Image processing method, image processing device, imaging device, and image processing program | |
JP2000261825A (en) | Image processing method, device therefor and recording medium |