Nothing Special   »   [go: up one dir, main page]

JP2006203566A - Imaging apparatus, image processing apparatus and image processing method - Google Patents

Imaging apparatus, image processing apparatus and image processing method Download PDF

Info

Publication number
JP2006203566A
JP2006203566A JP2005013200A JP2005013200A JP2006203566A JP 2006203566 A JP2006203566 A JP 2006203566A JP 2005013200 A JP2005013200 A JP 2005013200A JP 2005013200 A JP2005013200 A JP 2005013200A JP 2006203566 A JP2006203566 A JP 2006203566A
Authority
JP
Japan
Prior art keywords
data
scene
image
shooting
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005013200A
Other languages
Japanese (ja)
Inventor
Jo Nakajima
丈 中嶋
Hiroaki Takano
博明 高野
Daisuke Sato
大輔 佐藤
Tsukasa Ito
司 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005013200A priority Critical patent/JP2006203566A/en
Priority to PCT/JP2005/023006 priority patent/WO2006077702A1/en
Publication of JP2006203566A publication Critical patent/JP2006203566A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form an optimum viewed image in accordance with a photographing scene without causing information losses of picked-up image information. <P>SOLUTION: An imaging apparatus 51 performs photographing to generate scene reference raw data. An apparatus characteristic correction information processing part 10 generates imaging apparatus characteristic correction data, and a photographing information data processing part 9 generates photographing information data. A scene discrimination index data generating part 12 generates scene discrimination index data that quantitatively shows a light source condition and an exposure condition. The imaging apparatus characteristic correction data, the photographing information data and the scene discrimination index data are attached to a file header of the scene reference raw data as tag information, and the attached data file is recorded and stored in a recording medium of a storage device 16. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラ等の撮像装置、撮像装置により得られたデジタル画像データに対して出力媒体上での鑑賞画像を形成するために画像処理を施す画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for performing image processing to form an appreciation image on an output medium with respect to an image capturing apparatus such as a digital camera and digital image data obtained by the image capturing apparatus.

近年、デジタルカメラ等の撮像装置で撮影されたデジタル画像データは、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスからハードコピー画像としてプリントされたりする等、その表示・プリント方法は多種多様化してきている。   In recent years, digital image data photographed by an imaging device such as a digital camera is displayed on a display device such as a CRT (Cathode Ray Tube), a liquid crystal display, a plasma display, or a small liquid crystal monitor of a mobile phone, or a digital printer, an inkjet There are a variety of display / printing methods such as printing as a hard copy image from an output device such as a printer or a thermal printer.

デジタル画像データを鑑賞用途で表示・プリントする際には、鑑賞に使用するディスプレイモニタ上、或いはハードコピー上において所望の画質が得られるように階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理を施すことが一般に行われている。   When displaying and printing digital image data for viewing purposes, gradation adjustment, brightness adjustment, color balance adjustment, sharpness enhancement to obtain the desired image quality on the display monitor or hard copy used for viewing. In general, various image processes represented by the above are performed.

例えば、撮像装置特性に依存したシーン参照生データに、シーン参照生データを標準化するための再現補助データを添付して記録することにより、汎用性のある画像データを生成する技術が開示されている(特許文献1参照)。   For example, a technique for generating versatile image data by recording reproduction reference data for standardizing scene reference raw data attached to scene reference raw data depending on imaging device characteristics is disclosed. (See Patent Document 1).

また、近年、デジタルカメラで撮影した画像データを、パーソナルコンピュータ等を介さずに、直接インクジェットプリンタ等に伝送して出力を行うPictBridgeと称する規格(CIPA DC-001)が提案されている。また、RAWデータを、現像ソフトを介さずに直接インクジェットプリンタ等で出力することも行われている。
特開2004−96500号公報
In recent years, a standard (CIPA DC-001) called PictBridge has been proposed in which image data captured by a digital camera is directly transmitted to an inkjet printer or the like without using a personal computer or the like for output. In addition, RAW data is directly output by an ink jet printer or the like without using development software.
JP 2004-96500 A

しかしながら、一般的にデジタルカメラの撮影では、全ての撮影が最適な光源条件や露出条件で撮影されるわけではない。撮影された画像のシーン状態がいわゆる逆光、アンダー、ハイコントラスト等、鑑賞に好ましくない状態である場合には、最適な鑑賞画像を得ることが困難であった。   However, in general, in digital camera shooting, not all shooting is performed under optimal light source conditions and exposure conditions. When the scene state of the photographed image is not suitable for viewing such as so-called backlight, under, high contrast, etc., it is difficult to obtain an optimal viewing image.

本発明は上記の従来技術における問題に鑑みてなされたものであって、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる撮像装置、画像処理装置及び画像処理方法を提供することを課題とする。   The present invention has been made in view of the above-described problems in the prior art, and is an imaging apparatus and image processing capable of forming an optimal appreciation image according to a shooting scene without accompanying information loss of captured image information. It is an object to provide an apparatus and an image processing method.

上記課題を解決するために、請求項1に記載の発明は、撮像装置において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録制御手段と、を備えたことを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 is directed to a scene reference raw data generation unit that generates scene reference raw data depending on device characteristics of the imaging device by imaging, and the scene reference raw data. Reproduction auxiliary data generation means for generating reproduction auxiliary data used when performing processing for correcting the device characteristics specific to the imaging apparatus to data, and shooting information data generation means for generating shooting information data which is shooting condition settings at the time of shooting And scene discrimination index data generating means for generating scene discrimination index data for discriminating a shooting scene, and attaching the reproduction auxiliary data, the shooting information data, and the scene determination index data to the scene reference raw data, And a recording control means for recording on a medium.

ここで、本願明細書の記載において「生成」とは、本発明に係る撮像装置及び画像処理装置内において作用するプログラム、処理回路が、画像信号やデータを新たに作り出すことである。「作成」を同義語として用いることもある。   Here, in the description of the present specification, “generation” means that a program or a processing circuit that operates in the imaging apparatus and the image processing apparatus according to the present invention newly creates an image signal and data. “Create” may be used as a synonym.

また、「撮像装置」とは、光電変換機能を有する撮像素子(イメージセンサ)を備えた装置であって、所謂デジタルカメラやスキャナがこれに含まれる。撮像素子の一例としては、CCD(電荷結合素子(Charge Coupled Device))と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与したCCD型撮像素子や、CMOS型撮像素子が挙げられる。これらの撮像素子の出力電流はA/D変換器によりデジタル化される。この段階での各色チャンネルの内容は、撮像素子固有の分光感度に基づいた信号強度となっている。   The “imaging device” is a device including an imaging element (image sensor) having a photoelectric conversion function, and includes a so-called digital camera and scanner. As an example of the image pickup device, there is a CCD type image pickup device provided with a color sensitivity by combining a CCD (Charge Coupled Device), a charge transfer mechanism, and a checkered color filter, or a CMOS type image pickup device. Can be mentioned. The output currents of these image sensors are digitized by an A / D converter. The contents of each color channel at this stage are signal intensities based on the spectral sensitivity unique to the image sensor.

また、「撮像装置の装置特性に依存したシーン参照生データ」とは、被写体に忠実な情報を記録した撮像装置直接の生出力信号であり、前記A/D変換器によりデジタル化されたデータそのものや、該データに固定パターンノイズ・暗電流ノイズ等のノイズ補正を行ったデータを意味し、RAWデータが含まれる。このシーン参照生データは、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGB(Reference Input Medium Metric RGB)やERIMM RGB(Extended Reference Input Medium Metric RGB)(Journal of Imaging Science and Technology 45巻 418〜426頁(2001年)参照)、sRGB(IEC61966-2-1)、scRGB(IEC61966-2-2)等の標準化された色空間にマッピングする処理を省略したことを特徴とする。シーン参照生データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照生データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。   The “scene reference raw data depending on the device characteristics of the imaging device” is a raw output signal directly recorded on the imaging device in which information faithful to the subject is recorded, and the data itself digitized by the A / D converter. Or data obtained by performing noise correction such as fixed pattern noise and dark current noise on the data, and includes RAW data. This scene reference raw data is generated by image processing that modifies the contents of the data to improve the effects during image viewing such as gradation conversion, sharpness enhancement, and saturation enhancement, and each color channel based on the spectral sensitivity inherent to the image sensor. The signal intensity of RIM RGB (Reference Input Medium Metric RGB) or ERIM RGB (Extended Reference Input Medium Metric RGB) (see Journal of Imaging Science and Technology 45, pp. 418-426 (2001)), sRGB (IEC61966-2- 1) The process of mapping to a standardized color space such as scRGB (IEC61966-2-2) is omitted. The information amount (for example, the number of gradations) of the scene reference raw data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. . For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference raw data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「撮像装置固有の装置特性を補正する処理」とは、前述した「シーン参照生データ」を後述する「シーン参照画像データ」に変換する処理を意味する。この処理の内容はシーン参照生データの状態に依存するが、少なくとも撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピングする処理が含まれる。例えば、シーン参照生データが、カラーフィルタ配列に基づく補間処理を行っていない場合には、該処理の実施が加えて必要になる(カラーフィルタ配列に基づく補間処理の詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編51頁に記載されている。)。この結果、シーン参照生データとほぼ同一の情報量を有しつつも、異なる撮像装置間での信号値の差異が補正されたシーン参照画像データが得られる。   Further, “processing for correcting device characteristics unique to the imaging device” means processing for converting the above-described “scene reference raw data” into “scene reference image data” described later. The content of this process depends on the state of the scene reference raw data, but includes a process of mapping the signal intensity of each color channel based on at least the spectral sensitivity unique to the image sensor to a standard color space such as RIM RGB or ERIMM RGB. For example, when the scene reference raw data is not subjected to interpolation processing based on the color filter array, it is necessary to perform the processing (for details of the interpolation processing based on the color filter array, see, for example, “Fine (Imaging and digital photography ", page 51 of the publishing committee of the Japan Photographic Society). As a result, it is possible to obtain scene reference image data having the same amount of information as the scene reference raw data, but in which the difference in signal value between different imaging devices is corrected.

また、「再現補助データ」とは、データ内に記載された情報のみを活用して、撮像装置固有の装置特性を補正する処理が実施可能であるデータを意味する。少なくとも、撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピングすることが可能になる情報、すなわち撮像素子固有の分光感度特性かRIMM RGBのような特定の標準色空間に変換する時に使用すべきマトリックス係数が記載されている必要がある。例えば、撮像装置の機種名だけが記載されている場合は、本処理を実施する画像処理装置が機種名と前記マトリックス係数の対応表を保有していない可能性があるので十分なデータとは言えない。また例えば、本処理を実施する際に十分な情報が直接記載されていなくても、該情報のインターネット上での所在個所を示すURLが記載されている場合は、本処理を行うのに十分なデータとみなすことができる。これらの「再現補助データ」は、アドビシステム社推奨の画像フォーマットDigital Negative(DNG)に従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。   In addition, “reproduction assistance data” means data that can be used to correct the device characteristics unique to the imaging device by using only the information described in the data. Information that makes it possible to map at least the signal intensity of each color channel based on the spectral sensitivity of the image sensor itself to a standard color space such as RIM RGB or ERIMM RGB, that is, the spectral sensitivity characteristic specific to the image sensor or RIMM RGB It is necessary to describe matrix coefficients to be used when converting to a specific standard color space. For example, if only the model name of the imaging device is described, the image processing device performing this processing may not have a correspondence table between the model name and the matrix coefficient, so it can be said that the data is sufficient. Absent. Also, for example, even if sufficient information is not directly described when performing this processing, if the URL indicating the location of the information on the Internet is described, sufficient information is sufficient to perform this processing. It can be regarded as data. These “reproduction auxiliary data” are preferably recorded as tag information to be written in the header portion of the image file, such as a DNG tag according to the image format Digital Negative (DNG) recommended by Adobe Systems.

また、「再現補助データ」を、「シーン参照生データ」とは独立してメディアに保存する態様である場合には、「再現補助データ」、「シーン参照生データ」の何れか、又は両方に対し、両者を関連付けるための情報を付与するか、又は別途関連情報の記載されたステータス情報ファイルを添付する必要がある。   In addition, when the “reproduction auxiliary data” is stored in the media independently of the “scene reference raw data”, either “reproduction auxiliary data”, “scene reference raw data”, or both On the other hand, it is necessary to attach information for associating the two or attach a status information file in which related information is separately described.

また、「撮影情報データ」とは、撮影時の撮影条件設定の記録であり、Exifファイルのヘッダ部に書き込まれるタグ情報と同じものを含んでもよい。具体的には露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度、被写体の種類に関する情報等を示すタグ(コード)等である。   The “shooting information data” is a record of shooting condition settings at the time of shooting, and may include the same tag information written in the header portion of the Exif file. Specifically, exposure time, shutter speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, strobe emission, subject area, white balance, zoom magnification, subject composition, shooting scene type, A tag (code) or the like indicating information on the amount of reflected light of the strobe light source, shooting saturation, type of subject, and the like.

「撮影情報データ」は、撮像装置の露出設定や焦点機能の自動化のために、カメラに備えられたセンサの撮影時に得た値、前記センサの値から加工されたデータ、或いは前記センサの値に基づいて設定されたカメラの撮影条件に分類されるが、これ以外にも撮像装置に備えられた、撮影モードダイヤル(例えばポートレート、スポーツ、マクロ撮影モード等)や、ストロボ強制発光の設定スイッチ等を撮影者がマニュアルで設定した情報も含まれる。   “Photographing information data” is a value obtained at the time of photographing by a sensor provided in the camera, data processed from the value of the sensor, or a value of the sensor in order to automate the exposure setting and focus function of the imaging device. It is classified into the camera shooting conditions set on the basis of this, but in addition to this, a shooting mode dial (for example, portrait, sports, macro shooting mode, etc.), a strobe forced flash setting switch, etc. Also included is information manually set by the photographer.

また、「撮影シーン」とは、撮影時の光源条件や露出条件による撮影画像の状態を意味する。例えば、「適正」、「逆光」、「アンダー」、「ハイコントラスト」等の状態がある。   The “photographing scene” means a state of a photographed image according to a light source condition or an exposure condition at the time of photographing. For example, there are states such as “appropriate”, “backlight”, “under”, and “high contrast”.

また、「シーン判別指標データ」とは、上記の撮影シーンの度合いを表すものであり、例えば、逆光度、アンダー度、ハイコントラスト度等が挙げられる。「シーン判別指標データ」は、DNGフォーマットに従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。   The “scene discrimination index data” represents the degree of the above-described shooting scene, and includes, for example, the backlight intensity, the under degree, the high contrast degree, and the like. The “scene discrimination index data” is preferably recorded as tag information written in a header portion in an image file, such as a DNG tag according to the DNG format.

また、「メディア」とは、撮像装置の出力するシーン参照生データ等の保存に用いる記憶媒体であって、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、ハードディスク、フロッピー(登録商標)ディスク、磁気記憶媒体(MO)、或いはCD−R等、何れであってもよい。また、記憶媒体に書き込むユニットは、撮像装置と一体であっても、コードを介して有線状態で接続された書き込みユニット、通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置されたユニット等の何れの態様であってもよい。「メディアに記録する」時のファイル形式は、撮像装置固有の形式ではなく、TIFF(Tagged Image File Format)、JPEG(Joint Photographic Experts Group)、Exif(Exchangeable Image File Format)等の規格化された汎用のファイル形式で記録されるのが好ましい。   The “media” is a storage medium used to store scene reference raw data output from the imaging apparatus, and is a compact flash (registered trademark), memory stick, smart media, multimedia card, hard disk, floppy (registered trademark). ) Any of disk, magnetic storage medium (MO), CD-R, etc. In addition, the unit for writing to the storage medium is installed in a wired state via a cord even if it is integrated with the imaging device, installed independently or remotely in a wireless state via communication or the Internet Any aspect of the unit or the like may be used. The file format when recording to media is not a format specific to the imaging device, but is a standardized standard such as TIFF (Tagged Image File Format), JPEG (Joint Photographic Experts Group), Exif (Exchangeable Image File Format) The file format is preferably recorded.

請求項2に記載の発明は、請求項1に記載の撮像装置において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、前記表示用画像データを表示する表示手段と、を備え、前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。   According to a second aspect of the present invention, in the imaging device according to the first aspect, display image data generating means for generating display image data based on the scene reference raw data, and the display image data are displayed. Display means, wherein the scene determination index data generation means generates scene determination index data using the display image data.

請求項3に記載の発明は、画像処理装置において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力手段と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えたことを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data. Input means for inputting auxiliary data, shooting information data that is shooting condition settings at the time of shooting, and scene determination index data for determining a shooting scene, and the scene reference raw data, based on the reproduction auxiliary data, A scene reference image data generating unit that generates scene reference image data by performing a process for correcting device characteristics unique to the imaging device, and the scene reference image data generated by the scene reference image data generating unit Based on the information data and the scene discrimination index data, image processing for forming an optimal viewing image on the output medium is performed. Characterized in that and a referred image data generating means for generating a referred image data Te.

ここで、「入力」とは、撮像装置の出力する「シーン参照生データ」、「再現補助データ」、「撮影情報データ」及び「シーン判別指標データ」を、撮像装置から本発明の画像処理装置に伝達することを意味する。   Here, “input” refers to “scene reference raw data”, “reproduction assistance data”, “imaging information data”, and “scene discrimination index data” output from the imaging apparatus, from the imaging apparatus to the image processing apparatus of the present invention. Means to communicate.

例えば、撮像装置と上述した記憶媒体への書き込みユニットが接続状態にあるとき、画像処理装置が、撮像装置から直接「シーン参照生データ」等を読み出せる機能を併せ持つ態様である場合には、本発明の画像処理装置は撮像装置との接続手段を有し、この接続手段が、本発明の入力手段に相当する。また、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、或いはCD−R等、可搬式の「メディア」を用いる場合には、本発明の画像処理装置は対応する読み取り手段を有し、この読み取り手段が、本発明の入力手段に相当する。さらに、書き込みユニットが通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置された態様であるとき、本発明の画像処理装置は、通信やインターネットに接続する通信手段を有し、この通信手段が本発明の入力手段に相当する。   For example, when the image processing apparatus has a function of reading “scene reference raw data” directly from the image capturing apparatus when the image capturing apparatus and the above-described storage medium writing unit are connected, this The image processing apparatus of the present invention has a connection means for connecting to the imaging apparatus, and this connection means corresponds to the input means of the present invention. When using portable “media” such as CompactFlash (registered trademark), memory stick, smart media, multimedia card, floppy (registered trademark) disk, magneto-optical storage medium (MO), or CD-R The image processing apparatus of the present invention has corresponding reading means, and this reading means corresponds to the input means of the present invention. Further, when the writing unit is an independent or remotely installed state connected wirelessly via communication or the Internet, the image processing apparatus of the present invention has communication means for connecting to the communication or the Internet. This communication means corresponds to the input means of the present invention.

また、「シーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB等の標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto-electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものであることが好ましい。シーン参照画像データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。   The “scene reference image data” means that the signal intensity of each color channel based on at least the spectral sensitivity of the image sensor itself has been mapped to a standard color space such as RIM RGB, ERIMM RGB, etc., and gradation conversion / sharpness enhancement / It means image data in a state in which image processing for modifying data contents in order to improve the effect at the time of image viewing such as saturation enhancement is omitted. In addition, scene reference image data is a correction of photoelectric conversion characteristics of the imaging device (opto-electronic conversion function defined by ISO1452; for example, “Fine Imaging and Digital Photography” of Corona Co., Ltd., page 449 of the Japan Photographic Society Publishing Committee). It is preferable to have performed. The information amount (for example, the number of gradations) of the scene reference image data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. . For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「出力媒体」とは、例えば、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙である。   The “output medium” is, for example, a display device such as a CRT, a liquid crystal display, or a plasma display, or a paper for generating a hard copy image such as a silver salt photographic paper, an inkjet paper, or a thermal printer paper.

ここで、「鑑賞画像参照データ」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力デバイス等の出力媒体上での鑑賞画像形成に用いるデジタル画像データを意味する。   Here, “appreciation image reference data” means appreciation image formation on an output medium such as a display device such as a CRT, a liquid crystal display, or a plasma display, or an output device such as a silver salt photographic paper, an ink jet paper, or a thermal printer paper. This means digital image data used for.

また、「最適な鑑賞画像を形成するための画像処理」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得るための処理である。例えば、sRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また色域の圧縮以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、或いは覆い焼き処理等の画像処理が行われることは言うまでもない。   “Image processing to form an optimal viewing image” is optimal on display devices such as CRTs, liquid crystal displays, and plasma displays, and on output media such as silver halide photographic paper, inkjet paper, and thermal printer paper. This is a process for obtaining a clear image. For example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, processing is performed so as to obtain an optimum color reproduction within the color gamut of the sRGB standard. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, or dodging is performed.

請求項4に記載の発明は、請求項3に記載の画像処理装置において、前記鑑賞画像参照データ生成手段は、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする。   According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the appreciation image reference data generation means is a gradation adjustment method applied to the scene reference image data based on the scene discrimination index data, and The adjustment amount is determined.

請求項5に記載の発明は、撮像装置において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成手段と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録制御手段と、を備えたことを特徴とする。   According to a fifth aspect of the present invention, in the imaging apparatus, scene reference raw data generating means for generating scene reference raw data depending on the device characteristics of the imaging apparatus by imaging, and an apparatus specific to the imaging apparatus for the scene reference raw data Reproduction auxiliary data generation means for generating reproduction auxiliary data used when performing processing for correcting characteristics, shooting information data generation means for generating shooting information data that is shooting condition settings at the time of shooting, and for determining a shooting scene Scene discrimination index data generating means for generating the scene discrimination index data, tone conversion data generating means for generating tone conversion data based on the scene discrimination index data, and the reproduction auxiliary data in the scene reference raw data And recording control means for attaching the photographing information data and the gradation conversion data, and further recording on a medium. And butterflies.

請求項6に記載の発明は、請求項5に記載の撮像装置において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、前記表示用画像データを表示する表示手段と、を備え、前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。   According to a sixth aspect of the present invention, in the imaging device according to the fifth aspect, display image data generating means for generating display image data based on the scene reference raw data, and the display image data are displayed. Display means, wherein the scene determination index data generation means generates scene determination index data using the display image data.

請求項7に記載の発明は、画像処理装置において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力手段と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えたことを特徴とする。   According to the seventh aspect of the present invention, in the image processing apparatus, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics specific to the imaging device to the scene reference raw data. Auxiliary data, input means for inputting photographing information data and gradation conversion data that are photographing condition settings at the time of photographing, and device characteristics specific to the imaging device based on the reproduction auxiliary data with respect to the scene reference raw data Scene reference image data generation means for generating scene reference image data by performing processing for correcting the image, and the shooting information data and the gradation conversion for the scene reference image data generated by the scene reference image data generation means Appreciation image that generates appreciation image reference data by performing image processing to form an optimal appreciation image on the output medium based on the data A reference data generating means, characterized by comprising a.

請求項8に記載の発明は、画像処理方法において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録工程と、を含むことを特徴とする。   According to an eighth aspect of the present invention, in the image processing method, a scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging, and the scene reference raw data is unique to the imaging device. A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting the apparatus characteristics, a shooting information data generation step for generating shooting information data which is shooting condition setting at the time of shooting, and a shooting scene are determined. A scene discrimination index data generating step for generating scene discrimination index data for recording, and a recording step of attaching the reproduction auxiliary data, the shooting information data, and the scene discrimination index data to the scene reference raw data, and further recording the data on a medium It is characterized by including these.

請求項9に記載の発明は、請求項8に記載の画像処理方法において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、前記表示用画像データを表示する表示工程と、を含み、前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。   According to a ninth aspect of the present invention, in the image processing method according to the eighth aspect, a display image data generating step for generating display image data based on the scene reference raw data, and the display image data are displayed. And displaying the scene determination index data using the display image data in the scene determination index data generation step.

請求項10に記載の発明は、画像処理方法において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力工程と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、を含むことを特徴とする。   According to the tenth aspect of the present invention, in the image processing method, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when the scene reference raw data is subjected to processing for correcting the device characteristics unique to the imaging device. Auxiliary data, input process of inputting scene determination index data for determining shooting information data and shooting scene settings that are shooting conditions at the time of shooting, and the scene reference raw data, based on the reproduction auxiliary data, A scene reference image data generation step for generating scene reference image data by performing a process for correcting device characteristics unique to the imaging device, and the shooting for the scene reference image data generated in the scene reference image data generation step Image processing for forming an optimal viewing image on the output medium based on the information data and the scene discrimination index data Characterized in that it comprises a and a referred image data generating step of generating a referred image data by performing.

請求項11に記載の発明は、請求項10に記載の画像処理方法において、前記鑑賞画像参照データ生成工程では、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする。   According to an eleventh aspect of the present invention, in the image processing method according to the tenth aspect, in the appreciation image reference data generation step, a gradation adjustment method applied to the scene reference image data based on the scene discrimination index data, and The adjustment amount is determined.

請求項12に記載の発明は、画像処理方法において、撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成工程と、前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録工程と、を含むことを特徴とする。   According to a twelfth aspect of the present invention, in the image processing method, a scene reference raw data generation step of generating scene reference raw data depending on device characteristics of the imaging device by imaging, and the scene reference raw data is unique to the imaging device. A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting the apparatus characteristics, a shooting information data generation step for generating shooting information data which is shooting condition setting at the time of shooting, and a shooting scene are determined. A scene discrimination index data generating step for generating scene discrimination index data for generating, a tone conversion data generating step for generating tone conversion data based on the scene discrimination index data, and the reproduction assistance for the scene reference raw data A recording step of attaching data, the photographing information data, and the gradation conversion data, and further recording the data on a medium. And butterflies.

請求項13に記載の発明は、請求項12に記載の画像処理方法において、前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、前記表示用画像データを表示する表示工程と、を含み、前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする。   A thirteenth aspect of the present invention is the image processing method according to the twelfth aspect of the present invention, wherein a display image data generating step for generating display image data based on the scene reference raw data and the display image data are displayed. And displaying the scene determination index data using the display image data in the scene determination index data generation step.

請求項14に記載の発明は、画像処理方法において、撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力工程と、前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、を含むことを特徴とする。   According to the fourteenth aspect of the present invention, in the image processing method, the scene reference raw data depending on the device characteristics of the imaging device, and the reproduction used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data. An input process for inputting auxiliary data, shooting information data that is a shooting condition setting at the time of shooting, and gradation conversion data, and device characteristics specific to the imaging device based on the reproduction auxiliary data with respect to the scene reference raw data A scene reference image data generation step for generating scene reference image data by performing a process of correcting the image, and the shooting information data and the gradation conversion for the scene reference image data generated in the scene reference image data generation step Based on the data, the image processing for generating the optimum viewing image on the output medium is performed to generate the viewing image reference data. Characterized in that it comprises an image reference data generating step.

請求項1、8に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを生成し、これらをシーン参照生データに添付し、メディアに記録するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。   According to the first and eighth aspects of the present invention, the scene reference raw data depending on the device characteristics of the imaging device, the reproduction auxiliary data used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data, Shooting information data, which is the shooting condition setting at the time of shooting, and scene discrimination index data for discriminating the shooting scene are generated, and these are attached to the scene reference raw data and recorded on the media. In addition, information for forming an optimal appreciation image according to the shooting scene can be provided to an external device.

請求項2、9に記載の発明によれば、シーン参照生データより画像サイズが小さい表示用画像データを用いるので、効率的にシーン判別指標データを生成することができる。   According to the second and ninth aspects of the present invention, since the display image data having a smaller image size than the scene reference raw data is used, the scene determination index data can be generated efficiently.

請求項3、10に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力し、シーン参照生データに対して、再現補助データに基づいて、撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成し、生成されたシーン参照画像データに対して、撮影情報データ及びシーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。   According to the third and tenth aspects of the present invention, the scene reference raw data that depends on the device characteristics of the imaging device, the reproduction assistance data that is used when the scene reference raw data is subjected to processing for correcting the device characteristics unique to the imaging device, Inputs shooting information data, which is shooting condition settings at the time of shooting, and scene discrimination index data for discriminating the shooting scene, and corrects the device characteristics specific to the imaging device based on the reproduction assistance data for the scene reference raw data To generate scene reference image data, and to form an optimal viewing image on the output medium based on the shooting information data and the scene determination index data with respect to the generated scene reference image data Appreciation image reference data is generated by performing image processing, so that an optimal appreciation image can be formed according to the shooting scene without any information loss of captured image information. Can.

請求項4、11に記載の発明によれば、シーン判別指標データに基づいて、シーン参照画像データに施す階調調整方法及び調整量を決定するので、撮影シーンに応じて最適な階調調整を行うことができる。   According to the fourth and eleventh aspects of the present invention, since the gradation adjustment method and the adjustment amount to be applied to the scene reference image data are determined based on the scene discrimination index data, the optimum gradation adjustment is performed according to the shooting scene. It can be carried out.

請求項5、12に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを生成し、これらをシーン参照生データに添付し、メディアに記録するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。   According to the inventions described in claims 5 and 12, the scene reference raw data depending on the device characteristics of the imaging device, the reproduction assistance data used when performing processing for correcting the device characteristics unique to the imaging device to the scene reference raw data, Shooting information data and gradation conversion data, which are shooting condition settings at the time of shooting, are generated, attached to the scene reference raw data, and recorded on the media. Accordingly, information for forming an optimal viewing image can be provided to an external device.

請求項6、13に記載の発明によれば、シーン参照生データより画像サイズが小さい表示用画像データを用いるので、効率的にシーン判別指標データを生成することができる。   According to the sixth and thirteenth aspects of the present invention, since the display image data having an image size smaller than the scene reference raw data is used, the scene discrimination index data can be efficiently generated.

請求項7、14に記載の発明によれば、撮像装置の装置特性に依存したシーン参照生データ、シーン参照生データに撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力し、シーン参照生データに対して、再現補助データに基づいて、撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成し、生成されたシーン参照画像データに対して、撮影情報データ及び階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。   According to the invention described in claims 7 and 14, scene reference raw data depending on the device characteristics of the imaging device, reproduction auxiliary data used when processing for correcting the device characteristics specific to the imaging device is performed on the scene reference raw data, Inputs shooting information data and gradation conversion data, which are shooting condition settings at the time of shooting, and performs scene correction processing for correcting the device characteristics specific to the imaging device based on the reproduction assistance data for the scene reference raw data The image data is generated, and the generated scene reference image data is subjected to image processing for forming an optimal viewing image on the output medium based on the shooting information data and the gradation conversion data. Since the reference data is generated, it is possible to form an optimal appreciation image according to the shooting scene without accompanying information loss of the captured image information.

[第1の実施の形態]
図1〜図14を参照して、本発明の第1の実施の形態における撮像装置51及び画像処理装置131について説明する。
[First Embodiment]
The imaging device 51 and the image processing device 131 according to the first embodiment of the present invention will be described with reference to FIGS.

<撮像装置51の構成>
まず、撮像装置51の構成を説明する。
図1は、撮像装置51の機能的構成を示すブロック図である。図1に示すように、撮像装置51は、レンズ1、絞り2、CCD3、アナログ処理回路4、A/D変換器5、一時記憶メモリ6、画像処理部7、制御部8、撮影情報データ処理部9、装置特性補正情報処理部10、表示用画像データ生成部11、シーン判別指標データ生成部12、操作部13、表示部14、ヘッダ情報処理部15、記憶デバイス16、CCD駆動回路17、焦点距離調整回路18、自動焦点駆動回路19、モータ20、ストロボ駆動回路21、ストロボ22等を備えて構成されている。
<Configuration of Imaging Device 51>
First, the configuration of the imaging device 51 will be described.
FIG. 1 is a block diagram illustrating a functional configuration of the imaging device 51. As shown in FIG. 1, the imaging device 51 includes a lens 1, an aperture 2, a CCD 3, an analog processing circuit 4, an A / D converter 5, a temporary storage memory 6, an image processing unit 7, a control unit 8, and photographing information data processing. Unit 9, device characteristic correction information processing unit 10, display image data generation unit 11, scene discrimination index data generation unit 12, operation unit 13, display unit 14, header information processing unit 15, storage device 16, CCD drive circuit 17, A focal length adjustment circuit 18, an automatic focus drive circuit 19, a motor 20, a strobe drive circuit 21, a strobe 22 and the like are provided.

撮像装置51の光学系は、レンズ1、絞り2、CCD(固体撮像素子)3を備えて構成されている。
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。CCD3は、レンズ1により受光面上に結像された被写体光を、CCD3内のセンサ毎に光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路17から出力されるタイミングパルスに制御されることにより、この撮像信号をアナログ処理回路4へ順次出力する。
The optical system of the imaging device 51 includes a lens 1, a diaphragm 2, and a CCD (solid-state imaging device) 3.
The lens 1 adjusts the focus and forms an optical image of the subject. The diaphragm 2 adjusts the amount of light beam that has passed through the lens 1. The CCD 3 photoelectrically converts subject light imaged on the light receiving surface by the lens 1 into an electrical signal (imaging signal) of an amount corresponding to the amount of incident light for each sensor in the CCD 3. The CCD 3 is sequentially controlled by the timing pulse output from the CCD drive circuit 17 to sequentially output the image pickup signal to the analog processing circuit 4.

アナログ処理回路4は、CCD3から入力された撮像信号に対して、R、G、B信号の増幅やノイズの低減処理等を行う。このアナログ処理回路4における処理は、操作部13からの操作信号に応じ制御部8を介してON/OFFが切り替えられるようになっている。   The analog processing circuit 4 performs R, G, B signal amplification, noise reduction processing, and the like on the image pickup signal input from the CCD 3. The processing in the analog processing circuit 4 is switched ON / OFF via the control unit 8 in accordance with an operation signal from the operation unit 13.

A/D変換器5は、アナログ処理回路4から入力された撮像信号をデジタル画像データに変換して出力する。
一時記憶メモリ6は、バッファメモリ等であり、A/D変換器5から出力されたデジタル画像データを一時格納する。
The A / D converter 5 converts the imaging signal input from the analog processing circuit 4 into digital image data and outputs it.
The temporary storage memory 6 is a buffer memory or the like, and temporarily stores the digital image data output from the A / D converter 5.

画像処理部7は、デジタル画像データの階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画質向上処理の他、画像サイズの変更、トリミング、アスペクト変換等の処理を行う。この画像処理部7における処理は、操作部13からの操作信号に応じ制御部8を介してON/OFFが切り替えられるようになっている。   The image processing unit 7 performs image quality change processing such as gradation correction of digital image data, crosstalk correction of spectral sensitivity, dark current noise suppression, sharpening, white balance adjustment, saturation adjustment, image size change, and trimming. Processing such as aspect conversion is performed. The processing in the image processing unit 7 is switched on / off via the control unit 8 in accordance with an operation signal from the operation unit 13.

制御部8は、CPU(Central Processing Unit)等により構成され、記憶デバイス16に記憶されている撮像装置51の制御プログラムを読み出して、読み出したプログラムに従って撮像装置51全体の制御を行う。具体的には、制御部8は、自動焦点駆動回路19、焦点距離調整回路18、CCD駆動回路17、アナログ処理回路4、一時記憶メモリ6、画像処理部7、撮影情報データ処理部9、装置特性補正情報処理部10、表示用画像データ生成部11、シーン判別指標データ生成部12、操作部13、表示部14、ストロボ駆動回路21の制御を行い、撮影を行う。   The control unit 8 is configured by a CPU (Central Processing Unit) or the like, reads a control program of the imaging device 51 stored in the storage device 16, and controls the entire imaging device 51 according to the read program. Specifically, the control unit 8 includes an automatic focus drive circuit 19, a focal length adjustment circuit 18, a CCD drive circuit 17, an analog processing circuit 4, a temporary storage memory 6, an image processing unit 7, an imaging information data processing unit 9, and a device. The characteristic correction information processing unit 10, the display image data generation unit 11, the scene discrimination index data generation unit 12, the operation unit 13, the display unit 14, and the strobe drive circuit 21 are controlled to perform photographing.

制御部8は、操作部13によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Aを行い、撮影時におけるアナログ処理回路4における信号増幅やノイズの低減処理や画像処理部7における処理を省略し、記憶デバイス16の記録メディアに、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6をヘッダ情報として書き込むとともに、撮影されたデジタル画像データをシーン参照生データd2として記録する。例えば、撮像装置特性補正データd1及びシーン判別指標データd6はDNGタグに書き込み、撮影情報データd3はExifタグに書き込む。制御部8は、特許請求の範囲に記載の撮像装置のシーン参照生データ生成手段及び記録制御手段としての機能を有する。   When the output of scene reference raw data is specified by the operation unit 13, the control unit 8 performs a scene reference raw data storage process A described later, and performs signal amplification and noise reduction processing or image processing in the analog processing circuit 4 at the time of shooting. The processing in the processing unit 7 is omitted, and the imaging device characteristic correction data d1, the shooting information data d3, and the scene discrimination index data d6 are written as header information in the recording medium of the storage device 16, and the shot digital image data is referred to the scene. Record as raw data d2. For example, the imaging device characteristic correction data d1 and the scene discrimination index data d6 are written in the DNG tag, and the shooting information data d3 is written in the Exif tag. The control unit 8 has a function as a scene reference raw data generation unit and a recording control unit of the imaging apparatus described in the claims.

撮影情報データ処理部9は、撮影情報データd3を生成する。撮影情報データd3は、例えばカメラ名称やコード番号等、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度等の撮影条件設定や、被写体の種類に関する情報等である。撮影情報データ処理部9は、特許請求の範囲に記載の撮像装置の撮影情報データ生成手段としての機能を有する。   The shooting information data processing unit 9 generates shooting information data d3. The shooting information data d3 includes information directly related to the camera type (model) such as camera name and code number, or exposure time, shutter speed, aperture value (F number), ISO sensitivity, luminance value, subject distance range, light source, etc. Information on the shooting conditions such as the presence / absence of strobe light emission, the subject area, white balance, zoom magnification, subject composition, shooting scene type, amount of reflected light from the strobe light source, shooting saturation, and the like. The photographing information data processing unit 9 has a function as photographing information data generation means of the imaging device described in the claims.

装置特性補正情報処理部10は、操作部13からの操作信号により、制御部8の制御下においてアナログ処理回路4及び画像処理部7での処理を行わないシーン参照生データd2を記憶デバイス16の記録メディアに記録する場合に、このシーン参照生データd2に撮像装置固有の装置特性を補正する処理(以下、撮像装置特性補正処理という。)を施す際に用いる撮像装置特性補正データd1を生成し、ヘッダ情報処理部15に出力する。この撮像装置特性補正データd1は、特許請求の範囲に記載の「再現補助データ」に相当するものである。なお、装置特性補正情報処理部10は、特許請求の範囲に記載の撮像装置の再現補助データ生成手段としての機能を有する。   In response to an operation signal from the operation unit 13, the apparatus characteristic correction information processing unit 10 stores the scene reference raw data d <b> 2 that is not processed by the analog processing circuit 4 and the image processing unit 7 under the control of the control unit 8. When recording on a recording medium, imaging device characteristic correction data d1 used to perform processing for correcting device characteristics specific to the imaging device (hereinafter referred to as imaging device characteristic correction processing) is generated on the scene reference raw data d2. To the header information processing unit 15. The imaging device characteristic correction data d1 corresponds to “reproduction assistance data” recited in the claims. The apparatus characteristic correction information processing unit 10 has a function as reproduction auxiliary data generation means of the imaging apparatus described in the claims.

表示用画像データ生成部11は、撮像装置特性補正データd1及び撮影情報データd3に基づいて、シーン参照生データd2から鑑賞画像参照データd5を生成し、鑑賞画像参照データd5を縮小することにより表示用画像データを生成する。一般的に、表示装置の画像サイズは、鑑賞画像参照データd5よりも小さいので、公知の画像サイズ縮小方法、例えば、間引き、複数画素の平均、バイリニア、バイキュービック法等の補間方法を用いることができる。表示用画像データ生成部11は、生成した表示用画像データを表示部14及びシーン判別指標データ生成部12に出力する。表示用画像データに対して、必要に応じて鮮鋭強調処理、ノイズ除去処理等を行ってもよいが、シーン判別指標データ生成部12において、シーン判別指標データd6を生成するために表示用画像データを用いるので、鮮鋭強調処理、ノイズ除去処理等を行わない方が好ましい。ただし、シーン判別指標データ生成後に、これらの処理を行ってもよい。   The display image data generation unit 11 generates viewing image reference data d5 from the scene reference raw data d2 based on the imaging device characteristic correction data d1 and shooting information data d3, and displays the viewing image reference data d5 by reducing the viewing image reference data d5. Image data is generated. In general, since the image size of the display device is smaller than the viewing image reference data d5, a known image size reduction method, for example, an interpolation method such as thinning, averaging of a plurality of pixels, bilinear, bicubic method, or the like is used. it can. The display image data generation unit 11 outputs the generated display image data to the display unit 14 and the scene determination index data generation unit 12. The display image data may be subjected to sharp enhancement processing, noise removal processing, or the like as necessary. However, in order to generate the scene determination index data d6 in the scene determination index data generation unit 12, the display image data is displayed. Therefore, it is preferable not to perform sharp enhancement processing, noise removal processing, or the like. However, these processes may be performed after the scene discrimination index data is generated.

シーン判別指標データ生成部12は、表示用画像データ生成部11により生成された表示用画像データを用いて、撮影シーンを判別するためのシーン判別指標データd6を生成する。画像サイズが小さい方が処理時間やメモリ等の面で効率的に処理を行うことができるので、シーン判別指標データd6を生成する際には、シーン参照生データd2ではなく、表示用画像データを用いることが好ましい。シーン判別指標データ生成部12は、特許請求の範囲に記載の撮像装置のシーン判別指標データ生成手段としての機能を有する。   The scene determination index data generation unit 12 generates scene determination index data d6 for determining a photographic scene using the display image data generated by the display image data generation unit 11. Since the smaller image size allows efficient processing in terms of processing time and memory, when generating the scene discrimination index data d6, display image data is used instead of the scene reference raw data d2. It is preferable to use it. The scene determination index data generation unit 12 has a function as a scene determination index data generation unit of the imaging apparatus described in the claims.

図2に、シーン判別指標データ生成部12の内部構成を示す。シーン判別指標データ生成部12は、図2に示すように、割合算出部31及び指標算出部32により構成される。割合算出部31は、表色系変換部33、ヒストグラム作成部34、占有率演算部35により構成される。   FIG. 2 shows an internal configuration of the scene discrimination index data generation unit 12. As shown in FIG. 2, the scene determination index data generation unit 12 includes a ratio calculation unit 31 and an index calculation unit 32. The ratio calculation unit 31 includes a color system conversion unit 33, a histogram creation unit 34, and an occupation rate calculation unit 35.

表色系変換部33は、表示用画像データのRGB(Red,Green,Blue)値をHSV表色系に変換する。HSV表色系とは、画像データを、色相(Hue)、彩度(Saturation)、明度(Value又はBrightness)の3つの要素で表すものであり、マンセルにより提案された表色体系を元にして考案されたものである。   The color system conversion unit 33 converts RGB (Red, Green, Blue) values of the display image data into the HSV color system. The HSV color system is a representation of image data in terms of three elements: Hue, Saturation, and Lightness (Value or Brightness), and is based on the color system proposed by Munsell. It has been devised.

なお、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」の意味である。以下の記載において、HSV表色系のV(0〜255)を「明度」として用いるが、他のいかなる表色系の明るさを表す単位系を用いてもよい。   “Lightness” means “brightness” that is generally used unless otherwise noted. In the following description, V (0 to 255) of the HSV color system is used as “brightness”, but a unit system representing the brightness of any other color system may be used.

ヒストグラム作成部34は、画像データを、所定の色相と明度の組み合わせからなる領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。また、ヒストグラム作成部34は、画像データを、当該画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。   The histogram creation unit 34 creates a two-dimensional histogram by dividing the image data into regions each having a predetermined hue and brightness combination and calculating the cumulative number of pixels for each of the divided regions. In addition, the histogram creation unit 34 divides the image data into predetermined regions composed of a combination of the distance from the outer edge of the screen of the image data and the brightness, and calculates the cumulative number of pixels for each divided region. Create a dimensional histogram.

占有率演算部35は、明度と色相の組み合わせによって分割された領域毎に、ヒストグラム作成部34において算出された累積画素数の全画素数(画像データ全体)に占める割合を示す第1の占有率を算出する。また、占有率演算部35は、画像データの画面の外縁からの距離と明度の組み合わせによって分割された領域毎に、ヒストグラム作成部34において算出された累積画素数の全画素数(画像データ全体)に占める割合を示す第2の占有率を算出する。   The occupancy ratio calculation unit 35 is a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated by the histogram creation unit 34 to the total number of pixels (the entire image data) for each region divided by the combination of brightness and hue. Is calculated. Further, the occupancy ratio calculation unit 35 calculates the total number of pixels (total image data) of the cumulative number of pixels calculated in the histogram generation unit 34 for each region divided by the combination of the distance from the outer edge of the screen of the image data and the brightness. A second occupancy ratio indicating the ratio of occupying is calculated.

指標算出部32は、撮影シーンを判別するためのシーン判別指標データd6を算出する。具体的に、指標算出部32は、占有率演算部35において領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第1の係数(表1参照)を乗算して和をとることにより、撮影シーンを判別するための指標1を算出する。撮影シーンとは、順光、逆光、ストロボ等の、被写体を撮影する時の光源条件及びアンダー撮影等の露出条件を示す。指標1は、屋内撮影度、近接撮影度、顔色高明度等のストロボ撮影時の特徴を示すもので、ストロボ撮影シーンと判別されるべき画像を他の撮影シーンから分離するためのものである。   The index calculation unit 32 calculates scene determination index data d6 for determining a shooting scene. Specifically, the index calculation unit 32 sets a first coefficient (for example, by discriminant analysis) set in advance (for example, by discriminant analysis) to the first occupancy calculated for each region in the occupancy calculation unit 35. The index 1 for discriminating the shooting scene is calculated by multiplying the sum (see Table 1). The shooting scene indicates a light source condition when shooting a subject, such as forward light, backlight, strobe light, and exposure conditions such as under shooting. The index 1 indicates characteristics at the time of strobe shooting such as indoor shooting degree, close-up shooting degree, face color high brightness, and the like, and is for separating an image to be distinguished from a strobe shooting scene from other shooting scenes.

また、指標算出部32は、占有率演算部35において領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第2の係数(表2参照)を乗算して和をとることにより、撮影シーンを判別するための指標2を算出する。指標2は、屋外撮影度、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に示すもので、逆光撮影シーンと判別されるべき画像を他の撮影シーンから分離するためのものである。   In addition, the index calculation unit 32 sets a second coefficient (Table 2) that is set in advance (for example, by discriminant analysis) to the first occupancy calculated for each region by the occupancy calculation unit 35 in accordance with the shooting conditions. The index 2 for discriminating the shooting scene is calculated by multiplying (see) and taking the sum. Index 2 is a composite indication of characteristics at the time of backlight shooting, such as outdoor shooting degree, sky blue high brightness, facial color low brightness, etc., for separating an image that should be identified as a backlight shooting scene from other shooting scenes It is.

さらに、指標算出部32は、占有率演算部35において領域毎に算出された第2の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第3の係数(表3参照)を乗算して和をとることにより、撮影シーンを判別するための指標3を算出する。指標3は、逆光とストロボ間における、画像データの画面の中心と外側の明暗関係の差異を示すものであり、逆光撮影シーン又はストロボ撮影シーンと判別されるべき画像のみを定量的に示すものである。   Furthermore, the index calculation unit 32 sets a third coefficient (Table 3) that is set in advance (for example, by discriminant analysis) in accordance with the imaging condition in the second occupancy calculated for each region in the occupancy calculation unit 35. The index 3 for discriminating the shooting scene is calculated by multiplying (see) and taking the sum. The index 3 indicates the difference in contrast between the center and the outside of the screen of the image data between the backlight and the flash, and quantitatively indicates only the image that should be distinguished from the backlight shooting scene or the flash shooting scene. is there.

また、指標算出部32は、画像データの画面中央部における肌色の平均輝度値、画像データの最大輝度値と平均輝度値との差分値、輝度標準偏差、画面中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値(後述の式(6)参照)のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、撮影シーンを判別するための指標4を算出する。指標4は、ストロボ撮影シーンとアンダー撮影シーンにおける、画像データの画面の中心と外側の明暗関係の差異を示すだけでなく、輝度ヒストグラムにおける分布情報を示すものであり、ストロボ撮影シーン又はアンダー撮影シーンと判別されるべき画像のみを定量的に示すものである。   In addition, the index calculation unit 32 is an average brightness value of the skin color in the screen center portion of the image data, a difference value between the maximum brightness value and the average brightness value of the image data, a brightness standard deviation, an average brightness value in the screen center portion, Each of the comparison values (see equation (6) described later) between the difference value between the skin color maximum brightness value and the skin color minimum brightness value and the skin color average brightness value is multiplied by a fourth coefficient set in advance according to the shooting conditions. Then, an index 4 for discriminating the shooting scene is calculated. The index 4 indicates not only the difference between the brightness and darkness of the center and outside of the screen of the image data in the flash shooting scene and the under shooting scene, but also the distribution information in the luminance histogram, and the flash shooting scene or the under shooting scene. Only the image to be discriminated is quantitatively shown.

また、指標算出部32は、指標1、指標3及び画面中央部における肌色の平均輝度値(以下、指標4’という。)に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標5を算出する(後述の式(8)参照)。さらに、指標算出部32は、指標2、指標3及び指標4’に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出する(後述の式(9)参照)。なお、指標算出部32における指標1〜6の具体的な算出方法は、後述の本実施の形態の動作説明において詳細に説明する。   Further, the index calculation unit 32 multiplies the average brightness value of skin color (hereinafter referred to as index 4 ′) in the index 1, index 3 and the center of the screen by a coefficient set in advance according to the shooting conditions. The index 5 is calculated by taking the sum (see formula (8) described later). Further, the index calculation unit 32 calculates the index 6 by multiplying the index 2, the index 3 and the index 4 ′ by a coefficient set in advance according to the shooting condition, and taking the sum (the following formula ( 9)). Note that a specific calculation method of the indexes 1 to 6 in the index calculation unit 32 will be described in detail in the operation description of the present embodiment described later.

操作部13には、図示しないレリーズボタン、電源のON/OFFボタン、ズームボタン等の各種機能ボタン、カーソルキー等が設けられ、各ボタンやキーに対応する操作信号を入力信号として制御部8に出力する。操作部13は、シーン参照生データの出力を指定するための機能ボタンを備えている。   The operation unit 13 is provided with a release button (not shown), various function buttons such as a power ON / OFF button, a zoom button, cursor keys, and the like, and an operation signal corresponding to each button or key is input to the control unit 8 as an input signal. Output. The operation unit 13 includes function buttons for designating output of scene reference raw data.

表示部14は、制御部8からの制御信号により、表示用画像データを表示するとともに、撮像装置51の使用者が撮影に関する設定や条件を確認するための情報を表示する。   The display unit 14 displays display image data in accordance with a control signal from the control unit 8 and also displays information for the user of the imaging device 51 to confirm settings and conditions related to shooting.

ヘッダ情報処理部15は、一時記憶メモリ6に格納されたデジタル画像データに対して、撮影情報データ処理部9により生成された撮影情報データd3、装置特性補正情報処理部10により生成された撮像装置特性補正データd1、シーン判別指標データ生成部12により生成されたシーン判別指標データd6をヘッダ情報として書き込み処理する。   The header information processing unit 15, for the digital image data stored in the temporary storage memory 6, the shooting information data d3 generated by the shooting information data processing unit 9, the imaging device generated by the device characteristic correction information processing unit 10. The characteristic correction data d1 and the scene determination index data d6 generated by the scene determination index data generation unit 12 are written as header information.

記憶デバイス16は、不揮発性の半導体メモリ等により構成されており、撮影されたデジタル画像データを記録するメモリカード等の記録メディアと、撮像装置51の制御プログラムが記憶された読み出し可能なメモリとにより構成されている。   The storage device 16 is configured by a non-volatile semiconductor memory or the like, and includes a recording medium such as a memory card that records captured digital image data, and a readable memory that stores a control program for the imaging device 51. It is configured.

CCD駆動回路17は、制御部8から出力される制御信号をもとにタイミングパルスを出力し、CCD3の駆動制御を行う。   The CCD drive circuit 17 outputs a timing pulse based on the control signal output from the control unit 8 and controls the drive of the CCD 3.

焦点距離調整回路18は、制御部8からの制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
自動焦点駆動回路19は、制御部8からの制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
The focal length adjustment circuit 18 controls the motor 20 for adjusting the focal length by moving the lens 1 in accordance with a control signal from the control unit 8.
The automatic focus driving circuit 19 controls the motor 20 for adjusting the focus (focus) by moving the lens 1 in accordance with a control signal from the control unit 8.

ストロボ駆動回路21は、制御部8からの制御信号により、被写体輝度が低い時にストロボ22を駆動制御して発光させる。
ストロボ22は、電池電圧を所定の高電圧に昇圧させ、電荷をコンデンサに蓄える。そして、ストロボ駆動回路21により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。
The strobe drive circuit 21 drives and controls the strobe 22 to emit light when the subject brightness is low according to a control signal from the control unit 8.
The strobe 22 boosts the battery voltage to a predetermined high voltage and stores the electric charge in a capacitor. Then, when driven by the strobe drive circuit 21, the X tube is caused to emit light by the electric charge stored in the capacitor, and the subject is irradiated with auxiliary light.

<撮像装置51の動作>
次に、撮像装置51の動作について説明する。
図3は、図1に示す撮像装置51において、操作部13により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部8の制御により実行されるシーン参照生データ保存処理Aを示すフローチャートである。以下、図3を参照してシーン参照生データ保存処理Aについて説明する。
<Operation of Imaging Device 51>
Next, the operation of the imaging device 51 will be described.
FIG. 3 shows the control of the control unit 8 when the output of the photographed digital image data by the scene reference raw data is set by the operation unit 13 and the release switch is pressed in the imaging device 51 shown in FIG. It is a flowchart which shows the scene reference raw data preservation | save process A performed. Hereinafter, the scene reference raw data storage process A will be described with reference to FIG.

操作部13のレリーズボタンが押下されると、制御部8により、各部が制御され撮影が行われる(ステップS1)。CCD3から得られた撮像信号は、A/D変換器5によりデジタル画像データに変換され、シーン参照生データd2が生成される(ステップS2)。また、装置特性補正情報処理部10により撮像装置特性補正データd1が生成され(ステップS3)、撮影情報データ処理部9により撮影情報データd3が生成される(ステップS4)。また、表示用画像データ生成部11により表示用画像データが生成され、シーン判別指標データ生成部12により表示用画像データを用いてシーン判別指標データd6が生成される(ステップS5)。   When the release button of the operation unit 13 is pressed, the control unit 8 controls each unit and performs shooting (step S1). The imaging signal obtained from the CCD 3 is converted into digital image data by the A / D converter 5, and scene reference raw data d2 is generated (step S2). The apparatus characteristic correction information processing unit 10 generates imaging apparatus characteristic correction data d1 (step S3), and the shooting information data processing unit 9 generates shooting information data d3 (step S4). In addition, display image data is generated by the display image data generation unit 11, and scene determination index data d6 is generated by using the display image data by the scene determination index data generation unit 12 (step S5).

ここで、図4を参照して、シーン判別指標データ生成処理について説明する。
図4に示すように、まず、割合算出部31において、表示用画像データが所定の画像領域に分割され、各分割領域が画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップS11)。占有率算出処理の詳細は、後に図5、図6を参照して説明する。
Here, with reference to FIG. 4, the scene discrimination index data generation process will be described.
As shown in FIG. 4, first, the ratio calculation unit 31 divides the display image data into predetermined image areas, and an occupancy ratio (first occupancy ratio, first occupancy ratio) indicating the ratio of each divided area to the entire image data. (Occupancy ratio of 2) is calculated (step S11). Details of the occupation rate calculation process will be described later with reference to FIGS.

次いで、割合算出部31において算出された占有率(第1の占有率、第2の占有率)と、少なくとも、画像データの画面中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、撮影シーンを判別するための(光源条件及び露出条件を定量的に表す)シーン判別指標データd6(指標1〜6)が算出される(ステップS12)。ステップS12における指標算出処理は、後に詳細に説明する。   Subsequently, the occupation ratio (first occupation ratio, second occupation ratio) calculated in the ratio calculation unit 31, at least the average luminance value of the skin color in the center of the screen of the image data, and the shooting conditions are set in advance. Based on the obtained coefficient, scene discrimination index data d6 (indexes 1 to 6) for discriminating the shooting scene (quantitatively representing the light source condition and the exposure condition) is calculated (step S12). The index calculation process in step S12 will be described in detail later.

次に、図5を参照して、割合算出部31において実行される第1の占有率算出処理について詳細に説明する。   Next, the first occupancy rate calculation process executed in the ratio calculation unit 31 will be described in detail with reference to FIG.

まず、画像データのRGB(Red,Green,Blue)値がHSV表色系に変換される(ステップS21)。次いで、画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS22)。   First, RGB (Red, Green, Blue) values of image data are converted into the HSV color system (step S21). Next, the image data is divided into regions composed of a combination of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S22).

明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(2)を満たす色相’(H)を肌色領域(H1)とし、式(2)を満たさない領域を(H2)とする。ただし、入力画像データの値をInR、InG、InBとする。   Lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (2) is defined as the flesh-colored area (H1), and the area that does not satisfy the formula (2) is ( H2). However, the values of the input image data are InR, InG, and InB.

10 < 彩度(S) <175、
色相’(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相’(H) = 色相(H) − 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (1)
として、
色相’(H)/輝度(Y) < 3.0 × (彩度(S)/255) + 0.7 (2)
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (1)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) + 0.7 (2)

したがって、画像データの分割領域の数は4×7=28個となる。なお、式(1)及び(2)において明度(V)を用いることも可能である。   Therefore, the number of divided areas of the image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the expressions (1) and (2).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出される(ステップS23)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとする。   When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S23). Let Rij be the first occupancy calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj.

次に、指標1及び指標2の算出方法について説明する。
表1に、ストロボ撮影としての確度、すなわち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表1に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203566
Next, a method for calculating the index 1 and the index 2 will be described.
Table 1 shows, for each divided area, the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting, that is, the brightness state of the face area at the time of strobe shooting. The coefficient of each divided area shown in Table 1 is a weighting coefficient by which the first occupation ratio Rij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203566

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1は、式(3)のように定義される。

Figure 2006203566
When the first coefficient in the lightness region vi and the hue region Hj is Cij, the index 1 is defined as in Expression (3).
Figure 2006203566

表2に、逆光撮影としての確度、すなわち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表2に示された各分割領域の係数は、各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203566
Table 2 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy as backlight photographing, that is, the brightness state of the face region at the time of backlight photographing. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupancy rate Rij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203566

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2は、式(4)のように定義される。

Figure 2006203566
When the second coefficient in the lightness area vi and the hue area Hj is Dij, the index 2 is defined as in Expression (4).
Figure 2006203566

次に、図6を参照して、指標3を算出するために割合算出部31において実行される第2の占有率算出処理について詳細に説明する。   Next, the second occupancy ratio calculation process executed in the ratio calculation unit 31 to calculate the index 3 will be described in detail with reference to FIG.

まず、画像データのRGB値がHSV表色系に変換される(ステップS31)。次いで、画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS32)。   First, the RGB values of the image data are converted into the HSV color system (step S31). Next, the image data is divided into regions each composed of a combination of the distance from the outer edge of the captured image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S32).

図7(a)〜(d)に、画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図7(a)に示す領域n1が外枠であり、図7(b)に示す領域n2が、外枠の内側の領域であり、図7(c)に示す領域n3が、領域n2のさらに内側の領域であり、図7(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。したがって、画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   7A to 7D show four regions n1 to n4 divided according to the distance from the outer edge of the screen of the image data. A region n1 illustrated in FIG. 7A is an outer frame, a region n2 illustrated in FIG. 7B is a region inside the outer frame, and a region n3 illustrated in FIG. A region n4 shown in FIG. 7D is an inner region and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the image data is divided into regions each having a combination of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出される(ステップS33)。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとする。   When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S33). The second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is defined as Qij.

次に、指標3の算出方法について説明する。
表3に、指標3を算出するために必要な第3の係数を分割領域別に示す。表3に示された各分割領域の係数は、各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203566
Next, a method for calculating the index 3 will be described.
Table 3 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the second occupancy rate Qij of each divided area is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203566

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3は、式(5)のように定義される。

Figure 2006203566
If the third coefficient in the lightness area vi and the screen area nj is Eij, the index 3 is defined as shown in Expression (5).
Figure 2006203566

次に、指標4の算出方法について説明する。
まず、画像データのRGB(Red,Green,Blue)値から、式(1)を用いて輝度Yを算出する。また、画像データの画面中央部における肌色領域の平均輝度値x1を算出する。ここで、画面中央部とは、例えば、図7において、領域n3及び領域n4により構成される領域である。次いで、画像データの最大輝度値と平均輝度値との差分値x2を算出する。
Next, a method for calculating the index 4 will be described.
First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data using Equation (1). Also, the average luminance value x1 of the skin color area in the center of the screen of the image data is calculated. Here, the center of the screen is, for example, an area configured by an area n3 and an area n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the image data is calculated.

次いで、画像データの輝度の標準偏差x3を算出し、画面中央部における平均輝度値x4を算出する。また、画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5を算出する。この比較値x5は、下記の式(6)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (6)
Next, the standard deviation x3 of the luminance of the image data is calculated, and the average luminance value x4 at the center of the screen is calculated. Also, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the image data and the average luminance value Yskin_ave of the skin color area is calculated. This comparison value x5 is expressed as the following equation (6).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (6)

次いで、算出された値x1〜x5のそれぞれに、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される。指標4は、下記の式(7)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(−0.01)×x4+0.03×x5−6.50 (7)
Next, the index 4 is calculated by multiplying each of the calculated values x1 to x5 by a fourth coefficient set in advance according to the photographing condition and taking the sum. The index 4 is defined as the following formula (7).
Index 4 = 0.06 × x1 + 1.13 × x2 + 0.02 × x3 + (− 0.01) × x4 + 0.03 × x5−6.50 (7)

また、画像データの画面中央部における肌色領域の平均輝度値を指標4’とする。ここでの画面中央部とは、例えば、図7の領域n2、領域n3及び領域n4から構成される領域である。   Further, the average luminance value of the skin color area in the center of the screen of the image data is set as an index 4 '. Here, the center of the screen is, for example, an area composed of the area n2, the area n3, and the area n4 in FIG.

また、指標5は、指標1、指標3、指標4’を用いて式(8)のように定義され、指標6は、指標2、指標3、指標4’を用いて式(9)のように定義される。
指標5=0.46×指標1+0.61×指標3+0.01×指標4’−0.79 (8)
指標6=0.58×指標2+0.18×指標3+(−0.03)×指標4’+3.34 (9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
In addition, the index 5 is defined as in Expression (8) using the index 1, index 3, and index 4 ′, and the index 6 is defined as in Expression (9) using the index 2, index 3, and index 4 ′. Defined in
Index 5 = 0.46 × Index 1 + 0.61 × Index 3 + 0.01 × Index 4′−0.79 (8)
Indicator 6 = 0.58 x Indicator 2 + 0.18 x Indicator 3 + (-0.03) x Indicator 4 '+ 3.34 (9)
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.

図3に戻り、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6の生成後、シーン参照生データd2のファイルヘッダに撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6がタグ情報として記録、添付され(ステップS6)、添付済みのデータファイルが作成される(ステップS7)。この添付済みのデータファイルは、撮像装置51に着脱可能に構成された記憶デバイス16の記録メディアに記録、保存される(ステップS8)。   Returning to FIG. 3, after generating the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the scene discrimination index data d6, the imaging device characteristic correction data d1 and the shooting information are added to the file header of the scene reference raw data d2. Data d3 and scene discrimination index data d6 are recorded and attached as tag information (step S6), and an attached data file is created (step S7). The attached data file is recorded and stored in the recording medium of the storage device 16 configured to be detachable from the imaging device 51 (step S8).

図8は、ステップS8で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図8に示すように、撮影されたデジタル画像データは、シーン参照生データd2として記録され、そのヘッダ領域に、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6が記録されている。この記録メディアを撮像装置51から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6をこれらの外部装置に出力することができる。したがって、撮像装置51によれば、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。   FIG. 8 is a diagram showing a data structure of the digital image data recorded on the recording medium of the storage device 16 in step S8. As shown in FIG. 8, the captured digital image data is recorded as scene reference raw data d2, and imaging device characteristic correction data d1, shooting information data d3, and scene discrimination index data d6 are recorded in the header area. Yes. By taking out this recording medium from the imaging device 51 and mounting it on an external device such as an image processing device or an image recording device, the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the scene discrimination index data d6 can be output to these external devices. Therefore, according to the imaging device 51, it is possible to provide information for forming an optimal appreciation image according to the shooting scene to an external device without any information loss of the captured image information.

以上、撮像装置51について説明したが、これはシーン参照生データ、再現補助データ、撮影情報データ及びシーン判別指標データを生成する装置の一例に過ぎず、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等、アナログカメラにより記録された写真感光材料の駒画像データを入力するフィルムスキャナや、銀塩印画紙であるカラーペーパー上に再現された画像データ、その他の反射原稿、透過原稿上に再現された画像データを入力するフラットベッドスキャナ等を使用して画像データを取得し、これに基づいてデータを生成する形態でもよい。   The imaging device 51 has been described above. However, this is merely an example of a device that generates scene reference raw data, reproduction assistance data, shooting information data, and scene determination index data. A color negative film, a color reversal film, a black and white negative film, Reproduced on black and white reversal film and other film scanners that input photographic photosensitive material frame image data recorded by analog cameras, image data reproduced on silver paper, color paper, other reflective originals, and transparent originals The image data may be acquired using a flatbed scanner or the like for inputting the image data, and the data may be generated based on the acquired image data.

<画像処理装置131の構成>
次に、画像処理装置131の構成を説明する。
図9は、画像処理装置131の機能的構成を示すブロック図である。図9に示すように、画像処理装置131は、入力部101、ヘッダ情報解析部102、撮像装置特性補正データd1に基づいてシーン参照生データd2に撮像装置特性補正処理を施してシーン参照画像データd4を生成する撮像装置特性補正処理部114、撮像装置特性補正処理部114により生成されたシーン参照画像データd4に最適な鑑賞画像を形成するための画像処理(以下、最適化処理という。)を施して鑑賞画像参照データd5を生成する最適化処理部115により構成されている。撮像装置特性補正処理部114と、最適化処理部115にはヘッダ情報解析部102がそれぞれ接続されており、さらに最適化処理部115には、記憶デバイス111、出力デバイス112、表示デバイス113がそれぞれ接続可能な状態となっている。以上の各構成要素はCPU等により構成される制御部116の統括的な制御下において動作する。
<Configuration of Image Processing Device 131>
Next, the configuration of the image processing apparatus 131 will be described.
FIG. 9 is a block diagram illustrating a functional configuration of the image processing apparatus 131. As illustrated in FIG. 9, the image processing device 131 performs an imaging device characteristic correction process on the scene reference raw data d2 based on the input unit 101, the header information analysis unit 102, and the imaging device characteristic correction data d1, and performs scene reference image data. The imaging device characteristic correction processing unit 114 that generates d4, and image processing (hereinafter referred to as optimization processing) for forming an optimal appreciation image for the scene reference image data d4 generated by the imaging device characteristic correction processing unit 114. And an optimization processing unit 115 that generates appreciation image reference data d5. The header information analysis unit 102 is connected to the imaging device characteristic correction processing unit 114 and the optimization processing unit 115, respectively, and the storage device 111, the output device 112, and the display device 113 are respectively connected to the optimization processing unit 115. Connection is possible. Each of the above components operates under the overall control of the control unit 116 configured by a CPU or the like.

入力部101は、記録メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置51により撮影されたデータのファイル(図8参照)が記録された記録メディアが装着されると、入力部101は、記録されたデータファイルを読み出して、ヘッダ情報解析部102へ出力する。なお、本実施の形態においては、入力部101は、装着された記録メディアからデータを読み出すこととして説明するが、データ通信ケーブルや、無線又は有線の通信手段を備え、これらの通信手段を介してデータを入力するようにしてもよい。入力部101は、特許請求の範囲に記載の画像処理装置の入力手段としての機能を有する。   The input unit 101 includes a recording medium mounting unit (not shown). When a recording medium on which a data file (see FIG. 8) recorded by the imaging device 51 described above is mounted on the mounting unit, the input unit 101 reads out the recorded data file to obtain header information. The data is output to the analysis unit 102. In the present embodiment, the input unit 101 is described as reading data from an attached recording medium. However, the input unit 101 includes a data communication cable and a wireless or wired communication unit, and through these communication units. Data may be input. The input unit 101 has a function as an input unit of the image processing apparatus described in the claims.

ヘッダ情報解析部102は、入力部101から入力されたデータを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、シーン判別指標データd6とに分け、撮像装置特性補正データd1を装置特性補正処理部103aへ、シーン参照生データd2をシーン参照画像データ生成部104へ、撮影情報データd3を撮影情報データ処理部106へ、シーン判別指標データd6をシーン判別指標データ処理部107へ出力する。   The header information analysis unit 102 analyzes the data input from the input unit 101 and divides the data into scene reference raw data d2, imaging device characteristic correction data d1, shooting information data d3, and scene discrimination index data d6. The device characteristic correction data d1 is converted into the device characteristic correction processing unit 103a, the scene reference raw data d2 is input into the scene reference image data generation unit 104, the shooting information data d3 is input into the shooting information data processing unit 106, and the scene determination index data d6 is determined as the scene determination. The data is output to the index data processing unit 107.

撮像装置特性補正処理部114は、図9に示すように、装置特性補正処理部103a、処理条件テーブル103b、シーン参照画像データ生成部104及び一時記憶メモリ105を有して構成されている。撮像装置特性補正処理部114は、特許請求の範囲に記載の画像処理装置のシーン参照画像データ生成手段としての機能を有する。   As shown in FIG. 9, the imaging device characteristic correction processing unit 114 includes a device characteristic correction processing unit 103a, a processing condition table 103b, a scene reference image data generation unit 104, and a temporary storage memory 105. The imaging device characteristic correction processing unit 114 has a function as a scene reference image data generation unit of the image processing device described in the claims.

装置特性補正処理部103aは、ヘッダ情報解析部102から撮像装置特性補正データd1が入力されると、処理条件テーブル103bの参照により、シーン参照画像データd4の生成条件を決定する。処理条件テーブル103bは、撮像装置の特性毎に、シーン参照画像データd4を生成するための処理条件を対応付けて記憶するテーブルである。   When the imaging device characteristic correction data d1 is input from the header information analysis unit 102, the device characteristic correction processing unit 103a determines a generation condition of the scene reference image data d4 by referring to the processing condition table 103b. The processing condition table 103b is a table that stores the processing conditions for generating the scene reference image data d4 in association with each characteristic of the imaging apparatus.

シーン参照画像データ生成部104は、ヘッダ情報解析部102から入力されたシーン参照生データd2に対して、装置特性補正処理部103aにより決定された生成条件により撮像装置特性補正処理を施して撮像装置特性に依存しないシーン参照画像データd4を生成し、一時記憶メモリ105に出力する。具体的には、撮像装置特性補正処理には、少なくともシーン参照生データd2を生成した撮像装置の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えばRIMM RGBやERIMM RGB等の標準色空間にマッピングする処理が含まれる。   The scene reference image data generation unit 104 performs imaging device characteristic correction processing on the scene reference raw data d2 input from the header information analysis unit 102 according to the generation conditions determined by the device characteristic correction processing unit 103a, and performs imaging The scene reference image data d4 independent of the characteristics is generated and output to the temporary storage memory 105. Specifically, in the imaging device characteristic correction process, the signal intensity of each color channel based on at least the spectral sensitivity inherent to the imaging device of the imaging device that generated the scene reference raw data d2 is set to a standard color such as RIMM RGB or ERIMM RGB, for example. Includes mapping to space.

一時記憶メモリ105は、シーン参照画像データ生成部104により生成されたシーン参照画像データd4を一時的に記憶する。   The temporary storage memory 105 temporarily stores the scene reference image data d4 generated by the scene reference image data generation unit 104.

図9に示すように、最適化処理部115は、撮影情報データ処理部106、シーン判別指標データ処理部107、鑑賞画像参照データ生成部108、一時記憶メモリ109及び設定入力部110を有して構成されている。最適化処理部115は、特許請求の範囲に記載の画像処理装置の鑑賞画像参照データ生成手段としての機能を有する。   As illustrated in FIG. 9, the optimization processing unit 115 includes a shooting information data processing unit 106, a scene determination index data processing unit 107, an appreciation image reference data generation unit 108, a temporary storage memory 109, and a setting input unit 110. It is configured. The optimization processing unit 115 has a function as an appreciation image reference data generation unit of the image processing apparatus described in the claims.

撮影情報データ処理部106は、ヘッダ情報解析部102から入力された撮影情報データd3に基づいて、撮影条件に応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。   The shooting information data processing unit 106 determines a generation condition for generating the viewing image reference data d5 according to the shooting condition based on the shooting information data d3 input from the header information analysis unit 102, and the viewing image reference data. The data is output to the generation unit 108.

シーン判別指標データ処理部107は、シーン判別指標データd6(指標1〜6)に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。   The scene discrimination index data processing unit 107 discriminates a shooting scene based on the scene discrimination index data d6 (indexes 1 to 6), and generates generation conditions for generating appreciation image reference data d5 corresponding to the determined shooting scene. It is determined and output to the appreciation image reference data generation unit 108.

図10に、シーン判別指標データ処理部107の内部構成を示す。シーン判別指標データ処理部107は、図10に示すように、シーン判別部121、階調調整方法決定部122、階調調整パラメータ算出部123、階調調整量算出部124により構成される。   FIG. 10 shows the internal configuration of the scene discrimination index data processing unit 107. As shown in FIG. 10, the scene determination index data processing unit 107 includes a scene determination unit 121, a gradation adjustment method determination unit 122, a gradation adjustment parameter calculation unit 123, and a gradation adjustment amount calculation unit 124.

シーン判別部121は、シーン判別指標データd6に基づいて、画像データの撮影シーン(光源条件及び露出条件)を判別する。   The scene determination unit 121 determines a shooting scene (light source condition and exposure condition) of the image data based on the scene determination index data d6.

階調調整方法決定部122は、シーン判別部121において判別された撮影シーンに応じて、画像データに対する階調調整方法を決定する。例えば、撮影シーンが順光である場合は、図11(a)に示すように、入力された画像データの画素値を平行移動(オフセット)補正する方法(階調調整方法A)が適用される。撮影シーンが逆光である場合は、図11(b)に示すように、入力された画像データの画素値をガンマ補正する方法(階調調整方法B)が適用される。撮影シーンがストロボである場合は、図11(c)に示すように、入力された画像データの画素値をガンマ補正及び平行移動(オフセット)補正する方法(階調調整方法C)が適用される。撮影シーンがアンダーである場合は、図11(b)に示すように、入力された画像データの画素値をガンマ補正する方法(階調調整方法B)が適用される。   The gradation adjustment method determination unit 122 determines the gradation adjustment method for the image data according to the shooting scene determined by the scene determination unit 121. For example, when the photographic scene is front light, as shown in FIG. 11A, a method (tone adjustment method A) for correcting the translation (offset) of the pixel value of the input image data is applied. . When the shooting scene is backlit, as shown in FIG. 11B, a method (grayscale adjustment method B) for applying gamma correction to the pixel value of the input image data is applied. When the shooting scene is a strobe, as shown in FIG. 11C, a method (gradation adjustment method C) for applying gamma correction and translation (offset) correction to the pixel value of the input image data is applied. . When the shooting scene is under, as shown in FIG. 11B, a method (grayscale adjustment method B) for applying gamma correction to the pixel value of the input image data is applied.

階調調整パラメータ算出部123は、シーン判別指標データd6に基づいて、階調調整に必要なパラメータ(キー補正値等)を算出する。   The tone adjustment parameter calculation unit 123 calculates parameters (key correction value and the like) necessary for tone adjustment based on the scene discrimination index data d6.

階調調整量算出部124は、階調調整パラメータ算出部123において算出された階調調整パラメータに基づいて、画像データに対する階調調整量を算出する。具体的に、階調調整量算出部124は、階調調整方法決定部122において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、階調調整パラメータ算出部123において算出された階調調整パラメータに対応する階調変換曲線を選択する。なお、階調調整パラメータ算出部123において算出された階調調整パラメータに基づいて階調変換曲線(階調調整量)を算出するようにしてもよい。   The tone adjustment amount calculation unit 124 calculates a tone adjustment amount for the image data based on the tone adjustment parameter calculated by the tone adjustment parameter calculation unit 123. Specifically, the gradation adjustment amount calculation unit 124 selects a gradation adjustment parameter from a plurality of gradation conversion curves set in advance corresponding to the gradation adjustment method determined by the gradation adjustment method determination unit 122. A gradation conversion curve corresponding to the gradation adjustment parameter calculated by the calculation unit 123 is selected. Note that the tone conversion curve (tone adjustment amount) may be calculated based on the tone adjustment parameter calculated by the tone adjustment parameter calculation unit 123.

図9に示す設定入力部110は、画像処理装置131にて生成したデジタル画像データを出力する記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報が入力されると、この操作情報を鑑賞画像参照データ生成部108に出力する。   When the operation information regarding the types of the storage device 111, the output device 112, and the display device 113 that outputs the digital image data generated by the image processing device 131 is input, the setting input unit 110 illustrated in FIG. The image is output to the appreciation image reference data generation unit 108.

鑑賞画像参照データ生成部108は、一時記憶メモリ105からシーン参照画像データd4を読み出し、撮影情報データ処理部106で決定された鑑賞画像参照データd5の生成条件、シーン判別指標データ処理部107で決定された鑑賞画像参照データd5の生成条件、及び設定入力部110から入力された記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報に基づき、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データd5を生成し、操作情報とともに一時記憶メモリ109へ出力する。最適化処理には、例えば、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。さらに、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。   The appreciation image reference data generation unit 108 reads the scene reference image data d4 from the temporary storage memory 105, and the generation condition of the appreciation image reference data d5 determined by the shooting information data processing unit 106 is determined by the scene determination index data processing unit 107. Optimum for obtaining an optimal image at the output destination based on the generation conditions of the viewing image reference data d5 and the operation information regarding the types of the storage device 111, the output device 112, and the display device 113 input from the setting input unit 110 The viewing image reference data d5 is generated by performing the conversion process, and is output to the temporary storage memory 109 together with the operation information. The optimization processing includes, for example, compression to the output destination color gamut, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, processing to cope with output characteristics (LUT) of output devices and display devices, and the like. It is. Furthermore, image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, and dodging processing is included.

一時記憶メモリ109は、制御部116からの制御により鑑賞画像参照データ生成部108から入力された鑑賞画像参照データd5を設定入力部110からの操作情報に従い、記憶デバイス111、出力デバイス112、表示デバイス113の何れかに出力する。   The temporary storage memory 109 stores the appreciation image reference data d5 input from the appreciation image reference data generation unit 108 under the control of the control unit 116 according to the operation information from the setting input unit 110, the storage device 111, the output device 112, and the display device. To any of 113.

<画像処理装置131の動作>
図12は、画像処理装置131の各部が連携することにより実行される画像データ生成処理Aを示すフロー図である。以下、図12を参照して画像処理装置131の動作について説明する。
<Operation of Image Processing Device 131>
FIG. 12 is a flowchart showing an image data generation process A executed by the cooperation of the respective units of the image processing apparatus 131. Hereinafter, the operation of the image processing apparatus 131 will be described with reference to FIG.

図8に示したデータ構造の画像データファイルが記録された記録メディアが装着されると、入力部101により、記録メディアに記録されたデジタル画像データファイルが入力される(ステップ41)。入力されたデジタル画像データは、ヘッダ情報解析部102によりその内容が解析され(ステップS42)、シーン参照生データd2(ステップS43)、撮像装置特性補正データd1(ステップS44)、撮影情報データd3(ステップS45)、シーン判別指標データd6(ステップS46)に分けられ、シーン参照生データd2及び撮像装置特性補正データd1は撮像装置特性補正処理部114へ、撮影情報データd3及びシーン判別指標データd6は最適化処理部115へ出力される。   When the recording medium on which the image data file having the data structure shown in FIG. 8 is recorded, the digital image data file recorded on the recording medium is input by the input unit 101 (step 41). The contents of the input digital image data are analyzed by the header information analysis unit 102 (step S42), raw scene reference data d2 (step S43), imaging device characteristic correction data d1 (step S44), and shooting information data d3 ( Step S45) is divided into scene discrimination index data d6 (step S46). The scene reference raw data d2 and the imaging device characteristic correction data d1 are sent to the imaging device characteristic correction processing unit 114, and the imaging information data d3 and the scene discrimination index data d6 are The data is output to the optimization processing unit 115.

撮像装置特性補正データd1が撮像装置特性補正処理部114へ入力されると、装置特性補正処理部103aにより処理条件テーブル103bが参照され、シーン参照画像データd4を生成するための処理条件が決定される。シーン参照画像データ生成部104により、シーン参照生データd2に対して、この処理条件に基づいて撮像装置特性補正処理が施され(ステップS47)、シーン参照画像データd4が生成されて最適化処理部115に出力される(ステップS48)。   When the imaging apparatus characteristic correction data d1 is input to the imaging apparatus characteristic correction processing unit 114, the processing condition table 103b is referred to by the apparatus characteristic correction processing unit 103a, and a processing condition for generating the scene reference image data d4 is determined. The The scene reference image data generation unit 104 performs imaging device characteristic correction processing on the scene reference raw data d2 based on this processing condition (step S47), and scene reference image data d4 is generated and optimized processing unit. 115 (step S48).

また、撮影情報データd3が最適化処理部115へ入力されると、撮影情報データ処理部106により、撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。   Further, when the shooting information data d3 is input to the optimization processing unit 115, the shooting information data processing unit 106 uses the shooting information data d3 to generate viewing image reference data d5 corresponding to the shooting conditions. Is determined.

また、シーン判別指標データd6が最適化処理部115へ入力されると、シーン判別指標データ処理部107により、シーン判別指標データd6(指標1〜6)に基づいて、画像処理条件決定処理が行われる(ステップS49)。   When the scene determination index data d6 is input to the optimization processing unit 115, the scene determination index data processing unit 107 performs image processing condition determination processing based on the scene determination index data d6 (indexes 1 to 6). (Step S49).

図13を参照して、画像処理条件決定処理を詳細に説明する。
まず、シーン判別指標データd6(例えば、指標4、指標5及び指標6)の値に基づいて、画像データの撮影シーン(光源条件及び露出条件)が判別される(ステップS61)。以下、撮影シーン(光源条件及び露出条件)の判別方法について説明する。
The image processing condition determination process will be described in detail with reference to FIG.
First, based on the value of the scene determination index data d6 (for example, index 4, index 5 and index 6), the shooting scene (light source condition and exposure condition) of the image data is determined (step S61). Hereinafter, a method for determining a shooting scene (light source condition and exposure condition) will be described.

図14(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標5及び指標6を算出し、各光源条件での指標5及び指標6の値をプロットしたものである。図14(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多いことがわかる。このように指標5及び指標6の値により撮影シーンを定量的に判別することができる。   In FIG. 14A, 60 images are taken under each light source condition of forward light, backlight, and strobe, and index 5 and index 6 are calculated for a total of 180 digital image data. The values of index 6 are plotted. According to FIG. 14A, when the value of the index 5 is larger than 0.5, there are many flash shooting scenes, the value of the index 5 is 0.5 or less, and the value of the index 6 is larger than −0.5. It can be seen that there are many backlight scenes. In this way, the shooting scene can be determined quantitatively based on the values of the index 5 and the index 6.

図14(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標5が0.5より大きい画像の指標4及び指標5を算出し、プロットしたものである。図14(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。   FIG. 14B is a graph in which index 4 and index 5 of an image with index 5 larger than 0.5 are calculated and plotted among 60 captured images of the strobe shooting scene and the under shooting scene. According to FIG. 14B, it can be seen that when the value of the index 4 is greater than 0, there are many flash shooting scenes, and when the value of the index 4 is 0 or less, there are many under shooting scenes.

撮影シーンが判別されると、その判別された撮影シーンに応じて、画像データに対する階調調整方法が決定される(ステップS62)。例えば、撮影シーンが順光である場合は階調調整方法A(図11(a))が選択され、逆光である場合は階調調整方法B(図11(b))が選択され、ストロボである場合は階調調整方法C(図11(c))が選択され、アンダーである場合は、階調調整方法B(図11(b))が選択される。   When the shooting scene is determined, a gradation adjustment method for the image data is determined in accordance with the determined shooting scene (step S62). For example, the gradation adjustment method A (FIG. 11 (a)) is selected when the shooting scene is a direct light, and the gradation adjustment method B (FIG. 11 (b)) is selected when the shooting scene is a backlight, and the strobe is used. In some cases, the gradation adjustment method C (FIG. 11C) is selected, and in the case of under, the gradation adjustment method B (FIG. 11B) is selected.

階調調整方法が決定されると、指標に基づいて、階調調整に必要なパラメータ(階調調整パラメータ)が算出される(ステップS63)。なお、以下では、8bitの画像データは16bitへと事前に変換されているものとし、画像データの値の単位は16bitであるものとする。   When the gradation adjustment method is determined, parameters (gradation adjustment parameters) necessary for gradation adjustment are calculated based on the index (step S63). In the following, it is assumed that 8-bit image data is converted to 16-bit in advance, and the unit of the image data value is 16-bit.

階調調整パラメータとして、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
The following P1-P9 parameters are calculated as tone adjustment parameters.
P1: Average luminance of the entire photographing screen P2: Block division average luminance P3: Average luminance of the skin color area (H1) P4: Luminance correction value 1 = P1-P2
P5: Reproduction target correction value = luminance reproduction target value (30360) -P4
P6: Offset value 1 = P5-P1
P7: Key correction value P7 ': Key correction value 2
P8: Brightness correction value 2
P9: Offset value 2 = P5-P8-P1

パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(10)、式(11)、式(12)のように定義される。
P7(キー補正値)=[P3−((指標6/6)×18000+22000)]/24.78 (10)
P7’(キー補正値2)=[P3−((指標4/6)×10000+30000)]/24.78 (11)
P8(輝度補正値2)=(指標5/6)×17500 (12)
The key correction value of parameter P7, the key correction value 2 of parameter P7 ′, and the luminance correction value 2 of parameter P8 are defined as shown in equations (10), (11), and (12), respectively.
P7 (key correction value) = [P3-((index 6/6) × 18000 + 22000)] / 24.78 (10)
P7 ′ (key correction value 2) = [P3 − ((index 4/6) × 10000 + 30000)] / 24.78 (11)
P8 (Luminance correction value 2) = (Index 5/6) × 17500 (12)

階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、画像データに対する階調調整量が決定される(ステップS64)。そして、ステップS62において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、ステップS63において算出された階調調整パラメータに対応する階調変換曲線が選択(決定)される。なお、ステップS63において算出された階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出するようにしてもよい。   When the tone adjustment parameter is calculated, the tone adjustment amount for the image data is determined based on the calculated tone adjustment parameter (step S64). Then, a gradation conversion curve corresponding to the gradation adjustment parameter calculated in step S63 is selected from a plurality of gradation conversion curves set in advance corresponding to the gradation adjustment method determined in step S62 ( It is determined. Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter calculated in step S63.

以下、各撮影シーン(光源条件及び露出条件)の階調変換曲線の決定方法について説明する。
撮影シーンが順光である場合、パラメータP1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(13)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (13)
したがって、撮影シーンが順光の場合、図11(a)に示す複数の階調変換曲線の中から、式(13)に対応する階調変換曲線が選択される。又は、式(13)に基づいて階調変換曲線を算出(決定)してもよい。
Hereinafter, a method for determining a gradation conversion curve for each shooting scene (light source condition and exposure condition) will be described.
When the photographic scene is front light, offset correction (parallel shift of 8-bit value) for matching the parameter P1 with P5 is performed by the following equation (13).
RGB value of output image = RGB value of input image + P6 (13)
Therefore, when the photographic scene is a continuous light, a gradation conversion curve corresponding to Expression (13) is selected from the plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (13).

撮影シーンが逆光である場合、図11(b)に示す複数の階調変換曲線の中から、式(10)に示すパラメータP7(キー補正値)に対応する階調変換曲線が選択される。なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。   When the shooting scene is backlit, a gradation conversion curve corresponding to the parameter P7 (key correction value) shown in Expression (10) is selected from the plurality of gradation conversion curves shown in FIG. When the shooting scene is backlit, it is preferable to perform a dodging process together with the gradation conversion process. In this case, it is desirable to adjust the degree of dodging processing according to the index 6 indicating the backlight intensity.

撮影シーンがアンダーである場合、図11(b)に示す複数の階調変換曲線の中から、式(11)に示すパラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。   When the shooting scene is under, a gradation conversion curve corresponding to the parameter P7 ′ (key correction value 2) shown in Expression (11) is selected from the plurality of gradation conversion curves shown in FIG. The When the shooting scene is under, the dodging process as shown in the case of backlight is not performed.

撮影シーンがストロボである場合、オフセット補正(8bit値の平行シフト)を式(14)により行う。
出力画像のRGB値=入力画像のRGB値+P9 (14)
したがって、撮影シーンがストロボの場合、図11(c)に示す複数の階調変換曲線の中から、式(14)に対応する階調変換曲線が選択される。又は、式(14)に基づいて階調変換曲線を算出(決定)してもよい。
When the shooting scene is a strobe, offset correction (parallel shift of 8-bit value) is performed by Expression (14).
RGB value of output image = RGB value of input image + P9 (14)
Therefore, when the shooting scene is a strobe, a gradation conversion curve corresponding to Expression (14) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (14).

図12に戻り、撮像装置特性補正処理部114から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部108により、撮影情報データ処理部106で決定された処理条件、シーン判別指標データ処理部107で決定された処理条件、及び設定入力部110から入力された操作情報に基づいて出力先に応じた最適化処理が施され(ステップS50)、鑑賞画像参照データd5が生成されて、設定入力部110により設定されたデバイスに出力される(ステップS51)。   Returning to FIG. 12, the scene reference image data d4 input from the imaging device characteristic correction processing unit 114 is processed by the viewing image reference data generation unit 108 in the processing conditions determined by the shooting information data processing unit 106, and scene determination index data processing. Based on the processing conditions determined by the unit 107 and the operation information input from the setting input unit 110, optimization processing according to the output destination is performed (step S50), and the viewing image reference data d5 is generated and set. The data is output to the device set by the input unit 110 (step S51).

以上説明したように、画像処理装置131によれば、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6を入力し、シーン参照生データd2に対して、撮像装置特性補正データd1に基づいて、撮像装置特性補正処理を施してシーン参照画像データd4を生成し、シーン参照画像データd4に対して、撮影情報データd3及びシーン判別指標データd6に基づいて、最適化処理を施して鑑賞画像参照データd5を生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。また、シーン判別指標データd6に基づいて、シーン参照画像データd4に施す階調調整方法及び調整量を決定するので、撮影シーンに応じて最適な階調調整を行うことができる。   As described above, according to the image processing device 131, the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the scene determination index data d6 are input, and the scene reference raw data d2 is Based on the imaging device characteristic correction data d1, an imaging device characteristic correction process is performed to generate scene reference image data d4. Based on the shooting information data d3 and the scene determination index data d6, the scene reference image data d4 is generated. Since the viewing image reference data d5 is generated by performing the optimization process, it is possible to form an optimum viewing image according to the shooting scene without any information loss of the captured image information. Also, since the gradation adjustment method and adjustment amount to be applied to the scene reference image data d4 are determined based on the scene discrimination index data d6, optimal gradation adjustment can be performed according to the shooting scene.

[第2の実施の形態]
次に、図15〜図20を参照して、本発明の第2の実施の形態における撮像装置52及び画像処理装置132について説明する。
[Second Embodiment]
Next, an imaging device 52 and an image processing device 132 according to the second embodiment of the present invention will be described with reference to FIGS.

<撮像装置52の構成>
図15は、第2の実施の形態における撮像装置52の機能的構成を示すブロック図である。撮像装置52は、第1の実施の形態に示した撮像装置51に、階調変換データ生成部23を追加した構成である。撮像装置52において、第1の実施の形態に示した撮像装置51と同一の構成部分については同一の符号を付し、その構成については説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
<Configuration of Imaging Device 52>
FIG. 15 is a block diagram illustrating a functional configuration of the imaging device 52 according to the second embodiment. The imaging device 52 has a configuration in which a gradation conversion data generation unit 23 is added to the imaging device 51 shown in the first embodiment. In the imaging device 52, the same components as those of the imaging device 51 shown in the first embodiment are denoted by the same reference numerals, and description of the configuration is omitted. Hereinafter, a configuration and processing characteristic of the second embodiment will be described.

制御部8は、操作部13によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Bを行い、撮影時におけるアナログ処理回路4における信号増幅やノイズの低減処理や画像処理部7における処理を省略し、記憶デバイス16の記録メディアに、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7をヘッダ情報として書き込むとともに、撮影されたデジタル画像データをシーン参照生データd2として記録する。例えば、撮像装置特性補正データd1及び階調変換データd7はDNGタグに書き込み、撮影情報データd3はExifタグに書き込む。   When the output of scene reference raw data is specified by the operation unit 13, the control unit 8 performs a scene reference raw data storage process B described later, and performs signal amplification and noise reduction processing and image processing in the analog processing circuit 4 at the time of shooting. Processing in the processing unit 7 is omitted, and the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7 are written as header information on the recording medium of the storage device 16, and the shot digital image data is referred to the scene. Record as raw data d2. For example, the imaging device characteristic correction data d1 and the gradation conversion data d7 are written in the DNG tag, and the shooting information data d3 is written in the Exif tag.

階調変換データ生成部23は、シーン判別指標データ生成部12により生成されたシーン判別指標データd6に基づいて、階調変換データd7を生成する。階調変換データd7は、階調変換前後の値を定めたデータであり、ルックアップテーブルでもよいし、階調変換を示す変換式データでもよい。階調変換データ生成部23は、第1の実施の形態に示した画像処理装置131のシーン判別指標データ処理部107と同様の構成であるため、説明を省略する。階調変換データ生成部23は、特許請求の範囲に記載の撮像装置の階調変換データ生成手段としての機能を有する。   The gradation conversion data generation unit 23 generates gradation conversion data d7 based on the scene determination index data d6 generated by the scene determination index data generation unit 12. The gradation conversion data d7 is data defining values before and after gradation conversion, and may be a lookup table or conversion formula data indicating gradation conversion. The gradation conversion data generation unit 23 has the same configuration as that of the scene determination index data processing unit 107 of the image processing apparatus 131 described in the first embodiment, and thus description thereof is omitted. The gradation conversion data generation unit 23 has a function as gradation conversion data generation means of the imaging apparatus described in the claims.

ヘッダ情報処理部15は、一時記憶メモリ6に格納されたデジタル画像データに対して、撮影情報データ処理部9により生成された撮影情報データd3、装置特性補正情報処理部10により生成された撮像装置特性補正データd1、階調変換データ生成部23により生成された階調変換データd7をヘッダ情報として書き込み処理する。   The header information processing unit 15, for the digital image data stored in the temporary storage memory 6, the shooting information data d3 generated by the shooting information data processing unit 9, the imaging device generated by the device characteristic correction information processing unit 10. The characteristic correction data d1 and the gradation conversion data d7 generated by the gradation conversion data generation unit 23 are written as header information.

<撮像装置52の動作>
次に、撮像装置52の動作について説明する。
図16は、図15に示す撮像装置52において、操作部13により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部8の制御により実行されるシーン参照生データ保存処理Bを示すフローチャートである。以下、図16を参照してシーン参照生データ保存処理Bについて説明する。
<Operation of Imaging Device 52>
Next, the operation of the imaging device 52 will be described.
FIG. 16 shows an image pickup apparatus 52 shown in FIG. 15, in which the operation unit 13 sets the output of the captured digital image data based on the scene reference raw data, and the control unit 8 controls the release switch when the release switch is pressed. It is a flowchart which shows the scene reference raw data preservation | save process B performed. Hereinafter, the scene reference raw data storage process B will be described with reference to FIG.

操作部13のレリーズボタンが押下されると、制御部8により、各部が制御され撮影が行われる(ステップS71)。CCD3から得られた撮像信号は、A/D変換器5によりデジタル画像データに変換され、シーン参照生データd2が生成される(ステップS72)。また、装置特性補正情報処理部10により撮像装置特性補正データd1が生成され(ステップS73)、撮影情報データ処理部9により撮影情報データd3が生成される(ステップS74)。また、シーン判別指標データ生成部12によりシーン判別指標データd6が生成され、階調変換データ生成部23により、シーン判別指標データd6に基づいて階調変換データd7が生成される(ステップS75)。   When the release button of the operation unit 13 is pressed, the control unit 8 controls each unit and performs photographing (step S71). The imaging signal obtained from the CCD 3 is converted into digital image data by the A / D converter 5 to generate scene reference raw data d2 (step S72). Further, the apparatus characteristic correction information processing unit 10 generates imaging apparatus characteristic correction data d1 (step S73), and the shooting information data processing unit 9 generates shooting information data d3 (step S74). In addition, the scene determination index data generation unit 12 generates scene determination index data d6, and the gradation conversion data generation unit 23 generates gradation conversion data d7 based on the scene determination index data d6 (step S75).

ここで、図17を参照して、階調変換データ生成処理について説明する。
まず、シーン判別指標データd6(例えば、指標4、指標5及び指標6)の値に基づいて、画像データの撮影シーン(光源条件及び露出条件)が判別される(ステップS81)。撮影シーンの判別方法については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS61と同様である。
Here, the gradation conversion data generation processing will be described with reference to FIG.
First, based on the value of the scene determination index data d6 (for example, index 4, index 5 and index 6), the shooting scene (light source condition and exposure condition) of the image data is determined (step S81). The method for determining the shooting scene is the same as that in step S61 in the image processing condition determination process (see FIG. 13) according to the first embodiment.

撮影シーンが判別されると、その判別された撮影シーンに応じて、画像データに対する階調調整方法が決定される(ステップS82)。階調調整方法の決定については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS62と同様である。   When the shooting scene is determined, a gradation adjustment method for the image data is determined according to the determined shooting scene (step S82). The determination of the gradation adjustment method is the same as step S62 in the image processing condition determination process (see FIG. 13) of the first embodiment.

階調調整方法が決定されると、指標に基づいて、階調調整に必要なパラメータ(階調調整パラメータ)が算出される(ステップS83)。階調調整パラメータの算出については、第1の実施の形態の画像処理条件決定処理(図13参照)におけるステップS63と同様である。   When the gradation adjustment method is determined, parameters (gradation adjustment parameters) necessary for gradation adjustment are calculated based on the index (step S83). The calculation of the gradation adjustment parameter is the same as step S63 in the image processing condition determination process (see FIG. 13) of the first embodiment.

階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、画像データに対する階調調整量が決定される(ステップS84)。そして、ステップS82において決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、ステップS83において算出された階調調整パラメータに対応する階調変換曲線が選択(決定)され、階調変換データd7が生成される(ステップS85)。なお、ステップS83において算出された階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出し、階調変換データd7を生成するようにしてもよい。   When the tone adjustment parameter is calculated, the tone adjustment amount for the image data is determined based on the calculated tone adjustment parameter (step S84). Then, a gradation conversion curve corresponding to the gradation adjustment parameter calculated in step S83 is selected from a plurality of gradation conversion curves set in advance corresponding to the gradation adjustment method determined in step S82 ( The gradation conversion data d7 is generated (step S85). Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter calculated in step S83, and the gradation conversion data d7 may be generated.

図16に戻り、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7の生成後、シーン参照生データd2のファイルヘッダに撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7がタグ情報として記録、添付され(ステップS76)、添付済みのデータファイルが作成される(ステップS77)。この添付済みのデータファイルは、撮像装置52に着脱可能に構成された記憶デバイス16の記録メディアに記録、保存される(ステップS78)。   Returning to FIG. 16, after generating the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7, the imaging device characteristic correction data d1 and the shooting information are added to the file header of the scene reference raw data d2. Data d3 and gradation conversion data d7 are recorded and attached as tag information (step S76), and an attached data file is created (step S77). The attached data file is recorded and stored in the recording medium of the storage device 16 configured to be detachable from the imaging device 52 (step S78).

図18は、ステップS78で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図18に示すように、撮影されたデジタル画像データは、シーン参照生データd2として記録され、そのヘッダ領域に、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7が記録されている。この記録メディアを撮像装置51から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7をこれらの外部装置に出力することができる。したがって、撮像装置52によれば、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成するための情報を外部の装置に提供することができる。   FIG. 18 is a diagram showing a data structure of the digital image data recorded on the recording medium of the storage device 16 in step S78. As shown in FIG. 18, the captured digital image data is recorded as scene reference raw data d2, and imaging device characteristic correction data d1, shooting information data d3, and gradation conversion data d7 are recorded in the header area. Yes. By taking out this recording medium from the imaging device 51 and mounting it on an external device such as an image processing device or an image recording device, the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7 can be output to these external devices. Therefore, according to the imaging device 52, information for forming an optimal appreciation image according to the shooting scene can be provided to an external device without accompanying information loss of the captured image information.

<画像処理装置132の構成>
図19は、第2の実施の形態における画像処理装置132の機能的構成を示すブロック図である。画像処理装置132は、第1の実施の形態に示した画像処理装置131のシーン判別指標データ処理部107に代えて、階調変換データ処理部117を備えた構成である。画像処理装置132において、第1の実施の形態に示した画像処理装置131と同一の構成部分については同一の符号を付し、その構成については説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
<Configuration of Image Processing Device 132>
FIG. 19 is a block diagram illustrating a functional configuration of the image processing apparatus 132 according to the second embodiment. The image processing device 132 includes a gradation conversion data processing unit 117 instead of the scene determination index data processing unit 107 of the image processing device 131 shown in the first embodiment. In the image processing apparatus 132, the same components as those of the image processing apparatus 131 shown in the first embodiment are denoted by the same reference numerals, and the description of the configuration is omitted. Hereinafter, a configuration and processing characteristic of the second embodiment will be described.

入力部101は、記録メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置52により撮影されたデータのファイル(図18参照)が記録された記録メディアが装着されると、入力部101は、記録されたデータファイルを読み出して、ヘッダ情報解析部102へ出力する   The input unit 101 includes a recording medium mounting unit (not shown). When a recording medium in which a data file (see FIG. 18) recorded by the imaging device 52 described above is mounted on the mounting unit, the input unit 101 reads out the recorded data file to obtain header information. Output to analysis unit 102

ヘッダ情報解析部102は、入力部101から入力されたデータを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、階調変換データd7とに分け、撮像装置特性補正データd1を装置特性補正処理部103aへ、シーン参照生データd2をシーン参照画像データ生成部104へ、撮影情報データd3を撮影情報データ処理部106へ、階調変換データd7を階調変換データ処理部117へ出力する。   The header information analysis unit 102 analyzes the data input from the input unit 101 and divides the data into scene reference raw data d2, imaging device characteristic correction data d1, shooting information data d3, and gradation conversion data d7. The apparatus characteristic correction data d1 is input to the apparatus characteristic correction processing unit 103a, the scene reference raw data d2 is input to the scene reference image data generation unit 104, the shooting information data d3 is input to the shooting information data processing unit 106, and the gradation conversion data d7 is input to the gradation. The converted data processing unit 117 outputs the result.

階調変換データ処理部117は、ヘッダ情報解析部102から入力された階調変換データd7に基づいて、鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部108に出力する。   The gradation conversion data processing unit 117 determines a generation condition for generating the viewing image reference data d5 based on the gradation conversion data d7 input from the header information analysis unit 102, and the viewing image reference data generation unit 108. Output to.

鑑賞画像参照データ生成部108は、一時記憶メモリ105からシーン参照画像データd4を読み出し、撮影情報データ処理部106で決定された鑑賞画像参照データd5の生成条件、階調変換データ処理部117で決定された鑑賞画像参照データd5の生成条件、及び設定入力部110から入力された記憶デバイス111、出力デバイス112、表示デバイス113の種類に関する操作情報に基づき、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データd5を生成し、操作情報とともに一時記憶メモリ109へ出力する。   The appreciation image reference data generation unit 108 reads the scene reference image data d4 from the temporary storage memory 105, and the generation condition of the appreciation image reference data d5 determined by the shooting information data processing unit 106 is determined by the gradation conversion data processing unit 117. Optimum for obtaining an optimal image at the output destination based on the generation conditions of the viewing image reference data d5 and the operation information regarding the types of the storage device 111, the output device 112, and the display device 113 input from the setting input unit 110 The viewing image reference data d5 is generated by performing the conversion process, and is output to the temporary storage memory 109 together with the operation information.

<画像処理装置132の動作>
図20は、画像処理装置132の各部が連携することにより実行される画像データ生成処理Bを示すフロー図である。以下、図20を参照して画像処理装置132の動作について説明する。
<Operation of Image Processing Device 132>
FIG. 20 is a flowchart showing an image data generation process B executed by cooperation of the units of the image processing apparatus 132. Hereinafter, the operation of the image processing apparatus 132 will be described with reference to FIG.

図18に示したデータ構造の画像データファイルが記録された記録メディアが装着されると、入力部101により、記録メディアに記録されたデジタル画像データファイルが入力される(ステップ91)。入力されたデジタル画像データは、ヘッダ情報解析部102によりその内容が解析され(ステップS92)、シーン参照生データd2(ステップS93)、撮像装置特性補正データd1(ステップS94)、撮影情報データd3(ステップS95)、階調変換データd7(ステップS96)に分けられ、シーン参照生データd2及び撮像装置特性補正データd1は撮像装置特性補正処理部114へ、撮影情報データd3及び階調変換データd7は最適化処理部115へ出力される。   When the recording medium on which the image data file having the data structure shown in FIG. 18 is loaded, the digital image data file recorded on the recording medium is input by the input unit 101 (step 91). The contents of the input digital image data are analyzed by the header information analysis unit 102 (step S92), raw scene reference data d2 (step S93), imaging device characteristic correction data d1 (step S94), and shooting information data d3 ( Step S95) and gradation conversion data d7 (step S96). The scene reference raw data d2 and the imaging device characteristic correction data d1 are sent to the imaging device characteristic correction processing unit 114, and the imaging information data d3 and the gradation conversion data d7 are The data is output to the optimization processing unit 115.

撮像装置特性補正データd1が撮像装置特性補正処理部114へ入力されると、装置特性補正処理部103aにより処理条件テーブル103bが参照され、シーン参照画像データd4を生成するための処理条件が決定される。シーン参照画像データ生成部104により、シーン参照生データd2に対して、この処理条件に基づいて撮像装置特性補正処理が施され(ステップS97)、シーン参照画像データd4が生成されて最適化処理部115に出力される(ステップS98)。   When the imaging apparatus characteristic correction data d1 is input to the imaging apparatus characteristic correction processing unit 114, the processing condition table 103b is referred to by the apparatus characteristic correction processing unit 103a, and a processing condition for generating the scene reference image data d4 is determined. The The scene reference image data generation unit 104 performs imaging device characteristic correction processing on the scene reference raw data d2 based on this processing condition (step S97), and scene reference image data d4 is generated and optimized. 115 (step S98).

また、撮影情報データd3が最適化処理部115へ入力されると、撮影情報データ処理部106により、撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。   Further, when the shooting information data d3 is input to the optimization processing unit 115, the shooting information data processing unit 106 uses the shooting information data d3 to generate viewing image reference data d5 corresponding to the shooting conditions. Is determined.

また、階調変換データd7が最適化処理部115へ入力されると、階調変換データ処理部117により、階調変換データd7に基づいて、鑑賞画像参照データd5を生成するための処理条件が決定される。   When the gradation conversion data d7 is input to the optimization processing unit 115, the gradation conversion data processing unit 117 sets processing conditions for generating the viewing image reference data d5 based on the gradation conversion data d7. It is determined.

そして、撮像装置特性補正処理部114から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部108により、撮影情報データ処理部106で決定された処理条件、階調変換データ処理部117で決定された処理条件及び設定入力部110から入力された操作情報に基づいて出力先に応じた最適化処理が施され(ステップS99)、鑑賞画像参照データd5が生成されて、設定入力部110により設定されたデバイスに出力される(ステップS100)。   Then, the scene reference image data d4 input from the imaging device characteristic correction processing unit 114 is processed by the appreciation image reference data generation unit 108 at the processing conditions determined by the shooting information data processing unit 106, and at the gradation conversion data processing unit 117. Based on the determined processing conditions and the operation information input from the setting input unit 110, an optimization process corresponding to the output destination is performed (step S99), and the viewing image reference data d5 is generated. The data is output to the set device (step S100).

以上説明したように、画像処理装置132によれば、シーン参照生データd2、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7を入力し、シーン参照生データd2に対して、撮像装置特性補正データd1に基づいて、撮像装置特性補正処理を施してシーン参照画像データd4を生成し、シーン参照画像データd4に対して、撮影情報データd3及び階調変換データd7に基づいて、最適化処理を施して鑑賞画像参照データd5を生成するので、撮像画像情報の情報損失を伴うことなく、撮影シーンに応じて最適な鑑賞画像を形成することができる。   As described above, according to the image processing device 132, the scene reference raw data d2, the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7 are input, and the scene reference raw data d2 is Based on the imaging device characteristic correction data d1, an imaging device characteristic correction process is performed to generate scene reference image data d4. Based on the shooting information data d3 and the gradation conversion data d7 with respect to the scene reference image data d4, Since the viewing image reference data d5 is generated by performing the optimization process, it is possible to form an optimum viewing image according to the shooting scene without any information loss of the captured image information.

なお、第2の実施の形態では、撮像装置52において、シーン参照生データd2に、撮像装置特性補正データd1、撮影情報データd3及び階調変換データd7を添付することとしたが、さらに、シーン判別指標データd6を添付することとしてもよい。   In the second embodiment, in the imaging device 52, the imaging device characteristic correction data d1, the shooting information data d3, and the gradation conversion data d7 are attached to the scene reference raw data d2. The discrimination index data d6 may be attached.

[第3の実施の形態]
<画像記録装置201の構成>
次に、図21〜図24を参照して、本発明の第3の実施の形態の画像記録装置201について説明する。
図21は、画像記録装置201の概観構成を示す斜視図である。画像記録装置201は、出力デバイスとして画像を形成する画像記録手段と、表示デバイスとしてCRTディスプレイモニタと、を備える。
[Third Embodiment]
<Configuration of Image Recording Apparatus 201>
Next, an image recording apparatus 201 according to the third embodiment of the present invention will be described with reference to FIGS.
FIG. 21 is a perspective view illustrating an overview configuration of the image recording apparatus 201. The image recording apparatus 201 includes an image recording unit that forms an image as an output device, and a CRT display monitor as a display device.

図21に示すように、画像記録装置201には、本体202の一側面にマガジン装填部203が備えられている。本体202の内側には、出力メディアである銀塩印画紙に露光する露光処理部204と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部205が備えられ、作成されたプリントは、本体202の他側面に設けられたトレー206に排出される。   As shown in FIG. 21, the image recording apparatus 201 includes a magazine loading unit 203 on one side of the main body 202. Inside the main body 202, an exposure processing unit 204 that exposes the silver salt photographic paper as an output medium and a print creation unit 205 that develops the exposed silver salt photographic paper, dries and creates a print are provided. The produced print is discharged to a tray 206 provided on the other side of the main body 202.

また、本体202の上部には、表示装置としてのCRT208、透過原稿を読み込む装置であるフィルムスキャナ部209、反射原稿入力装置210、操作部211が備えられている。このCRT208が、プリントを作成しようとする画像データの画像を画面に表示する表示手段を構成している。さらに、本体202には、各種デジタル記録媒体に記録された画像データを読み取り可能な画像読込部214、各種デジタル記録媒体に画像信号を書き込み(出力)可能な画像書込部215が備えられている。また、本体202の内部には、これらの各部を集中制御する制御部207が備えられている。   In addition, a CRT 208 as a display device, a film scanner unit 209 that is a device for reading a transparent original, a reflective original input device 210, and an operation unit 211 are provided on the upper portion of the main body 202. The CRT 208 constitutes display means for displaying an image of image data to be printed on the screen. Further, the main body 202 includes an image reading unit 214 that can read image data recorded on various digital recording media, and an image writing unit 215 that can write (output) image signals to various digital recording media. . In addition, a control unit 207 that centrally controls each of these units is provided inside the main body 202.

画像読込部214には、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214bが備えられ、PCカード213aやフロッピーディスク213bが差し込み可能になっている。PCカード213aは、デジタルカメラで撮像された複数の駒画像データが記録されたメモリを有する。フロッピーディスク213bには、例えば、デジタルカメラで撮像された複数の駒画像データが記録されている。その他、駒画像データを有する記録媒体としては、マルチメディアカード、メモリースティック、CD−ROM等が挙げられる。   The image reading unit 214 includes a PC card adapter 214a and a floppy (registered trademark) disk adapter 214b, and a PC card 213a and a floppy disk 213b can be inserted therein. The PC card 213a has a memory in which a plurality of frame image data captured by a digital camera is recorded. For example, a plurality of frame image data captured by a digital camera is recorded on the floppy disk 213b. In addition, examples of the recording medium having frame image data include a multimedia card, a memory stick, and a CD-ROM.

画像書込部215には、フロッピーディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、それぞれ、FD216a、MO216b、光ディスク216cが差し込み可能になっており、画像データを画像記録メディアに書き込むことができるようになっている。光ディスク216cとしては、CD−R、DVD−R等がある。   The image writing unit 215 includes a floppy disk adapter 215a, an MO adapter 215b, and an optical disk adapter 215c. The FD 216a, the MO 216b, and the optical disk 216c can be inserted into the image writing unit 215, respectively. You can write. Examples of the optical disk 216c include a CD-R and a DVD-R.

なお、図21では、操作部211、CRT208、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214が、本体202に一体的に備えられた構造となっているが、これらのいずれか1つ以上を別体として設けるようにしてもよい。   In FIG. 21, the operation unit 211, the CRT 208, the film scanner unit 209, the reflective original input device 210, and the image reading unit 214 are integrally provided in the main body 202, but any one of these is provided. Two or more may be provided separately.

なお、図21に示した画像記録装置201では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。   In the image recording apparatus 201 shown in FIG. 21, there is illustrated an apparatus that creates a print by exposing to a photosensitive material and developing it. However, the print creation method is not limited to this. A method such as a photographic method, a thermal method, or a sublimation method may be used.

<画像記録装置201の内部構成>
図22は、画像記録装置201の内部構成を示すブロック図である。画像記録装置201は、図22に示すように、制御部207、露光処理部204、プリント作成部205、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214、通信手段(入力)240、画像書込部215、データ蓄積手段271、操作部211、CRT208、通信手段(出力)241から構成される。
<Internal Configuration of Image Recording Apparatus 201>
FIG. 22 is a block diagram showing an internal configuration of the image recording apparatus 201. As shown in FIG. 22, the image recording apparatus 201 includes a control unit 207, an exposure processing unit 204, a print creation unit 205, a film scanner unit 209, a reflection original input device 210, an image reading unit 214, a communication means (input) 240, An image writing unit 215, a data storage unit 271, an operation unit 211, a CRT 208, and a communication unit (output) 241 are included.

制御部207は、マイクロコンピュータにより構成され、ROM等の記憶部(図示略)に記憶されている画像処理プログラム等の各種制御プログラムと、CPU(図示略)との協働により、画像記録装置201を構成する各部の動作を制御する。   The control unit 207 is configured by a microcomputer, and the image recording apparatus 201 is cooperated with various control programs such as an image processing program stored in a storage unit (not shown) such as a ROM and a CPU (not shown). The operation of each part constituting the is controlled.

制御部207は、画像処理部270を有し、操作部211からの入力信号に基づいて、フィルムスキャナ部209や反射原稿入力装置210により取得した画像データ、画像読込部214から読み込まれた画像データ、外部機器から通信手段(入力)240を介して入力された画像データに対して、画像処理を施して出力用画像データ生成し、露光処理部204に出力する。また、画像処理部270は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。画像処理部270の出力先としては、CRT208、画像書込部215、通信手段(出力)241等がある。   The control unit 207 includes an image processing unit 270, and based on an input signal from the operation unit 211, image data acquired by the film scanner unit 209 and the reflective original input device 210, and image data read from the image reading unit 214. The image data input from the external device via the communication means (input) 240 is subjected to image processing to generate output image data, which is output to the exposure processing unit 204. Further, the image processing unit 270 performs a conversion process corresponding to the output form on the image processed image data, and outputs the converted image data. Output destinations of the image processing unit 270 include a CRT 208, an image writing unit 215, a communication unit (output) 241 and the like.

露光処理部204は、感光材料に画像の露光を行い、この感光材料をプリント作成部205に出力する。プリント作成部205は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 204 exposes an image on the photosensitive material and outputs the photosensitive material to the print creating unit 205. The print creating unit 205 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部209は、アナログカメラにより撮像されてネガフィルムを現像して得られる現像済みのネガフィルムNからの駒画像データを読み込む。反射原稿入力装置210は、駒画像を印画紙に焼き付けて現像処理したプリントPからの駒画像データを読み込む。   The film scanner unit 209 reads frame image data from a developed negative film N obtained by developing an image obtained by imaging with an analog camera. The reflection original input device 210 reads frame image data from the print P that has been developed by printing the frame image on photographic paper.

フィルムスキャナ部209や反射原稿入力装置210から読み込まれる原稿としては、写真感光材料があり、この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等がある。この写真感光材料には、アナログカメラにより撮像した駒画像データが記録される。フィルムスキャナ部209のフィルムスキャナにより、デジタル画像データに変換し、駒画像データとすることができる。また、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置210のフラットベッドスキャナにより、駒画像データに変換することができる。   An original read from the film scanner unit 209 or the reflective original input device 210 includes a photographic photosensitive material. Examples of the photographic photosensitive material include a color negative film, a color reversal film, a black and white negative film, and a black and white reversal film. Frame image data captured by an analog camera is recorded on the photographic material. It can be converted into digital image data by the film scanner of the film scanner unit 209 and used as frame image data. Further, when the photographic photosensitive material is a color paper which is a silver salt photographic paper, it can be converted into frame image data by the flatbed scanner of the reflective original input device 210.

画像読込部214は、PCカード213aやフロッピーディスク213bに記録された駒画像データを読み出して制御部207に転送する。この画像読込部214は、画像転送手段230として、PCカード用アダプタ214a、フロッピーディスク用アダプタ214b等を有する。画像読込部214は、PCカード用アダプタ214aに差し込まれたPCカード213aや、フロッピーディスク用アダプタ214bに差し込まれたフロッピーディスク213bに記録された駒画像データを読み取り、制御部207に転送する。PCカード用アダプタ214aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 214 reads frame image data recorded on the PC card 213 a and the floppy disk 213 b and transfers the frame image data to the control unit 207. The image reading unit 214 includes a PC card adapter 214a, a floppy disk adapter 214b, and the like as the image transfer means 230. The image reading unit 214 reads frame image data recorded on the PC card 213 a inserted into the PC card adapter 214 a and the floppy disk 213 b inserted into the floppy disk adapter 214 b and transfers the frame image data to the control unit 207. For example, a PC card reader or a PC card slot is used as the PC card adapter 214a.

通信手段(入力)240は、画像記録装置201が設置された施設内の別のコンピュータや、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像データやプリント命令信号を受信する。   The communication means (input) 240 receives image data representing a captured image and a print command signal from another computer in the facility where the image recording apparatus 201 is installed, or a remote computer via the Internet or the like.

画像書込部215は、画像搬送部231として、フロッピーディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cを備えている。画像書込部215は、制御部207から入力される書込信号に従って、フロッピーディスク用アダプタ215aに差し込まれたフロッピーディスク216a、MO用アダプタ215bに差し込まれたMO216b、光ディスク用アダプタ215cに差し込まれた光ディスク216cに、生成された画像データを書き込む。   The image writing unit 215 includes a floppy disk adapter 215a, an MO adapter 215b, and an optical disk adapter 215c as the image transport unit 231. The image writing unit 215 is inserted into the floppy disk 216a inserted into the floppy disk adapter 215a, the MO 216b inserted into the MO adapter 215b, and the optical disk adapter 215c according to the write signal input from the control unit 207. The generated image data is written on the optical disk 216c.

データ蓄積手段271は、画像データとそれに対応するオーダー情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)等の情報を記憶し、順次蓄積する。   The data storage unit 271 stores information such as image data and order information corresponding to the image data (information on how many prints are to be created from images of which frames, print size information, and the like) and sequentially stores them.

操作部211は、情報入力手段212を有する。情報入力手段212は、例えば、タッチパネル等により構成されており、情報入力手段212の押下信号を入力信号として制御部207に出力する。なお、操作部211は、キーボードやマウス等を備えて構成するようにしてもよい。CRT208は、制御部207から入力された表示制御信号に従って、画像データ等を表示する。   The operation unit 211 includes information input means 212. The information input unit 212 is configured by a touch panel, for example, and outputs a press signal of the information input unit 212 to the control unit 207 as an input signal. The operation unit 211 may include a keyboard, a mouse, and the like. The CRT 208 displays image data and the like according to a display control signal input from the control unit 207.

通信手段(出力)241は、画像処理を施した後の画像データと付帯するオーダー情報とを、画像記録装置201が設置された施設内の他のコンピュータや、インターネット等を介した遠方のコンピュータに対して送信する。   The communication means (output) 241 transfers the image data after the image processing and the accompanying order information to another computer in the facility where the image recording apparatus 201 is installed, or a remote computer via the Internet or the like. Send to.

<画像処理部270の構成>
図23は、画像記録装置201の画像処理部270の機能的構成を示すブロック図である。画像処理部270は、図23に示すように、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、ヘッダ情報解析部302、装置特性補正処理部303a、処理条件テーブル303b、シーン参照画像データ生成部304、撮影情報データ処理部306、シーン判別指標データ処理部307、鑑賞画像参照データ生成部308から構成される。
<Configuration of Image Processing Unit 270>
FIG. 23 is a block diagram illustrating a functional configuration of the image processing unit 270 of the image recording apparatus 201. As shown in FIG. 23, the image processing unit 270 includes a film scan data processing unit 701, a reflection original scan data processing unit 702, an image data format decoding processing unit 703, an image adjustment processing unit 704, a CRT specific processing unit 705, a printer specific Processing unit (1) 706, printer-specific processing unit (2) 707, image data format creation processing unit 708, header information analysis unit 302, device characteristic correction processing unit 303a, processing condition table 303b, scene reference image data generation unit 304, The imaging information data processing unit 306, the scene discrimination index data processing unit 307, and the appreciation image reference data generation unit 308 are included.

フィルムスキャンデータ処理部701は、フィルムスキャナ部209から入力された画像データに対し、フィルムスキャナ部209固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。また、フィルムスキャンデータ処理部701は、フィルムサイズ、ネガポジ種別、フィルムに光学的あるいは磁気的に記録されたISO感度、メーカー名、主要被写体に関わる情報・撮影条件に関する情報(例えばAPSの記載情報内容)等も併せて画像調整処理部704に出力する。   The film scan data processing unit 701 performs a calibration operation specific to the film scanner unit 209, negative / positive reversal in the case of a negative document, dust flaw removal, gray balance adjustment, contrast adjustment, and granular noise on the image data input from the film scanner unit 209. Removal, sharpening, and the like are performed, and the result is output to the image adjustment processing unit 704. The film scan data processing unit 701 also includes information on film size, negative / positive type, ISO sensitivity optically or magnetically recorded on the film, manufacturer name, information on main subjects, and shooting conditions (for example, description information content of APS) ) And the like are also output to the image adjustment processing unit 704.

反射原稿スキャンデータ処理部702は、反射原稿入力装置210から入力された画像データに対し、反射原稿入力装置210固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等を施し、画像調整処理部704に出力する。   The reflected original scan data processing unit 702 performs a calibration operation unique to the reflective original input device 210, negative / positive reversal in the case of a negative original, dust flaw removal, gray balance adjustment, and contrast adjustment for the image data input from the reflective original input device 210. , Noise removal, sharpening enhancement, and the like, and output to the image adjustment processing unit 704.

画像データ書式解読処理部703は、画像転送手段230や通信手段(入力)240から入力された画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等を行い、画像処理部270内の演算に適したデータ形式に変換し、画像調整処理部704に出力する。また、画像データ書式解読処理部703は、第1の実施の形態に示した撮像装置51による形式の画像データファイル(図8参照)が画像転送手段230又は通信手段(入力)240から入力されたか否かを判別し、入力された画像データをヘッダ情報解析部302に出力する。   The image data format decoding processing unit 703 performs compression code restoration, color data expression method conversion, and the like as necessary in accordance with the data format of the image data input from the image transfer unit 230 or the communication unit (input) 240. Then, the data is converted into a data format suitable for calculation in the image processing unit 270 and output to the image adjustment processing unit 704. Also, the image data format decoding processing unit 703 determines whether the image data file (see FIG. 8) in the format by the imaging device 51 shown in the first embodiment is input from the image transfer unit 230 or the communication unit (input) 240. The input image data is output to the header information analysis unit 302.

また、フィルムスキャナ部209、反射原稿入力装置210、画像転送手段230、通信手段(入力)240からの主要被写体に関わる情報及び撮影条件に関する情報を補足・補充する形で、操作部211から該情報を画像調整処理部704に送ることもできる。   Further, the information from the operation unit 211 is supplemented and supplemented with information on the main subject and information on the photographing conditions from the film scanner unit 209, the reflection original input device 210, the image transfer unit 230, and the communication unit (input) 240. Can also be sent to the image adjustment processing unit 704.

出力画像の大きさについての指定は操作部211から入力される。この他に、通信手段(入力)240から取得した出力画像の大きさについて指定があった場合や、画像転送手段230が取得した画像データのヘッダ情報やタグ情報に埋め込まれた出力画像の大きさについての指定があった場合には、画像データ書式解読処理部703が該情報を検出し、画像調整処理部704へ出力する。   The designation about the size of the output image is input from the operation unit 211. In addition, when the size of the output image acquired from the communication unit (input) 240 is specified, or the size of the output image embedded in the header information or tag information of the image data acquired by the image transfer unit 230. Is specified, the image data format decoding processing unit 703 detects the information and outputs it to the image adjustment processing unit 704.

ヘッダ情報解析部302は、入力された画像データを解析し、シーン参照生データd2と、撮像装置特性補正データd1と、撮影情報データd3と、シーン判別指標データd6とに分ける。そして、シーン参照生データd2をシーン参照画像データ生成部304へ、撮像装置特性補正データd1を装置特性補正処理部303aへ、撮影情報データd3を撮影情報データ処理部306へ、シーン判別指標データd6をシーン判別指標データ処理部307へ出力する。   The header information analysis unit 302 analyzes the input image data and divides it into scene reference raw data d2, imaging device characteristic correction data d1, shooting information data d3, and scene discrimination index data d6. Then, the scene reference raw data d2 is sent to the scene reference image data generation unit 304, the imaging device characteristic correction data d1 is sent to the device characteristic correction processing unit 303a, the shooting information data d3 is sent to the shooting information data processing unit 306, and the scene discrimination index data d6. Is output to the scene discrimination index data processing unit 307.

装置特性補正処理部303aは、ヘッダ情報解析部302から撮像装置特性補正データd1が入力されると、処理条件テーブル303bの参照により、シーン参照画像データd4の生成条件を決定する。処理条件テーブル303bは、撮像装置の特性毎に、シーン参照画像データd4を生成するための処理条件を対応付けて記憶するテーブルである。   When the imaging device characteristic correction data d1 is input from the header information analysis unit 302, the apparatus characteristic correction processing unit 303a determines a generation condition of the scene reference image data d4 by referring to the processing condition table 303b. The processing condition table 303b is a table that stores the processing conditions for generating the scene reference image data d4 in association with each characteristic of the imaging apparatus.

シーン参照画像データ生成部304は、ヘッダ情報解析部302から入力されたシーン参照生データd2に対して、装置特性補正処理部303aにより決定された生成条件により撮像装置特性補正処理を施して撮像装置特性に依存しないシーン参照画像データd4を生成し、鑑賞画像参照データ生成部308とデータ蓄積手段271に出力する。   The scene reference image data generation unit 304 performs an imaging device characteristic correction process on the scene reference raw data d2 input from the header information analysis unit 302 according to a generation condition determined by the device characteristic correction processing unit 303a. Scene reference image data d4 that does not depend on characteristics is generated and output to the appreciation image reference data generation unit 308 and the data storage unit 271.

撮影情報データ処理部306は、ヘッダ情報解析部302から入力された撮影情報データd3に基づいて、撮影条件に応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部308に出力する。   The shooting information data processing unit 306 determines a generation condition for generating the viewing image reference data d5 corresponding to the shooting condition based on the shooting information data d3 input from the header information analysis unit 302, and the viewing image reference data The data is output to the generation unit 308.

シーン判別指標データ処理部307は、シーン判別指標データd6に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定し、鑑賞画像参照データ生成部308に出力する。シーン判別指標データ処理部307は、第1の実施の形態の画像処理装置131のシーン判別指標データ処理部107と同様の構成である。   The scene discrimination index data processing unit 307 discriminates a shooting scene based on the scene discrimination index data d6, determines a generation condition for generating appreciation image reference data d5 corresponding to the discriminated shooting scene, and refers to the appreciation image. The data is output to the data generation unit 308. The scene determination index data processing unit 307 has the same configuration as the scene determination index data processing unit 107 of the image processing apparatus 131 according to the first embodiment.

画像調整処理部704は、操作部211及び制御部207からの指令に基づき、出力先のデバイス及び出力メディアに適合された鑑賞画像参照データd5を生成するための画像処理条件を、鑑賞画像参照データ生成部308へと転送する。   The image adjustment processing unit 704, based on commands from the operation unit 211 and the control unit 207, sets image processing conditions for generating the viewing image reference data d5 adapted to the output destination device and the output medium, as viewing image reference data. Transfer to the generation unit 308.

鑑賞画像参照データ生成部308は、撮影情報データ処理部306で決定された画像処理条件、シーン判別指標データ処理部307で決定された画像処理条件、及び画像調整処理部704から送信された画像処理条件に基づき、シーン参照画像データd4から鑑賞画像参照データd5を生成する。   The appreciation image reference data generation unit 308 includes the image processing conditions determined by the shooting information data processing unit 306, the image processing conditions determined by the scene determination index data processing unit 307, and the image processing transmitted from the image adjustment processing unit 704. Based on the conditions, the viewing image reference data d5 is generated from the scene reference image data d4.

画像調整処理部704は、操作部211又は制御部207の指令に基づいて、フィルムスキャナ部209、反射原稿入力装置210、画像転送手段230、通信手段(入力)240から受け取った画像データに対して、出力メディア上で画像を観察する際に好ましい印象を与える画像となるように画像処理を行い出力用のデジタル画像データを生成し、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708、データ蓄積手段271へ処理済みの画像信号を送出する。   The image adjustment processing unit 704 operates on image data received from the film scanner unit 209, the reflective original input device 210, the image transfer unit 230, and the communication unit (input) 240 based on a command from the operation unit 211 or the control unit 207. The digital image data for output is generated by performing image processing so as to give an image that gives a favorable impression when observing the image on the output medium, and the CRT specific processing unit 705, the printer specific processing unit (1) 706, the printer The processed image signal is sent to the unique processing unit (2) 707, the image data format creation processing unit 708, and the data storage unit 271.

CRT固有処理部705は、画像調整処理部704から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT208に出力する。   The CRT specific processing unit 705 performs processing such as changing the number of pixels and color matching on the image data input from the image adjustment processing unit 704 as necessary, and combines the information with information that needs to be displayed, such as control information. Image data is output to the CRT 208.

プリンタ固有処理部(1)706は、画像調整処理部704から入力された画像データに対して、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、露光処理部204に出力する。   A printer-specific processing unit (1) 706 performs printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704 as necessary. Output.

画像記録装置201に、大判インクジェットプリンタ等の外部プリンタ251が接続されている場合には、接続されたプリンタ毎にプリンタ固有処理部(2)707が設けられている。このプリンタ固有処理部(2)707は、画像調整処理部704から入力された画像データに対して、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行う。   When an external printer 251 such as a large-format ink jet printer is connected to the image recording apparatus 201, a printer specific processing unit (2) 707 is provided for each connected printer. The printer-specific processing unit (2) 707 performs appropriate printer-specific calibration processing, color matching, pixel number change, and the like on the image data input from the image adjustment processing unit 704.

画像データ書式作成処理部708は、画像調整処理部704から入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部231や通信手段(出力)241に出力する。   The image data format creation processing unit 708 converts the image data input from the image adjustment processing unit 704 into various general-purpose image formats represented by JPEG, TIFF, Exif, and the like as necessary. The data is output to the transport unit 231 and the communication means (output) 241.

なお、鑑賞画像参照データ生成部308において生成される画像データは、上記CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708における処理を前提としたものであり、画像データ書式作成処理部708においては、鑑賞画像参照データd5の書式に基づき、CRT用、露光処理部用、外部プリンタ用、通信手段(出力)用等、最適化した画像データであることを示すステータスファイルを添付した上で、個々に画像搬送部231に送信され、保存することが可能である。   Note that the image data generated by the appreciation image reference data generation unit 308 is the CRT specific processing unit 705, the printer specific processing unit (1) 706, the printer specific processing unit (2) 707, and the image data format creation processing unit 708. The image data format creation processing unit 708 is optimal for CRT, exposure processing unit, external printer, communication means (output), etc., based on the format of the viewing image reference data d5. After attaching a status file indicating that the image data has been converted, the image data can be individually transmitted to the image transport unit 231 and stored.

以上の、フィルムスキャンデータ処理部701、反射原稿スキャンデータ処理部702、画像データ書式解読処理部703、画像調整処理部704、CRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708という区分は、画像処理部270の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。   The above-described film scan data processing unit 701, reflection original scan data processing unit 702, image data format decoding processing unit 703, image adjustment processing unit 704, CRT specific processing unit 705, printer specific processing unit (1) 706, printer specific processing Section (2) 707 and image data format creation processing section 708 are sections provided to help understanding of the function of the image processing section 270, and are not necessarily realized as physically independent devices. For example, it may be realized as a type of software processing in a single CPU.

また、ヘッダ情報解析部302、装置特性補正処理部303a、シーン参照画像データ生成部304、撮影情報データ処理部306、シーン判別指標データ処理部307、鑑賞画像参照データ生成部308という区分は、画像処理部270における本発明の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。   The header information analysis unit 302, device characteristic correction processing unit 303a, scene reference image data generation unit 304, shooting information data processing unit 306, scene discrimination index data processing unit 307, and appreciation image reference data generation unit 308 are classified into image This section is provided to help the understanding of the function of the present invention in the processing unit 270 and does not necessarily have to be realized as a physically independent device. For example, it is realized as a kind of software processing type in a single CPU. May be.

<画像処理部270の動作>
図24は、画像処理部270の各部が連携することにより実行される画像形成処理を示すフロー図である。以下、図24を参照して画像処理部270各部の動作について説明する。
<Operation of Image Processing Unit 270>
FIG. 24 is a flowchart showing an image forming process executed by cooperation of the units of the image processing unit 270. Hereinafter, the operation of each unit of the image processing unit 270 will be described with reference to FIG.

画像転送手段230又は通信手段(入力)240から画像処理部270にデータが入力され(ステップS101)、画像データ書式解読処理部703により当該入力データが図8に示した形式の画像データファイルであると判別されると(ステップS102)、入力されたデジタル画像データファイルはヘッダ情報解析部302によりその内容が解析され(ステップS103)、シーン参照生データd2(ステップS104)、撮像装置特性補正データd1(ステップS105)、撮影情報データd3(ステップS106)、シーン判別指標データd6(ステップS107)に分けられる。   Data is input to the image processing unit 270 from the image transfer unit 230 or the communication unit (input) 240 (step S101), and the input data is an image data file in the format shown in FIG. 8 by the image data format decoding processing unit 703. (Step S102), the contents of the input digital image data file are analyzed by the header information analysis unit 302 (step S103), the scene reference raw data d2 (step S104), and the imaging device characteristic correction data d1. (Step S105), shooting information data d3 (step S106), and scene discrimination index data d6 (step S107).

撮像装置特性補正データd1は、装置特性補正処理部303aに出力され、装置特性補正処理部303aによる処理条件テーブル303bの参照によりシーン参照画像データd4を生成するための処理条件が決定される。シーン参照生データd2は、シーン参照画像データ生成部304に出力され、装置特性補正処理部303aで決定された処理条件に基づいて撮像装置特性補正処理が施され(ステップS108)、シーン参照画像データd4が生成されて鑑賞画像データ生成部308に出力される(ステップS109)。   The imaging device characteristic correction data d1 is output to the device characteristic correction processing unit 303a, and processing conditions for generating the scene reference image data d4 are determined by referring to the processing condition table 303b by the device characteristic correction processing unit 303a. The raw scene reference data d2 is output to the scene reference image data generation unit 304 and subjected to an imaging device characteristic correction process based on the processing conditions determined by the device characteristic correction processing unit 303a (step S108). d4 is generated and output to the appreciation image data generation unit 308 (step S109).

撮影情報データd3は、撮影情報データ処理部306に出力され、撮影情報データ処理部306により撮影情報データd3に基づいて撮影条件に応じた鑑賞画像参照データd5を生成するための処理条件が決定される。また、操作部211及び制御部207からの指令に基づき、画像調整処理部704において、出力デバイス及び出力メディアに適合された鑑賞画像参照データd5を生成するための画像処理条件が決定される。   The shooting information data d3 is output to the shooting information data processing unit 306. Based on the shooting information data d3, the shooting information data processing unit 306 determines processing conditions for generating viewing image reference data d5 corresponding to shooting conditions. The Further, based on commands from the operation unit 211 and the control unit 207, the image adjustment processing unit 704 determines an image processing condition for generating appreciation image reference data d5 adapted to the output device and the output medium.

シーン判別指標データd6は、シーン判別指標データ処理部307に出力され、シーン判別指標データ処理部307によりシーン判別指標データd6に基づいて画像処理条件決定処理が行われる(ステップS110)。画像処理条件決定処理については、第1の実施の形態に示した画像処理条件決定処理(図13参照)と同様であるため、説明を省略する。   The scene discrimination index data d6 is output to the scene discrimination index data processing unit 307, and the scene discrimination index data processing unit 307 performs image processing condition determination processing based on the scene discrimination index data d6 (step S110). The image processing condition determination process is the same as the image processing condition determination process (see FIG. 13) shown in the first embodiment, and a description thereof will be omitted.

シーン参照画像データ生成部304から入力されたシーン参照画像データd4は、鑑賞画像参照データ生成部308により、撮影情報データ処理部306により決定された画像処理条件、シーン判別指標データ処理部307で決定された画像処理条件、及び画像調整処理部704により決定された画像処理条件に基づいて最適化処理が施され(ステップS111)、鑑賞画像参照データd5が生成される(ステップS112)。鑑賞画像参照データd5は、出力先に応じてCRT固有処理部705、プリンタ固有処理部(1)706、プリンタ固有処理部(2)707、画像データ書式作成処理部708の何れかの処理部に出力される。鑑賞画像参照データd5は、出力された処理部において、出力先に応じた固有の処理が施され(ステップS113)、操作部211により指定された出力先から出力される(ステップS114)。
以上で、画像形成処理が終了する。
The scene reference image data d4 input from the scene reference image data generation unit 304 is determined by the appreciation image reference data generation unit 308 by the image processing condition determined by the shooting information data processing unit 306 and the scene determination index data processing unit 307. Optimization processing is performed based on the set image processing conditions and the image processing conditions determined by the image adjustment processing unit 704 (step S111), and appreciation image reference data d5 is generated (step S112). The viewing image reference data d5 is sent to any one of the CRT specific processing unit 705, the printer specific processing unit (1) 706, the printer specific processing unit (2) 707, and the image data format creation processing unit 708 according to the output destination. Is output. The appreciation image reference data d5 is subjected to processing specific to the output destination in the output processing unit (step S113), and is output from the output destination specified by the operation unit 211 (step S114).
This completes the image forming process.

以上説明したように、画像記録装置201によれば、撮像装置特性補正データd1、撮影情報データd3及びシーン判別指標データd6が添付されたシーン参照生データd2を取得して、撮像画像情報の情報損失を伴うことなく鑑賞画像参照データd5を生成し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等の出力媒体上に、撮影シーンに応じて最適な鑑賞画像を形成することができる。   As described above, according to the image recording apparatus 201, the scene reference raw data d2 to which the imaging apparatus characteristic correction data d1, the shooting information data d3, and the scene determination index data d6 are attached is acquired, and the information of the captured image information is acquired. Appearance image reference data d5 is generated without loss, and output of display devices such as CRT, liquid crystal display, plasma display, and hard copy image generation paper such as silver salt photographic paper, inkjet paper, thermal printer paper, etc. An optimal viewing image can be formed on the medium according to the shooting scene.

なお、第3の実施の形態では、シーン判別指標データ処理部307において、シーン判別指標データd6に基づいて撮影シーンを判別し、判別された撮影シーンに応じた鑑賞画像参照データd5を生成するための生成条件を決定することとしたが、第2の実施の形態における画像処理装置132と同様に、撮像装置52により生成された画像データファイル(図18参照)を取得し、階調変換データd7に基づいて階調変換を行うこととしてもよい。   In the third embodiment, the scene discrimination index data processing unit 307 discriminates a shooting scene based on the scene discrimination index data d6 and generates appreciation image reference data d5 corresponding to the determined shooting scene. However, the image data file (see FIG. 18) generated by the imaging device 52 is acquired and the gradation conversion data d7 is acquired, as in the case of the image processing device 132 in the second embodiment. Gradation conversion may be performed based on the above.

第1の実施の形態における撮像装置51の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the imaging device 51 in 1st Embodiment. シーン判別指標データ生成部12の内部構成を示すブロック図である。3 is a block diagram showing an internal configuration of a scene discrimination index data generation unit 12. FIG. 撮像装置51により実行されるシーン参照生データ保存処理Aを示すフローチャートである。It is a flowchart which shows the scene reference raw data preservation | save process A performed by the imaging device 51. FIG. シーン判別指標データ生成部12により実行されるシーン判別指標データ生成処理を示すフローチャートである。6 is a flowchart showing a scene determination index data generation process executed by a scene determination index data generation unit 12. 割合算出部31において実行される第1の占有率算出処理を示すフローチャートである。5 is a flowchart showing a first occupancy rate calculation process executed in a ratio calculation unit 31. 割合算出部31において実行される第2の占有率算出処理を示すフローチャートである。10 is a flowchart showing a second occupancy rate calculation process executed in the ratio calculation unit 31. 画像データの画面の外縁からの距離に応じて分割された領域n1〜n4を示す図である。It is a figure which shows the area | region n1-n4 divided | segmented according to the distance from the outer edge of the screen of image data. ステップS8で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。It is a figure which shows the data structure of the digital image data recorded on the recording medium of the storage device 16 by step S8. 第1の実施の形態における画像処理装置131の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus 131 in 1st Embodiment. シーン判別指標データ処理部107の内部構成を示すブロック図である。3 is a block diagram showing an internal configuration of a scene discrimination index data processing unit 107. FIG. 各階調調整方法に対応する階調変換曲線を示す図である。It is a figure which shows the gradation conversion curve corresponding to each gradation adjustment method. 画像処理装置131により実行される画像データ生成処理Aを示すフロー図である。It is a flowchart which shows the image data generation process A performed by the image processing apparatus 131. シーン判別指標データ処理部107により実行される画像処理条件決定処理を示すフロー図である。It is a flowchart which shows the image processing condition determination process performed by the scene discrimination | determination parameter | index data process part. 撮影シーン(順光、ストロボ、逆光、アンダー)と指標4〜6の関係を示すプロット図である。It is a plot figure which shows the relationship between an imaging | photography scene (forward light, strobe, backlight, under) and the indices 4-6. 第2の実施の形態における撮像装置52の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the imaging device 52 in 2nd Embodiment. 撮像装置52により実行されるシーン参照生データ保存処理Bを示すフローチャートである。10 is a flowchart showing scene reference raw data storage processing B executed by the imaging device 52. 階調変換データ生成部23により実行される階調変換データ生成処理を示すフローチャートである。5 is a flowchart showing a gradation conversion data generation process executed by a gradation conversion data generation unit 23. ステップS78で記憶デバイス16の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。It is a figure which shows the data structure of the digital image data recorded on the recording medium of the storage device 16 by step S78. 第2の実施の形態における画像処理装置132の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus 132 in 2nd Embodiment. 画像処理装置132により実行される画像データ生成処理Bを示すフロー図である。It is a flowchart which shows the image data generation process B performed by the image processing apparatus 132. 第3の実施の形態における画像記録装置201の概観構成を示す斜視図である。It is a perspective view which shows the general-view structure of the image recording device 201 in 3rd Embodiment. 画像記録装置201の内部構成を示すブロック図である。2 is a block diagram showing an internal configuration of an image recording apparatus 201. FIG. 画像記録装置201の画像処理部270の機能的構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of an image processing unit 270 of the image recording apparatus 201. FIG. 画像処理部270により実行される画像形成処理を示すフロー図である。FIG. 10 is a flowchart showing image forming processing executed by an image processing unit 270.

符号の説明Explanation of symbols

1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 制御部
9 撮影情報データ処理部
10 装置特性補正情報処理部
11 表示用画像データ生成部
12 シーン判別指標データ生成部
13 操作部
14 表示部
15 ヘッダ情報処理部
16 記憶デバイス
17 CCD駆動回路
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 ストロボ駆動回路
22 ストロボ
23 階調変換データ生成部
31 割合算出部
32 指標算出部
33 表色系変換部
34 ヒストグラム作成部
35 占有率演算部
51 撮像装置
52 撮像装置
101 入力部
102 ヘッダ情報解析部
103a 装置特性補正処理部
103b 処理条件テーブル
104 シーン参照画像データ生成部
105 一時記憶メモリ
106 撮影情報データ処理部
107 シーン判別指標データ処理部
108 鑑賞画像参照データ生成部
109 一時記憶メモリ
110 設定入力部
111 記憶デバイス
112 出力デバイス
113 表示デバイス
114 撮像装置特性補正処理部
115 最適化処理部
116 制御部
117 階調変換データ処理部
121 シーン判別部
122 階調調整方法決定部
123 階調調整パラメータ算出部
124 階調調整量算出部
131 画像処理装置
132 画像処理装置
201 画像記録装置
202 本体
203 マガジン装填部
204 露光処理部
205 プリント作成部
206 トレー
207 制御部
208 CRT
209 フィルムスキャナ部
210 反射原稿入力装置
211 操作部
212 情報入力手段
214 画像読込部
215 画像書込部
230 画像転送手段
231 画像搬送部
240 通信手段(入力)
241 通信手段(出力)
251 外部プリンタ
270 画像処理部
701 フィルムスキャンデータ処理部
702 反射原稿スキャンデータ処理部
703 画像データ書式解読処理部
704 画像調整処理部
705 CRT固有処理部
706 プリンタ固有処理部(1)
707 プリンタ固有処理部(2)
708 画像データ書式作成処理部
302 ヘッダ情報解析部
303a 装置特性補正処理部
303b 処理条件テーブル
304 シーン参照画像データ生成部
306 撮影情報データ処理部
307 シーン判別指標データ処理部
308 鑑賞画像参照データ生成部
271 データ蓄積手段
d1 撮像装置特性補正データ
d2 シーン参照生データ
d3 撮影情報データ
d4 シーン参照画像データ
d5 鑑賞画像参照データ
d6 シーン判別指標データ
d7 階調変換データ
1 Lens 2 Aperture 3 CCD
4 Analog processing circuit 5 A / D converter 6 Temporary storage memory 7 Image processing unit 8 Control unit 9 Shooting information data processing unit 10 Device characteristic correction information processing unit 11 Display image data generation unit 12 Scene discrimination index data generation unit 13 Operation Unit 14 Display unit 15 Header information processing unit 16 Storage device 17 CCD drive circuit 18 Focal length adjustment circuit 19 Automatic focus drive circuit 20 Motor 21 Strobe drive circuit 22 Strobe 23 Gradation conversion data generation unit 31 Ratio calculation unit 32 Index calculation unit 33 Color system conversion unit 34 Histogram creation unit 35 Occupancy rate calculation unit 51 Imaging device 52 Imaging device 101 Input unit 102 Header information analysis unit 103a Device characteristic correction processing unit 103b Processing condition table 104 Scene reference image data generation unit 105 Temporary storage memory 106 Imaging information data processing unit 107 Scene discrimination index data processing unit 108 Appreciation image reference data generation unit 109 Temporary storage memory 110 Setting input unit 111 Storage device 112 Output device 113 Display device 114 Imaging device characteristic correction processing unit 115 Optimization processing unit 116 Control unit 117 Tone conversion data Processing unit 121 Scene determination unit 122 Gradation adjustment method determination unit 123 Gradation adjustment parameter calculation unit 124 Gradation adjustment amount calculation unit 131 Image processing device 132 Image processing device 201 Image recording device 202 Main body 203 Magazine loading unit 204 Exposure processing unit 205 Print creation unit 206 Tray 207 Control unit 208 CRT
209 Film scanner unit 210 Reflected document input device 211 Operation unit 212 Information input unit 214 Image reading unit 215 Image writing unit 230 Image transfer unit 231 Image transport unit 240 Communication unit (input)
241 Communication means (output)
251 External Printer 270 Image Processing Unit 701 Film Scan Data Processing Unit 702 Reflected Original Scan Data Processing Unit 703 Image Data Format Decoding Processing Unit 704 Image Adjustment Processing Unit 705 CRT Specific Processing Unit 706 Printer Specific Processing Unit (1)
707 Printer-specific processing unit (2)
708 Image data format creation processing unit 302 Header information analysis unit 303a Device characteristic correction processing unit 303b Processing condition table 304 Scene reference image data generation unit 306 Shooting information data processing unit 307 Scene discrimination index data processing unit 308 Appreciation image reference data generation unit 271 Data storage means d1 imaging device characteristic correction data d2 scene reference raw data d3 shooting information data d4 scene reference image data d5 appreciation image reference data d6 scene discrimination index data d7 gradation conversion data

Claims (14)

撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。
Raw scene reference data generation means for generating raw scene reference data depending on the device characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data used when performing processing for correcting the device characteristics specific to the imaging apparatus to the scene reference raw data;
Shooting information data generating means for generating shooting information data which is shooting condition settings at the time of shooting;
Scene discrimination index data generating means for generating scene discrimination index data for discriminating a shooting scene;
Attached to the scene reference raw data, the reproduction auxiliary data, the shooting information data and the scene determination index data, and further recording control means for recording on the medium,
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、
前記表示用画像データを表示する表示手段と、
を備え、
前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする撮像装置。
The imaging device according to claim 1,
Display image data generating means for generating display image data based on the scene reference raw data;
Display means for displaying the display image data;
With
The scene determination index data generation means generates scene determination index data using the display image data.
撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力手段と、
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えたことを特徴とする画像処理装置。
Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And input means for inputting scene discrimination index data for discriminating the shooting scene;
Scene reference image data generating means for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
Image processing for forming an optimal viewing image on an output medium is performed on the scene reference image data generated by the scene reference image data generation unit based on the shooting information data and the scene determination index data. Appreciation image reference data generating means for generating appreciation image reference data,
An image processing apparatus comprising:
請求項3に記載の画像処理装置において、
前記鑑賞画像参照データ生成手段は、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus characterized in that the appreciation image reference data generation means determines a gradation adjustment method and an adjustment amount to be applied to the scene reference image data based on the scene discrimination index data.
撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成手段と、
前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。
Raw scene reference data generation means for generating raw scene reference data depending on the device characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data used when performing processing for correcting the device characteristics specific to the imaging apparatus to the scene reference raw data;
Shooting information data generating means for generating shooting information data which is shooting condition settings at the time of shooting;
Scene discrimination index data generating means for generating scene discrimination index data for discriminating a shooting scene;
Gradation conversion data generating means for generating gradation conversion data based on the scene determination index data;
Attached to the scene reference raw data, the reproduction auxiliary data, the shooting information data and the gradation conversion data, and further recording control means for recording on a medium,
An imaging apparatus comprising:
請求項5に記載の撮像装置において、
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成手段と、
前記表示用画像データを表示する表示手段と、
を備え、
前記シーン判別指標データ生成手段は、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする撮像装置。
The imaging apparatus according to claim 5,
Display image data generating means for generating display image data based on the scene reference raw data;
Display means for displaying the display image data;
With
The scene determination index data generation means generates scene determination index data using the display image data.
撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力手段と、
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記シーン参照画像データ生成手段により生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えたことを特徴とする画像処理装置。
Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And input means for inputting gradation conversion data;
Scene reference image data generating means for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated by the scene reference image data generation means, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the gradation conversion data. Appreciation image reference data generating means for generating appreciation image reference data,
An image processing apparatus comprising:
撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記シーン判別指標データを添付し、さらにメディアに記録する記録工程と、
を含むことを特徴とする画像処理方法。
A scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging,
A reproduction auxiliary data generation step for generating reproduction auxiliary data used when performing processing for correcting device characteristics specific to the imaging apparatus to the scene reference raw data;
A shooting information data generation step for generating shooting information data that is shooting condition settings at the time of shooting;
A scene determination index data generation step for generating scene determination index data for determining a shooting scene;
Attaching the reproduction assistance data, the shooting information data, and the scene determination index data to the scene reference raw data, and further recording the medium,
An image processing method comprising:
請求項8に記載の画像処理方法において、
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、
前記表示用画像データを表示する表示工程と、
を含み、
前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする画像処理方法。
The image processing method according to claim 8.
A display image data generation step of generating display image data based on the scene reference raw data;
A display step of displaying the display image data;
Including
In the scene discrimination index data generation step, scene discrimination index data is generated using the display image data.
撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び撮影シーンを判別するためのシーン判別指標データを入力する入力工程と、
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、
前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記シーン判別指標データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、
を含むことを特徴とする画像処理方法。
Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data which is a shooting condition setting at the time of shooting And an input process for inputting scene discrimination index data for discriminating a shooting scene,
A scene reference image data generation step for generating scene reference image data by performing processing for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated in the scene reference image data generation step, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the scene determination index data Appreciation image reference data generation step for generating appreciation image reference data by performing,
An image processing method comprising:
請求項10に記載の画像処理方法において、
前記鑑賞画像参照データ生成工程では、前記シーン判別指標データに基づいて、前記シーン参照画像データに施す階調調整方法及び調整量を決定することを特徴とする画像処理方法。
The image processing method according to claim 10,
In the appreciation image reference data generation step, a gradation adjustment method and an adjustment amount to be applied to the scene reference image data are determined based on the scene determination index data.
撮像により撮像装置の装置特性に依存したシーン参照生データを生成するシーン参照生データ生成工程と、
前記シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データを生成する再現補助データ生成工程と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成工程と、
撮影シーンを判別するためのシーン判別指標データを生成するシーン判別指標データ生成工程と、
前記シーン判別指標データに基づいて階調変換データを生成する階調変換データ生成工程と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記階調変換データを添付し、さらにメディアに記録する記録工程と、
を含むことを特徴とする画像処理方法。
A scene reference raw data generation step for generating scene reference raw data depending on device characteristics of the imaging device by imaging,
A reproduction auxiliary data generation step of generating reproduction auxiliary data used when performing processing for correcting device characteristics specific to the imaging apparatus to the scene reference raw data;
A shooting information data generation step for generating shooting information data that is shooting condition settings at the time of shooting;
A scene determination index data generation step for generating scene determination index data for determining a shooting scene;
A gradation conversion data generation step for generating gradation conversion data based on the scene determination index data;
Attaching the reproduction assistance data, the shooting information data and the gradation conversion data to the scene reference raw data, and further recording on a medium,
An image processing method comprising:
請求項12に記載の画像処理方法において、
前記シーン参照生データに基づいて表示用画像データを生成する表示用画像データ生成工程と、
前記表示用画像データを表示する表示工程と、
を含み、
前記シーン判別指標データ生成工程では、前記表示用画像データを用いてシーン判別指標データを生成することを特徴とする画像処理方法。
The image processing method according to claim 12.
A display image data generation step of generating display image data based on the scene reference raw data;
A display step of displaying the display image data;
Including
In the scene discrimination index data generation step, scene discrimination index data is generated using the display image data.
撮像装置の装置特性に依存したシーン参照生データ、当該シーン参照生データに前記撮像装置固有の装置特性を補正する処理を施す際に用いる再現補助データ、撮影時の撮影条件設定である撮影情報データ及び階調変換データを入力する入力工程と、
前記シーン参照生データに対して、前記再現補助データに基づいて、前記撮像装置固有の装置特性を補正する処理を施してシーン参照画像データを生成するシーン参照画像データ生成工程と、
前記シーン参照画像データ生成工程において生成されたシーン参照画像データに対して、前記撮影情報データ及び前記階調変換データに基づいて、出力媒体上での最適な鑑賞画像を形成するための画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成工程と、
を含むことを特徴とする画像処理方法。
Scene reference raw data depending on the device characteristics of the imaging device, auxiliary reproduction data used when processing the device characteristics specific to the imaging device is applied to the scene reference raw data, and shooting information data that is a shooting condition setting at the time of shooting And an input process for inputting gradation conversion data;
A scene reference image data generating step for generating scene reference image data by performing a process for correcting device characteristics specific to the imaging device based on the reproduction assistance data with respect to the scene reference raw data;
For the scene reference image data generated in the scene reference image data generation step, image processing for forming an optimal viewing image on an output medium based on the shooting information data and the gradation conversion data. Appreciation image reference data generation step for generating appreciation image reference data by performing,
An image processing method comprising:
JP2005013200A 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus and image processing method Pending JP2006203566A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005013200A JP2006203566A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus and image processing method
PCT/JP2005/023006 WO2006077702A1 (en) 2005-01-20 2005-12-15 Imaging device, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005013200A JP2006203566A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2006203566A true JP2006203566A (en) 2006-08-03

Family

ID=36692096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005013200A Pending JP2006203566A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP2006203566A (en)
WO (1) WO2006077702A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034227A (en) * 1999-07-15 2001-02-09 Hitachi Ltd Display device and its driving method
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
JP2009260565A (en) * 2008-04-15 2009-11-05 Canon Inc Imaging apparatus and control method thereof, and program
US8525888B2 (en) 2008-01-17 2013-09-03 Nikon Corporation Electronic camera with image sensor and rangefinding unit
JP2013225802A (en) * 2012-04-23 2013-10-31 Nikon Corp Digital camera, color conversion information generating program, color conversion program, and recording control program
JP2015023514A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Information processing apparatus, imaging apparatus, control method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3294089B2 (en) * 1995-11-21 2002-06-17 松下電器産業株式会社 Imaging device
JP3899497B2 (en) * 1997-10-24 2007-03-28 株式会社ニコン Electronic camera, electronic camera control method, and recording medium
JP4126640B2 (en) * 2000-03-08 2008-07-30 富士フイルム株式会社 Electronic camera
JP2004096500A (en) * 2002-08-30 2004-03-25 Konica Minolta Holdings Inc Image pickup apparatus, image processing apparatus, and image recording apparatus
JP2004259177A (en) * 2003-02-27 2004-09-16 Fuji Photo Film Co Ltd Image processing device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034227A (en) * 1999-07-15 2001-02-09 Hitachi Ltd Display device and its driving method
JP2009171282A (en) * 2008-01-17 2009-07-30 Nikon Corp Electronic camera
US8525888B2 (en) 2008-01-17 2013-09-03 Nikon Corporation Electronic camera with image sensor and rangefinding unit
JP2009260565A (en) * 2008-04-15 2009-11-05 Canon Inc Imaging apparatus and control method thereof, and program
JP2013225802A (en) * 2012-04-23 2013-10-31 Nikon Corp Digital camera, color conversion information generating program, color conversion program, and recording control program
JP2015023514A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Information processing apparatus, imaging apparatus, control method and program

Also Published As

Publication number Publication date
WO2006077702A1 (en) 2006-07-27

Similar Documents

Publication Publication Date Title
JP4131192B2 (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2004173010A (en) Image pickup device, image processor, image recorder, image processing method, program and recording medium
US20040247175A1 (en) Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus
JP2005026800A (en) Image processing method, imaging apparatus, image processing apparatus, and image recording apparatus
JPWO2005079056A1 (en) Image processing apparatus, photographing apparatus, image processing system, image processing method and program
WO2006123492A1 (en) Image processing method, image processing device, imaging device and image processing program
JP2004096500A (en) Image pickup apparatus, image processing apparatus, and image recording apparatus
US20040041920A1 (en) Image forming method, image processing apparatus, and image recording apparatus
JP2006203566A (en) Imaging apparatus, image processing apparatus and image processing method
JP2004096505A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
JP2004336521A (en) Image processing method, image processor, and image recording apparatus
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
WO2006077703A1 (en) Imaging device, image processing device, and image recording device
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2007312294A (en) Imaging apparatus, image processor, method for processing image, and image processing program
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
WO2006033236A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2004328530A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2004328534A (en) Image forming method, image processing apparatus and image recording apparatus
JP4623024B2 (en) Electronic camera
JP4292873B2 (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006203565A (en) Apparatus and method for processing image, and image recording apparatus
WO2006033234A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2000261825A (en) Image processing method, device therefor and recording medium