Nothing Special   »   [go: up one dir, main page]

JP2008084236A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2008084236A
JP2008084236A JP2006266226A JP2006266226A JP2008084236A JP 2008084236 A JP2008084236 A JP 2008084236A JP 2006266226 A JP2006266226 A JP 2006266226A JP 2006266226 A JP2006266226 A JP 2006266226A JP 2008084236 A JP2008084236 A JP 2008084236A
Authority
JP
Japan
Prior art keywords
image
face
area
determination
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006266226A
Other languages
Japanese (ja)
Inventor
Masatoshi Watanuki
正敏 綿貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006266226A priority Critical patent/JP2008084236A/en
Publication of JP2008084236A publication Critical patent/JP2008084236A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect the size of a person and perform image correction only when needed. <P>SOLUTION: The image processor (1) comprises a first determination means (2) for determining whether a personal face is projected in an input original image or not; an extraction means (2) for extracting a face area when projection of the personal image is determined by the first determination means (2); a second determination means (2) for determining whether the area of the face area extracted by the extraction means (2) exceeds a predetermined value or not; and an image correction means (2) for performing predetermined image correction to the original image when the determination result by the second determination means (2) is affirmative. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関し、たとえば、デジタルカメラ等の撮像装置や、画像レタッチソフト等の画像処理用アプリケーションソフトウエア、あるいは、デジタル写真等を印刷する印刷装置などに適用することができる画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and is applied to, for example, an imaging apparatus such as a digital camera, image processing application software such as image retouching software, or a printing apparatus that prints a digital photograph or the like. The present invention relates to an image processing apparatus, an image processing method, and a program.

デジタルカメラは、被写体像をデジタル画像として撮影するので、画像の加工が容易であり、たとえば、画像レタッチソフト等の画像処理用アプリケーションソフトウエアを使用し、撮影済みの画像に対して明るさや色合いあるいはシャープネス(鮮鋭度)などを所望により微調整することができる。しかし、こうした調整を手動で行うのは手間がかかって面倒であるし、また、相応のテクニックも必要であることから、万人向けであるとはいえない。   Since digital cameras capture subject images as digital images, image processing is easy.For example, image processing application software such as image retouching software is used, and brightness, color, or Sharpness (sharpness) or the like can be finely adjusted as desired. However, making these adjustments manually is cumbersome and cumbersome, and requires appropriate techniques, so it is not for everyone.

そこで、たとえば、下記の特許文献1には、画像中の人物肌領域を検出し、所要の画像補正を行う技術が開示されている。   Therefore, for example, Patent Document 1 below discloses a technique for detecting a human skin region in an image and performing a required image correction.

特開2006−179987号公報JP 2006-179987 A

しかしながら、前記の従来技術は、単に、画像中の人物肌領域を検出し、所要の画像補正を行うというものに過ぎず、人物肌領域の大きさ、すなわち、その画像に写っている人物の大きさに対する配慮が全く払われていない。したがって、前記の従来技術では、たとえば、多人数の集合写真のように、各々の人物が小さく写っている画像の場合であっても所要の画像処理が行われてしまうこととなるが、こうした小さな顔領域に対して所要の画像補正を施してたとしても、あまり大きな効果を期待できないので、処理の無駄を否めないという問題点がある。   However, the above-described prior art is merely to detect a human skin area in an image and perform a required image correction. The size of the human skin area, that is, the size of the person in the image is shown. No consideration is given to this. Therefore, in the above-described prior art, for example, even in the case of an image in which each person is small like a group photo of many people, the required image processing is performed. Even if the required image correction is performed on the face area, a great effect cannot be expected.

そこで、本発明の目的は、人物の大きさを検出して必要なときにのみ画像補正を行うことにより、無駄な処理を回避することにある。   Therefore, an object of the present invention is to avoid useless processing by detecting the size of a person and performing image correction only when necessary.

請求項1記載の発明は、入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正手段とを備えたことを特徴とする画像処理装置である。
請求項2記載の発明は、前記画像補正手段は、前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかけるとともに、該画像補正の程度を前記顔領域の面積に応じて加減することを特徴とする請求項1記載の画像処理装置である。
請求項3記載の発明は、前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、最も面積の大きな顔領域に対して所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置である。
請求項4記載の発明は、前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、最も画面中央付近で検出された顔領域に対して所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置である。
請求項5記載の発明は、前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、それら抽出された複数の顔領域に対し、最も面積の大きな顔領域を基準にして所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置である。
請求項6記載の発明は、前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、それら抽出された複数の顔領域に対し、最も画面中央付近で検出された顔領域を基準にして所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置である。
請求項7記載の発明は、さらに、前記第2判定手段の判定結果が肯定の場合に画像拡大用の第1速度と画像移動用の第2速度とを算出する算出手段と、前記元画像を表示手段に表示させると共に該表示手段に表示中の前記元画像の大きさを前記第1速度に従って徐々に拡大させ且つ該元画像中の前記顔領域の中心が該表示手段の画面の中心に略一致するように前記元画像の表示位置を前記第2速度に従って徐々に移動させる第1表示制御手段と、前記第1表示制御手段における画像の拡大と画像の移動が完了してから所定時間の経過後に前記表示手段に表示されている画像の大きさを元画像の大きさに戻す第2表示制御手段とを備えたことを特徴とする請求項1乃至請求項6いずれかに記載の画像処理装置である。
請求項8記載の発明は、前記第2表示制御手段は、前記第1及び第2速度に従って前記表示手段に表示されている画像の大きさを元画像の大きさに戻すことを特徴とする請求項7記載の画像処理装置である。
請求項9記載の発明は、入力された元画像に人物の顔が写っているか否かを判定する第1判定工程と、前記第1判定工程によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出工程と、前記抽出工程によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定工程と、前記第2判定工程の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正工程とを含むことを特徴とする画像処理方法である。
請求項10記載の発明は、コンピュータを、入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正手段として機能させるためのプログラムである。
According to the first aspect of the present invention, it is determined by a first determination unit that determines whether or not a person's face is reflected in the input original image, and that the person's face is reflected by the first determination unit. The extraction means for extracting the face area in this case, the second determination means for determining whether the area of the face area extracted by the extraction means exceeds a predetermined value, and the determination result of the second determination means is positive In this case, the image processing apparatus includes image correction means for performing predetermined image correction on the original image.
According to the second aspect of the present invention, the image correction unit applies a predetermined image correction to the original image when the determination result of the second determination unit is positive, and determines the degree of the image correction in the face region. The image processing apparatus according to claim 1, wherein the image processing apparatus adjusts according to the area of the image.
The invention according to claim 3 is characterized in that the image correcting means applies predetermined image correction to the face area having the largest area when a plurality of face areas are detected by the extracting means. An image processing apparatus according to claim 1 or 2.
According to a fourth aspect of the present invention, the image correcting unit performs predetermined image correction on the face region detected most near the center of the screen when a plurality of face regions are detected by the extracting unit. 3. An image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that
According to a fifth aspect of the present invention, when a plurality of face regions are detected by the extracting unit, the image correcting unit is configured to use a face region having the largest area as a reference with respect to the extracted face regions. 3. The image processing apparatus according to claim 1, wherein predetermined image correction is performed.
According to a sixth aspect of the present invention, when the image correction means detects a plurality of face areas by the extraction means, the face area detected most near the center of the screen with respect to the extracted face areas. The image processing apparatus according to claim 1, wherein predetermined image correction is performed with reference to.
The invention according to claim 7 further includes a calculating means for calculating a first speed for image enlargement and a second speed for image movement when the determination result of the second determination means is affirmative, and the original image The size of the original image displayed on the display means is gradually enlarged according to the first speed, and the center of the face area in the original image is substantially the center of the screen of the display means. First display control means for gradually moving the display position of the original image according to the second speed so as to match, and elapse of a predetermined time after completion of image enlargement and image movement in the first display control means 7. The image processing apparatus according to claim 1, further comprising second display control means for returning the size of the image displayed on the display means to the size of the original image later. It is.
The invention according to claim 8 is characterized in that the second display control means returns the size of the image displayed on the display means to the size of the original image according to the first and second speeds. Item 8. The image processing device according to Item 7.
In the invention according to claim 9, it is determined that the person's face is reflected in the first determination step for determining whether or not the person's face is reflected in the input original image, and the first determination step. An extraction step for extracting the face region in the case, a second determination step for determining whether the area of the face region extracted by the extraction step exceeds a predetermined value, and the determination result of the second determination step is positive And an image correction step of applying a predetermined image correction to the original image.
The invention according to claim 10 is that the computer includes a first determination unit that determines whether or not a person's face is reflected in the input original image, and the person's face is captured by the first determination unit. Extraction means for extracting the face area when determined, second determination means for determining whether the area of the face area extracted by the extraction means exceeds a predetermined value, and determination by the second determination means When the result is affirmative, the program is a program for causing the original image to function as an image correction unit that performs predetermined image correction.

本発明では、人物の大きさを検出して必要なときにのみ画像補正を行うようにしたので、無駄な処理を回避することができる。   In the present invention, since the size of a person is detected and image correction is performed only when necessary, useless processing can be avoided.

以下、本発明の実施形態を、デジタルカメラへの適用を例にして、図面を参照しながら説明する。なお、以下の説明における様々な細部の特定ないし実例および数値や文字列その他の記号の例示は、本発明の思想を明瞭にするための、あくまでも参考であって、それらのすべてまたは一部によって本発明の思想が限定されないことは明らかである。また、周知の手法、周知の手順、周知のアーキテクチャおよび周知の回路構成等(以下「周知事項」)についてはその細部にわたる説明を避けるが、これも説明を簡潔にするためであって、これら周知事項のすべてまたは一部を意図的に排除するものではない。かかる周知事項は本発明の出願時点で当業者の知り得るところであるので、以下の説明に当然含まれている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings, taking application to a digital camera as an example. It should be noted that the specific details or examples in the following description and the illustrations of numerical values, character strings, and other symbols are only for reference in order to clarify the idea of the present invention, and the present invention may be used in whole or in part. Obviously, the idea of the invention is not limited. In addition, a well-known technique, a well-known procedure, a well-known architecture, a well-known circuit configuration, and the like (hereinafter, “well-known matter”) are not described in detail, but this is also to simplify the description. Not all or part of the matter is intentionally excluded. Such well-known matters are known to those skilled in the art at the time of filing of the present invention, and are naturally included in the following description.

図1は、デジタルカメラの構成図である。この図において、デジタルカメラ1は、CPU2やROM3及びRAM4並びに不図示の各種周辺回路等を含む典型的には1チップ化されたマイクロプロセッサからなる制御部5と、この制御部5の周囲に適宜に配置された、デジタルカメラに必要な、少なくとも、以下の各部を備えて構成されている。   FIG. 1 is a configuration diagram of a digital camera. In this figure, a digital camera 1 includes a control unit 5 composed of a microprocessor, typically a one-chip microprocessor, including a CPU 2, a ROM 3, a RAM 4, various peripheral circuits (not shown), and the like. And at least the following units necessary for the digital camera.

特に必須ではないが、ストロボ発光部6及びストロボ駆動部7は、制御部5からのコントロールにより、撮影時の明るさが不足するなどの特定条件下において、ストロボ発光部6から被写体8に向けて所定光量または被写体8までの距離に対応して調光された光量のストロボ光9を発光する。   Although not particularly essential, the strobe light emitting unit 6 and the strobe driving unit 7 are directed from the strobe light emitting unit 6 toward the subject 8 under specific conditions such as insufficient brightness at the time of photographing under the control of the control unit 5. A strobe light 9 having a light amount adjusted according to a predetermined light amount or a distance to the subject 8 is emitted.

撮像部10は、撮影レンズや絞り機構、焦点合わせ機構(及び必要であればズーム機構)を含む光学系11と、CCDセンサまたはCMOSセンサなどの二次元イメージセンサからなる撮像デバイス12とで構成される。撮像部10の動作(絞りの大きさやズーム倍率、つまり撮影画角αの調整並びに焦点合わせ、及び、撮像デバイス12の露光並びに読み出し動作)は、制御部5からの撮影動作指示を受けた撮像制御部13からのコントロールによって制御される。制御部5からの撮影動作指示は、撮影構図確認用(いわゆるスルー画像用)や動画撮影用などの所定フレームレート(たとえば、毎秒数十乃至は数百枚のフレームレート)のフレーム画像読み出し動作指示、高解像度の静止画撮影動作指示、並びに、それらの動作に必要な絞り値設定やズーム倍率設定等の各種事前動作指示などを含む。   The imaging unit 10 includes an optical system 11 including a photographing lens, a diaphragm mechanism, a focusing mechanism (and a zoom mechanism if necessary), and an imaging device 12 including a two-dimensional image sensor such as a CCD sensor or a CMOS sensor. The The operation of the imaging unit 10 (adjustment of the aperture size and zoom magnification, that is, the adjustment and focusing of the imaging angle of view α, and the exposure and readout operation of the imaging device 12) is an imaging control that receives an imaging operation instruction from the control unit 5. It is controlled by the control from the unit 13. The photographing operation instruction from the control unit 5 is a frame image reading operation instruction at a predetermined frame rate (for example, several tens to several hundreds of frames per second) for photographing composition confirmation (so-called through image) or moving image photographing. , High-resolution still image shooting operation instructions, and various prior operation instructions such as aperture value setting and zoom magnification setting necessary for these operations.

撮像部10からは、上記の制御部5からの撮影動作指示に応答して、撮影構図確認用や動画用のフレーム画像が上記のフレームレートで周期的に読み出され、あるいは、高解像度の静止画フレーム画像が読み出される。これらのフレーム画像は、画像処理部14において、デジタル信号に変換されると共に、所定の画像処理(たとえば、ホワイトバランスやガンマ補正処理等)が施された後、制御部5に取り込まれる。   In response to a shooting operation instruction from the control unit 5, the imaging unit 10 periodically reads frame images for shooting composition confirmation and moving images at the above frame rate, or a high-resolution still image. A picture frame image is read out. These frame images are converted into digital signals by the image processing unit 14 and are subjected to predetermined image processing (for example, white balance and gamma correction processing), and then taken into the control unit 5.

操作部15は、デジタルカメラ1のユーザ操作用入力インターフェースに必要な各種操作子、たとえば、電源スイッチ、画像撮影と画像再生のモード切替スイッチ、静止画撮影や動画撮影を行うためのシャッタボタン、各種設定メニューを表示するためのメニューボタン、そのメニュー項目を選択したり、画像再生モード時に再生を希望する画像を選択したりするための選択ボタン等を含む。   The operation unit 15 includes various operators necessary for an input interface for user operation of the digital camera 1, such as a power switch, a mode switch for image capturing and image reproduction, a shutter button for performing still image capturing and moving image capturing, A menu button for displaying a setting menu, a selection button for selecting the menu item, and selecting an image desired to be reproduced in the image reproduction mode are included.

表示制御部16は、制御部5から適宜に出力される様々な表示データ、たとえば、スルー画像用表示データ、メニュー画面用表示データ、画像の再生画面用表示データなどを所定の表示形式に変換して、液晶ディスプレイなどの小型(たとえば、2〜4インチ程度)の平面表示デバイスで構成された表示部17に出力する。なお、この表示部17は、タッチパネル18付きのものであり、タッチ検出部19は、タッチパネル18への指またはペン等のタッチ座標を検出して、その検出結果を制御部5に出力する。   The display control unit 16 converts various display data appropriately output from the control unit 5, for example, through-image display data, menu screen display data, image reproduction screen display data, and the like into a predetermined display format. Then, the data is output to the display unit 17 constituted by a small (for example, about 2 to 4 inches) flat display device such as a liquid crystal display. The display unit 17 is provided with a touch panel 18, and the touch detection unit 19 detects touch coordinates such as a finger or a pen on the touch panel 18 and outputs the detection result to the control unit 5.

画像記憶部20は、フラッシュメモリ、ハードディスクまたは光ディスク等の不揮発性(電源をオフにしてもその記憶内容を失わない)の大容量記憶装置によって構成されており、主に、このデジタルカメラ1で撮影された画像を蓄積保存するために用いられる。なお、蓄積保存される各画像は、たとえば、JPEG形式等の圧縮ファイル、または、非圧縮の生データファイル(いわゆるRAWファイル)である。また、それら画像の保存領域は、ファイルシステムにおけるルート直下であってもよいし、あるいは、そのルート直下に適宜に作成された1階層ないしは多階層構造のフォルダであってもよい。加えて、この画像記憶部20は、固定型であってもよく、あるいは、デジタルカメラ1から取り外して、たとえば、不図示のパーソナルコンピュータに装着可能な汎用形式のメモリデバイスであってもよい。   The image storage unit 20 is configured by a non-volatile mass storage device such as a flash memory, a hard disk, or an optical disk (the stored contents are not lost even when the power is turned off). Used to store and store the generated images. Each image stored and stored is, for example, a compressed file such as a JPEG format or an uncompressed raw data file (so-called RAW file). The storage area for these images may be directly under the root in the file system, or may be a folder having a single hierarchy or a multi-hierarchy structure appropriately created immediately under the root. In addition, the image storage unit 20 may be a fixed type, or may be a general-purpose memory device that can be detached from the digital camera 1 and attached to a personal computer (not shown), for example.

外部インターフェース21は、たとえば、USBやIEEE1394などの汎用プロトコルに対応したデータ入出力部であり、この外部インターフェース21を介し、必要に応じて、不図示のパーソナルコンピュータ等との間で撮影済み画像の転送(画像記憶部20に蓄積保存されている画像をパーソナルコンピュータに転送する)や読み込み(パーソナルコンピュータから画像記憶部20に画像を読み込む)を行うことができるものである。   The external interface 21 is, for example, a data input / output unit that supports a general-purpose protocol such as USB or IEEE 1394. The external interface 21 can capture a captured image with a personal computer (not shown) or the like as needed. Transfer (transfer images stored in the image storage unit 20 to a personal computer) and read (read images from the personal computer to the image storage unit 20) can be performed.

電源部22は、充電式の二次電池あるいは使い捨て型の一次電池を含み、制御部5をはじめとした、デジタルカメラ1の各部の動作に必要な電源電圧を供給する。   The power supply unit 22 includes a rechargeable secondary battery or a disposable primary battery, and supplies a power supply voltage necessary for the operation of each unit of the digital camera 1 including the control unit 5.

<第1の実施形態>
次に、第1の実施形態におけるデジタルカメラ1の特有の動作について説明する。第1の実施形態のデジタルカメラ1は、静止画や動画を撮影してその撮影画像を、たとえば、JPEG形式やRAW形式の画像ファイルで画像記憶部20に蓄積保存することができると共に、その蓄積保存画像のうち所望の画像を選択して表示部17に再生表示でき、且つ、撮影画像(あるいは画像記憶部20に蓄積保存済みの画像)に人物が写っている場合に、その人物の見栄え改善を目的とした所定の画像補正を行うことができるものである。
<First Embodiment>
Next, operations unique to the digital camera 1 in the first embodiment will be described. The digital camera 1 according to the first embodiment can shoot still images and moving images and store and store the captured images in the image storage unit 20 as, for example, JPEG or RAW image files. When a desired image can be selected from the stored images and reproduced and displayed on the display unit 17 and a person is reflected in the captured image (or an image stored and stored in the image storage unit 20), the appearance of the person is improved. The predetermined image correction for the purpose can be performed.

以下、詳しく説明する。
図2は、RAM4の記憶空間を示す概念図である。RAM4は、制御部5の作業エリア(ROM3に格納されている制御プログラムをロードしてCPU2で実行するためのエリア)として用いられると共に、上記の“所定の画像補正”を行うための記憶空間としても用いられる。このため、図2に示すように、RAM4には、少なくとも二つの画像記憶領域4a、4bが確保されている。第一の画像記憶領域4aは、撮影画像(所定の画像補正の対象画像であって、とりわけ画質がよい高解像度の静止画像)の記憶領域であり、第二の画像記憶領域4bは、その撮影画像の複製画像の記憶領域である。以下、説明の便宜上、第一の記憶領域4aに記憶される画像(撮影画像)を“元画像”といい、第二の記憶領域4bに記憶される画像(撮影画像の複製画像)を“複製画像”ということにする。
This will be described in detail below.
FIG. 2 is a conceptual diagram showing the storage space of the RAM 4. The RAM 4 is used as a work area (an area for loading a control program stored in the ROM 3 and executed by the CPU 2) of the control unit 5, and as a storage space for performing the above-mentioned “predetermined image correction”. Is also used. Therefore, as shown in FIG. 2, the RAM 4 has at least two image storage areas 4a and 4b. The first image storage area 4a is a storage area for a photographed image (a target image for predetermined image correction and a high-resolution still image with particularly good image quality), and the second image storage area 4b is a photographed image. This is a storage area for a duplicate image of an image. Hereinafter, for convenience of explanation, an image (captured image) stored in the first storage area 4a is referred to as an “original image”, and an image (copy image of the captured image) stored in the second storage area 4b is “replicated”. It will be called “image”.

第1の実施形態においては、静止画を撮影して、第一の記憶領域4aにその撮影画像(元画像)を記憶すると、まず、その元画像に人物の顔が写っているか否かを判定する。そして、写っていない場合は、上記の“所定の画像補正”を行わずに通常どおり、その元画像を、たとえば、JPEG画像に変換して画像記憶部20に蓄積保存するが、その元画像に人物の顔が写っている場合には、(イ)元画像の複製画像を第二の記憶領域4bに格納し、(ロ)その複製画像に「ガウスぼかし処理」をかけ、(ハ)ガウスぼかし処理後の複製画像と元画像とをスクリーン合成して、その合成画像で第一の記憶領域4aに記憶されている元画像を更新した後、更新された元画像を、たとえば、JPEG画像に変換して画像記憶部20に蓄積保存するという特徴的な動作を実行する。   In the first embodiment, when a still image is captured and the captured image (original image) is stored in the first storage area 4a, it is first determined whether or not a person's face is reflected in the original image. To do. If the image is not captured, the original image is converted into a JPEG image, for example, and stored in the image storage unit 20 as usual without performing the above-described “predetermined image correction”. When a person's face is reflected, (a) a duplicate image of the original image is stored in the second storage area 4b, (b) a “Gaussian blurring process” is applied to the duplicated image, and (c) Gaussian blurring is performed. The composite image after processing and the original image are screen-synthesized, and the original image stored in the first storage area 4a is updated with the composite image, and then the updated original image is converted into, for example, a JPEG image Then, a characteristic operation of storing and saving in the image storage unit 20 is executed.

ここで、ガウスぼかしとは、画像を構成する画素(ピクセル)の情報を周囲に拡散することによって、画像にボケ効果(またはぼかし効果)を出す処理のことをいい、拡散の範囲や強さを調節することにより、ボケの効果を強くしたり弱くしたりすることができるものである。なお、ここでは、ガウスぼかしとしているが、これに限定されず、人物を美しくするための画像処理であれば如何なるものであってもよい。   Here, Gaussian blur is a process that produces a blur effect (or blur effect) on an image by diffusing the information of the pixels that make up the image to the surroundings. By adjusting, the effect of blur can be strengthened or weakened. Note that although Gaussian blur is used here, the present invention is not limited to this, and any image processing may be used as long as the image processing is performed to make a person beautiful.

図3は、ガウスぼかしによるボケの効果を説明する図である。この図において、(a)は元画像23、(b)はガウスぼかしを施した複製画像24、(c)はガウスぼかし後の複製画像24を合成した元画像(以下、合成画像25という。)である。なお、これらの画像は、ディザ加工を施したモノクロ画像であるが、これは、図解上の都合であって、実際には高解像度のカラー画像である。   FIG. 3 is a diagram for explaining the effect of blur caused by Gaussian blur. In this figure, (a) is an original image 23, (b) is a duplicate image 24 with Gaussian blurring, and (c) is an original image (hereinafter referred to as a composite image 25) obtained by synthesizing the duplicated image 24 after Gaussian blurring. It is. Note that these images are monochrome images that have undergone dithering, but this is for convenience of illustration and is actually a high-resolution color image.

さて、(a)の元画像23と(b)のガウスぼかしを施した複製画像24とを見比べると、ピントが合った鮮鋭な元画像23に対して、ガウスぼかしを施した複製画像24は被写体の輪郭線がにじむような感じでボケており、あたかもソフトフォーカスレンズや、フォギーフィルター等の特殊フィルターを用いて撮影されたときの画像のような効果を醸し出している。   When comparing the original image 23 in (a) and the duplicate image 24 with Gaussian blurring in (b), the duplicated image 24 with Gaussian blurring on the sharp original image 23 in focus is the subject. The image is blurred as if it were blurred, producing an effect that looks as if it were shot using a special filter such as a soft focus lens or a foggy filter.

このようなボケ効果を出す撮影テクニックは、上記のトフォーカスレンズや特殊フィルター等を用いた、とりわけ女性のポートレート写真において多用されているが、第1の実施形態においては、単にボケ効果だけを得るのではなく、ボケ効果に伴うピントの甘さを改善するように工夫している点にもポイントがある。   The shooting technique for producing such a blur effect is often used particularly in a portrait photograph of a woman using the above-described focus lens, special filter, etc. In the first embodiment, only the blur effect is used. There is also a point in that it is devised to improve the sweetness of the focus that accompanies the bokeh effect rather than gaining.

すなわち、画像のボケ効果だけを得るのであれば、(b)のガウスぼかしを施した複製画像24だけで充分である。つまり、このガウスぼかしを施した複製画像24で第一の記憶領域4aに記憶されている元画像を上書き更新すればよい。しかし、ガウスぼかしを施しただけでは、いわゆる“ピントの芯がない”甘い画像になってしまいやすく、作品としては不適当である。   That is, if only the blurring effect of the image is to be obtained, only the duplicate image 24 with the Gaussian blur of (b) is sufficient. That is, the original image stored in the first storage area 4a may be overwritten and updated with the duplicate image 24 subjected to the Gaussian blur. However, simply applying Gaussian blur tends to produce a so-called “no-focus” sweet image, which is inappropriate as a work.

そこで、この第1の実施形態では、ガウスぼかし処理後の複製画像24と元画像23とをスクリーン合成して、その合成画像で第一の記憶領域4aに記憶されている元画像23を更新するようにしている。(c)の合成画像25は、このようにして更新されたものである。(b)のガウスぼかしを施した複製画像24と(c)の合成画像25とを見比べると、ピントの甘さが改善されていることが認められる。したがって、このようにして、ガウスぼかしを施した複製画像24と元画像23とを合成して、第一の記憶領域4aに記憶されている元画像23を更新することにより、所定のボケ効果を出しつつも、ピントの甘さを改善して作品として充分に耐えうる品質の合成画像25を生成することができるのである。   Therefore, in the first embodiment, the duplicate image 24 after the Gaussian blurring process and the original image 23 are screen-synthesized, and the original image 23 stored in the first storage area 4a is updated with the synthesized image. I am doing so. The composite image 25 of (c) has been updated in this way. Comparing the duplicate image 24 with Gaussian blur (b) and the synthesized image 25 (c), it is recognized that the sweetness of the focus is improved. Therefore, by combining the duplicate image 24 and the original image 23 that have been Gaussian-blured in this way, and updating the original image 23 stored in the first storage area 4a, a predetermined blur effect can be obtained. It is possible to improve the sweetness of the focus and to produce a composite image 25 with a quality that can be sufficiently endured as a work.

以下、第1の実施形態における画像補正について、具体的に説明する。
図4は、制御部5のCPU2で実行される制御プログラムのフローチャートを示す図である。このフローチャートでは、まず、画像データ(図3(a)の元画像23)を取得する(ステップS1)。次いで、その元画像23の中から顔を検出する(ステップS2)。この顔検出については、たとえば、原画像から肌色データを抽出し、肌色範囲と判断された測光点のクラスタを顔とする方法(特開昭52−156624号公報、特開昭53−145621号公報、特開昭53−145622号公報)、測光したデータをH(色相)とS(彩度)に変換してH、Sの二次元ヒストグラムを作成し、このヒストグラムを単峰の山に分割し、原画像の各画素が分割された山のどれに属するかを判断して画素を分割することにより、顔の候補領域を抽出し、顔候補領域の輪郭と内部構造から人の顔か否かを判定する方法(特開平4−346333号公報)、複雑な背景下において大きさや位置及び方向が未知な顔を検出し、その顔の方向を推定する方法(「背景と顔の方向に依存しない顔の検出と顔方向の推定」、荒木他、財団法人電子情報通信学会、信学技報PRMU2001−217 pp.87−94,2002−01)などをはじめとして、様々なものが知られているので、これらの公知技術を単独でまたは任意に組み合わせて利用すればよい。
The image correction in the first embodiment will be specifically described below.
FIG. 4 is a flowchart of a control program executed by the CPU 2 of the control unit 5. In this flowchart, first, image data (original image 23 in FIG. 3A) is acquired (step S1). Next, a face is detected from the original image 23 (step S2). As for this face detection, for example, skin color data is extracted from an original image, and a cluster of photometric points determined as a skin color range is used as a face (Japanese Patent Laid-Open Nos. 52-156624 and 53-145621). , JP-A-53-145622), converting photometric data into H (hue) and S (saturation) to create a two-dimensional histogram of H and S, and dividing this histogram into single peaks. The candidate area of the face is extracted by determining which of the divided peaks each pixel of the original image belongs to and dividing the pixel, and whether the face is a human face from the contour and internal structure of the face candidate area (Japanese Unexamined Patent Publication No. 4-346333), a method of detecting a face whose size, position, and direction are unknown under a complicated background and estimating the face direction (“independent of background and face direction” Face detection and face direction estimation ", Since various things are known, such as Ki et al., The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report PRMU 2001-217 pp. 87-94, 2002-01), these known technologies can be used alone or Any combination may be used.

このようにして顔検出を行うと、次に、顔検出ありか否かを判定する(ステップS3)。そして、顔検出なしの場合には、人物が写っていない、たとえば、風景などを撮影した画像であると判断してフローチャートを終了し、顔検出ありの場合には、次に、最大の顔領域が所定の面積以上であるか否かを判定する(ステップS4)。ここで、“顔領域”とは、先のステップS2で検出された顔の大きさ、正確には顔とみなされる部分の画素の集まりの大きさ(面積)のことをいう。なお、先のステップS2で検出された顔の数が複数の場合があり得る。つまり、一枚の元画像23に複数の人物が写っている場合である。上記の“最大の顔領域”は、この複数の人物の顔のうち最も面積が大きい顔のことをいう。以降の補正処理では、この最大の顔領域を基準にして所定の補正処理(ガウスぼかし処理)を行っている。これは、最大の顔領域で写された人物は、その画像における主たる被写体(中心的な被写体)ということができるからであり、その主たる被写体を基準にしてガウスぼかし処理を行うのが、最も合理的な考え方であるからである。   Once face detection is performed in this way, it is next determined whether or not face detection is present (step S3). If no face is detected, it is determined that the person is not captured, for example, an image obtained by shooting a landscape, and the flowchart ends. If there is face detection, the largest face area is displayed next. Is determined to be greater than or equal to a predetermined area (step S4). Here, the “face region” refers to the size of the face detected in the previous step S2, more precisely the size (area) of a group of pixels in a portion regarded as a face. Note that there may be a plurality of faces detected in the previous step S2. That is, this is a case where a plurality of persons are shown in one original image 23. The “maximum face area” refers to the face having the largest area among the faces of the plurality of persons. In the subsequent correction process, a predetermined correction process (Gaussian blur process) is performed on the basis of the maximum face area. This is because the person photographed in the largest face area can be said to be the main subject (central subject) in the image, and it is most reasonable to perform Gaussian blurring on the basis of the main subject. This is because of the idea.

ステップS4において、もし、最大の顔領域が所定の面積以上でなかった場合は、元画像23に写っている人物の顔が小さく、たとえば、風景写真に偶然に写り込んでしまった人物、あるいは、多人数の集合写真などであると判断し、このような場合は、所定の補正処理(ガウスぼかし処理)を行う必要がないので、フローチャートを終了する。   In step S4, if the maximum face area is not equal to or larger than the predetermined area, the face of the person shown in the original image 23 is small, for example, a person accidentally reflected in a landscape photo, The group photograph is determined to be a group photo of a large number of people. In such a case, there is no need to perform a predetermined correction process (Gaussian blurring process), so the flowchart ends.

一方、ステップS4において、最大の顔領域が所定の面積以上であった場合は、以下の補正処理を実行する。すなわち、最大の顔領域の面積(以下、Zとする。)を取得し(ステップS5)、次いで、第一の記憶領域4aに記憶されている元画像23を第二の記憶領域4bにコピーして、元画像23の複製画像24を作成する(ステップS6)。そして、その複製画像23に対して、最大の顔領域の面積Zに対応した強さのガウスぼかし処理を施し(ステップS7)、ガウスぼかしを施した複製画像24と元画像23とをスクリーン合成して、第一の記憶領域4aに記憶されている元画像23を更新(ステップS8)して、合成画像25とした後、フローチャートを終了する。   On the other hand, if the maximum face area is greater than or equal to the predetermined area in step S4, the following correction process is executed. That is, the area of the maximum face area (hereinafter referred to as Z) is acquired (step S5), and then the original image 23 stored in the first storage area 4a is copied to the second storage area 4b. Thus, a duplicate image 24 of the original image 23 is created (step S6). The duplicate image 23 is subjected to Gaussian blur processing having a strength corresponding to the area Z of the maximum face region (step S7), and the duplicate image 24 and the original image 23 subjected to Gaussian blur are screen-synthesized. Then, the original image 23 stored in the first storage area 4a is updated (step S8) to form the composite image 25, and then the flowchart ends.

たとえば、次式(1)は、ガウスぼかしに利用可能な二次元ガウス関数の式である。   For example, the following expression (1) is an expression of a two-dimensional Gaussian function that can be used for Gaussian blurring.

Figure 2008084236
Figure 2008084236

(x,y):注目画素の座標
G:その座標に対する補正値
π:円周率
e:自然対数の底
σ:ぼかし効果の係数
(X, y): coordinates of the target pixel
G: Correction value for the coordinates
π: Pi ratio
e: base of natural logarithm
σ: Coefficient of blur effect

上式(1)において、係数σの値を最大顔領域の面積Zに依存して決定する。また、ステップS8におけるスクリーン合成は、背景と前景の値をそれぞれbg、fg(ただし、0≦bg、fg≦1)とすると共に、前景の不透明度をα(ただし、0<α<1)とすると、次式(2)で求めることができるが、この不透明度αの値も最大顔領域の面積Zに依存して決定する。   In the above equation (1), the value of the coefficient σ is determined depending on the area Z of the maximum face region. In the screen composition in step S8, the background and foreground values are bg and fg (where 0 ≦ bg and fg ≦ 1), respectively, and the foreground opacity is α (where 0 <α <1). Then, although it can obtain | require by following Formula (2), the value of this opacity (alpha) is also decided depending on the area Z of the largest face area | region.

Figure 2008084236
Figure 2008084236

図5は、顔領域の面積(Z)とガウスぼかし効果の対応関係図である。この図に示すように、顔領域の面積(Z)が大きくなるほど、ガウスぼかしの度合いを強くする。具体的には、上式(1)の係数σの値を大きくする。これは、たとえば、アップで撮影された顔に対しては強めのガウスぼかしの方が綺麗に見えるからであり、その逆に小さく写った顔に対してはほどほどに抑えたガウスぼかしの方が綺麗に見えるからである。なお、この図では、直線的な対応関係としているが、これに限定されない。線形的な対応関係であっても構わない。要は、顔領域の面積(Z)が大きくなるほど、ガウスぼかしの度合いを強くするような対応関係になっていればよい。このことは、前記のスクリーン合成における前景の不透明度αについても同様である。すなわち、不透明度αの値を最大顔領域の面積Zに依存して決定する際に、顔領域の面積(Z)が大きくなるほど、不透明度αを増やすようにすればよい。   FIG. 5 is a correspondence diagram between the area (Z) of the face region and the Gaussian blur effect. As shown in this figure, the degree of Gaussian blurring increases as the area (Z) of the face region increases. Specifically, the value of the coefficient σ in the above equation (1) is increased. This is because, for example, a strong Gaussian blur looks better for a face shot up, and conversely, a moderately suppressed Gaussian blur is more beautiful for a small face. Because it looks like. In addition, in this figure, although it is set as the linear correspondence, it is not limited to this. It may be a linear correspondence. In short, it is only necessary to have a correspondence relationship that increases the degree of Gaussian blur as the area (Z) of the face region increases. The same applies to the opacity α of the foreground in the screen composition. That is, when the value of the opacity α is determined depending on the area Z of the maximum face region, the opacity α may be increased as the area (Z) of the face region increases.

また、ここでは、最大顔領域の面積に依存して所定の画像処理を行なったが、これに限らず、最も中心に近い位置にある顔の面積に依存して所定の画像処理を行なっても良い。
また、最大顔領域(その周囲を含んでも良い)にのみ所定の画像処理を行なうようにしても良い。
また、最も中心に近い位置にある顔領域(その周囲を含んでも良い)にのみ所定の画像処理を行なうようにしても良い。
Further, here, the predetermined image processing is performed depending on the area of the maximum face area. However, the present invention is not limited to this, and the predetermined image processing may be performed depending on the area of the face closest to the center. good.
In addition, predetermined image processing may be performed only on the maximum face area (which may include the surrounding area).
In addition, predetermined image processing may be performed only on the face region (which may include the periphery thereof) located closest to the center.

以上のとおりであるから、第1の実施形態によれば、元画像23から顔を検出して、その顔領域の面積Zを取り出し、その面積Zに応じて複製画像24に対するガウスぼかしの度合いを加減すると共に、ガウスぼかしを施した複製画像24と元画像23とをスクリーン合成して合成画像25とするので、美観に優れたソフトフォーカスの合成画像25を得ることができる。したがって、人物に対してソフトフォーカスをかけて美的感覚に優れた画像を得るようにすることができ、さらに、人物の大きさを検出して必要なときにのみ画像補正を行うことにより、無駄な処理を回避することができる。加えて、ガウスぼかしを施した複製画像24と元画像23とをスクリーン合成するので、単なるソフトフォーカス効果だけでなく、ピントの芯も失わない、作品として優れた合成画像25を得ることができる。   As described above, according to the first embodiment, a face is detected from the original image 23, the area Z of the face region is extracted, and the degree of Gaussian blurring on the duplicate image 24 is determined according to the area Z. Since the duplicate image 24 with Gaussian blurring and the original image 23 are combined on the screen to form a composite image 25, a soft-focus composite image 25 with excellent aesthetics can be obtained. Therefore, it is possible to obtain an image with an excellent aesthetic sense by applying a soft focus to a person, and further, by detecting the size of the person and performing image correction only when necessary, it is useless. Processing can be avoided. In addition, since the duplicate image 24 subjected to Gaussian blur and the original image 23 are screen-synthesized, it is possible to obtain an excellent composite image 25 as a work that not only loses the focus of focus but also loses the focus.

図6は、第1の実施形態の好ましい改良例のフローチャートを示す図である。このフローチャートは、図4のステップS8の後に追加されて実行される。この追加されたフローチャートでは、顔領域から“口(くち)”の位置を取得し(ステップS9)、口領域の赤味が強い部分(つまり唇の部分)の赤味を強調する(ステップS10)。そして、他の未処理の口領域の有無を判定し(ステップS11)、まだ未処理の口領域があれば、上記のステップS9以降を繰り返す。   FIG. 6 is a diagram showing a flowchart of a preferred improvement of the first embodiment. This flowchart is added and executed after step S8 of FIG. In this added flowchart, the position of the “mouth” is acquired from the face area (step S9), and the redness of the mouth area where the redness is strong (that is, the lip portion) is emphasized (step S10). . Then, the presence / absence of another unprocessed mouth area is determined (step S11), and if there is still an unprocessed mouth area, step S9 and the subsequent steps are repeated.

図7は、改良例を適用した合成画像25を示す図である。この合成画像25には、二人の女性が写っているので、口の領域は二つである。なお、この図では、右側の女性の口領域26と、その口領域26内の赤味が強い部分(唇の部分)27を代表して示している。図6のフローチャートを実行することにより、これら二人の女性の唇の色をより赤味が増すように強調して、健康的な絵に補正することができる。ちなみに、ここでは赤味を補正しているが、これに限らず、人物(特に女性)を美しく見せるための画像補正であれば如何なるものであってもよい。たとえば、マゼンタを若干量強くしてもよい。   FIG. 7 is a diagram illustrating a composite image 25 to which the improved example is applied. Since two women are shown in this composite image 25, there are two mouth areas. In this figure, the right female mouth area 26 and a strong reddish part (lip part) 27 in the mouth area 26 are shown as a representative. By executing the flowchart of FIG. 6, the lips of these two women can be emphasized so that the lips are more reddish and corrected to a healthy picture. Incidentally, although the redness is corrected here, the present invention is not limited to this, and any image correction may be used as long as it makes a person (particularly a woman) look beautiful. For example, the amount of magenta may be slightly increased.

なお、顔領域から“口(くち)”の位置を取得するための技術としては、たとえば、特開2006−113658号公報などが知られている。   As a technique for acquiring the position of the “mouth” from the face area, for example, Japanese Patent Application Laid-Open No. 2006-113658 is known.

<第2の実施形態>
次に、第2の実施形態におけるデジタルカメラ1の特有の動作について説明する。上記第1の実施形態では、人物に対してソフトフォーカスをかけて美的感覚に優れた画像を得るようにすることを目的としているが、この第2の実施形態では、さらに、表示部17の画面上において、人物の顔を所定時間拡大表示してから元の大きさに戻すようにして操作性の改善を図ることを目的としている。
<Second Embodiment>
Next, a specific operation of the digital camera 1 in the second embodiment will be described. In the first embodiment, the object is to obtain an image with an excellent aesthetic feeling by applying soft focus to a person. In the second embodiment, the screen of the display unit 17 is further provided. The purpose of the above is to improve operability by enlarging and displaying the face of a person for a predetermined time and then returning it to its original size.

すなわち、ほとんどのデジタルカメラは、モニター用の液晶ディスプレイを備えており、撮影した画像をその場でディスプレイに表示して確認できるようになっているが、液晶ディスプレイのサイズは、高々数インチ程度(大きなものでも2〜4インチ)と小さく、たとえば、ピントの合い具合を調べるためには、いちいちボタンを操作して画像を拡大表示しなければならないという不都合がある。この不都合を解消するために、たとえば、特開2005−311888号公報に記載の技術(以下、先行技術という。)においては、画面に表示された画像の中から人の顔などの注目被写体を検出し、その注目被写体の位置や大きさに従って、この注目被写体を拡大表示するための表示領域や拡大率を決定し、その表示領域や拡大率に従って、注目被写体を画面に拡大表示するようにしている。   In other words, most digital cameras are equipped with a liquid crystal display for monitoring, and the captured images can be displayed on the display for confirmation, but the size of the liquid crystal display is at most several inches ( Even a large one is as small as 2 to 4 inches). For example, in order to check the focus, there is a disadvantage that the button must be operated to enlarge and display an image. In order to eliminate this inconvenience, for example, in the technique described in Japanese Patent Application Laid-Open No. 2005-31888 (hereinafter referred to as the prior art), an object of interest such as a human face is detected from an image displayed on the screen. In accordance with the position and size of the subject of interest, a display area and an enlargement ratio for magnifying and displaying the subject of interest are determined, and the subject of interest is enlarged and displayed on the screen according to the display region and the enlargement ratio. .

しかしながら、この先行技術では、人の顔などの注目被写体を画面に拡大表示するようにしているが、拡大した画像を元の大きさに戻すことについては一切言及されていない。したがって、要するに「拡大しっぱなし」であるから、いちいち手作業で、画像のサイズを元の大きさに戻さなければならず、操作性の悪さを否めないという問題点がある。   However, in this prior art, an attention subject such as a human face is enlarged and displayed on the screen, but there is no mention of returning the enlarged image to the original size. Therefore, since the image is “enlarged”, there is a problem that the size of the image must be restored to the original size manually, and the operability cannot be denied.

以下に説明する第2の実施形態は、以上のような背景に鑑みてなされたものであり、人物の顔を所定時間拡大表示してから元の大きさに戻すようにして操作性の改善を図ることにある。   The second embodiment described below has been made in view of the background as described above, and improves the operability by enlarging and displaying the face of a person for a predetermined time and then returning it to the original size. There is to plan.

図8は、制御部5のCPU2で実行される制御プログラムのフローチャートを示す図である。このフローチャートにおいて、画像データの取得から所定の大きさ以上の顔の検出までの処理(ステップS1〜ステップS4)は、上記の第1の実施形態と同じであるので説明を省略する。   FIG. 8 is a diagram illustrating a flowchart of a control program executed by the CPU 2 of the control unit 5. In this flowchart, processing from acquisition of image data to detection of a face having a predetermined size or more (steps S1 to S4) is the same as that in the first embodiment, and a description thereof will be omitted.

所定の大きさ以上の顔領域が検出できたら、まず、所定面積以上の顔領域の一つを選択し(ステップS12)、選択した顔領域の面積と元画像の面積との比率から、後述する「画像拡大の速度」を算定する(ステップS13)と共に、元画像の中心と顔領域の中心との距離から「移動の速度」も検出する(ステップS14)。ちなみに、これらの速度は画像が最大に拡大された時に、その拡大画像の中心(顔領域の中心)が画面の中心に位置するように同期させるものとする。これらの速度は等速である必要はなく、加速度を持ってもいてもよい。   If a face area of a predetermined size or larger is detected, first, one of the face areas having a predetermined area or larger is selected (step S12), and will be described later from the ratio between the area of the selected face area and the area of the original image. The “image enlargement speed” is calculated (step S13), and the “movement speed” is also detected from the distance between the center of the original image and the center of the face area (step S14). Incidentally, these speeds are synchronized so that the center of the enlarged image (the center of the face area) is positioned at the center of the screen when the image is enlarged to the maximum. These speeds do not need to be constant, and may have acceleration.

このように拡大の速度と移動の速度を算定すると、次に、表示部17の画面上に表示されている画像の大きさを、上記のステップS13で算定した「画像拡大の速度」に従って徐々に拡大するとともに、その画像内の顔領域の中心を、表示部17の画面の中心に向けて、上記のステップS14で算定した「移動の速度」に従って徐々に移動させる(ステップS15)。そして、拡大と移動の完了を判定し(ステップS16)、完了を判定すると、次いで、所定の待ち時間が経過したか否かを判定する(ステップS17)。この“所定の待ち時間”は、表示部17に拡大表示された画像をユーザが見て、ピントの合い具合などを確認できる程度の過不足のない時間である。   When the enlargement speed and the movement speed are calculated in this manner, the size of the image displayed on the screen of the display unit 17 is then gradually increased according to the “image enlargement speed” calculated in step S13. While enlarging, the center of the face area in the image is gradually moved toward the center of the screen of the display unit 17 according to the “movement speed” calculated in step S14 (step S15). Then, the completion of enlargement and movement is determined (step S16). When the completion is determined, it is then determined whether or not a predetermined waiting time has elapsed (step S17). This “predetermined waiting time” is a time that is sufficient to allow the user to see the image enlarged and displayed on the display unit 17 and confirm the degree of focus and the like.

そして、所定の待ち時間が経過したら、表示部17に表示されている画像の大きさを元に戻す(ステップS18)。この元の大きさに戻す際にも、一瞬で戻すのではなく、上記の速度(画像拡大の速度及び移動の速度)を利用して徐々に戻すようにしてもよい。   Then, when a predetermined waiting time has elapsed, the size of the image displayed on the display unit 17 is restored (step S18). When returning to the original size, the speed may be gradually returned by using the above speeds (image enlargement speed and movement speed) instead of instantaneously.

このようにして、表示部17に表示されている画像の大きさを元に戻すと、次いで、ユーザによる終了コマンド操作が行われたか否かを判定し(ステップS19)、終了コマンド操作が行われていれば、そのままフローチャートを終了するが、終了コマンド操作が行われていなければ、他にも所定面積以上の顔領域があるか否かを判定し(ステップS20)、他にも所定面積以上の顔領域があれば、ステップS12以降を繰り返し、他にも所定面積以上の顔領域がなければ、そのままフローチャートを終了する。   In this way, when the size of the image displayed on the display unit 17 is restored, it is then determined whether or not an end command operation has been performed by the user (step S19), and the end command operation is performed. If it is, the flowchart is ended as it is, but if the end command operation is not performed, it is determined whether there is another face area larger than a predetermined area (step S20). If there is a face area, step S12 and the subsequent steps are repeated.

図9は、画像拡大処理の概念図である。この図において、表示部17の画面28には、図3の合成画像25に相当する画像が表示されている。この画像には、たとえば、(a)に示すように、一人の人物29が写っており、その人物29の顔領域30が点線の矩形で示されている。ここで、(b)に示すように、画面28の縦サイズをDY、横サイズをDXで表すと共に、同様に、顔領域30の縦サイズをEY、横サイズをEXで表すことにする。また、画面28の中心点をDP、顔領域30の中心点をEPで表すことにする。(c)は拡大後の顔領域32を表示しているときの画面28を示しており、拡大後の顔領域32の縦サイズはEY´、横サイズはEX´であり、拡大後の顔領域32の中心点EPは画面28の中心点DPと略一致している。 FIG. 9 is a conceptual diagram of image enlargement processing. In this figure, an image corresponding to the composite image 25 of FIG. 3 is displayed on the screen 28 of the display unit 17. In this image, for example, as shown in (a), one person 29 is shown, and the face area 30 of the person 29 is indicated by a dotted rectangle. Here, (b), the vertical size D Y of the screen 28, a horizontal size with represented by D X, likewise, E the vertical size of the face region 30 Y, represent the horizontal size E X To. The center point of the screen 28 is represented by D P and the center point of the face region 30 is represented by E P. (C) shows the screen 28 when the face area 32 after enlargement is displayed. The face area 32 after enlargement has a vertical size E Y ′ and a horizontal size E X ′. The center point E P of the face area 32 substantially coincides with the center point D P of the screen 28.

上記のステップS13における「画像拡大の速度」は、既述のとおり、選択した顔領域の面積と元画像の面積との比率から算定する。これは、DY×DXとEY×EXとの比率から算定することを意味する。たとえば、DY×DXとEY×EXとの比率がAであれば、このAに対応した画像拡大の速度を算定し、あるいは、その比率がAよりも小さいBであれば、Bに対応した低い画像拡大の速度を算定する。ステップS14における「移動の速度」も同様である。すなわち、たとえば、DY×DXとEY×EXとの比率がAであれば、このAに対応した移動の速度を算定し、あるいは、その比率がAよりも小さいBであれば、Bに対応した低い移動の速度を算定する。 As described above, the “image enlargement speed” in step S13 is calculated from the ratio between the area of the selected face region and the area of the original image. This means that to calculate the ratio between D Y × D X and E Y × E X. For example, if the ratio of D Y × D X and E Y × E X is A, and calculates the rate of image enlargement which corresponds to this A, or, if smaller in B than the ratio is A, B The speed of low image enlargement corresponding to is calculated. The same applies to the “movement speed” in step S14. That is, for example, if D Y × D X and E Y × E ratio of X is A, and calculates the speed of movement corresponding to this A, or, if smaller in B than the ratio is A, The speed of the low movement corresponding to B is calculated.

このようにすると、表示部17の画面28に表示する画像が人物画像と判別された場合は、元画像の注目領域(顔領域30)を画面28一杯に自動的に拡大して表示することができ、手間を掛けることなく、ピントの合い具合などを確認することができる。しかも、この拡大表示は、所定の待ち時間の経過(ステップS17参照)後に、自動的に元の大きさの画像に戻されるので、いちいち拡大表示をキャンセルする必要もない。したがって、撮影後のプレビュー表示を小さなサイズの表示部17で行う場合であっても、特段の操作を必要とせずに、ピントの合い具合などをスムーズに確認できるから、きわめて使い勝手のよい、操作性に優れたデジタルカメラ1を提供することができる。   In this way, when the image displayed on the screen 28 of the display unit 17 is determined to be a person image, the attention area (face area 30) of the original image can be automatically enlarged and displayed to fill the screen 28. It is possible to check the focus condition without taking time and effort. Moreover, since the enlarged display is automatically returned to the original size image after a predetermined waiting time has elapsed (see step S17), it is not necessary to cancel the enlarged display every time. Therefore, even when the preview display after shooting is performed on the display unit 17 having a small size, since it is possible to smoothly check the focus state without requiring any special operation, the operability is extremely convenient. It is possible to provide a digital camera 1 excellent in the above.

加えて、この実施形態によれば、「画像拡大の速度」と「移動の速度」を、選択した顔領域の面積と元画像の面積との比率から算定するので、あたかもズームを行っているが如き感覚で顔領域の拡大表示を行うことができ、どの部分を拡大したかをユーザに直感的に知らせることができるという特有の効果が得られる。
また、画像の拡大を完了して元画像の大きさに戻す際にも前記の「画像拡大の速度」と「移動の速度」に従うようにすれば、アニメーションのような効果を醸し出すことができるので、より好ましいものとすることができる。
In addition, according to this embodiment, the “image enlargement speed” and the “movement speed” are calculated from the ratio between the area of the selected face area and the area of the original image, so that zooming is performed. In this way, the face area can be enlarged and displayed, and the user can intuitively know which part has been enlarged.
Also, when the image enlargement is completed and the original image size is restored, if it follows the “image enlargement speed” and “movement speed”, an effect like an animation can be produced. Can be more preferable.

この第2の実施形態に必須の事項は、以下のとおりである。
まず、画像処理装置としてみた場合、入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、前記第2判定手段の判定結果が肯定の場合に画像拡大用の第1速度と画像移動用の第2速度とを算出する算出手段と、前記元画像を表示手段に表示させると共に該表示手段に表示中の前記元画像の大きさを前記第1速度に従って徐々に拡大させ且つ該元画像中の前記顔領域の中心が該表示手段の画面の中心に略一致するように前記元画像の表示位置を前記第2速度に従って徐々に移動させる第1表示制御手段と、前記第1表示制御手段における画像の拡大と画像の移動が完了してから所定時間の経過後に前記表示手段に表示されている画像の大きさを元画像の大きさに戻す第2表示制御手段とを備えたことを特徴とするものである。
また、前記第2表示制御手段は、前記第1及び第2速度に従って前記表示手段に表示されている画像の大きさを元画像の大きさに戻すことを特徴とするものである。
The essential items for the second embodiment are as follows.
First, when viewed as an image processing apparatus, it is determined by a first determination unit that determines whether or not a person's face is reflected in the input original image, and that the person's face is reflected by the first determination unit. The extraction means for extracting the face area in the case of the detection, the second determination means for determining whether or not the area of the face area extracted by the extraction means exceeds a predetermined value, and the determination result of the second determination means In the case of affirmation, a calculation means for calculating a first speed for image enlargement and a second speed for image movement, and displaying the original image on the display means and the size of the original image being displayed on the display means Is gradually enlarged according to the first speed, and the display position of the original image is gradually moved according to the second speed so that the center of the face area in the original image substantially coincides with the center of the screen of the display means. First display control means for causing said Second display control means for returning the size of the image displayed on the display means to the size of the original image after elapse of a predetermined time after completion of image enlargement and image movement in the one display control means. It is characterized by that.
Further, the second display control means returns the size of the image displayed on the display means to the size of the original image according to the first and second speeds.

さらに、画像処理方法としてみた場合、入力された元画像に人物の顔が写っているか否かを判定する第1判定工程と、前記第1判定工程によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出工程と、前記抽出工程によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定工程と、前記第2判定工程の判定結果が肯定の場合に画像拡大用の第1速度と画像移動用の第2速度とを算出する算出工程と、前記元画像を表示手段に表示させると共に該表示手段に表示中の前記元画像の大きさを前記第1速度に従って徐々に拡大させ且つ該元画像中の前記顔領域の中心が該表示手段の画面の中心に略一致するように前記元画像の表示位置を前記第2速度に従って徐々に移動させる第1表示制御工程と、前記第1表示制御工程における画像の拡大と画像の移動が完了してから所定時間の経過後に前記表示手段に表示されている画像の大きさを元画像の大きさに戻す第2表示制御工程とを含むことを特徴とするものである。
または、前記第2表示制御工程は、前記第1及び第2速度に従って前記表示手段に表示されている画像の大きさを元画像の大きさに戻すことを特徴とするものである。
Further, when viewed as an image processing method, it is determined that a person's face is reflected in the first determination step for determining whether or not a person's face is reflected in the input original image, and the first determination step. An extraction process for extracting the face area in the case of the detection, a second determination process for determining whether or not the area of the face area extracted by the extraction process exceeds a predetermined value, and a determination result of the second determination process When the result is affirmative, a calculation step of calculating a first speed for image enlargement and a second speed for image movement, and displaying the original image on a display means and the size of the original image being displayed on the display means Is gradually enlarged according to the first speed, and the display position of the original image is gradually moved according to the second speed so that the center of the face area in the original image substantially coincides with the center of the screen of the display means. The first display control step and the previous A second display control step of returning the size of the image displayed on the display means to the size of the original image after a lapse of a predetermined time from the completion of image enlargement and image movement in the first display control step. It is characterized by including.
Alternatively, the second display control step returns the size of the image displayed on the display means to the size of the original image according to the first and second speeds.

さらに、プログラムとしてみた場合、コンピュータに、入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、前記第2判定手段の判定結果が肯定の場合に画像拡大用の第1速度と画像移動用の第2速度とを算出する算出手段と、前記元画像を表示手段に表示させると共に該表示手段に表示中の前記元画像の大きさを前記第1速度に従って徐々に拡大させ且つ該元画像中の前記顔領域の中心が該表示手段の画面の中心に略一致するように前記元画像の表示位置を前記第2速度に従って徐々に移動させる第1表示制御手段と、前記第1表示制御手段における画像の拡大と画像の移動が完了してから所定時間の経過後に前記表示手段に表示されている画像の大きさを元画像の大きさに戻す第2表示制御手段とを実現させるためのプログラムである。
または、前記第2表示制御手段は、前記第1及び第2速度に従って前記表示手段に表示されている画像の大きさを元画像の大きさに戻すことを特徴とするプログラムである。
Further, when viewed as a program, the computer determines a first determination unit that determines whether or not a person's face is reflected in the input original image, and determines that the person's face is captured by the first determination unit. Extraction means for extracting the face area when it is done, second determination means for determining whether or not the area of the face area extracted by the extraction means exceeds a predetermined value, and a determination result of the second determination means Is positive, a calculation means for calculating a first speed for image enlargement and a second speed for image movement, and displaying the original image on the display means and the size of the original image being displayed on the display means The display position of the original image is gradually increased according to the second speed so that the center of the face area in the original image substantially coincides with the center of the screen of the display means. First display to move And a second unit for returning the size of the image displayed on the display unit to the size of the original image after a lapse of a predetermined time from completion of image enlargement and image movement in the first display control unit. This is a program for realizing display control means.
Alternatively, the second display control means is a program that returns the size of the image displayed on the display means to the size of the original image according to the first and second speeds.

このような必須の事項を備えることにより、元画像の注目領域(顔領域)を表示手段の画面一杯に自動的に拡大して表示することができ、手間を掛けることなく、ピントの合い具合などを確認することができる。しかも、この拡大表示は、所定の待ち時間の経過後に、自動的に元の大きさの画像に戻されるので、いちいち拡大表示をキャンセルする必要もない。したがって、撮影後のプレビュー表示を小さなサイズの表示手段(たとえば、数インチ程度の液晶ディスプレイ)で行う場合であっても、特段の操作を必要とせずに、ピントの合い具合などをスムーズに確認できるから、きわめて使い勝手のよい、操作性に優れたデジタルカメラを提供することができる。さらに、画像の拡大を完了して元画像の大きさに戻す際にも前記の第1及び第2速度に従うので、アニメーションのような効果を醸し出すことができる。   By providing such essential items, the attention area (face area) of the original image can be automatically enlarged and displayed on the full screen of the display means, and the focus condition can be reduced without much trouble. Can be confirmed. In addition, since the enlarged display is automatically returned to the original size image after a predetermined waiting time, it is not necessary to cancel the enlarged display every time. Therefore, even when the preview display after shooting is performed on a small-sized display means (for example, a liquid crystal display of several inches), it is possible to smoothly check the focus state without requiring any special operation. Therefore, it is possible to provide a digital camera that is extremely easy to use and excellent in operability. Furthermore, when the enlargement of the image is completed and the size of the original image is restored, the first and second speeds are followed, so that an effect like an animation can be produced.

なお、以上の第1及び第2の実施形態では、検出された最大の顔領域が所定の大きさを超えているものに対して所定の補正処理を行っているが、これに限定されない。   In the first and second embodiments described above, the predetermined correction processing is performed on a case where the detected maximum face area exceeds a predetermined size, but the present invention is not limited to this.

図10は、補正処理の対象となる顔領域の他の検出概念図である。この図において、(a)に示す画像33には、中央に位置する背景(ここでは便宜的に山)と右側に位置する人物34とが写っており、また、(b)に示す画像35には、中央に位置する背景(ここでは便宜的に山)と、同じく中央に位置する人物36とが写っている。このように、これら二つの画像33、35には、いずれも人物34、36が写っているが、中央に写っている人物36の方が主要な被写体であるということができる。多くの場合、主要な被写体は構図の中心に据えられるからである。   FIG. 10 is another conceptual diagram of detection of a face area to be corrected. In this figure, an image 33 shown in (a) shows a background (here, a mountain for convenience) located at the center and a person 34 located on the right side, and an image 35 shown in (b). Shows a background (here, a mountain for convenience) located in the center and a person 36 also located in the center. As described above, in these two images 33 and 35, the persons 34 and 36 are shown, but it can be said that the person 36 shown in the center is the main subject. In many cases, the main subject is placed at the center of the composition.

したがって、言い換えれば、構図の中心から外れた人物(たとえば、画像33の人物34)は、偶然に写り込んでしまった不要な被写体であるということができるから、そのような不要な被写体が、仮に、画像33の人物34であったとして、その人物34の顔領域が所定面積以上であったとしても、その人物34の顔領域を基準にして所定の補正処理(ガウスぼかし処理等)を行うのは無駄なことである。   Therefore, in other words, a person who is out of the center of the composition (for example, the person 34 in the image 33) can be said to be an unnecessary subject that has been accidentally reflected. Assuming that the person 34 in the image 33 is a face area of the person 34 having a predetermined area or more, a predetermined correction process (Gaussian blurring process or the like) is performed on the basis of the face area of the person 34. Is a waste.

この対策としては、画像の水平方向で最も中心に近い顔領域を検出し、その顔領域が所定の大きさを超えている場合にだけ所定の補正処理を行うようにすればよい。このようにすると、(a)の画像33に対する無駄な補正処理を回避し、且つ、(b)の画像35に対してだけ所定の補正処理を行うことができるようになる。   As a countermeasure, it is only necessary to detect a face area closest to the center in the horizontal direction of the image and perform a predetermined correction process only when the face area exceeds a predetermined size. In this way, useless correction processing for the image 33 in (a) can be avoided, and predetermined correction processing can be performed only for the image 35 in (b).

また、以上の実施形態は、デジタルカメラ等の撮像装置への適用を例にしたが、これに限定されない。パーソナルコンピュータで用いられる画像レタッチソフト等の画像処理用アプリケーションソフトウエアにも適用できるし、あるいは、デジタル写真等を印刷する印刷装置(プリンタ)などの組み込みソフトウェアにも適用できる。   Moreover, although the above embodiment made the example application to imaging devices, such as a digital camera, it is not limited to this. The present invention can be applied to image processing application software such as image retouching software used in a personal computer, or can be applied to embedded software such as a printing apparatus (printer) for printing a digital photograph or the like.

また、以上の実施形態における主要な機能は、もっぱら、図4や図6あるいは図8のフローチャートで示す制御プログラムに実装されており、そして、これらの制御プログラムをCPU等のコンピュータ上で実行することによって、以上の実施形態における特有の作用効果が得られるのであるから、以上の実施形態における特徴的な技術事項は、それらの制御プログラムに含まれているということができる。したがって、本件発明の保護されるべき範囲は、その制御プログラムを当然含み、且つ、それらのプログラムを収めた記録媒体、さらには、ネットワークを介して当該プログラムを配布することが可能なあらゆる媒体がその範囲に含まれる。   In addition, the main functions in the above embodiment are implemented exclusively in the control program shown in the flowchart of FIG. 4, FIG. 6 or FIG. 8, and these control programs are executed on a computer such as a CPU. Thus, it can be said that the characteristic technical matters in the above embodiments are included in those control programs. Therefore, the scope to be protected of the present invention naturally includes the control program, and the recording medium storing the program, as well as any medium capable of distributing the program via a network, include the control program. Included in the range.

以上のとおり、前記の第一の実施形態では、要するに、デジタル画像データを保持する画像データ保持手段と、画像データに対し顔検出処理を行う顔検出手段と、画像データに対し所定の画像処理を行う画像処理手段と、画像データを表示する画像表示手段と、を有し、上記画像データ保持手段で保持されている画像データのうち指定されたものに対し、上記顔検出手段で顔検出を行い、顔が検出されたならばその画像を人物画像として扱い、上記画像処理手段で自動的に人物画像が美しく見えるように画像処理を行い、その結果を上記画像表示手段で表示するようにしたので、美観に優れた画像表示を行うことができる。   As described above, in the first embodiment, in short, image data holding means for holding digital image data, face detection means for performing face detection processing on image data, and predetermined image processing on image data. Image processing means for performing image display, and image display means for displaying image data. Face detection is performed by the face detection means for specified one of the image data held by the image data holding means. If a face is detected, the image is treated as a person image, the image processing means automatically performs image processing so that the person image looks beautiful, and the result is displayed on the image display means. It is possible to display an image with excellent aesthetics.

また、上記顔検出手段で検出された顔領域の面積が所定の大きさを超えたものに対してのみ上記画像処理手段での処理を実行するようにすれば、たとえば、多人数の集合写真のように、各々の人物が小さく写っている画像の場合において、所定の画像処理を行わないようにして、無駄な処理を回避することができる。
また、上記顔検出手段で複数の顔領域が検出された場合、それらのうち最も面積の大きい顔領域を基準に処理の実行の判断を行うようにすれば、効率的な画像補正を行うことができる。
Further, if the processing by the image processing means is executed only for the face area detected by the face detecting means exceeding a predetermined size, for example, a group photo of a large number of people As described above, in the case of an image in which each person is small, it is possible to avoid unnecessary processing by not performing predetermined image processing.
Further, when a plurality of face areas are detected by the face detection means, efficient image correction can be performed if the execution of the process is determined based on the face area having the largest area among them. it can.

また、上記顔検出手段で検出された顔領域の面積に応じて、上記画像処理手段での処理の効果の度合いを変化させるようにすれば、より効果的な画像補正を行うことができる。
また、上記顔検出手段で複数の顔領域が検出された場合、それらのうち最も面積の大きい顔領域を基準に処理の効果の度合いを決定するようにすれば、効率的な画像補正を行うことができる。
Further, more effective image correction can be performed by changing the degree of the effect of the processing by the image processing means in accordance with the area of the face area detected by the face detecting means.
In addition, when a plurality of face areas are detected by the face detection means, efficient image correction can be performed by determining the degree of processing effect based on the face area having the largest area among them. Can do.

また、上記顔検出手段で複数の顔領域が検出された場合、それらのうち最も画像水平方向の中央付近で検出された顔領域を基準に処理の効果の度合いを決定するようにすれば、注目被写体(多くの場合、画像水平方向の中央付近に位置する)を基準にして、処理の効果の度合いを決定することができる。
また、上記顔検出手段で顔を検出した場合、その検出された顔領域に対しズームイン/アウトとなるように上記画像処理手段で拡大/縮小処理を行い表示画像に動きを与えるようにすれば、画像の表示に面白みを持たせることができるとともに、複数の人物が写っている場合には、見ている人に誰の顔のズームアップかを直感的に把握させることができる。
In addition, when a plurality of face areas are detected by the face detecting means, if the degree of processing effect is determined based on the face area detected most near the center in the horizontal direction of the image, The degree of processing effect can be determined based on the subject (in many cases, located near the center in the horizontal direction of the image).
Further, when a face is detected by the face detection means, if the image processing means performs enlargement / reduction processing so that the detected face area is zoomed in / out, the display image is moved. The display of the image can be interesting, and when a plurality of persons are captured, the person who is viewing can intuitively grasp who is zooming in on the face.

また、上記顔検出手段で検出された顔領域の面積が所定の大きさを超えたものに対してのみ上記画像処理手段での処理を実行するようにすれば、たとえば、多人数の集合写真のように、各々の人物が小さく写っている画像の場合において、所定の画像処理を行わないようにして、無駄な処理を回避することができる。
また、上記顔検出手段で複数の顔領域が検出された場合、それらのうち所定の大きさを超えたものに対し順々にズームイン/アウトの画像処理を上記画像処理手段で実行するようにすれば、たとえば、多人数の集合写真のように、各々の人物が小さく写っている画像の場合において、所定の画像処理を行わないようにして、無駄な処理を回避することができる。
また、画像の面積が所定の大きさより小さい場合(たとえば、サムネイル画像等)は、顔検出処理を行わないようにすれば、所定の画像処理を行わないようにして、無駄な処理を回避することができる。
Further, if the processing by the image processing means is executed only for the face area detected by the face detecting means exceeding a predetermined size, for example, a group photo of a large number of people As described above, in the case of an image in which each person is small, it is possible to avoid unnecessary processing by not performing predetermined image processing.
Further, when a plurality of face areas are detected by the face detection means, the image processing means sequentially executes zoom-in / out image processing for those exceeding a predetermined size. For example, in the case of an image in which each person is small like a group photo of many people, it is possible to avoid unnecessary processing by not performing predetermined image processing.
Further, when the area of the image is smaller than a predetermined size (for example, a thumbnail image), if the face detection process is not performed, the predetermined image process is not performed and the unnecessary process is avoided. Can do.

デジタルカメラの構成図である。It is a block diagram of a digital camera. RAM4の記憶空間を示す概念図である。3 is a conceptual diagram showing a storage space of a RAM 4. FIG. ガウスぼかしによるボケの効果を説明する図である。It is a figure explaining the effect of the blur by Gaussian blurring. 制御部5のCPU2で実行される制御プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the control program run by CPU2 of the control part 5. FIG. 顔領域の面積(Z)とガウスぼかし効果の対応関係図である。It is a correspondence diagram of the area (Z) of the face area and the Gaussian blur effect. 第1の実施形態の好ましい改良例のフローチャートを示す図である。It is a figure which shows the flowchart of the preferable improvement example of 1st Embodiment. 改良例を適用した合成画像25を示す図である。It is a figure which shows the synthesized image 25 to which the example of improvement is applied. 制御部5のCPU2で実行される制御プログラムのフローチャートを示す図である。It is a figure which shows the flowchart of the control program run by CPU2 of the control part 5. FIG. 画像拡大処理の概念図である。It is a conceptual diagram of an image expansion process. 補正処理の対象となる顔領域の他の検出概念図である。It is another detection conceptual diagram of the face area to be corrected.

符号の説明Explanation of symbols

1 デジタルカメラ(画像処理装置)
2 CPU(第1判定手段、抽出手段、第2判定手段、画像補正手段、
合成手段、算出手段、第1表示制御手段、第2表示制御手段)
17 表示部(表示手段)
23 元画像
24 複製画像
25 合成画像
1 Digital camera (image processing device)
2 CPU (first determination means, extraction means, second determination means, image correction means,
Synthesis means, calculation means, first display control means, second display control means)
17 Display section (display means)
23 Original image 24 Duplicated image 25 Composite image

Claims (10)

入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、
前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、
前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、
前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正手段と
を備えたことを特徴とする画像処理装置。
First determination means for determining whether or not a human face is reflected in the input original image;
Extracting means for extracting a face area when it is determined by the first determining means that a person's face is reflected;
Second determination means for determining whether the area of the face region extracted by the extraction means exceeds a predetermined value;
An image processing apparatus comprising: an image correction unit that applies a predetermined image correction to the original image when the determination result of the second determination unit is positive.
前記画像補正手段は、前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかけるとともに、該画像補正の程度を前記顔領域の面積に応じて加減することを特徴とする請求項1記載の画像処理装置。   The image correction unit applies predetermined image correction to the original image when the determination result of the second determination unit is affirmative, and adjusts the degree of the image correction according to the area of the face region. The image processing apparatus according to claim 1. 前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、最も面積の大きな顔領域に対して所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置。   3. The image correction unit according to claim 1, wherein when the plurality of face regions are detected by the extraction unit, predetermined image correction is performed on the face region having the largest area. An image processing apparatus according to 1. 前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、最も画面中央付近で検出された顔領域に対して所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置。   2. The image correction unit according to claim 1, wherein when a plurality of face regions are detected by the extraction unit, predetermined image correction is performed on the face region detected most near the center of the screen. Item 3. The image processing device according to any one of Items 2 to 3. 前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、それら抽出された複数の顔領域に対し、最も面積の大きな顔領域を基準にして所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置。   The image correction means, when a plurality of face areas are detected by the extraction means, performs predetermined image correction on the extracted face areas based on the face area having the largest area. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 前記画像補正手段は、前記抽出手段によって複数の顔領域が検出された場合に、それら抽出された複数の顔領域に対し、最も画面中央付近で検出された顔領域を基準にして所定の画像補正をかけることを特徴とする請求項1または請求項2いずれかに記載の画像処理装置。   When a plurality of face areas are detected by the extraction means, the image correction means performs a predetermined image correction on the basis of the face area detected closest to the center of the screen with respect to the extracted face areas. The image processing apparatus according to claim 1, wherein the image processing apparatus is applied. さらに、前記第2判定手段の判定結果が肯定の場合に画像拡大用の第1速度と画像移動用の第2速度とを算出する算出手段と、
前記元画像を表示手段に表示させると共に該表示手段に表示中の前記元画像の大きさを前記第1速度に従って徐々に拡大させ且つ該元画像中の前記顔領域の中心が該表示手段の画面の中心に略一致するように前記元画像の表示位置を前記第2速度に従って徐々に移動させる第1表示制御手段と、
前記第1表示制御手段における画像の拡大と画像の移動が完了してから所定時間の経過後に前記表示手段に表示されている画像の大きさを元画像の大きさに戻す第2表示制御手段と
を備えたことを特徴とする請求項1乃至請求項6いずれかに記載の画像処理装置。
And a calculating means for calculating a first speed for image enlargement and a second speed for image movement when the determination result of the second determination means is affirmative;
The original image is displayed on the display means, the size of the original image being displayed on the display means is gradually enlarged according to the first speed, and the center of the face area in the original image is the screen of the display means First display control means for gradually moving the display position of the original image according to the second speed so as to substantially coincide with the center of
Second display control means for returning the size of the image displayed on the display means to the size of the original image after a lapse of a predetermined time from the completion of image enlargement and image movement in the first display control means; The image processing apparatus according to claim 1, further comprising:
前記第2表示制御手段は、前記第1及び第2速度に従って前記表示手段に表示されている画像の大きさを元画像の大きさに戻すことを特徴とする請求項7記載の画像処理装置。   8. The image processing apparatus according to claim 7, wherein the second display control unit returns the size of the image displayed on the display unit to the size of the original image according to the first and second speeds. 入力された元画像に人物の顔が写っているか否かを判定する第1判定工程と、
前記第1判定工程によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出工程と、
前記抽出工程によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定工程と、
前記第2判定工程の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正工程と
を含むことを特徴とする画像処理方法。
A first determination step of determining whether a person's face is reflected in the input original image;
An extraction step of extracting the face area when it is determined in the first determination step that a human face is reflected;
A second determination step of determining whether the area of the face region extracted by the extraction step exceeds a predetermined value;
An image correction step of applying a predetermined image correction to the original image when the determination result of the second determination step is affirmative.
コンピュータを、
入力された元画像に人物の顔が写っているか否かを判定する第1判定手段と、
前記第1判定手段によって人物の顔が写っていることが判定された場合にその顔領域を抽出する抽出手段と、
前記抽出手段によって抽出された顔領域の面積が所定値を越えるか否かを判定する第2判定手段と、
前記第2判定手段の判定結果が肯定の場合に前記元画像に対して所定の画像補正をかける画像補正手段と
して機能させるためのプログラム。
Computer
First determination means for determining whether or not a human face is reflected in the input original image;
Extracting means for extracting a face area when it is determined by the first determining means that a person's face is reflected;
Second determination means for determining whether the area of the face region extracted by the extraction means exceeds a predetermined value;
A program for functioning as an image correction unit that applies a predetermined image correction to the original image when the determination result of the second determination unit is positive.
JP2006266226A 2006-09-29 2006-09-29 Image processor, image processing method and program Pending JP2008084236A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006266226A JP2008084236A (en) 2006-09-29 2006-09-29 Image processor, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006266226A JP2008084236A (en) 2006-09-29 2006-09-29 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2008084236A true JP2008084236A (en) 2008-04-10

Family

ID=39355000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006266226A Pending JP2008084236A (en) 2006-09-29 2006-09-29 Image processor, image processing method and program

Country Status (1)

Country Link
JP (1) JP2008084236A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239267A (en) * 2010-05-12 2011-11-24 Ricoh Co Ltd Imaging apparatus and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239267A (en) * 2010-05-12 2011-11-24 Ricoh Co Ltd Imaging apparatus and image processing apparatus

Similar Documents

Publication Publication Date Title
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
JP5791336B2 (en) Image processing apparatus and control method thereof
US7760962B2 (en) Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
JP4865038B2 (en) Digital image processing using face detection and skin tone information
US7486310B2 (en) Imaging apparatus and image processing method therefor
US8055090B2 (en) Digital image processing using face detection information
US20080143854A1 (en) Perfecting the optics within a digital image acquisition device using face detection
JP4668956B2 (en) Image processing apparatus and method, and program
JP2004062565A (en) Image processor and image processing method, and program storage medium
JP2005128156A (en) Focusing device and method
JP2005267512A (en) Method and device for detecting specific range, and program
JP2009171318A (en) Image processor, image processing method, and imaging device
JP4752941B2 (en) Image composition apparatus and program
US20090231628A1 (en) Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing
KR20130017629A (en) Apparatus and method for processing image, and computer-readable storage medium
JP2007074578A (en) Image processor, photography instrument, and program
JP2009017223A (en) Imaging device, image processing device, and their image processing method and program
JP2008217785A (en) Display controller and image data converting method
JP4802884B2 (en) Imaging apparatus, captured image recording method, and program
JP2007188126A (en) Image brightness calculation device, method, and program
JP2017143354A (en) Image processing apparatus and image processing method
US20090231627A1 (en) Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing
JP4595660B2 (en) Imaging apparatus, captured image processing method, and program
WO2005022915A1 (en) Image capture and projection device and image capture and projection method
JP5160655B2 (en) Image processing apparatus and method, and program