JP2005159561A - Beautiful face camera - Google Patents
Beautiful face camera Download PDFInfo
- Publication number
- JP2005159561A JP2005159561A JP2003392805A JP2003392805A JP2005159561A JP 2005159561 A JP2005159561 A JP 2005159561A JP 2003392805 A JP2003392805 A JP 2003392805A JP 2003392805 A JP2003392805 A JP 2003392805A JP 2005159561 A JP2005159561 A JP 2005159561A
- Authority
- JP
- Japan
- Prior art keywords
- image information
- focus
- face
- focus lens
- skin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Lens Barrels (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、合焦画像と非合焦画像とを合成し、人の顔の画像を生成する技術に関する。 The present invention relates to a technique for generating an image of a human face by combining a focused image and a non-focused image.
現在、デジタル撮影の進歩により撮影した写真に様々な処理を施すことができる。特に就職活動の際の履歴書用の写真やお見合い用写真などでは、画像処理により肌のしわや荒れなどを軽減させることで、その就職活動やお見合いなどで好印象を持たれるよう努力することが一般的になってきている。この画像処理の具体的な方法としては、第一に肌部分にソフトフォーカス(ぼかしフィルター)をかけることにより画像の肌部分をぼかし、しわ等を目立たなくする方法が挙げられる(特許文献1)。あるいは、第二に、手動で肌の個々のしわ等に色をかぶせて消す方法や、目、鼻などのパーツごとにシャープフィルターをかけくっきりさせて目鼻立ちをよくする方法が挙げられる。
しかし、上記第一の技術では、ソフトフォーカス(ぼかし)フィルターを全体にかけるため目や鼻などくっきりさせたい顔の領域も含めて顔全体がのっぺりしてしまったり、背景などもぼけてしまったりして不自然な画像になる、という課題がある。また、第二の技術でも、撮影した画像データをパソコンなどに取りこみ、画像処理専用のアプリケーションを用いて個々のしわやパーツを加工する必要があり、したがって、このような専用アプリケーションやそれを使いこなすための高度な知識を必要とする、という課題がある。 However, with the first technology above, the entire face, including the face area that you want to sharpen, such as the eyes and nose, is covered because the soft focus (blur) filter is applied to the whole, and the background etc. is blurred. There is a problem that the image becomes unnatural. In the second technology, it is also necessary to capture the captured image data on a personal computer and process individual wrinkles and parts using an application dedicated to image processing. There is a problem of requiring advanced knowledge.
上記課題を解決するために、本発明は、合焦顔画像情報と非合焦顔画像情報とを取得可能にフォーカスレンズの位置を制御するためのフォーカスレンズ制御部と、合焦顔画像情報から特徴領域画像情報を取得する特徴領域画像情報取得部と、非合焦顔画像情報から肌用画像情報を取得する肌用画像情報取得部と、特徴領域画像情報と肌用画像情報とを合成して人の顔の画像とする合成部と、を有する美顔カメラを提供する。 In order to solve the above problems, the present invention provides a focus lens control unit for controlling the position of a focus lens so that in-focus face image information and out-of-focus face image information can be acquired, and the in-focus face image information. A feature region image information acquisition unit that acquires feature region image information, a skin image information acquisition unit that acquires skin image information from non-focused face image information, and the feature region image information and skin image information are combined. And a facial camera having a synthesizing unit for generating an image of a human face.
以上のような構成をとる本発明によって、従来のフォーカス技術により撮影される合焦画像と非合焦画像とを利用して、目鼻立ちはくっきりしていて、一方で肌のしわなどがはっきり写らない様にぼかされた美顔写真の撮影を、自然な出来あがりで行うことができる。また、従来のフォーカス技術を利用しているので、上記構成要件を組み込んだカメラであれば、高度な知識など無くても簡単に美顔写真を撮影することができる。 According to the present invention having the above-described configuration, the eyes and nose are sharp using the focused image and the non-focused image captured by the conventional focus technique, but the wrinkles of the skin are not clearly visible. It is possible to shoot beautiful face photos that have been blurred in a natural way. In addition, since the conventional focus technique is used, a beautiful face photo can be easily taken without a high level of knowledge if the camera incorporates the above-described configuration requirements.
以下に、図を用いて本発明の実施の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。なお、実施例1は主に請求項1について説明する。また、実施例2は主に請求項2について説明する。また、実施例3は主に請求項3について説明する。また、実施例4は主に請求項4について説明する。また、実施例5は主に請求項5について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to these embodiments, and can be implemented in various modes without departing from the spirit of the present invention. The first embodiment will mainly describe
≪実施例1≫ (実施例1の概念) 図1に示すのは、本実施例の美顔カメラの概念の一例を説明するための図である。この図の(a)は、フォーカスレンズによる焦点が被写体に合っている状態の画像である。この図にあるように、しっかり合焦された画像では目鼻立ちはくっきりしているがしわ等がはっきりと分かってしまう場合が多い。また、図中の(b)は、フォーカスレンズで被写体に合焦されていない状態の画像である。この図にあるように、合焦されていない画像では、しわ等の写りこみは少ないが目鼻立ちも曖昧になってしまう。そこで本実施例の美顔カメラでは、両者の画像を合成して、図中(c)のように目鼻立ちはくっきりさせつつ、肌はしわや荒れなどが目立たない画像を生成する。以下、本実施例の美顔カメラの構成を説明しつつ、合成の具体的処理について説明する。 Embodiment 1 (Concept of Embodiment 1) FIG. 1 is a diagram for explaining an example of a concept of a beauty camera of the present embodiment. (A) of this figure is an image in a state where the focus by the focus lens is in focus on the subject. As shown in this figure, in a well-focused image, the eyes and nose are clear, but wrinkles and the like are often clearly recognized. Also, (b) in the figure is an image in a state where the subject is not focused on the focus lens. As shown in this figure, in an unfocused image, there are few reflections such as wrinkles, but the standing of the eyes and nose is also ambiguous. Therefore, in the beauty camera of the present embodiment, both images are combined to generate an image in which the wrinkles and roughness are not noticeable while the eyes and nose are crisp as shown in FIG. Hereinafter, specific processing of composition will be described while explaining the configuration of the beauty camera of the present embodiment.
(実施例1の構成) 図2に示すのは、本実施例の美顔カメラの機能ブロックの一例を表す図である。この図にあるように、本実施例の美顔カメラ(0200)は、「フォーカスレンズ制御部」(0201)と、「特徴領域画像情報取得部」(0202)と、「肌用画像情報取得部」(0203)と、「合成部」(0204)と、を有する。 (Configuration of Example 1) FIG. 2 is a diagram illustrating an example of functional blocks of the facial camera of the present example. As shown in this figure, the facial camera (0200) of the present embodiment includes a “focus lens control unit” (0201), a “feature area image information acquisition unit” (0202), and a “skin image information acquisition unit”. (0203) and “combining section” (0204).
「フォーカスレンズ制御部」(0201)は、合焦顔画像情報と、非合焦顔画像情報と、を取得可能にフォーカスレンズの位置を制御する機能を有する。「合焦顔画像情報」とは、人の顔に焦点を合わせた画像情報をいう。例えば、いわゆる山登り制御(フォーカスレンズ位置ごとにコントラスト情報を取得し、ピークとなるフォーカスレンズ位置を被写体に合焦したフォーカスレンズ位置とする制御方法)などで決定されたフォーカスレンズ位置に応じて取得された被写体の、画素の色や位置情報などにより構成された画像情報である。「非合焦顔画像情報」とは、合焦顔画像情報の焦点から焦点がずれた前記人の顔の画像情報をいう。例えば、合焦顔画像情報を取得したフォーカスレンズ位置から所定距離ずれたフォーカスレンズ位置に応じて取得された被写体の、画素の色や位置情報などにより構成された画像情報である。もちろん、この非合焦顔画像情報による画像は、本実施例の美顔カメラにおいて最終的に人の顔の画像として利用されるので、完全なピンぼけ画像ではない必要がある。 The “focus lens control unit” (0201) has a function of controlling the position of the focus lens so that in-focus face image information and non-focus face image information can be acquired. “In-focus face image information” refers to image information focused on a human face. For example, it is acquired according to the focus lens position determined by so-called hill-climbing control (a control method in which contrast information is acquired for each focus lens position and the focus lens position at the peak is the focus lens position focused on the subject). This is image information composed of pixel color, position information, and the like of the subject. “Unfocused face image information” refers to image information of the person's face that is out of focus from the focus of the focused face image information. For example, it is image information composed of pixel color, position information, and the like of a subject acquired in accordance with a focus lens position shifted by a predetermined distance from the focus lens position from which in-focus face image information was acquired. Of course, the image based on this out-of-focus face image information is finally used as a human face image in the beauty camera of the present embodiment, and therefore it is not necessary to be a complete out-of-focus image.
このフォーカスレンズ制御部は、例えばCPUなどによって実現され、フォーカスレンズの合焦位置決定のための移動などの制御を行う。なお、「フォーカスレンズ」とは、カメラにおいて被写体に焦点を合わせるためにその位置を移動するレンズをいい、もちろん1枚とは限らず複数合わさって焦点を合わせるレンズ群であっても良い。「フォーカスレンズ位置」とは、美顔カメラの撮影機構中におけるフォーカスレンズの位置をいい、例えばモーターのパルス数や回転数あるいは実際のレンズの移動距離などの数値で示される情報が挙げられる。このフォーカスレンズ制御部での制御によりフォーカスレンズが移動させられ、合焦位置における合焦顔画像情報や、そこから焦点をずらした非合焦顔画像情報が取得可能となる。 The focus lens control unit is realized by a CPU, for example, and performs control such as movement for determining a focus position of the focus lens. The “focus lens” refers to a lens that moves its position in order to focus on a subject in the camera. Of course, the focus lens is not limited to a single lens, and may be a lens group that focuses by focusing a plurality of lenses. The “focus lens position” refers to the position of the focus lens in the photographing mechanism of the facial camera, and includes information indicated by numerical values such as the number of motor pulses and the number of rotations or the actual lens movement distance. The focus lens is moved under the control of the focus lens control unit, and the in-focus face image information at the in-focus position and the out-of-focus face image information with the focus shifted therefrom can be acquired.
「特徴領域画像情報取得部」(0202)は、フォーカスレンズ制御部(0201)のフォーカスレンズの制御に基づいて取得する合焦顔画像情報から特徴領域画像情報を取得する機能を有する。「特徴領域画像情報」とは、顔の特徴領域の画像情報をいい、例えば、目、鼻、口、耳、などの画像情報が挙げられる。そして特徴領域画像情報取得部において、この合焦顔画像情報から各特徴領域を抽出するには、例えば、非線形振動子ネットワークによる領域抽出などの技術を利用すると良い(参考文献「二重しきい値法により位相検出を行う画像分割用振動子ネットワークモデルとそのLSI回路構成」安藤博士、三宅誠、森江隆、永田真、岩田穆(電子情報通信学会 ニューロコンピューティング研究会NC98−126))。これは各画素を非線形な特性の素子で連結し、その非線形振動子間を位相同期することにより輝度の近い領域を抽出することで各特徴領域を抽出する方法である。図3に示すのは、特徴領域画像情報の一例を表す図である。このように、例えば非線形振動子ネットワークによる領域抽出を利用して抽出された各特徴領域に関する、色や位置情報など画像を構成する情報を個別に切りだし取得する。あるいは、合焦顔画像情報の中の抽出された特徴領域以外の色情報を透明化してもよい。この場合、後述する合成部での合成は、この特徴領域画像情報による画像をレイヤーのように肌用画像情報に重ね合わせれば良い。 The “feature area image information acquisition unit” (0202) has a function of acquiring the characteristic area image information from the focused face image information acquired based on the focus lens control of the focus lens control unit (0201). “Characteristic region image information” refers to image information of a facial feature region, and includes, for example, image information such as eyes, nose, mouth, and ears. In order to extract each feature region from the focused face image information in the feature region image information acquisition unit, for example, a technique such as region extraction using a nonlinear transducer network may be used (see Reference Document “Double Threshold Value”). Image segmentation oscillator network model for phase detection by the method and its LSI circuit configuration ”Dr. Ando, Makoto Miyake, Takashi Morie, Makoto Nagata, Satoshi Iwata (Electronic Information and Communication Society Neurocomputing Research Group NC98-126)). This is a method of extracting each feature area by connecting each pixel with an element having a non-linear characteristic and extracting an area having near luminance by phase-synchronizing the non-linear vibrators. FIG. 3 is a diagram illustrating an example of feature area image information. In this way, for example, information constituting the image such as color and position information regarding each feature region extracted using region extraction by a nonlinear vibrator network is cut out and acquired individually. Alternatively, color information other than the extracted feature region in the focused face image information may be made transparent. In this case, the composition in the composition unit described later may be performed by superimposing the image based on the feature region image information on the skin image information like a layer.
「肌用画像情報取得部」(0203)は、フォーカスレンズ制御部(0201)のフォーカスレンズの制御に基づいて取得する非合焦顔画像情報から肌用画像情報を取得する機能を有する。「肌用画像情報」とは、顔の肌の画像情報をいう。この肌用画像情報取得部での肌用画像情報の取得は、例えば上記の非線形振動子ネットワークによる領域抽出の技術を利用し特徴領域を抽出し、図4に示す様にその抽出された特徴領域の色情報を肌色化したり、上記取得された特徴領域画像情報のサイズに合わせて削除したりすることで取得される。もちろん特徴領域の色情報の肌色化を行う場合、周囲の肌の色情報に合わせた色にすると良い。また、後述する合成に際して合焦顔画像情報の特徴領域画像を肌用画像情報の画像に上書きするような場合は、肌用画像における目や鼻、口などの特徴領域を上記の様に削除したり肌色化せず、そのまま残していても良い。 The “skin image information acquisition unit” (0203) has a function of acquiring skin image information from non-focused face image information acquired based on the focus lens control of the focus lens control unit (0201). “Image information for skin” refers to image information of facial skin. The skin image information acquisition unit obtains the skin image information by, for example, extracting a feature region using the above-described technique of region extraction by the nonlinear vibrator network, and the extracted feature region as shown in FIG. Is obtained by converting the color information into a flesh color or deleting it according to the size of the acquired characteristic area image information. Of course, when the skin color of the color information of the feature area is performed, it is preferable to use a color that matches the color information of the surrounding skin. In addition, when the feature area image of the focused face image information is overwritten on the image of the skin image information at the time of synthesis described later, the feature areas such as eyes, nose, and mouth in the skin image are deleted as described above. It may be left as it is without being colored.
「合成部」(0204)は、特徴領域画像情報取得部(0202)で取得する特徴領域画像情報と、肌用画像情報取得部(0203)で取得する肌用画像情報とを合成して人の顔の画像とする機能を有する。図5に示すのは、合成部で合成の一例を説明するための図である。この図にあるように、特徴領域画像情報と肌用画像情報とを組み合わせることで、目鼻立ちはくっきりしていて、一方で肌のしわなどがはっきり写らない様にぼかされた美顔写真を、自然な出来あがりで行うことができる。 The “synthesis unit” (0204) combines the feature region image information acquired by the feature region image information acquisition unit (0202) and the skin image information acquired by the skin image information acquisition unit (0203), thereby It has a function to make a face image. FIG. 5 is a diagram for explaining an example of synthesis by the synthesis unit. As shown in this figure, by combining the feature area image information and the skin image information, a beautiful face photograph that has sharp eyes and nose standing, but on the other hand is not clearly visible such as wrinkles on the skin, It can be done with perfect results.
そして、この組み合わせる際の処理は、特徴領域画像情報が特徴領域部分以外を透明化したものであれば、レイヤーの様に肌用画像情報で示される画像に重ね合わせれば良い。また、特徴領域を個別に切り出した画像情報であれば、その特徴領域の元の合焦顔画像における位置情報から肌用画像に合成するべき位置を決定し合成すると良い。なぜならば、合焦顔画像と非合焦顔画像は、基本的な構図や大きさはほぼ一緒なので、特徴領域の絶対位置はほとんど変わらないからである。 The processing at the time of combination may be superimposed on the image indicated by the skin image information like a layer if the feature region image information is transparent except for the feature region portion. In addition, if the image information is obtained by individually cutting out the feature area, it is preferable to determine and synthesize a position to be combined with the skin image from position information in the original focused face image of the feature area. This is because the in-focus face image and the out-of-focus face image have almost the same basic composition and size, and therefore the absolute position of the feature region hardly changes.
また顔画像以外の背景などについては、ピントの合った(合焦した)背景を望めば合焦顔画像情報で示される背景の画像を、逆にピントが合っていない背景を望むならば非合焦顔画像情報で示される背景の画像を利用すると良い。なお、上記例では、特徴領域画像情報として目、鼻、口、耳の画像情報を挙げたが、その他にも顔の輪郭線なども特徴領域画像情報として取得されても良い。そうすれば、背景との境目がはっきりした美顔写真(本発明の美顔カメラにより撮影された写真)を撮影することができる。 Also, for backgrounds other than face images, if you want a focused (focused) background, the background image indicated by the focused face image information is reversed. It is preferable to use the background image indicated by the dark face image information. In the above example, eye, nose, mouth, and ear image information is used as the feature area image information. However, a face outline or the like may be acquired as the feature area image information. By doing so, it is possible to take a facial photograph (a photograph taken by the facial camera of the present invention) with a clear boundary with the background.
(実施例1の処理の流れ) 図6に示すのは、本実施例の処理の流れの一例を表すフローチャートである。なお、以下に示す処理の流れは、方法、計算機に実行させるためのプログラム、またはそのプログラムが記録された読み取り可能な記録媒体として実施されうる(以下、本明細書における処理の流れの記載についても同様である)。 (Processing Flow of First Embodiment) FIG. 6 is a flowchart showing an example of the processing flow of the present embodiment. Note that the processing flow shown below can be implemented as a method, a program for causing a computer to execute, or a readable recording medium on which the program is recorded (hereinafter, the processing flow in this specification is also described). The same).
この図にあるように、まず、フォーカスレンズを駆動して被写体に合焦したフォーカスレンズ位置を決定し、そのフォーカスレンズ位置での合焦顔画像情報を取得する(ステップS0601)。次に、フォーカスレンズの位置をずらして、非合焦顔画像情報を取得する(ステップS0602)。続いて、ステップS0601で取得した合焦顔画像情報から、目、鼻、口、耳などの特徴領域画像情報を取得する(ステップS0603)。また、ステップS0602で取得した非合焦顔画像情報から肌用画像情報を取得する(ステップS0604)。最後に、ステップS0603で取得した特徴領域画像情報と、ステップS0604で取得した肌用画像情報と、を合成して人の顔とする(ステップS0605)。もちろん矛盾が生じない限り、例えばステップS0601とステップS0602の順番が入れ替わって合焦顔画像情報と非合焦顔画像情報の取得順が逆になっても構わない。 As shown in this figure, first, the focus lens is driven to determine the focus lens position focused on the subject, and the in-focus face image information at the focus lens position is acquired (step S0601). Next, the position of the focus lens is shifted to acquire out-of-focus face image information (step S0602). Subsequently, feature area image information such as eyes, nose, mouth, and ears is acquired from the focused face image information acquired in step S0601 (step S0603). Also, skin image information is acquired from the out-of-focus face image information acquired in step S0602 (step S0604). Finally, the feature area image information acquired in step S0603 and the skin image information acquired in step S0604 are combined to form a human face (step S0605). Of course, as long as no contradiction arises, for example, the order of step S0601 and step S0602 may be switched to reverse the acquisition order of the in-focus face image information and the out-of-focus face image information.
(実施例1の効果の簡単な説明) 以上のように、本実施例の美顔カメラによって、専用のアプリケーションなど使わなくても従来のフォーカス技術を利用して、目鼻立ちはくっきりしていて一方で肌のしわなどがはっきり写らない様にぼかされた美顔写真を、簡単に自然な出来あがりで生成することができる。 (Simple description of the effect of Example 1) As described above, the facial camera of the present example uses the conventional focus technology without using a dedicated application, and the eyes and nose are sharp, while the skin. Facial photos that are blurred so that no wrinkles are clearly visible can be easily generated with a natural finish.
≪実施例2≫ (実施例2の概念) 本実施例の美顔カメラは、実施例1の美顔カメラを基本として、特徴領域画像情報で示される目や鼻などと、肌用画像情報で示される肌部分とを合成し美顔写真を作成する。しかし、合焦顔画像から取得された目や鼻と、非合焦顔画像から取得された肌は、色調やコントラストなどの点で異なっており、その合成の境目が不自然である可能性が高い。そこで本実施例の美顔カメラは、その境界が自然になるように補正する手段を備えていることを特徴とする。 << Example 2 >> (Concept of Example 2) The facial camera of the present example is based on the facial camera of Example 1 and is represented by skin image information and eyes and nose indicated by the feature region image information. Create a facial photo by combining the skin part. However, the eyes and nose acquired from the in-focus face image and the skin acquired from the non-focused face image differ in terms of color tone and contrast, and the boundary between the synthesis may be unnatural. high. Therefore, the beauty camera of the present embodiment is characterized by including means for correcting the boundary so that it becomes natural.
(実施例2の構成) 図7に示すのは、本実施例の美顔カメラの機能ブロックの一例を表す図である。この図にあるように、本実施例の美顔カメラ(0700)は、実施例1を基本として、「フォーカスレンズ制御部」(0701)と、「特徴領域画像情報取得部」(0702)と、「肌用画像情報取得部」(0703)と、「合成部」(0704)と、を有する。ただし、上記機能ブロックは実施例1で説明済みであるのでその説明は省略する。そして特徴点として、合成部(0704)が「境界画像補正手段」(0705)をさらに有する。 (Configuration of Example 2) FIG. 7 is a diagram illustrating an example of functional blocks of a beauty camera of the present example. As shown in this figure, the beauty camera (0700) of the present embodiment is based on the first embodiment, with a “focus lens control section” (0701), a “feature area image information acquisition section” (0702), “ A skin image information acquisition unit "(0703); and a" synthesizing unit "(0704). However, since the above functional blocks have already been described in the first embodiment, description thereof will be omitted. As a feature point, the synthesis unit (0704) further includes a “boundary image correction unit” (0705).
「境界画像補正手段」(0705)は、前記特徴領域画像情報と、前記肌用画像情報との合成境界領域の境界が自然に移り変わるように画像補正する機能を有する。この境界画像補正手段の補正方法としては、例えば、合成境界領域にぼかし処理を行ったり、合成境界領域のコントラストや色調が階層的に変化するようコントラストや色調を補正したりする方法が挙げられる。図8に示すのは、この境界画像補正手段の補正の一例について説明するための図である。図中(a)は、境界画像補正手段により補正される前の画像の目周辺を表した図である。ここで、この画像の画素ごとのコントラストの値を取得すると、合焦した画像から取得した目の部分と非合焦画像から取得した肌部分との境界部分に不連続的な差が生じている。そこで、図中(b)で示すように、コントラストの値が連続的な変化をするように画像に補正を行う。すると合成境界領域のコントラストが連続的に変化しているように見えるので、境界が自然に移り変わっているように見える。 The “boundary image correction unit” (0705) has a function of correcting an image so that a boundary of a combined boundary region between the feature region image information and the skin image information is naturally changed. Examples of the correction method of the boundary image correction means include a method of performing blurring processing on the combined boundary region and correcting the contrast and color tone so that the contrast and color tone of the combined boundary region change hierarchically. FIG. 8 is a diagram for explaining an example of correction by the boundary image correction unit. In the figure, (a) is a diagram showing the eye periphery of an image before being corrected by the boundary image correcting means. Here, when the contrast value for each pixel of this image is acquired, there is a discontinuous difference in the boundary portion between the eye portion acquired from the focused image and the skin portion acquired from the non-focused image. . Therefore, as shown by (b) in the figure, the image is corrected so that the contrast value continuously changes. Then, since the contrast of the composite boundary region seems to change continuously, the boundary seems to change naturally.
(実施例2の処理の流れ) 図9に示すのは、本実施例の処理の流れの一例を表すフローチャートである。この図にあるように、まず、フォーカスレンズを駆動して被写体に合焦したフォーカスレンズ位置を決定し、そのフォーカスレンズ位置での合焦顔画像情報を取得する(ステップS0901)。次に、フォーカスレンズの位置をずらして、非合焦顔画像情報を取得する(ステップS0902)。続いて、ステップS0901で取得した合焦顔画像情報から、目、鼻、口、耳などの特徴領域画像情報を取得する(ステップS0903)。また、ステップS0902で取得した非合焦顔画像情報から肌用画像情報を取得する(ステップS0904)。最後に、ステップS0903で取得した特徴領域画像情報と、ステップS0904で取得した肌用画像情報との合成境界領域の境界が自然に移り変わるように画像補正して合成し、人の顔の画像とする(ステップS0905)。 (Processing Flow of Second Embodiment) FIG. 9 is a flowchart showing an example of the processing flow of the present embodiment. As shown in this figure, first, the focus lens is driven to determine the focus lens position focused on the subject, and the in-focus face image information at the focus lens position is acquired (step S0901). Next, the position of the focus lens is shifted to acquire unfocused face image information (step S0902). Subsequently, feature area image information such as eyes, nose, mouth, and ears is acquired from the focused face image information acquired in step S0901 (step S0903). Also, the skin image information is acquired from the out-of-focus face image information acquired in step S0902 (step S0904). Finally, image correction is performed so that the boundary of the combination boundary region between the feature region image information acquired in step S0903 and the skin image information acquired in step S0904 is changed naturally, and the image is formed as a human face image. (Step S0905).
(実施例2の効果の簡単な説明) 以上のように、本実施例の美顔カメラによって、目や鼻、口、耳などの特徴領域と肌との合成境界領域が判別しにくくなったさらに自然な出来上がりの美顔写真を撮影することができる。 (Simple explanation of the effect of Example 2) As described above, it is more natural that the facial camera of this example makes it difficult to distinguish the boundary region between the feature region such as the eyes, nose, mouth and ears and the skin. You can take beautiful facial photos.
≪実施例3≫ (実施例3の概念) 図10に示すのは、本実施例の美顔カメラの概念の一例を説明するための図である。この図にあるように、実施例1や2の美顔カメラによる合焦顔画像と非合焦顔画像の大きさは微妙に異なる。なぜならば、フォーカスレンズの位置がずれているので、CCDなどの結像部において、屈曲した被写体の光が結像する場所が変化するためである。そこで、図11に示すように、本実施例の美顔カメラでは上記肌用画像の大きさが特徴領域画像と合致するようサイズを補正する点を特徴とする。 << Example 3 >> (Concept of Example 3) FIG. 10 is a diagram for explaining an example of the concept of the beauty camera of the present example. As shown in this figure, the in-focus face image and the out-of-focus face image obtained by the beauty camera in Examples 1 and 2 are slightly different in size. This is because the position of the focus lens is deviated, and the location where the light of the bent subject is imaged changes in the imaging unit such as a CCD. Therefore, as shown in FIG. 11, the facial camera of this embodiment is characterized in that the size is corrected so that the size of the skin image matches the feature region image.
(実施例3の構成) 図12に示すのは、本実施例の美顔カメラの機能ブロックの一例を表す図である。この図にあるように、本実施例の美顔カメラ(1200)は、実施例1又は2を基本として、「フォーカスレンズ制御部」(1201)と、「特徴領域画像情報取得部」(1202)と、「肌用画像情報取得部」(1203)と、「合成部」(1204)と、を有する。ただし、上記機能ブロックは実施例1で説明済みであるのでその説明は省略する。そして特徴点として、肌用画像情報取得部(1203)が「倍率補正手段」(1205)をさらに有する。 (Configuration of Example 3) FIG. 12 is a diagram illustrating an example of functional blocks of a beauty camera according to the present example. As shown in this figure, the beauty camera (1200) of the present embodiment is based on the first or second embodiment, and includes a “focus lens control unit” (1201), a “feature area image information acquisition unit” (1202), and , “Skin image information acquisition unit” (1203) and “synthesis unit” (1204). However, since the above functional blocks have already been described in the first embodiment, description thereof will be omitted. As a feature point, the skin image information acquisition unit (1203) further includes a “magnification correction unit” (1205).
「倍率補正手段」(1205)は、特徴領域画像情報と肌用画像情報との焦点の差異に基づく画像倍率を補正する機能を有する。上記のように、特徴領域画像情報と肌用画像情報とのサイズの差はフォーカスレンズの位置のずれによる結像場所のずれによって生じる。したがって、フォーカスレンズ位置のずれを示す値から画像倍率を算出することが可能である。例えば、フォーカスレンズ位置のずれが0.5mmの場合、画像倍率は99%といった具合にテーブルを作成しメモリなどに記憶させておくと良い。あるいはレンズ特性などに応じた所定の計算式をメモリなどに記憶しておき、その都度演算処理を行っても良い。このようにして得られた画像倍率に基づいて、倍率補正手段は画像のサイズを補正する。 The “magnification correction unit” (1205) has a function of correcting the image magnification based on the difference in focus between the feature area image information and the skin image information. As described above, the difference in size between the feature area image information and the skin image information is caused by the shift of the imaging location due to the shift of the position of the focus lens. Therefore, it is possible to calculate the image magnification from the value indicating the shift of the focus lens position. For example, when the shift of the focus lens position is 0.5 mm, a table may be created and stored in a memory or the like such that the image magnification is 99%. Alternatively, a predetermined calculation formula corresponding to the lens characteristics or the like may be stored in a memory or the like, and calculation processing may be performed each time. Based on the image magnification obtained in this way, the magnification correction means corrects the size of the image.
なお、この倍率補正は肌用画像と特徴領域画像との相対的な倍率の補正なので、上記倍率補正手段が「特徴領域画像情報取得部」に備わっていても同様の作用を奏し得る。また、肌用画像を取得する前の非合焦顔画像(または、特徴領域画像を取得する前の合焦顔画像)を倍率補正しても、同様に、特徴領域画像情報と肌用画像情報との焦点の差異に基づく画像倍率を補正することは可能である。 Since the magnification correction is a correction of the relative magnification between the skin image and the feature region image, the same effect can be obtained even if the magnification correction means is provided in the “feature region image information acquisition unit”. Similarly, even when magnification correction is performed on a non-focused face image before acquiring a skin image (or a focused face image before acquiring a feature area image), the feature area image information and the skin image information are also corrected. It is possible to correct the image magnification based on the difference in focus.
図13に示すのは、上記のような倍率補正手段を有する本実施例のその他の美顔カメラの機能ブロックの一例を表す図である。この図にあるように、本実施例のその他の美顔カメラは、実施例1または2を基本として、「フォーカスレンズ制御部」(1301)と、「特徴領域画像情報取得部」(1302)と、「肌用画像情報取得部」(1303)と、「合成部」(1304)と、を有する。そして特徴点として、さらに非合焦顔画像のサイズの画像倍率を補正する「倍率補正手段」(1305)を有する。 FIG. 13 is a diagram showing an example of functional blocks of another beauty camera of this embodiment having the magnification correction means as described above. As shown in this figure, the other beautiful camera of the present embodiment is based on the first or second embodiment, the “focus lens control section” (1301), the “characteristic region image information acquisition section” (1302), It has a “skin image information acquisition unit” (1303) and a “synthesis unit” (1304). As a feature point, a “magnification correction unit” (1305) for correcting the image magnification of the size of the unfocused face image is further provided.
(実施例3の処理の流れ) 図14に示すのは、本実施例の処理の流れの一例を表すフローチャートである。この図にあるように、まず、フォーカスレンズを駆動して被写体に合焦したフォーカスレンズ位置を決定し、そのフォーカスレンズ位置での合焦顔画像情報を取得する(ステップS1401)。次に、フォーカスレンズの位置をずらして、非合焦顔画像情報を取得する(ステップS1402)。続いて、ステップS1401で取得した合焦顔画像情報から、目、鼻、口、耳などの特徴領域画像情報を取得する(ステップS1403)。また、ステップS1402で取得した非合焦顔画像情報から肌用画像情報を取得する(ステップS1404)。最後に、ステップS1403で取得した特徴領域画像情報と、ステップS1404で取得した肌用画像情報との焦点の差異に基づく画像倍率を補正し、補正した特徴領域画像情報と肌用画像情報と、を合成して人の顔の画像とする(ステップS1405)。もちろん、前述の様に非合焦顔画像や合焦顔画像を倍率補正する処理の流れでも良い。その場合、例えばステップS1405での画像倍率の補正処理の代わりに、ステップS1401やステップS1402の合焦顔画像情報や非合焦顔画像情報の取得の後に画像倍率の補正処理が行われる。 (Processing Flow of Embodiment 3) FIG. 14 is a flowchart showing an example of the processing flow of the present embodiment. As shown in this figure, first, the focus lens is driven to determine the focus lens position focused on the subject, and the in-focus face image information at the focus lens position is acquired (step S1401). Next, the position of the focus lens is shifted to acquire unfocused face image information (step S1402). Subsequently, feature area image information such as eyes, nose, mouth, and ears is acquired from the focused face image information acquired in step S1401 (step S1403). Also, skin image information is acquired from the out-of-focus face image information acquired in step S1402 (step S1404). Finally, the image magnification based on the difference in focus between the feature region image information acquired in step S1403 and the skin image information acquired in step S1404 is corrected, and the corrected feature region image information and skin image information are obtained. An image of a human face is synthesized (step S1405). Of course, as described above, the flow of processing for correcting the magnification of a non-focused face image or a focused face image may be used. In this case, for example, instead of the image magnification correction process in step S1405, the image magnification correction process is performed after obtaining the in-focus face image information and the out-of-focus face image information in step S1401 and step S1402.
(実施例3の効果の簡単な説明) 以上のように、本実施例の美顔カメラによって、目や鼻、口、耳などの特徴領域と肌とのフォーカスレンズ位置のずれによるサイズの微妙な差異を修正し、さらに自然な出来上がりの美顔写真を撮影することができる。 (Simple explanation of the effect of Example 3) As mentioned above, with the facial camera of the present Example, a subtle difference in size due to the shift of the focus lens position between the characteristic region such as the eyes, nose, mouth and ears and the skin. Can be taken, and a more natural facial photo can be taken.
≪実施例4≫ (実施例4の概念) 本実施例の美顔カメラは、一回のシャッターの押下など一の画像情報取得信号の入力によって、合焦顔画像情報と非合焦顔画像情報の両者の取得が行われることを特徴としている。これは、ユーザーの一回の撮影動作によって合焦顔画像情報と非合焦顔画像情報の取得が行われるということであり、したがって、ユーザーが2回以上の撮影動作により合焦顔画像情報と非合焦顔画像情報とを別々に取得するのに比べて両者の取得のタイムラグ(時間差)が少なくてすむ。つまり、このタイムラグの間に被写体が動いたり、美顔カメラの位置が手ブレなどでずれたりして取得する合焦顔画像情報と非合焦顔画像情報とが大きく異なった画像情報となってしまう可能性を抑えることができる。
<<
(実施例4の構成) 図15に示すのは、本実施例の美顔カメラの機能ブロックの一例を表す図である。この図にあるように本実施例の美顔カメラ(1500)は、実施例1から3のいずれか一を基本として、「フォーカスレンズ制御部」(1501)と、「特徴領域画像情報取得部」(1502)と、「肌用画像情報取得部」(1503)と、「合成部」(1504)と、を有する。ただし、上記機能ブロックは実施例1で説明済みであるのでその説明は省略する。そして特徴点として、「画像情報取得信号入力部」(1505)をさらに有する。 (Configuration of Example 4) FIG. 15 is a diagram illustrating an example of functional blocks of a beauty camera of the present example. As shown in this figure, the facial camera (1500) of the present embodiment is based on any one of the first to third embodiments, and includes a “focus lens control unit” (1501) and a “feature area image information acquisition unit” ( 1502), “skin image information acquisition unit” (1503), and “synthesis unit” (1504). However, since the above functional blocks have already been described in the first embodiment, description thereof will be omitted. As a feature point, an “image information acquisition signal input unit” (1505) is further provided.
「画像情報取得信号入力部」(1505)は、合焦顔画像情報と非合焦顔画像情報とを取得するための画像情報取得信号を入力する機能を有し、例えば、これは撮影用シャッターなどが挙げられる。そして、この画像情報取得信号入力部に入力される一の画像情報取得信号に基づいて、フォーカスレンズ制御部(1501)によってフォーカスレンズの位置を制御して取得する合焦顔画像情報及び、非合焦顔画像情報の両者が共に取得される。 The “image information acquisition signal input unit” (1505) has a function of inputting an image information acquisition signal for acquiring in-focus face image information and non-focused face image information. Etc. Then, based on one image information acquisition signal input to the image information acquisition signal input unit, the focus lens control unit (1501) controls the position of the focus lens and acquires the in-focus face image information and the non-focusing image information. Both of the facial image information are acquired.
(実施例4の処理の流れ) 図16に示すのは、本実施例の処理の流れの一例を表すフローチャートである。この図にあるように、まず、一の画像情報取得信号が入力される(ステップS1601)。すると、フォーカスレンズを駆動して被写体に合焦したフォーカスレンズ位置を決定し、そのフォーカスレンズ位置での合焦顔画像情報を取得し(ステップS1602)、さらに、フォーカスレンズの位置をずらして、非合焦顔画像情報を取得する(ステップS1603)。続いて、ステップS1602で取得した合焦顔画像情報から、目、鼻、口、耳などの特徴領域画像情報を取得する(ステップS1604)。また、ステップS1603で取得した非合焦顔画像情報から肌用画像情報を取得する(ステップS1605)。最後に、ステップS1604で取得した特徴領域画像情報と、ステップS1605で取得した肌用画像情報と、を合成して人の顔とする(ステップS1606)。 (Processing Flow of Embodiment 4) FIG. 16 is a flowchart showing an example of the processing flow of the present embodiment. As shown in this figure, first, one image information acquisition signal is input (step S1601). Then, the focus lens is driven to determine the position of the focus lens focused on the subject, and the in-focus face image information at the focus lens position is acquired (step S1602). In-focus face image information is acquired (step S1603). Subsequently, feature area image information such as eyes, nose, mouth, and ears is acquired from the focused face image information acquired in step S1602 (step S1604). Also, skin image information is acquired from the out-of-focus face image information acquired in step S1603 (step S1605). Finally, the feature area image information acquired in step S1604 and the skin image information acquired in step S1605 are combined to form a human face (step S1606).
(実施例4の効果の簡単な説明) 以上のように、本実施例の美顔カメラによって、合焦顔画像情報と非合焦顔画像情報の取得のタイムラグの間に被写体が動いたり、美顔カメラの位置が手ブレなどでずれたりして取得する合焦顔画像情報と非合焦顔画像情報とが大きく異なった画像情報となってしまう可能性を抑えることができる。したがって合成する特徴領域画像情報と肌用画像情報とがその大きさや位置などほとんど異ならない画像情報となり完成する美顔写真が、本来の画像と大きく異なるような事態を抑えることができる。 (Simple description of the effect of Example 4) As mentioned above, a subject moves between the time lags of acquisition of focused face image information and non-focused face image information by the facial camera of the present example, and the facial camera Therefore, it is possible to suppress the possibility that the in-focus face image information and the out-of-focus face image information acquired by shifting the position of the camera due to camera shake or the like are greatly different from each other. Therefore, it is possible to suppress a situation in which a beautiful face photo that is completed with image information that has almost no difference in size and position between the feature area image information and the skin image information to be combined differs greatly from the original image.
≪実施例5≫ (実施例5の概念) 図17に示すのは、本実施例の美顔カメラの概念の一例を説明するための図である。この図にあるように、カメラのオートフォーカス機構では、被写体に合焦したフォーカスレンズ位置を決定するために様々なフォーカスレンズ位置における画像情報を取得し、そのコントラストデータの比較を行う。このように、カメラでは合焦顔画像情報を取得するためのフォーカスレンズ位置を決定する前に、非合焦顔画像情報を取得している。そこで、このフォーカスレンズ位置の決定に際して取得される非合焦顔画像情報をメモリなどに蓄積し利用することで、改めて非合焦顔画像情報を取得する手間を省き、処理時間を短縮することができる。 << Example 5 >> (Concept of Example 5) FIG. 17 is a diagram for explaining an example of the concept of the beauty camera of this example. As shown in this figure, the autofocus mechanism of the camera acquires image information at various focus lens positions in order to determine the focus lens position focused on the subject, and compares the contrast data. As described above, the camera acquires the out-of-focus face image information before determining the focus lens position for acquiring the in-focus face image information. Therefore, by storing and using the non-focused face image information acquired when determining the focus lens position in a memory or the like, it is possible to save the trouble of acquiring the non-focused face image information again and shorten the processing time. it can.
(実施例5の構成) 図18に示すのは、本実施例の美顔カメラの機能ブロックの一例を表す図である。この図にあるように、本実施例の美顔カメラ(1800)は、実施例1から4のいずれか一を基本として、「フォーカスレンズ制御部」(1801)と、「特徴領域画像情報取得部」(1802)と、「肌用画像情報取得部」(1803)と、「合成部」(1804)と、を有する。ただし、上記機能ブロックは実施例1で説明済みであるのでその説明は省略する。そして特徴点として、フォーカスレンズ制御部が、「自動フォーカスレンズ位置取得手段」(1805)をさらに有する。 (Configuration of Example 5) FIG. 18 is a diagram illustrating an example of a functional block of the facial camera of the present example. As shown in this figure, the facial camera (1800) of the present embodiment is based on any one of the first to fourth embodiments, and includes a “focus lens control unit” (1801) and a “feature area image information acquisition unit”. (1802), “skin image information acquisition unit” (1803), and “synthesis unit” (1804). However, since the above functional blocks have already been described in the first embodiment, description thereof will be omitted. As a feature point, the focus lens control unit further includes an “auto focus lens position acquisition unit” (1805).
「自動フォーカスレンズ位置取得手段」(1805)は、フォーカスレンズの位置を自動取得するため機能を有し、例えば、フォーカスレンズ位置ごとに非合焦顔画像情報を収集する手段や、収集した非合焦顔画像のコントラストデータ(輝度値など)をそれぞれ取得する手段や、そのコントラストデータを処理し比較する演算手段などからなる。そして、ここで収集された非合焦顔画像情報のうち、例えば合焦顔画像情報を取得したフォーカスレンズ位置と最も卑近なフォーカスレンズ位置で取得された非合焦顔画像情報が、肌用画像情報を取得するために利用される。 The “auto focus lens position acquisition means” (1805) has a function for automatically acquiring the position of the focus lens. For example, means for collecting out-of-focus face image information for each focus lens position, It consists of means for acquiring contrast data (luminance values, etc.) of a dark face image, and arithmetic means for processing and comparing the contrast data. Of the non-focused face image information collected here, for example, the non-focused face image information acquired at the closest focus lens position to the focus lens position from which the focused face image information was acquired is the skin image. Used to obtain information.
(実施例5の処理の流れ) 図19に示すのは、本実施例の処理の流れの一例を表すフローチャートである。この図にあるように、まず、被写体に合焦したフォーカスレンズ位置を自動取得するために画像情報を収集する(ステップS1901)。次にステップS1901の収集結果に基づいて決定されたフォーカスレンズ位置での合焦顔画像情報を取得する(ステップS1902)。続いて、ステップS1901で収集した画像情報の中から、非合焦顔画像情報を取得する(ステップS1903)。さらに、ステップS1902で取得した合焦顔画像情報から、目、鼻、口、耳などの特徴領域画像情報を取得する(ステップS1904)。また、ステップS1903で取得した非合焦顔画像情報から肌用画像情報を取得する(ステップS1905)。最後に、ステップS1904で取得した特徴領域画像情報と、ステップS1905で取得した肌用画像情報と、を合成して人の顔とする(ステップS1906)。 (Processing Flow of Embodiment 5) FIG. 19 is a flowchart showing an example of the processing flow of the present embodiment. As shown in this figure, first, image information is collected in order to automatically acquire the focus lens position focused on the subject (step S1901). Next, in-focus face image information at the focus lens position determined based on the collection result in step S1901 is acquired (step S1902). Subsequently, out-of-focus face image information is acquired from the image information collected in step S1901 (step S1903). Further, feature area image information such as eyes, nose, mouth, and ears is acquired from the focused face image information acquired in step S1902 (step S1904). In addition, skin image information is acquired from the out-of-focus face image information acquired in step S1903 (step S1905). Finally, the feature area image information acquired in step S1904 and the skin image information acquired in step S1905 are combined to form a human face (step S1906).
(実施例5の効果の簡単な説明) 以上のように、本実施例の美顔カメラによって、オートフォーカス機構がフォーカスレンズ位置を決定するために収集する画像情報を利用することで、改めて非合焦顔画像情報を取得する手間を省き処理時間を短縮することができる。 (Simple explanation of the effect of Example 5) As mentioned above, the face camera of a present Example uses the image information which an autofocus mechanism collects in order to determine a focus lens position, and it becomes a non-focusing again. The processing time can be shortened by saving the trouble of acquiring the face image information.
なお本発明の美顔カメラは、通常の携行するカメラのみならず、例えば街頭に設置されているインスタント証明写真撮影装置などにも利用できる。従来技術で述べたように、就職活動などで好印象をもたれるために美顔カメラを利用するのが良いが、その証明写真が、このような街頭のインスタント証明写真撮影装置で撮影できれば便利である。 The beauty camera of the present invention can be used not only for a normal camera to be carried but also for an instant ID photo photographic device installed on a street, for example. As described in the prior art, it is preferable to use a facial camera to make a good impression in job hunting activities, etc. However, it is convenient if the ID photo can be taken with such an instant ID photo shooting device on the street.
0200 美顔カメラ
0201 フォーカスレンズ制御部
0202 特徴領域画像情報取得部
0203 肌用画像情報取得部
0204 合成部
0200 Beauty camera 0201 Focus lens control unit 0202 Feature region image information acquisition unit 0203 Skin image information acquisition unit 0204 Compositing unit
Claims (5)
前記フォーカスレンズ制御部のフォーカスレンズの制御に基づいて取得する合焦顔画像情報から顔の特徴領域の画像情報である特徴領域画像情報を取得する特徴領域画像情報取得部と、
前記フォーカスレンズ制御部のフォーカスレンズの制御に基づいて取得する非合焦顔画像情報から顔の肌の画像情報である肌用画像情報を取得する肌用画像情報取得部と、
前記特徴領域画像情報取得部で取得する特徴領域画像情報と、前記肌用画像情報取得部で取得する肌用画像情報とを合成して人の顔の画像とする合成部と、
を有する美顔カメラ。 In-focus face image information, which is image information focused on a person's face, and unfocused face image information, which is image information of the person's face that is out of focus from the focus of the in-focus face image information. A focus lens control unit for controlling the position of the focus lens as possible,
A feature region image information acquisition unit that acquires feature region image information that is image information of a feature region of a face from in-focus face image information acquired based on control of the focus lens of the focus lens control unit;
A skin image information acquisition unit that acquires skin image information that is image information of the skin of the face from unfocused face image information acquired based on control of the focus lens of the focus lens control unit;
A synthesis unit that combines the feature region image information acquired by the feature region image information acquisition unit with the skin image information acquired by the skin image information acquisition unit to form an image of a human face;
A beautiful face camera.
前記フォーカスレンズ制御部によってフォーカスレンズの位置を制御して取得する合焦顔画像情報及び、非合焦顔画像情報の両者は、前記画像情報取得信号入力部に入力される一の画像情報取得信号に基づいて共に取得される請求項1から3のいずれか一に記載の美顔カメラ。 It has an image information acquisition signal input unit,
Both focused face image information and non-focused face image information acquired by controlling the position of the focus lens by the focus lens control unit are one image information acquisition signal input to the image information acquisition signal input unit. The face camera according to any one of claims 1 to 3, which is acquired together on the basis of.
前記非合焦顔画像情報は、前記自動フォーカスレンズ位置取得手段がフォーカスレンズの合焦位置を自動取得するために収集する画像情報である請求項1から4のいずれか一に記載の美顔カメラ。 The focus lens control unit has automatic focus lens position acquisition means for automatically acquiring the position of the focus lens,
5. The facial camera according to claim 1, wherein the out-of-focus face image information is image information collected by the automatic focus lens position acquisition unit to automatically acquire a focus position of a focus lens.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003392805A JP2005159561A (en) | 2003-11-21 | 2003-11-21 | Beautiful face camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003392805A JP2005159561A (en) | 2003-11-21 | 2003-11-21 | Beautiful face camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005159561A true JP2005159561A (en) | 2005-06-16 |
Family
ID=34719387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003392805A Pending JP2005159561A (en) | 2003-11-21 | 2003-11-21 | Beautiful face camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005159561A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008271241A (en) * | 2007-04-20 | 2008-11-06 | Fujifilm Corp | Imaging apparatus, image processing apparatus, imaging method, and image processing method |
JP2009198951A (en) * | 2008-02-25 | 2009-09-03 | Nikon Corp | Imaging device and method for detecting target object |
JP2014176047A (en) * | 2013-03-13 | 2014-09-22 | Fujifilm Corp | Visual effect evaluation device, method and program, and image forming apparatus |
CN109447896A (en) * | 2018-09-21 | 2019-03-08 | 维沃移动通信(杭州)有限公司 | A kind of image processing method and terminal device |
-
2003
- 2003-11-21 JP JP2003392805A patent/JP2005159561A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008271241A (en) * | 2007-04-20 | 2008-11-06 | Fujifilm Corp | Imaging apparatus, image processing apparatus, imaging method, and image processing method |
JP4582423B2 (en) * | 2007-04-20 | 2010-11-17 | 富士フイルム株式会社 | Imaging apparatus, image processing apparatus, imaging method, and image processing method |
JP2009198951A (en) * | 2008-02-25 | 2009-09-03 | Nikon Corp | Imaging device and method for detecting target object |
JP2014176047A (en) * | 2013-03-13 | 2014-09-22 | Fujifilm Corp | Visual effect evaluation device, method and program, and image forming apparatus |
CN109447896A (en) * | 2018-09-21 | 2019-03-08 | 维沃移动通信(杭州)有限公司 | A kind of image processing method and terminal device |
CN109447896B (en) * | 2018-09-21 | 2023-07-25 | 维沃移动通信(杭州)有限公司 | Image processing method and terminal equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103081455B (en) | The multiple images being captured from handheld device carry out portrait images synthesis | |
JP4511821B2 (en) | Method, program and apparatus for determining important region in image | |
KR101817657B1 (en) | Digital photographing apparatus splay apparatus and control method thereof | |
JP6838994B2 (en) | Imaging device, control method and program of imaging device | |
KR102400283B1 (en) | Image processing apparatus, image processing method, and program | |
JP2004180298A (en) | Camera system provided with eye monitoring function | |
JP2011041089A (en) | Method, device and program for processing image, and imaging device | |
US20100245610A1 (en) | Method and apparatus for processing digital image | |
JP2018174502A (en) | Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program | |
JP2009017223A (en) | Imaging device, image processing device, and their image processing method and program | |
JP4802884B2 (en) | Imaging apparatus, captured image recording method, and program | |
JP2010239440A (en) | Image compositing apparatus and program | |
KR100926133B1 (en) | Method and apparatus for producing and taking digital contents | |
JP2016032181A (en) | Image processing apparatus, image pickup device and image processing method | |
CN106296574A (en) | 3-d photographs generates method and apparatus | |
JP2015012437A (en) | Digital camera | |
JP2005159561A (en) | Beautiful face camera | |
JP2019169985A (en) | Image processing apparatus | |
JP4934992B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP2007259004A (en) | Digital camera, image processor, and image processing program | |
JP2009118434A (en) | Blurring correction device and imaging apparatus | |
JP2015198336A (en) | Image processing system and its control method, and program | |
JP2013081136A (en) | Image processing apparatus, and control program | |
JP4922066B2 (en) | camera | |
JP5181832B2 (en) | Photographed image composition method and digital camera |