Nothing Special   »   [go: up one dir, main page]

JP2024083217A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024083217A
JP2024083217A JP2023100161A JP2023100161A JP2024083217A JP 2024083217 A JP2024083217 A JP 2024083217A JP 2023100161 A JP2023100161 A JP 2023100161A JP 2023100161 A JP2023100161 A JP 2023100161A JP 2024083217 A JP2024083217 A JP 2024083217A
Authority
JP
Japan
Prior art keywords
person
image
processing
retouching
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023100161A
Other languages
Japanese (ja)
Inventor
呂美 嵐
Romi Arashi
菜津美 松原
Natsumi Matsubara
卓 荒木
Taku Araki
千尋 華岡
Chihiro Hanaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2024025099A priority Critical patent/JP7502711B1/en
Publication of JP2024083217A publication Critical patent/JP2024083217A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To allow intuitive selection of a person that is to be a processing object.SOLUTION: An information processing device performs the following: recognizing characteristics of captured images each including an attribute of a person who appears as a subject; switching displays of selection buttons which are used for selecting the person to be a processing object according to the characteristics of a captured image being selected as a processing object, the selection button being included in a processing screen which is used for selecting a processing content for a captured image; and performing processing for part of the person selected using the selection button in the captured image being selected as the processing object. The present technique can be applied to a computer installed in a photographing studio.SELECTED DRAWING: Figure 10

Description

新規性喪失の例外適用申請有り Application for exception to loss of novelty has been filed

本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、加工対象とする人物を直感的に選択できるようにした情報処理装置、情報処理方法、およびプログラムに関する。 This technology relates to an information processing device, an information processing method, and a program, and in particular to an information processing device, an information processing method, and a program that enable intuitive selection of a person to be processed.

証明写真機やゲームセンターに設置されるプリントシール機などの撮影装置においては、撮影後の画像の写りをユーザが自分で調整できるようになっている。ユーザは、シール紙などに印刷された状態で受け取ることになる画像の写りを1枚ずつ好みに応じて調整することができる。 In photo taking devices such as passport photo booths and print sticker machines installed in game centers, users can adjust the appearance of the image after it has been taken. Users can adjust the appearance of each image that they receive printed on sticker paper or the like to their liking.

特許文献1には、撮影コースとしてカップルコースが選択された場合、編集画面に表示させる編集ツールを男性と女性の撮影時の立ち位置に応じて変更する技術が記載されている。例えば、男性のユーザに割り当てられた領域には比較的簡単な編集ツールの選択に用いられるボタンが表示される。 Patent Document 1 describes a technology that, when a couple course is selected as the photography course, changes the editing tools displayed on the editing screen depending on the positions of the man and woman when taking the photo. For example, in the area assigned to a male user, buttons used to select relatively simple editing tools are displayed.

特開2014-074914号公報JP 2014-074914 A

写りの調整対象として選択中の画像に複数の人物が写っている場合、ある人物と他の人物に対してそれぞれ異なる画像処理を施すような操作を行いたい場合がある。 When multiple people appear in the image you have selected for adjustment, you may want to apply different image processing to one person than to the others.

本技術はこのような状況に鑑みてなされたものであり、加工対象とする人物を直感的に選択できるようにするものである。 This technology was developed in light of these circumstances, and allows users to intuitively select the person they want to edit.

本技術の一側面の情報処理装置は、被写体として写る人物の属性を含むそれぞれの撮影画像の特徴を認識する認識部と、前記撮影画像を対象とした加工の内容の選択に用いられる加工画面を構成する、加工対象とする前記人物の選択に用いられる選択ボタンの表示を、加工対象として選択中の前記撮影画像の特徴に応じて切り替える表示制御部と、加工対象として選択中の前記撮影画像のうちの、前記選択ボタンを用いてユーザにより選択された前記人物の部分に加工を施す画像処理部とを備える。 An information processing device according to one aspect of the present technology includes a recognition unit that recognizes the characteristics of each captured image including the attributes of a person appearing as a subject, a display control unit that configures a processing screen that is used to select the content of processing for the captured image and that switches the display of a selection button used to select the person to be processed in accordance with the characteristics of the captured image that is selected as the processing target, and an image processing unit that applies processing to the part of the person selected by the user using the selection button in the captured image that is selected as the processing target.

本技術の一側面においては、被写体として写る人物の属性を含むそれぞれの撮影画像の特徴が認識され、前記撮影画像を対象とした加工の内容の選択に用いられる加工画面を構成する、加工対象とする前記人物の選択に用いられる選択ボタンの表示が、加工対象として選択中の前記撮影画像の特徴に応じて切り替えられる。また、加工対象として選択中の前記撮影画像のうちの、前記選択ボタンを用いてユーザにより選択された前記人物の部分に加工が施される。 In one aspect of the present technology, the characteristics of each captured image, including the attributes of the person appearing as the subject, are recognized, and the display of a selection button used to select the person to be processed, which constitutes a processing screen used to select the content of processing for the captured image, is switched according to the characteristics of the captured image selected as the processing target. Also, processing is applied to the part of the person selected by the user using the selection button in the captured image selected as the processing target.

本技術によれば、加工対象とする人物を直感的に選択することができる。 This technology allows you to intuitively select the person you want to edit.

撮影スタジオにおける作業の流れを示す図である。FIG. 1 is a diagram showing a workflow in a photography studio. 撮影画像の提供の例を示す図である。FIG. 13 is a diagram showing an example of providing a captured image. レタッチ画面の例を示す図である。FIG. 13 is a diagram showing an example of a retouch screen. レタッチ選択領域の表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a retouch selection area. レタッチパラメータの適用の例を示す図である。FIG. 13 is a diagram illustrating an example of application of retouching parameters. 動作モードの選択画面の例を示す図である。FIG. 13 is a diagram showing an example of a selection screen for an operation mode. 作業の流れを示す図である。FIG. 作業の流れを示す他の図である。FIG. 11 is another diagram showing the work flow. 人物選択ボタンの表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a person selection button. 人物選択ボタンが操作された場合の例を説明する図である。FIG. 13 is a diagram illustrating an example in which a person selection button is operated. 人物選択ボタンの表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a person selection button. 人物選択ボタンの表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a person selection button. 人物選択ボタンが操作された場合の例を説明する図である。FIG. 13 is a diagram illustrating an example in which a person selection button is operated. 人物選択ボタンの表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a person selection button. 人物選択ボタンの表示を拡大して示す図である。FIG. 13 is an enlarged view showing a display of a person selection button. レタッチ用PCの構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a retouching PC. レタッチ用PCの機能構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of a retouching PC. 管理ファイルの例を示す図である。FIG. 11 is a diagram illustrating an example of a management file. レタッチ対象の撮影画像の例を示す図である。FIG. 1 is a diagram showing an example of a captured image to be retouched. スタイルアップの画像処理の例を示す図である。FIG. 13 is a diagram illustrating an example of image processing for style up. スタイルアップ前と後の撮影画像の例を示す図である。FIG. 13 is a diagram showing examples of captured images before and after a style up. スタイルアップの画像処理の例を示す図である。FIG. 13 is a diagram illustrating an example of image processing for style up. 引き伸ばし方向の例を示す図である。FIG. 13 is a diagram showing an example of a stretching direction. レタッチ画面の表示例を示す図である。FIG. 13 is a diagram showing a display example of a retouch screen. レタッチ画面の他の表示例を示す図である。FIG. 11 is a diagram showing another display example of the retouch screen. レタッチ画面の他の表示例を示す図である。FIG. 11 is a diagram showing another display example of the retouch screen. 枠画像の表示例を示す図である。FIG. 13 is a diagram showing a display example of a frame image. レタッチ対象とするか否かの選択例を示す図である。FIG. 13 is a diagram showing an example of selection of whether or not to retouch a subject; 特徴の認識結果の提示例を示す図である。FIG. 13 is a diagram showing an example of presentation of feature recognition results. 特徴の認識結果の他の提示例を示す図である。FIG. 11 is a diagram showing another example of presentation of feature recognition results. 画像選択画面の例を示す図である。FIG. 13 is a diagram showing an example of an image selection screen.

<<撮影スタジオでの作業の流れ>>
図1は、撮影スタジオにおける作業の流れを示す図である。
<<Work flow in the photography studio>>
FIG. 1 is a diagram showing the flow of work in a photography studio.

本技術は、例えばウェディングの記念撮影を行う撮影スタジオにおいて用いられる。本技術は、入学/卒業の記念写真、成人式の記念写真、七五三の記念写真などの、各種のイベントの記念写真の撮影を行う場合にも適用可能である。 This technology is used, for example, in photography studios that take commemorative photos for weddings. This technology can also be applied to taking commemorative photos for various events, such as entrance/graduation photos, coming-of-age ceremonies, and Shichi-Go-San (celebration of the 365-3 festival).

図1の左側に示すように、撮影スタジオにおける撮影はカメラマンにより行われる。図1の例においては、背景スクリーンの前に立つ新郎と新婦を被写体として撮影が行われている。新郎はタキシード姿であり、新婦はウェディングドレス姿である。新郎と新婦の周りには、カメラマンによる撮影にあわせて発光するストロボ装置などの機材が配置される。新郎新婦などの撮影が撮影スタジオの外で行われるようにしてもよい。 As shown on the left side of Figure 1, photography in a photography studio is performed by a photographer. In the example of Figure 1, the subjects of the photography are a bride and groom standing in front of a background screen. The groom is wearing a tuxedo, and the bride is wearing a wedding dress. Around the bride and groom, equipment such as a strobe device that emits light in accordance with the photographer's photography is placed. Photography of the bride and groom may also be performed outside the photography studio.

カメラマンによる撮影は、構図を変えて、50枚、100枚などの多くの枚数の静止画像(写真)を撮影するようにして行われる。静止画像の構図は、新郎と新婦のポーズ、新郎、新婦とカメラマンとの位置関係、焦点距離などのカメラパラメータなどにより決定される。カメラマンにより撮影された静止画像である撮影画像は、カメラに接続された図示せぬPCに転送され、保存される。 The photographer takes many still images (photographs), varying the composition, such as 50 or 100. The composition of the still images is determined by the poses of the bride and groom, the relative positions of the bride and groom and the photographer, and camera parameters such as focal length. The still images taken by the photographer are transferred to and saved on a PC (not shown) connected to the camera.

撮影が終了した後、新郎と新婦は、撮影スタジオに用意されたレタッチスペースに移動し、図1の右側に示すように、レタッチ用PC1を利用して、カメラマンに撮影してもらった撮影画像を確認する。 After the photo shoot is completed, the bride and groom move to the retouching space prepared in the photography studio and use retouching PC 1 to check the images taken by the photographer, as shown on the right side of Figure 1.

また、新郎と新婦は、レタッチ用PC1のユーザとして、例えば最終的に印刷してもらう枚数の撮影画像を選択し、自らレタッチすることによって、それぞれの撮影画像の写りを調整する。カメラマンにより撮影してもらった撮影画像の中から選択された一部の撮影画像を対象としてレタッチが行われる。例えば、ユーザが申し込んだプランに応じた、5枚、10枚などの所定の枚数の撮影画像がレタッチ対象の画像として選択される。レタッチ(加工)には、撮影画像の写りを調整するための各種の画像処理が含まれる。 The bride and groom, as users of the retouching PC 1, select the number of images they ultimately want printed, and adjust the appearance of each image by retouching them themselves. Retouching is performed on a portion of the images selected from those taken by the photographer. For example, a predetermined number of images, such as five or ten, are selected as images to be retouched, depending on the plan the user has signed up for. Retouching (processing) includes various types of image processing to adjust the appearance of the images.

レタッチスペースには、1台、または複数台のレタッチ用PC1が用意される。保存用のPCに保存された撮影画像がレタッチ用PC1に転送され、レタッチ用PC1のディスプレイ11に表示される。レタッチ用PC1には、カメラマンに撮影してもらった撮影画像をレタッチすることに用いられるアプリケーションであるレタッチアプリ1Aがインストールされている。 In the retouching space, one or more retouching PCs 1 are prepared. The captured images stored in the storage PC are transferred to the retouching PC 1 and displayed on the display 11 of the retouching PC 1. A retouching application 1A, which is an application used to retouch images taken by a photographer, is installed on the retouching PC 1.

このように、本技術を適用したレタッチ用PC1が設置された撮影スタジオにおいては、カメラマンに撮影してもらった撮影画像のレタッチがユーザ(新郎と新婦)自身により行われる。ユーザは、レタッチアプリ1Aの機能を利用して、自分の好みの写りとなるように撮影画像のレタッチを行うことができる。タブレット端末などの、PCとは異なる端末にレタッチアプリ1Aがインストールされ、レタッチに用いられるようにしてもよい。 In this way, in a photography studio where a retouching PC 1 to which the present technology is applied is installed, the users (the bride and groom) themselves retouch the images taken by the photographer. Using the functions of the retouching application 1A, the users can retouch the images to their liking. The retouching application 1A may be installed on a device other than a PC, such as a tablet device, and used for retouching.

図2は、撮影画像の提供の例を示す図である。 Figure 2 shows an example of providing captured images.

レタッチアプリ1Aによるレタッチ済みの撮影画像は、撮影スタジオの運営会社により印刷され、矢印#1に示すように、例えばアルバムなどの形で後日ユーザに渡される。 The captured images retouched by retouching app 1A are printed by the photography studio's management company and later given to the user in the form of, for example, an album, as shown by arrow #1.

また、レタッチ済みの撮影画像は、矢印#2に示すように、レタッチ用PC1から画像管理サーバ2にアップロードされ、画像管理サーバ2において管理される。画像管理サーバ2は、例えばインターネット上のサーバである。撮影スタジオの運営会社により、または、撮影スタジオの運営会社とは異なる事業者により画像管理サーバ2が管理される。 The retouched photographed images are uploaded from the retouching PC 1 to the image management server 2, as shown by arrow #2, and are managed by the image management server 2. The image management server 2 is, for example, a server on the Internet. The image management server 2 is managed by the management company of the photography studio, or by a business entity different from the management company of the photography studio.

ユーザは、スマートフォンなどの自分の携帯端末3を操作し、画像管理アプリ3Aを操作することによって、矢印#3に示すように、自分たちが被写体となって撮影してもらった撮影画像を閲覧したり、ダウンロードしたりすることができる。画像管理アプリ3Aは、画像管理サーバ2において管理されている撮影画像の閲覧等を行うためのアプリケーションである。画像管理アプリ3Aは、例えば、画像管理サーバ2を管理する事業者により提供される。 By operating their own mobile terminal 3 such as a smartphone and operating the image management app 3A, users can view and download images that have been taken of them as the subject, as shown by arrow #3. The image management app 3A is an application for viewing, etc., the captured images managed in the image management server 2. The image management app 3A is provided, for example, by the business entity that manages the image management server 2.

撮影スタジオにおいて撮影された撮影画像の提供は、アルバムの形で行われるとともに、適宜、データの形で行われることになる。データでの撮影画像の提供が、アルバムの料金とは別料金で可能となるようにしてもよい。 The images taken in the photography studio will be provided in the form of an album and, where appropriate, in the form of data. It may be possible to provide the images in the form of data for a fee separate from the fee for the album.

データでの撮影画像の提供は、ユーザによりレタッチが行われた撮影画像だけでなく、レタッチ対象としてユーザにより選択されなかった撮影画像をも提供するようにして行われる。レタッチ対象としてユーザにより選択されなかった撮影画像については、後述するように、ユーザの操作によらずに、レタッチアプリ1Aによって自動的にレタッチが行われる。 The provision of photographed images in the form of data is carried out so that not only photographed images that have been retouched by the user, but also photographed images that have not been selected by the user as subjects for retouching are provided. Photographed images that have not been selected by the user as subjects for retouching are automatically retouched by the retouching application 1A without any user operation, as described below.

ユーザは、レタッチ対象として選択しなかった撮影画像についても、データの形で受け取ることが可能となる。画像管理アプリ3Aを用いるのではなく、ブラウザを利用して所定のサイトにアクセスし、画像管理サーバ2において管理されている撮影画像を受け取ることができるようにしてもよい。例えば、画像管理サーバ2の管理者が提供する画像提供サービスの会員登録を行うことにより、ユーザは、画像管理サーバ2において管理されている撮影画像を、画像管理アプリ3Aを利用して、または、ブラウザを利用して受け取ることが可能となる。 The user can receive in the form of data even captured images that were not selected for retouching. Instead of using the image management app 3A, the user can use a browser to access a specific site and receive captured images managed in the image management server 2. For example, by registering as a member of an image providing service provided by the administrator of the image management server 2, the user can receive captured images managed in the image management server 2 using the image management app 3A or a browser.

携帯端末3ではなく、タブレット端末やPCなどの他の端末を利用して撮影画像を受け取ることができるようにしてもよい。 Instead of the mobile terminal 3, it may be possible to receive captured images using other terminals such as a tablet terminal or a PC.

<<レタッチアプリについて>>
<画面表示>
・レタッチ画面
図3は、レタッチ画面の例を示す図である。
<<About the retouching app>>
<Screen display>
Retouch Screen FIG. 3 is a diagram showing an example of a retouch screen.

撮影画像のレタッチに用いられる画面であるレタッチ画面の中央上方には表示領域31が形成される。表示領域31は、いまレタッチ対象となっている1枚の撮影画像が拡大表示される領域である。表示領域31の左側に形成されたサムネイル領域32には、ユーザにより選択された撮影画像のサムネイル画像が表示される。図3の例においては、撮影画像P1乃至P5の5枚の撮影画像のサムネイル画像が表示されている。サムネイル画像を用いて選択された撮影画像P1が、表示領域31に拡大表示される。 A display area 31 is formed in the upper center of the retouch screen, which is a screen used for retouching photographed images. The display area 31 is an area in which one photographed image currently being retouched is enlarged and displayed. A thumbnail image of the photographed image selected by the user is displayed in a thumbnail area 32 formed on the left side of the display area 31. In the example of FIG. 3, thumbnail images of five photographed images P1 to P5 are displayed. The photographed image P1, which is selected using the thumbnail image, is enlarged and displayed in the display area 31.

レタッチ画面の下には横長のレタッチ選択領域33が形成される。レタッチ選択領域33に表示されたボタンを用いて、レタッチの内容が選択される。レタッチ選択領域33に表示されたボタンを用いてレタッチの内容が選択される毎に、選択された内容が表示領域31の表示に反映される。ユーザは、表示領域31の表示を見ながら、いまレタッチ対象となっている撮影画像に施すレタッチの内容をレタッチ選択領域33の表示を用いて選択することになる。 A horizontally long retouching selection area 33 is formed below the retouching screen. The buttons displayed in the retouching selection area 33 are used to select the retouching content. Each time a retouching content is selected using a button displayed in the retouching selection area 33, the selected content is reflected in the display in the display area 31. While viewing the display in the display area 31, the user can use the display in the retouching selection area 33 to select the retouching content to be applied to the captured image currently being retouched.

図4は、レタッチ選択領域33の表示を拡大して示す図である。 Figure 4 shows an enlarged view of the retouch selection area 33.

レタッチ選択領域33は、顔・体全体の調整に用いられる情報の表示領域である領域33-1、目元・メイクの調整に用いられる情報の表示領域である領域33-2、および、明るさの調整に用いられる情報の表示領域である領域33-3から形成される。 The retouching selection area 33 is made up of area 33-1, which is a display area for information used to adjust the entire face and body, area 33-2, which is a display area for information used to adjust the eyes and makeup, and area 33-3, which is a display area for information used to adjust brightness.

レタッチ選択領域33の左側に形成された領域33-1には、小顔感の調整に用いられる調整ボタン51、顔の形の調整に用いられる調整ボタン52、肌質の調整に用いられる調整ボタン53、あごの長さの調整に用いられる調整ボタン54、スタイルの調整(スタイルアップ)に用いられる調整ボタン55が表示される。 In area 33-1 formed to the left of retouch selection area 33, adjustment button 51 used to adjust the appearance of a smaller face, adjustment button 52 used to adjust the shape of the face, adjustment button 53 used to adjust the skin type, adjustment button 54 used to adjust the length of the chin, and adjustment button 55 used to adjust the style (style up).

小顔感として、5段階のレベル(調整度合い)が用意される。小顔感の「0」は、顔の大きさを変えないで、オリジナルの大きさのままとすることを表す。また、小顔感の「1」は、「1」に対応するパラメータに基づいて、顔の大きさを1段階小さくすることを表す。ユーザは、「1」乃至「4」のいずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分の顔の大きさを調整することができる。 Five levels (degree of adjustment) are available for the small face effect. A small face effect of "0" indicates that the size of the face is not changed and remains at its original size. A small face effect of "1" indicates that the size of the face is reduced by one level based on the parameter corresponding to "1." By selecting one of the levels "1" to "4," the user can adjust the size of their own face in the captured image displayed in the display area 31.

顔の形として、「まる」、「たまご」、「ほっそり」が用意される。ユーザはいずれかの形を選択することにより、表示領域31に表示されている撮影画像に写る自分の顔の形を調整することができる。「レタッチなし」を選択することにより、顔の形を変えないことも可能とされる。 Face shapes available are "round," "egg," and "slim." By selecting one of these shapes, the user can adjust the shape of their face that appears in the captured image displayed in the display area 31. By selecting "no retouching," it is also possible to leave the shape of the face unchanged.

肌質として、5段階のレベルが用意される。肌質の「0」は、肌質を変えないで、オリジナルの肌質のままとすることを表す。また、肌質の「1」は、「1」に対応するパラメータに基づいて、肌質のレベルを1段階上げることを表す。ユーザは、「1」乃至「4」のいずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分の肌質の滑らかさの程度を調整することができる。 Five levels of skin texture are available. Skin texture "0" indicates that the skin texture is not changed and remains the original skin texture. Skin texture "1" indicates that the skin texture level is increased by one level based on the parameter corresponding to "1." By selecting one of the levels "1" to "4," the user can adjust the degree of smoothness of their own skin texture as it appears in the captured image displayed in the display area 31.

あごの長さとして、3段階のレベルが用意される。あごの長さの「0」は加工なし、すなわちあごの長さを変えないで、オリジナルの長さのままとすることを表す。また、あごの長さの「短い」は、「短い」に対応するパラメータに基づいて加工を行い、あごの長さを1段階短くすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のあごの長さを調整することができる。 Three levels of chin length are available. A chin length of "0" indicates no processing, i.e. the chin length is left unchanged at its original length. A chin length of "short" indicates that processing is performed based on the parameters corresponding to "short", shortening the chin length by one level. By selecting one of the levels, the user can adjust the length of their chin that appears in the captured image displayed in the display area 31.

スタイルアップとして、3段階のレベルが用意とされる。スタイルアップの「0」は加工なし、すなわちスタイルを変えないで、オリジナルのスタイルのままとすることを表す。また、スタイルアップの「弱い」は、「弱い」に対応するパラメータに基づいて、足を長くするなどの加工を行い、全身のバランスを1段階よくすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のスタイルを調整することができる。 Three levels of style improvement are available. Style improvement "0" indicates no processing, i.e., the style is not changed and remains the original style. Furthermore, style improvement "weak" indicates that processing such as making the legs longer is performed based on the parameters corresponding to "weak", improving the overall balance by one level. By selecting one of the levels, the user can adjust their own style as it appears in the captured image displayed in the display area 31.

レタッチ選択領域33の中央に形成された領域33-2には、目の大きさの調整に用いられる調整ボタン56、目の形の調整に用いられる調整ボタン57、メイクの濃さの調整に用いられる調整ボタン58、鼻筋の調整に用いられる調整ボタン59、ひげ消しの調整に用いられる調整ボタン60が表示される。 In area 33-2 formed in the center of retouch selection area 33, adjustment button 56 used to adjust eye size, adjustment button 57 used to adjust eye shape, adjustment button 58 used to adjust makeup intensity, adjustment button 59 used to adjust nose bridge, and adjustment button 60 used to adjust facial hair removal are displayed.

目の大きさとして、5段階のレベルが用意される。目の大きさの「0」は加工なし、すなわち目の大きさを変えないで、オリジナルの大きさのままとすることを表す。また、目の大きさの「1」は、「1」に対応するパラメータに基づいて、目の大きさを1段階大きくすることを表す。ユーザは、「1」乃至「4」のいずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分の目の大きさを調整することができる。 Five levels of eye size are available. Eye size "0" indicates no processing, i.e., the eye size is left unchanged at its original size. Eye size "1" indicates that the eye size is increased by one level based on the parameter corresponding to "1." By selecting one of the levels "1" through "4," the user can adjust the size of their own eyes as they appear in the captured image displayed in the display area 31.

目の形として、「まる目」、「たれ目」、「ねこ目」が用意される。ユーザは、いずれかの形を選択することにより、表示領域31に表示されている撮影画像に写る自分の目の形を調整することができる。「加工なし」を選択することにより、目の形を変えないことも可能とされる。 Eye shapes available are "round eyes," "droopy eyes," and "cat eyes." By selecting one of these shapes, the user can adjust the shape of their eyes that will appear in the captured image displayed in the display area 31. By selecting "no processing," it is also possible to leave the shape of the eyes unchanged.

メイクの濃さとして、5段階のレベルが用意される。メイクの濃さの「0」は、メイクの濃さを変えないで、オリジナルの濃さのままとすることを表す。また、メイクの濃さの「1」は、「1」に対応するパラメータに基づいて、メイクの濃さを1段階濃くすることを表す。ユーザは、「1」乃至「4」のいずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のメイクの濃さを調整することができる。 Five levels of makeup intensity are available. A makeup intensity of "0" indicates that the makeup intensity is not changed and remains at the original intensity. A makeup intensity of "1" indicates that the makeup intensity is increased by one level based on the parameter corresponding to "1." By selecting one of the levels "1" through "4," the user can adjust the intensity of their own makeup in the captured image displayed in the display area 31.

鼻筋として、オン/オフを選択することが可能とされる。ユーザは、オンまたはオフを選択することにより、表示領域31に表示されている撮影画像に写る自分の鼻筋のハイライト部分を強調するか、オリジナルの状態のままとするかを選択することができる。 It is possible to select ON/OFF for the nose bridge. By selecting ON or OFF, the user can choose whether to emphasize the highlights of the bridge of their nose that appear in the captured image displayed in the display area 31, or to leave it in its original state.

ひげ消しとして、3段階のレベルが用意される。ひげ消しの「0」は、ひげを変えないで、オリジナルのひげのままとすることを表す。また、ひげ消しの「弱い」は、「弱い」に対応するパラメータに基づいて加工を行い、ひげを1段階薄くすることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分のひげの濃さを調整することができる。ひげ消しの機能は、レタッチ対象の人物が新郎である場合に有効となる。 Three levels of beard erasure are available. Beard erasure "0" means that the beard is not changed and remains the original beard. Furthermore, beard erasure "weak" means that processing is performed based on the parameters corresponding to "weak" to make the beard one level thinner. By selecting one of the levels, the user can adjust the darkness of their own beard in the captured image displayed in the display area 31. The beard erasure function is enabled when the person being retouched is the groom.

レタッチ選択領域33の右側に形成された領域33-3には、肌の明るさの調整に用いられる調整ボタン61、全体の明るさの調整に用いられる調整ボタン62、背景のみの明るさの調整に用いられる調整ボタン63が表示される。 In area 33-3 formed to the right of retouch selection area 33, adjustment button 61 used to adjust the brightness of the skin, adjustment button 62 used to adjust the overall brightness, and adjustment button 63 used to adjust the brightness of only the background are displayed.

肌の明るさとして、3段階のレベルが用意される。肌の明るさの「0」は、肌の明るさを変えないで、オリジナルの明るさのままとすることを表す。また、肌の明るさの「1」は、「1」に対応するパラメータに基づいて、肌の明るさのレベルを1段階上げることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る自分の肌の明るさを調整することができる。 Three levels of skin brightness are available. Skin brightness "0" indicates that the skin brightness is not changed and remains at the original brightness. Skin brightness "1" indicates that the skin brightness level is increased by one level based on the parameter corresponding to "1." By selecting one of the levels, the user can adjust the brightness of their own skin in the captured image displayed in the display area 31.

全体の明るさとして、3段階のレベルが用意される。全体の明るさの「0」は、全体の明るさを変えないで、オリジナルの明るさのままとすることを表す。また、全体の明るさの「1」は、「1」に対応するパラメータに基づいて、全体の明るさのレベルを1段階上げることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る全体の明るさを調整することができる。 Three levels of overall brightness are available. An overall brightness of "0" indicates that the overall brightness is not changed and remains at the original brightness. An overall brightness of "1" indicates that the overall brightness level is increased by one level based on the parameter corresponding to "1." By selecting one of the levels, the user can adjust the overall brightness of the captured image displayed in the display area 31.

背景の明るさとして、3段階のレベルが用意される。背景の明るさの「0」は、背景の明るさを変えないで、オリジナルの明るさのままとすることを表す。また、背景の明るさの「1」は、「1」に対応するパラメータに基づいて、背景の明るさのレベルを1段階上げることを表す。ユーザは、いずれかのレベルを選択することにより、表示領域31に表示されている撮影画像に写る背景の明るさを調整することができる。 Three levels of background brightness are available. A background brightness of "0" indicates that the background brightness is not changed and remains at its original brightness. A background brightness of "1" indicates that the background brightness level is increased by one level based on the parameter corresponding to "1." By selecting one of the levels, the user can adjust the background brightness shown in the captured image displayed in the display area 31.

図3の説明に戻り、表示領域31の左側には一括レタッチに用いられる一括レタッチボタン34が表示される。一括レタッチは、上述したような各種のレタッチ内容の組み合わせを一括して選択する機能である。 Returning to the explanation of FIG. 3, a batch retouch button 34 used for batch retouching is displayed on the left side of the display area 31. Batch retouching is a function for selecting a combination of various retouching contents as described above all at once.

図3の例においては、レタッチ内容のレベルの組み合わせが異なる3種類のレベルの一括レタッチの中からいずれかのレベルを選択することができるようになっている。ユーザは、一括レタッチの機能を利用することにより、それぞれのレタッチ内容をレタッチ選択領域33の表示を用いて選択することなく、一度の操作で選択することができる。 In the example of FIG. 3, the user can select one of three levels of batch retouching, each of which has a different combination of retouching content levels. By using the batch retouching function, the user can select the retouching content with a single operation, without having to select each retouching content using the display in the retouching selection area 33.

表示領域31の右側には加工前ボタン35が表示される。加工前ボタン35は、表示領域31の表示を、レタッチ前の状態に切り替えるときに操作されるボタンである。加工前ボタン35が押下されている間、レタッチ前の状態の撮影画像が表示領域31に表示される。ユーザは、加工前ボタン35を用いることにより、レタッチ後の状態とレタッチ前の状態とを見比べ、レタッチの度合いが強すぎないかどうかなどを確認することができる。 A Before-processing button 35 is displayed on the right side of the display area 31. The Before-processing button 35 is a button that is operated when switching the display of the display area 31 to the state before retouching. While the Before-processing button 35 is pressed, the captured image in the state before retouching is displayed in the display area 31. By using the Before-processing button 35, the user can compare the state after retouching with the state before retouching and check whether the degree of retouching is too strong, for example.

加工前ボタン35の下には、レタッチ対象とする人物の選択に用いられる人物選択ボタン36が表示される。ユーザは、人物選択ボタン36を用いることにより、撮影画像の左側に写る人物のみ、右側に写る人物のみ、2人とも、のいずれかを選択してレタッチを施すことができる。撮影画像に対して顔認識などが行われ、レタッチの画像処理の対象となる人物がユーザの操作に応じて選択される。 Below the Before button 35, a person selection button 36 is displayed, which is used to select a person to be retouched. By using the person selection button 36, the user can select to retouch only the person appearing on the left side of the captured image, only the person appearing on the right side, or both people. Face recognition and other processes are performed on the captured image, and the person to be the target of image processing for retouching is selected in response to the user's operation.

ユーザは、このような各種の機能を用いて、表示領域31に表示させている撮影画像に施すレタッチの内容を選択することができる。このように、レタッチアプリ1Aを用いて行うことができるレタッチには、顔・体全体の調整、目元・メイクの調整、明るさの調整が少なくとも含まれる。 Using these various functions, the user can select the retouching content to be applied to the captured image displayed in the display area 31. In this way, retouching that can be performed using the retouching application 1A includes at least adjustments to the face and body as a whole, adjustments to the eyes and makeup, and adjustments to brightness.

レタッチ対象とする撮影画像がサムネイル画像を用いて切り替えられ、撮影画像P1乃至P5のそれぞれのレタッチが順次行われる。撮影画像P1乃至P5のそれぞれのレタッチが終わったとき、レタッチ画面を用いたレタッチが終了となる。 The captured image to be retouched is switched using the thumbnail image, and retouching is performed sequentially on each of the captured images P1 to P5. When retouching of each of the captured images P1 to P5 is completed, retouching using the retouch screen is completed.

<全数反映>
図5は、レタッチパラメータの適用の例を示す図である。
<All items reflected>
FIG. 5 is a diagram showing an example of application of retouching parameters.

図5に示すように、ユーザによる操作によって撮影画像P1乃至P5のそれぞれに施されたレタッチの内容が全ての未選択画像に反映される。未選択画像は、レタッチ対象として選択されなかった撮影画像である。画像選択画面においてレタッチ対象として選択された撮影画像は、選択画像となる。例えば、100枚の撮影画像の中から5枚の撮影画像が選択画像として選択された場合、残りの95枚の撮影画像が未選択画像となる。 As shown in FIG. 5, the retouching contents applied to each of the captured images P1 to P5 by the user's operation are reflected in all unselected images. An unselected image is a captured image that was not selected as a subject for retouching. A captured image selected as a subject for retouching on the image selection screen becomes a selected image. For example, if five captured images are selected as selected images from among 100 captured images, the remaining 95 captured images become unselected images.

すなわち、プランに応じた枚数の分だけレタッチ対象として選択された撮影画像(選択画像)のレタッチが、レタッチ画面を用いてユーザにより直接選択された内容に従って行われるのに対して、レタッチ対象として選択されなかった未選択画像のレタッチは、違う画像である選択画像を対象として選択された内容を自動的に反映させるようにして行われる。例えば、全ての未選択画像に対して、選択画像のレタッチの内容が反映される。 In other words, the number of captured images selected as retouching targets according to the plan (selected images) are retouched according to the content selected directly by the user using the retouching screen, whereas unselected images that were not selected as retouching targets are retouched so that the content selected for the selected image, which is a different image, is automatically reflected. For example, the retouching content of the selected image is reflected on all unselected images.

このように、ユーザ自身によるレタッチの後、選択画像のレタッチの内容を未選択画像に反映させる機能である全数反映の機能がレタッチアプリ1Aに用意される。 In this way, the retouching application 1A is provided with a full reflection function that reflects the retouching content of a selected image to unselected images after the user has retouched the selected image.

ブライダル写真などのイベントの撮影においては、通常、数百枚分などの多くの撮影が行われる。カメラマンに撮影してもらった全ての画像のレタッチをユーザが自ら手動で行うのは負担が大きい。選択画像のレタッチの内容が全ての未選択画像に反映されるようにすることにより、ユーザは、撮影してもらった全ての画像を、自分の好みの写りに調整された状態で受け取ることができる。 When photographing an event such as a wedding, many shots are usually taken, often hundreds of shots. It is a heavy burden for the user to manually retouch all of the images taken by the photographer. By making it possible for the retouching of a selected image to be reflected in all unselected images, the user can receive all of the images taken with the image adjusted to the user's liking.

レタッチ済みの撮影画像P1乃至P5のうちのどの撮影画像のレタッチの内容をどの未選択画像に対して反映させるかが、同じ人物が写っているかどうか、顔の大きさが同程度の大きさであるかどうかなどの、選択画像と未選択画像のそれぞれの特徴によって選択される。例えば、ある未選択画像に対しては、その未選択画像に写っている人物と同じ人物の顔が同程度の大きさで写っている選択画像のレタッチの内容が反映される。 Which of the retouched images P1 to P5 should have its retouching contents reflected in which unselected image is selected based on the characteristics of the selected image and the unselected image, such as whether the same person is in the image and whether the faces are of similar size. For example, the retouching contents of a selected image that contains the same person's face of a similar size as the person in the unselected image is reflected in a certain unselected image.

この場合、それぞれの撮影画像(選択画像と未選択画像)に写る人物の人数、顔のサイズなどの特徴が認識される。それぞれの未選択画像に対して、同じ特徴を有する選択画像のレタッチの内容が反映される。 In this case, the number of people appearing in each captured image (selected image and unselected image), the size of their faces, and other characteristics are recognized. The retouching details of the selected image that has the same characteristics are reflected in each unselected image.

レタッチアプリ1Aには、このような撮影画像の特徴を認識する機能も搭載される。サイズだけでなく、顔の向きなどの他の顔の状態が認識されるようにしてもよい。また、人物の性別、年齢、撮影場所(屋外/屋内)などの、他の種類の特徴が認識されるようにしてもよい。 The retouching application 1A is also equipped with a function for recognizing the characteristics of such captured images. In addition to size, other facial conditions such as the direction of the face may be recognized. Other types of characteristics such as the person's gender, age, and the location where the image was taken (outdoors/indoors) may also be recognized.

<接客モードと書き出しモード>
レタッチアプリ1Aの動作モードとして接客モードと書き出しモードが用意される。接客モードは、レタッチ画面を用いたレタッチをユーザが行うときに選択される動作モードである。書き出しモードは、全数反映を行うときに選択される動作モードである。
<Customer service mode and export mode>
The retouching application 1A has two operation modes, a customer service mode and a write mode. The customer service mode is an operation mode that is selected when the user performs retouching using the retouching screen. The write mode is an operation mode that is selected when performing full reflection.

図6は、動作モードの選択画面の例を示す図である。 Figure 6 shows an example of an operation mode selection screen.

選択画面には、接客モードを選択するときに操作されるボタン81と、書き出しモードを選択するときに操作されるボタン82が表示される。あるユーザにレタッチを行ってもらう場合、例えば撮影スタジオのスタッフは、図6に示すような選択画面を用いて接客モードを選択し、ユーザにレタッチを行ってもらうことになる。また、ユーザによるレタッチの終了後、撮影スタジオのスタッフは、書き出しモードを選択し、全数反映を行うことになる。 The selection screen displays a button 81 that is operated to select the customer service mode, and a button 82 that is operated to select the export mode. When asking a user to perform retouching, for example, a staff member at a photography studio selects the customer service mode using a selection screen such as that shown in FIG. 6, and has the user perform retouching. After the user has finished retouching, the staff member at the photography studio selects the export mode and reflects the changes in all images.

図7は、あるユーザを対象とした作業の流れを示す図である。 Figure 7 shows the workflow for a specific user.

図7に示すように、ユーザを被写体としたカメラマンによる撮影が行われ、その後、レタッチアプリ1Aの接客モードを利用して、ユーザによるレタッチが行われる。ユーザによるレタッチの終了後、書き出しモードを利用して、スタッフによる全数反映が行われる。 As shown in FIG. 7, a photographer takes a photograph of the user as a subject, and then the user retouches the photograph using the customer service mode of the retouching application 1A. After the user has finished retouching, the staff member uses the export mode to reflect all the photographs.

上述したように、1回の撮影で数百枚の撮影が行われるため、全数反映は、レタッチ用PC1の処理負担が大きく、かつ、時間がかかる処理となる。書き出しモードを用意し、書き出しモードが選択されてから全数反映が行われるようにすることにより、レタッチの終了直後に全数反映が自動的に開始されてしまい、それによって次のユーザのレタッチを開始させることができないといった状態になるのを防ぐことが可能となる。 As mentioned above, several hundred photos are taken in one shooting session, so full reflection places a large processing load on the retouching PC 1 and is a time-consuming process. By providing an export mode and setting it so that full reflection occurs after the export mode is selected, it is possible to prevent a situation in which full reflection starts automatically immediately after retouching is finished, preventing the next user from starting retouching.

すなわち、図8に示すように、複数のユーザ(新郎新婦の複数のペア)の分の全数反映を、全てのユーザのレタッチの終了後に行うことが可能となる。 That is, as shown in FIG. 8, it is possible to reflect all the retouching for multiple users (multiple pairs of brides and grooms) after all users have finished retouching.

図8の例においては、ある新郎新婦のペアであるユーザ#1の撮影後にユーザ#1によるレタッチが行われ、その後、違う新郎新婦のペアであるユーザ#2の撮影と、ユーザ#2によるレタッチが行われている。ユーザ#2のレタッチの後、さらに、違う新郎新婦のペアをユーザとした撮影と、そのユーザによるレタッチが行われる。ユーザ#1によるレタッチとユーザ#2の撮影が並行して行われるといったように、あるユーザの作業は、適宜、他のユーザの作業と並行して行われる。 In the example of Figure 8, a photograph of a bride and groom pair by user #1 is taken and then retouched by user #1, and then a photograph of a different bride and groom pair by user #2 is taken and retouched by user #2. After retouching by user #2, a photograph of a different bride and groom pair is taken and retouched by that user. The work of one user is carried out in parallel with the work of another user as appropriate, such that retouching by user #1 and the photographing by user #2 are carried out in parallel.

例えば全てのユーザの撮影とレタッチが終了した後、書き出しモードを利用して、それぞれのユーザの分の全数反映が行われる。図8の例においては、ユーザ#1の分の全数反映の後に、ユーザ#2の分の全数反映が行われている。 For example, after all users have finished taking and retouching photos, export mode is used to reflect all photos for each user. In the example of Figure 8, after all photos for user #1 are reflected, all photos for user #2 are reflected.

このように、複数のユーザの分の全数反映をまとめて実行させることができるようにすることにより、レタッチが行われる毎に全数反映を実行する場合と較べて、全体のオペレーションの効率化を図ることが可能となる。 In this way, by making it possible to execute a full update for multiple users at once, it is possible to improve the efficiency of the overall operation compared to executing a full update every time retouching is performed.

<人物選択ボタン36の表示切り替え>
図3を参照して説明したように、レタッチ画面には、レタッチ対象とする人物の選択に用いられる人物選択ボタン36が用意される。ユーザは、人物選択ボタン36を用いることにより、レタッチ対象として選択中の選択画像に複数の人物が写っている場合であっても、レタッチ対象とする人物を個別に選択し、写りを人物毎に調整することが可能となる。
<Display Switching of Person Selection Button 36>
3, the retouching screen is provided with a person selection button 36 used to select a person to be retouched. By using the person selection button 36, even if multiple people appear in the selected image selected as the retouching target, the user can individually select the people to be retouched and adjust the appearance of each person.

人物選択ボタン36の表示が、レタッチ対象として選択中の選択画像の特徴に応じて切り替えられる。選択画像の特徴によっては、レタッチ対象とする選択画像を切り替える毎に、人物選択ボタン36の表示が切り替えられる。 The display of the person selection button 36 is switched depending on the characteristics of the selected image selected to be retouched. Depending on the characteristics of the selected image, the display of the person selection button 36 is switched each time the selected image to be retouched is switched.

・人数に応じた表示の切り替えの例
図9は、人物選択ボタン36の表示を拡大して示す図である。
Example of Switching Display According to the Number of People FIG. 9 is an enlarged view of the display of the person selection button 36. As shown in FIG.

新郎と新婦が左右に並んで写る撮影画像P1が図9の左側に示すようにレタッチ対象として選択中である場合、図9の右側に示すように、左側に写る人物だけをレタッチ対象として個別に選択するときに操作されるボタン41A、右側に写る人物だけをレタッチ対象として個別に選択するときに操作されるボタン41B、および、2人をレタッチ対象として選択するときに操作されるボタン41Cが人物選択ボタン36として表示される。円形のボタン41A、ボタン41B、ボタン41Cには、それぞれの選択内容の説明となる文字が表示される。 When a captured image P1 showing the bride and groom side by side is being selected as a subject to retouching as shown on the left side of Fig. 9, as shown on the right side of Fig. 9, button 41A is operated to individually select only the person on the left side as a subject to retouching, button 41B is operated to individually select only the person on the right side as a subject to retouching, and button 41C is operated to select both people as subjects to retouching, are displayed as person selection buttons 36. Circular buttons 41A, 41B, and 41C display text explaining the contents of each selection.

レタッチ用PC1には、選択画像に写る人物の顔を認識することによって、選択画像に写る人物の数を特定する機能が搭載される。 The retouching PC 1 is equipped with a function for identifying the number of people appearing in a selected image by recognizing the faces of people appearing in the selected image.

この状態において図10Aの右側に示すようにボタン41Aが操作された場合、左側に写る新郎だけがレタッチ対象として選択され、新郎の顔を囲むように枠が表示される。ユーザ(例えば新郎)は、レタッチ選択領域33の表示を用いることにより、新郎の顔の写りなどを調整することができる。 In this state, when button 41A is operated as shown on the right side of FIG. 10A, only the groom on the left side is selected as the subject of retouching, and a frame is displayed around the groom's face. The user (for example, the groom) can adjust the appearance of the groom's face by using the display of retouch selection area 33.

一方、図10Bの右側に示すようにボタン41Bが操作された場合、右側に写る新婦だけがレタッチ対象として選択され、新婦の顔を囲むように枠が表示される。ユーザ(例えば新婦)は、レタッチ選択領域33の表示を用いることにより、新婦の顔の写りなどを調整することができる。 On the other hand, when button 41B is operated as shown on the right side of FIG. 10B, only the bride on the right side is selected as the subject of retouching, and a frame is displayed around the bride's face. The user (for example, the bride) can adjust the appearance of the bride's face by using the display of retouching selection area 33.

ボタン41Cが操作された場合、左側に写る新郎と右側に写る新婦の2人がレタッチ対象として選択され、それぞれの顔を囲むように2つの枠が表示される。 When button 41C is operated, the groom on the left and the bride on the right are selected as subjects for retouching, and two frames are displayed around their respective faces.

このように、複数の人物が写っている撮影画像がレタッチ対象として選択中である場合、左右の人物を個別に選択するときに用いられるボタンを操作可能とした状態(オン状態)の人物選択ボタン36が表示される。 In this way, when a photographed image containing multiple people is selected as a subject for retouching, the person selection button 36 is displayed in an operable state (on state) for the button used to individually select the left and right people.

図11は、人物選択ボタン36の表示を拡大して示す他の図である。 Figure 11 is another diagram showing an enlarged view of the person selection button 36.

新婦がアップで写る撮影画像P3が図11の左側に示すようにレタッチ対象として選択中である場合、図11の右側に示すように、人物選択ボタン36がグレーアウトして表示され、人物選択ボタン36を構成するボタン41A、ボタン41B、ボタン41Cが操作不可とされる。撮影画像P3に写る人物は新婦だけであるから、撮影画像P3がレタッチ対象として選択されている間は、レタッチ対象の人物が新婦に固定される。新婦の顔を囲む枠が表示されるようにしてもよいし、表示されないようにしてもよい。 When photographed image P3, which shows a close-up of the bride, is selected as the subject of retouching as shown on the left side of FIG. 11, person selection button 36 is displayed grayed out and buttons 41A, 41B, and 41C constituting person selection button 36 are inoperable as shown on the right side of FIG. 11. Because the only person appearing in photographed image P3 is the bride, the subject of retouching is fixed to the bride while photographed image P3 is selected as the subject of retouching. A frame surrounding the bride's face may or may not be displayed.

1人の人物が写っている撮影画像がレタッチ対象として選択中である場合、左右の人物を個別に選択するときに用いられるボタンを操作不可とした状態(オフ状態)の人物選択ボタン36が表示される。 When a photographed image containing one person is selected as the subject of retouching, the person selection button 36 is displayed in a disabled state (off state) for the button used to individually select the left and right persons.

例えば、撮影画像P1の次に撮影画像P3がレタッチ対象として選択され、その後、新郎と新婦が写っている撮影画像P5(図3)がレタッチ対象として選択された場合、人物選択ボタン36の状態は、レタッチ対象の撮影画像が切り替えられる毎にオン状態、オフ状態、オン状態と切り替えられることになる。 For example, if photographed image P3 is selected as the subject of retouching after photographed image P1, and then photographed image P5 (Figure 3) depicting the bride and groom is selected as the subject of retouching, the state of person selection button 36 will be switched between on, off, and on each time the photographed image to be retouched is switched.

人物選択ボタン36のオン/オフの状態がレタッチ対象の撮影画像に写る人数に応じて切り替えられることにより、ユーザは、レタッチ対象とする人物を容易に選択することができる。 The on/off state of the person selection button 36 can be switched depending on the number of people appearing in the photographed image to be retouched, allowing the user to easily select the people to be retouched.

選択画像として選択された5枚全てが1人の人物が写っている撮影画像であるときに人物選択ボタン36が表示されないようにしてもよい。この場合、人物選択ボタン36の表示領域には、何も表示されないか、装飾用の画像が表示される。 The person selection button 36 may be hidden when all five selected images are photographs in which one person appears. In this case, the display area for the person selection button 36 may be blank or may display a decorative image.

このように、複数人の人物が写っている選択画像が1枚でもあれば人物選択ボタン36がオン状態またはオフ状態で表示され、複数人の人物が写っている選択画像が1枚もなければ人物選択ボタン36が表示されないようにすることが可能である。 In this way, if there is at least one selected image that shows multiple people, the person selection button 36 is displayed in an on or off state, and if there is no selected image that shows multiple people, the person selection button 36 is not displayed.

・性別に応じた表示の切り替えの例
図12は、人物選択ボタン36の表示を拡大して示す図である。
Example of Switching Display According to Gender FIG. 12 is an enlarged view of the display of the person selection button 36. As shown in FIG.

新郎と新婦が左右に並んでアップで写る撮影画像P5が図12の左側に示すようにレタッチ対象として選択中である場合、図12の右側に示すように、男性だけをレタッチ対象として個別に選択するときに操作されるボタン42A、女性だけをレタッチ対象として個別に選択するときに操作されるボタン42B、および、2人をレタッチ対象として選択するときに操作されるボタン42Cが人物選択ボタン36として表示される。ボタン42A、ボタン42B、ボタン42Cには、それぞれの選択内容の説明となる文字が表示される。ボタン42A乃至42Cには、ボタン41A乃至41Cに表示される文字とは異なる文字が表示される。文字ではなく、記号などの他の情報を用いて選択内容が提示されるようにしてもよい。ボタン42Aに「新郎だけ」の文字が表示され、ボタン42Bに「新婦だけ」の文字が表示されるようにしてもよい。 When a photographed image P5 showing a close-up of the bride and groom side by side is selected as a retouching target as shown on the left side of FIG. 12, as shown on the right side of FIG. 12, a button 42A operated when selecting only the male as a retouching target, a button 42B operated when selecting only the female as a retouching target, and a button 42C operated when selecting both of them as retouching targets are displayed as person selection buttons 36. Buttons 42A, 42B, and 42C display characters explaining the respective selections. Buttons 42A to 42C display characters different from the characters displayed on buttons 41A to 41C. The selections may be presented using other information such as symbols instead of characters. Button 42A may display the characters "Groom only" and button 42B may display the characters "Bride only".

この状態において図13Aの右側に示すようにボタン42Aが操作された場合、男性である新郎だけがレタッチ対象として選択され、新郎の顔を囲むように枠が表示される。ユーザ(例えば新郎)は、レタッチ選択領域33の表示を用いることにより、新郎の顔の写りなどを調整することができる。 In this state, when button 42A is operated as shown on the right side of FIG. 13A, only the groom, who is a man, is selected as the subject of retouching, and a frame is displayed around the groom's face. The user (for example, the groom) can adjust the appearance of the groom's face by using the display of retouch selection area 33.

一方、図13Bの右側に示すようにボタン42Bが操作された場合、女性である新婦だけがレタッチ対象として選択され、新婦の顔を囲むように枠が表示される。ユーザ(例えば新婦)は、レタッチ選択領域33の表示を用いることにより、新婦の顔の写りなどを調整することができる。 On the other hand, when button 42B is operated as shown on the right side of FIG. 13B, only the bride, who is a woman, is selected as the subject of retouching, and a frame is displayed around the bride's face. The user (for example, the bride) can adjust the appearance of the bride's face by using the display of retouching selection area 33.

ボタン42Cが操作された場合、男性である新郎と女性である新婦の2人がレタッチ対象として選択され、それぞれの顔を囲むように2つの枠が表示される。 When button 42C is operated, the male groom and female bride are selected as subjects for retouching, and two frames are displayed around their respective faces.

このように、男性と女性が写っている撮影画像がレタッチ対象として選択中である場合、男性と女性を個別に選択するときに用いられるボタンを操作可能とした状態(オン状態)の人物選択ボタン36が表示される。 In this way, when a photographed image containing a man and a woman is selected as a subject for retouching, person selection button 36 is displayed in a state in which the button used to select the man and the woman individually is operable (on state).

図14は、人物選択ボタン36の表示を拡大して示す図である。 Figure 14 shows an enlarged view of the person selection button 36.

新婦がアップで写る撮影画像P3が図14の左側に示すようにレタッチ対象として選択中である場合、図14の右側に示すように、人物選択ボタン36がグレーアウトして表示され、人物選択ボタン36を構成するボタン42A、ボタン42B、ボタン42Cが操作不可とされる。撮影画像P3に写る人物は新婦だけであるから、撮影画像P3がレタッチ対象として選択されている間は、レタッチ対象の人物が新婦に固定される。新婦の顔を囲む枠が表示されるようにしてもよいし、表示されないようにしてもよい。 When photographed image P3, which shows a close-up of the bride, is selected as the subject of retouching as shown on the left side of FIG. 14, person selection button 36 is displayed grayed out and buttons 42A, 42B, and 42C constituting person selection button 36 are inoperable as shown on the right side of FIG. 14. Because the only person appearing in photographed image P3 is the bride, the subject of retouching is fixed to the bride while photographed image P3 is selected as the subject of retouching. A frame surrounding the bride's face may or may not be displayed.

1人の人物が写っている撮影画像がレタッチ対象として選択中である場合、男性と女性を個別に選択するときに用いられるボタンを操作不可とした状態(オフ状態)の人物選択ボタン36が表示される。 When a photographed image containing one person is selected as the subject of retouching, the person selection button 36 is displayed in a disabled state (off state) for the button used to select a man and a woman separately.

人物選択ボタン36のオン/オフの状態がレタッチ対象の撮影画像に写る人物の性別に応じて切り替えられることにより、ユーザは、レタッチ対象とする人物を容易に選択することができる。 The on/off state of the person selection button 36 can be switched depending on the gender of the person appearing in the photographed image to be retouched, allowing the user to easily select the person to be retouched.

選択画像として選択された5枚全てが1人の人物が写っている撮影画像であるときに人物選択ボタン36が表示されないようにしてもよい。この場合、人物選択ボタン36の表示領域には、何も表示されないか、装飾用の画像が表示される。 The person selection button 36 may be hidden when all five selected images are photographs in which one person appears. In this case, the display area for the person selection button 36 may be blank or may display a decorative image.

このように、男性と女性が写っている選択画像が1枚でもあれば人物選択ボタン36はオン状態またはオフ状態で表示され、男性と女性が写っている選択画像が1枚もなければ人物選択ボタン36が表示されないようにすることが可能である。 In this way, if there is at least one selected image that shows a man and a woman, the person selection button 36 is displayed in an on or off state, and if there is no selected image that shows a man and a woman, the person selection button 36 can be made not to be displayed.

なお、レタッチ対象として選択中の撮影画像に女性2人が写っている場合、または、男性2人が写っている場合、左側に写る人物だけをレタッチ対象として個別に選択するときに操作されるボタン41A、右側に写る人物だけをレタッチ対象として個別に選択するときに操作されるボタン41B、および、2人をレタッチ対象として選択するときに操作されるボタン41Cからなる人物選択ボタン36が表示される。 When two women or two men are in the photographed image selected as the subject of retouching, person selection buttons 36 are displayed, which are button 41A operated to individually select only the person on the left side as the subject of retouching, button 41B operated to individually select only the person on the right side as the subject of retouching, and button 41C operated to select both people as the subject of retouching.

・年齢に応じた表示の切り替えの例
図15は、人物選択ボタン36の表示を拡大して示す図である。
Example of Switching Display According to Age FIG. 15 is an enlarged view of the display of the person selection button 36. As shown in FIG.

子どもと新婦が左右に並んで写る撮影画像P11が図15の左側に示すようにレタッチ対象として選択中である場合、図15の右側に示すように、大人だけをレタッチ対象として個別に選択するときに操作されるボタン43A、子どもだけをレタッチ対象として個別に選択するときに操作されるボタン43B、および、2人をレタッチ対象として選択するときに操作されるボタン43Cが人物選択ボタン36として表示される。ボタン43A、ボタン43B、ボタン43Cには、それぞれの選択内容の説明となる文字が表示される。 When a captured image P11 in which the child and bride are side by side is selected as the subject to retouching as shown on the left side of Fig. 15, as shown on the right side of Fig. 15, button 43A, which is operated when selecting only the adult as the subject to retouching individually, button 43B, which is operated when selecting only the child as the subject to retouching individually, and button 43C, which is operated when selecting both persons as the subject to retouching, are displayed as person selection buttons 36. Buttons 43A, 43B, and 43C display text explaining the respective selections.

この状態においてボタン43Aが操作された場合、大人である新婦だけがレタッチ対象として選択され、新婦の顔を囲むように枠が表示される。ユーザ(例えば新婦)は、レタッチ選択領域33の表示を用いることにより、新婦の顔の写りなどを調整することができる。 When button 43A is operated in this state, only the bride, who is an adult, is selected as the subject of retouching, and a frame is displayed around the bride's face. The user (for example, the bride) can adjust the appearance of the bride's face by using the display of retouching selection area 33.

一方、ボタン43Bが操作された場合、子どもだけがレタッチ対象として選択され、子どもの顔を囲むように枠が表示される。ユーザ(例えば子ども)は、レタッチ選択領域33の表示を用いることにより、子どもの顔の写りなどを調整することができる。 On the other hand, when button 43B is operated, only the child is selected as the subject of retouching, and a frame is displayed around the child's face. The user (e.g., the child) can adjust the appearance of the child's face by using the display of retouch selection area 33.

ボタン43Cが操作された場合、子どもと、大人である新婦の2人がレタッチ対象として選択され、それぞれの顔を囲むように2つの枠が表示される。 When button 43C is operated, the child and the adult bride are selected as subjects for retouching, and two frames are displayed around each of their faces.

このように、大人と子どもが写っている撮影画像がレタッチ対象として選択中である場合、大人と子どもを個別に選択するときに用いられるボタンを操作可能とした状態(オン状態)の人物選択ボタン36が表示される。 In this way, when a captured image that includes an adult and a child is selected as a subject for retouching, the person selection button 36 is displayed in an operable state (on state) for the button used to select the adult and child individually.

新婦がアップで写る例えば撮影画像P3がレタッチ対象として選択中である場合、人物選択ボタン36がグレーアウトして表示され、人物選択ボタン36を構成するボタン43A、ボタン43B、ボタン43Cが操作不可とされる。撮影画像P3に写る人物は新婦だけであるから、撮影画像P3がレタッチ対象として選択されている間は、レタッチ対象が新婦に固定される。 When photographed image P3, for example, which shows a close-up of the bride, is selected as the subject to be retouched, person selection button 36 is displayed in a grayed-out state, and buttons 43A, 43B, and 43C constituting person selection button 36 are rendered inoperable. Since the only person appearing in photographed image P3 is the bride, the subject to be retouched is fixed to the bride while photographed image P3 is selected as the subject to be retouched.

1人の人物が写っている撮影画像がレタッチ対象として選択中である場合、大人と子どもを個別に選択するときに用いられるボタンを操作不可とした状態(オフ状態)の人物選択ボタン36が表示される。 When a photographed image containing one person is selected as the subject of retouching, the person selection button 36 is displayed in a disabled state (off state) that is used to select adults and children individually.

人物選択ボタン36のオン/オフの状態がレタッチ対象の撮影画像に写る人物の年齢に応じて切り替えられることにより、ユーザは、レタッチ対象とする人物を容易に選択することができる。 The on/off state of the person selection button 36 can be switched depending on the age of the person appearing in the photographed image to be retouched, allowing the user to easily select the person to be retouched.

<<レタッチ用PC1の構成と動作>>
<レタッチ用PC1の構成>
図16は、レタッチ用PC1の構成例を示すブロック図である。
<<Configuration and operation of retouching PC 1>>
<Configuration of retouching PC 1>
FIG. 16 is a block diagram showing an example of the configuration of the retouching PC 1.

CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続される。 CPU (Central Processing Unit) 101, ROM (Read Only Memory) 102, and RAM (Random Access Memory) 103 are interconnected by bus 104.

バス104には、さらに、入出力インタフェース105が接続される。入出力インタフェース105には、入力部106、出力部107、記録部108、通信部109、およびドライブ110が接続される。 An input/output interface 105 is further connected to the bus 104. An input unit 106, an output unit 107, a recording unit 108, a communication unit 109, and a drive 110 are connected to the input/output interface 105.

入力部106は、キーボード、マウスなどにより構成される。 The input unit 106 is composed of a keyboard, mouse, etc.

出力部107は、ディスプレイ11などにより構成される。 The output unit 107 is composed of a display 11, etc.

記録部108は、ハードディスクや不揮発性のメモリなどにより構成される。記録部108は、CPU101が実行するレタッチアプリ1Aなどのプログラム、撮影画像などの各種の情報を記録する。 The recording unit 108 is composed of a hard disk, non-volatile memory, etc. The recording unit 108 records various information such as programs such as the retouching application 1A executed by the CPU 101, captured images, etc.

通信部109は、インターネット、LANなどのネットワークに対するインタフェースである。例えば、通信部109は、撮影スタジオのカメラに接続された保存用のPCと通信を行い、保存用のPCから送信されてきた、レタッチを始めようとするユーザが被写体として写る撮影画像を受信する。また、通信部109は、画像管理サーバ2との間でインターネットを介して通信を行い、レタッチ済みの撮影画像を画像管理サーバ2に送信する。 The communication unit 109 is an interface to networks such as the Internet and a LAN. For example, the communication unit 109 communicates with a storage PC connected to a camera in a photography studio, and receives a captured image sent from the storage PC, in which the user about to begin retouching appears as a subject. The communication unit 109 also communicates with the image management server 2 via the Internet, and sends the retouched captured image to the image management server 2.

ドライブ110は、リムーバブルメディア111に対するデータの書き込み、リムーバブルメディア111からのデータの読み出しを制御する。保存用のPCからの撮影画像の取り込みがリムーバブルメディア111を介して行われるようにしてもよい。 The drive 110 controls writing of data to the removable medium 111 and reading of data from the removable medium 111. Import of captured images from a PC for storage may be performed via the removable medium 111.

図17は、レタッチ用PC1の機能構成例を示すブロック図である。 Figure 17 is a block diagram showing an example of the functional configuration of retouching PC 1.

図17に示すように、レタッチ用PC1においては、レタッチアプリ1Aが実行されることにより情報処理部121が実現される。情報処理部121は、画像取得部131、表示制御部132、認識部133、レタッチ処理部134、およびファイル管理部135により構成される。 As shown in FIG. 17, in the retouching PC 1, the retouching application 1A is executed to realize an information processing unit 121. The information processing unit 121 is composed of an image acquisition unit 131, a display control unit 132, a recognition unit 133, a retouching processing unit 134, and a file management unit 135.

画像取得部131は、接客モード時、全ての撮影画像を記録部108から読み出して取得する。撮影が終了した場合、1組のユーザを被写体として撮影された数百枚などの全ての撮影画像が保存用のPCから転送され、記録部108に記録されている。画像取得部131により取得された撮影画像は、表示制御部132と認識部133に供給される。 In customer service mode, the image acquisition unit 131 reads out and acquires all captured images from the recording unit 108. When shooting is finished, all captured images (e.g., several hundred images) of a group of users are transferred from the PC for storage and recorded in the recording unit 108. The captured images acquired by the image acquisition unit 131 are supplied to the display control unit 132 and the recognition unit 133.

また、画像取得部131は、書き出しモード時、未選択画像を含む全ての撮影画像を記録部108から読み出して取得し、認識部133に出力する。 In addition, in the write mode, the image acquisition unit 131 reads and acquires all captured images, including unselected images, from the recording unit 108 and outputs them to the recognition unit 133.

表示制御部132は、接客モード時、画像取得部131から供給された撮影画像に基づいて画像選択画面を表示させる。また、表示制御部132は、選択画像とする撮影画像が画像選択画面を用いて選択された後、レタッチ画面を表示させ、レタッチ画面の表示を制御する。レタッチ画面を用いたレタッチが行われている間、画像処理の結果の情報がレタッチ処理部134から供給されてくる。 In customer service mode, the display control unit 132 displays an image selection screen based on the captured image supplied from the image acquisition unit 131. After a captured image to be a selected image is selected using the image selection screen, the display control unit 132 displays a retouching screen and controls the display of the retouching screen. While retouching is being performed using the retouching screen, information on the results of image processing is supplied from the retouching processing unit 134.

例えば、レタッチ対象として選択中の撮影画像の特徴に応じて人物選択ボタン36の表示を切り替えることが表示制御部132により行われる。上述したように、一方の人物だけを個別に選択することに用いられるボタン、他方の人物だけを個別に選択することに用いられるボタン、両方を選択することに用いられるボタンの3種類のボタンからなる人物選択ボタン36の表示が表示制御部132により切り替えられる。 For example, the display control unit 132 switches the display of the person selection buttons 36 depending on the characteristics of the photographed image selected as the target for retouching. As described above, the display control unit 132 switches the display of the person selection buttons 36 consisting of three types of buttons: a button used to individually select only one person, a button used to individually select only the other person, and a button used to select both people.

認識部133は、接客モード時、画像選択画面を用いて選択されたそれぞれの選択画像の特徴を認識する。具体的には、認識部133は、選択画像に被写体として写るユーザの顔を認識し、認識した顔毎(人物毎)に、性別、年齢などの属性を認識する。顔と属性の認識は、機械学習によって生成された推論モデルを用いて行われる。 In customer service mode, the recognition unit 133 recognizes the features of each selected image selected using the image selection screen. Specifically, the recognition unit 133 recognizes the face of the user appearing as a subject in the selected image, and recognizes attributes such as gender and age for each recognized face (each person). Recognition of faces and attributes is performed using an inference model generated by machine learning.

例えば、認識部133には、撮影画像を入力とし、認識した顔の特徴点の情報を出力とする顔認識用の推論モデルが用意される。顔の特徴点には、顔の輪郭を示す特徴点だけでなく、顔の各部位の位置を示す特徴点も含まれる。また、認識部133には、撮影画像を入力とし、それぞれの人物の属性の情報を出力とする属性認識用の推論モデルが用意される。 For example, the recognition unit 133 is provided with an inference model for face recognition that takes a photographed image as input and outputs information on recognized facial feature points. Facial feature points include not only feature points that indicate the facial outline, but also feature points that indicate the position of each part of the face. In addition, the recognition unit 133 is provided with an inference model for attribute recognition that takes a photographed image as input and outputs information on the attributes of each person.

認識部133による認識が推論モデルを用いて行われるのではなく、画像を解析することによって行われるようにしてもよい。 Recognition by the recognition unit 133 may be performed by analyzing the image rather than using an inference model.

選択画像の特徴の情報は、認識対象となった選択画像とともにレタッチ処理部134とファイル管理部135に供給される。選択画像の特徴には、顔ID、顔の特徴点、顔サイズ、顔の向きの情報が含まれる。顔IDは、認識された顔の識別情報である。顔サイズと顔の向きは、例えば顔の特徴点に基づいて特定される。 Information on the characteristics of the selected image is supplied to the retouching processing unit 134 and the file management unit 135 together with the selected image that was the subject of recognition. The characteristics of the selected image include information on the face ID, facial feature points, face size, and face direction. The face ID is identification information for the recognized face. The face size and face direction are determined, for example, based on the facial feature points.

また、選択画像の特徴には、性別、年齢などの人物毎の属性が含まれる。 The characteristics of the selected image also include attributes of each person, such as gender and age.

また、認識部133は、書き出しモード時、それぞれの未選択画像を対象として、接客モード時と同様にして特徴を認識する。認識部133による認識結果の情報は、認識対象となった未選択画像とともにレタッチ処理部134とファイル管理部135に供給される。 In addition, in the export mode, the recognition unit 133 recognizes the features of each unselected image in the same manner as in the customer service mode. Information on the recognition results by the recognition unit 133 is supplied to the retouching processing unit 134 and the file management unit 135 together with the unselected image that was the recognition target.

レタッチ処理部134は、接客モード時、レタッチ画面に対するユーザの操作に応じて、レタッチに関する各種の画像処理を行う。例えば、レタッチ処理部134は、目の大きさや目の形の調整に関する操作が行われた場合、目の輪廓の位置をユーザによる選択内容に応じてずらすなどの画像処理を行う。 In customer service mode, the retouching processor 134 performs various types of image processing related to retouching in response to user operations on the retouching screen. For example, when an operation related to adjusting the size or shape of the eyes is performed, the retouching processor 134 performs image processing such as shifting the position of the eye outline in response to the content selected by the user.

具体的には、レタッチ処理部134は、調整ボタン56(図4)を用いて、「1」、「2」、「3」、「4」のいずれかのレベルが選択された場合、レタッチ対象となっている人物の目の領域をマスク処理などを行うことによって抽出する。レタッチ処理部134は、抽出した目の領域の画像を、選択されたレベルに応じて拡大させ、拡大後の目の領域の画像を抽出元の位置に貼り付けるようにして目の拡大処理を行う。 Specifically, when one of levels "1," "2," "3," or "4" is selected using the adjustment buttons 56 (FIG. 4), the retouching processor 134 extracts the eye area of the person to be retouched by performing masking or other processing. The retouching processor 134 enlarges the image of the extracted eye area according to the selected level, and performs eye enlargement processing by pasting the enlarged image of the eye area at the original position of extraction.

また、レタッチ処理部134は、メイクの濃さの調整に関する操作が行われた場合、頬の部分に所定の色のチークの画像を合成したり、唇の部分に所定の色の口紅の画像を合成したりする画像処理を行う。 In addition, when an operation to adjust the intensity of makeup is performed, the retouching processing unit 134 performs image processing such as compositing an image of blush of a specified color onto the cheek area, or compositing an image of lipstick of a specified color onto the lips.

レタッチ処理部134は、肌質の調整に関する操作が行われた場合、肌の明るさを調整するなどの画像処理を行う。レタッチ処理部134は、顔の大きさ(小顔感)や顔の形の調整に関する操作が行われた場合、顔の輪廓の位置をユーザによる選択内容に応じてずらすなどの画像処理を行う。 When an operation related to adjusting the skin texture is performed, the retouching processing unit 134 performs image processing such as adjusting the brightness of the skin. When an operation related to adjusting the face size (feeling of a small face) or face shape is performed, the retouching processing unit 134 performs image processing such as shifting the position of the face outline according to the content selected by the user.

具体的には、レタッチ処理部134は、調整ボタン51(図4)を用いて、「1」、「2」、「3」、「4」のいずれかのレベルが選択された場合、レタッチ対象となっている人物の顔の輪郭の各位置を、選択されたレベルに応じて顔の中心方向にずらし、顔を小さくする画像処理を行う。 Specifically, when one of levels "1," "2," "3," or "4" is selected using the adjustment buttons 51 (Figure 4), the retouching processor 134 performs image processing to shift each position of the facial contour of the person being retouched toward the center of the face according to the selected level, thereby making the face smaller.

レタッチ処理部134による画像処理の結果を表す情報は、表示制御部132に供給され、レタッチ画面の表示に用いられる。全ての選択画像のレタッチが終了した場合、レタッチ処理部134による画像処理によって生成されたレタッチ済みのそれぞれの選択画像は、レタッチの内容を示す情報とともにファイル管理部135に供給される。 Information representing the results of image processing by the retouching processing unit 134 is supplied to the display control unit 132 and used to display the retouched screen. When retouching of all selected images is completed, each of the retouched selected images generated by the image processing by the retouching processing unit 134 is supplied to the file management unit 135 together with information indicating the content of the retouching.

また、レタッチ処理部134は、書き出しモード時、レタッチ済みの選択画像に施したレタッチの内容を全ての未選択画像に反映させる。どの選択画像に施したレタッチの内容をどの未選択画像に反映させるのかは、例えば認識部133により認識された特徴に基づいて選択される。全ての未選択画像のレタッチが終了した場合、レタッチ処理部134による画像処理によって生成されたレタッチ済みのそれぞれの未選択画像は、レタッチの内容を示す情報とともにファイル管理部135に供給される。 In addition, in the export mode, the retouching processing unit 134 reflects the retouching content applied to the retouched selected image to all unselected images. The unselected image to which the retouching content applied to the selected image is to be reflected is selected, for example, based on characteristics recognized by the recognition unit 133. When retouching of all unselected images is completed, each of the retouched unselected images generated by image processing by the retouching processing unit 134 is supplied to the file management unit 135 together with information indicating the retouching content.

ファイル管理部135は、接客モード時、ユーザによる操作に応じてレタッチが施された選択画像を保存する。レタッチ済みの選択画像のファイルには、認識部133から供給された情報などに基づいて管理ファイルが紐付けられる。 In customer service mode, the file management unit 135 saves the selected image that has been retouched in response to user operations. A management file is linked to the file of the retouched selected image based on information supplied from the recognition unit 133, etc.

図18は、管理ファイルの例を示す図である。 Figure 18 shows an example of a management file.

図18に示すように、管理ファイルには、画像サイズ、選択フラグ、レタッチ済みフラグの情報が含まれる。選択フラグは、選択画像として選択された撮影画像であるか否かを示すフラグである。レタッチ済みフラグは、レタッチ済みの撮影画像であるか否かを示すフラグである。 As shown in FIG. 18, the management file contains information on the image size, selection flag, and retouched flag. The selection flag is a flag that indicates whether the captured image has been selected as the selected image. The retouched flag is a flag that indicates whether the captured image has been retouched.

また、管理ファイルには、顔IDが含まれるとともに、それぞれの顔IDと紐付けて、レタッチパラメータ、性別、年齢、顔サイズ、輪郭点、顔の向きの情報が含まれる。管理ファイルには、個別の人物を対象としたレタッチの内容を示すレタッチパラメータだけでなく、画像全体を対象としたレタッチの内容を示すレタッチパラメータ(スタイルアップ、画像の明るさなどのパラメータ)も記録される。 The management file also contains face IDs, and linked to each face ID, information on retouching parameters, gender, age, face size, contour points, and face direction. The management file not only records retouching parameters that indicate the retouching content for individual people, but also retouching parameters that indicate the retouching content for the entire image (parameters for style improvement, image brightness, etc.).

また、ファイル管理部135は、書き出しモード時、レタッチ済みの選択画像の管理ファイルを読み出し、レタッチ処理部134に出力する。レタッチ処理部134に出力された管理ファイルは、選択画像に対して施されたレタッチの内容を特定するために用いられる。また、ファイル管理部135は、全数反映によってレタッチが施された未選択画像を保存する。レタッチ済みの未選択画像のファイルにも、認識部133から供給された情報などに基づいて管理ファイルが紐付けられる。 In addition, in the write mode, the file management unit 135 reads out the management file of the retouched selected image and outputs it to the retouching processing unit 134. The management file output to the retouching processing unit 134 is used to identify the content of the retouching applied to the selected image. The file management unit 135 also saves unselected images that have been retouched by reflecting all of them. A management file is also linked to the file of the retouched unselected image based on information supplied from the recognition unit 133, etc.

<<レタッチ画面の表示の変形例>>
・顔枠画像の表示
人物選択ボタン36を用いてレタッチ対象として選択された人物の顔を囲むように枠が表示されるものとしたが、この枠の色がボタンの色に連動するようにしてもよい。この場合、人物選択ボタン36を構成するそれぞれのボタンは例えば異なる色で表示される。図10Aに示すようにボタン41Aが操作され、左側に写る新郎が選択された場合、新郎の顔を囲む枠はボタン41Aと同じ色で表示される。また、図10Bに示すようにボタン41Bが操作され、右側に写る新婦が選択された場合、新婦の顔を囲む枠はボタン41Bと同じ色で表示される。
<<Modification of Retouch Screen Display>>
Display of face frame image Although a frame is displayed to surround the face of the person selected as the retouching target using the person selection button 36, the color of this frame may be linked to the color of the button. In this case, each button constituting the person selection button 36 is displayed in, for example, a different color. As shown in Fig. 10A, when button 41A is operated to select the groom on the left side, the frame surrounding the groom's face is displayed in the same color as button 41A. Also, as shown in Fig. 10B, when button 41B is operated to select the bride on the right side, the frame surrounding the bride's face is displayed in the same color as button 41B.

これにより、人物選択ボタン36を操作することによってどの人物がレタッチ対象として選択されたのかをユーザはより直感的に認識することができる。 This allows the user to more intuitively recognize which person has been selected as the subject of retouching by operating the person selection button 36.

・属性の認識結果の信頼度に応じた表示
男性だけを選択するときに操作されるボタン42Aと女性だけを選択するときに操作されるボタン42Bが認識部133により認識された性別に基づいて表示されるものとしたが、認識結果の信頼度が閾値より低い場合、ボタン42Aとボタン42Bに代えて、左側の人だけを選択するときに操作されるボタン41Aと右側の人だけを選択するときに操作されるボタン41Bが表示されるようにしてもよい。
Display According to the Reliability of Attribute Recognition Results Button 42A, which is operated when selecting only males, and button 42B, which is operated when selecting only females, are displayed based on the gender recognized by the recognition unit 133. However, if the reliability of the recognition result is lower than a threshold value, instead of buttons 42A and 42B, button 41A, which is operated when selecting only people on the left, and button 41B, which is operated when selecting only people on the right, may be displayed.

同様に、大人だけを選択するときに操作されるボタン43Aと子どもだけを選択するときに操作されるボタン43Bが認識部133により認識された年齢に基づいて表示されるものとしたが、認識結果の信頼度が閾値より低い場合、ボタン43Aとボタン43Bに代えて、左側の人だけを選択するときに操作されるボタン41Aと右側の人だけを選択するときに操作されるボタン41Bが表示されるようにしてもよい。 Similarly, button 43A, which is operated when selecting only adults, and button 43B, which is operated when selecting only children, are displayed based on the age recognized by recognition unit 133. However, if the reliability of the recognition result is lower than a threshold, button 41A, which is operated when selecting only people on the left side, and button 41B, which is operated when selecting only people on the right side, may be displayed instead of buttons 43A and 43B.

この場合、認識部133による属性の認識結果に対しては信頼度が求められ、閾値と比較される。属性認識用の推論モデルから出力された信頼度が閾値との比較に用いられるようにしてもよいし、顔のサイズ、顔の向きなどに基づく計算によって求められた信頼度が閾値との比較に用いられるようにしてもよい。 In this case, the reliability of the attribute recognition result by the recognition unit 133 is calculated and compared with a threshold value. The reliability output from the inference model for attribute recognition may be used for comparison with the threshold value, or the reliability calculated by calculation based on the face size, face orientation, etc. may be used for comparison with the threshold value.

・属性の例
人数、性別、年齢が人物の属性として認識されるものとしたが、機械学習によって生成された推論モデルを用いたり、画像処理によって解析したりして認識可能な属性であれば他の属性が認識され、人物選択ボタン36の表示に用いられるようにしてもよい。認識可能な属性には例えば以下のようなものがある。
背の高さ:背が高い人/背が低い人
衣装の色:白い服の人/黒い服の人
髪の長さ:髪が長い人/髪が短い人
Examples of Attributes Although the number of people, gender, and age are recognized as person attributes in the above, other attributes may be recognized using an inference model generated by machine learning or analyzed by image processing, so long as they are recognizable attributes, and may be used to display the person selection button 36. Examples of recognizable attributes include the following:
Height: Tall people/Short people Costume color: White clothes people/Black clothes people Hair length: Long hair people/Short hair people

・ボタンの表示位置
どの人物をレタッチ対象とするかを性別、年齢などの属性に基づいてユーザに選択させる場合、ボタンの表示位置が、撮影画像上におけるユーザの位置に応じて切り替えられるようにしてもよい。
Button Display Position When the user is to select which person to retouch based on attributes such as gender and age, the button display position may be changed depending on the user's position on the captured image.

例えば、新郎が左側に写り、新婦が右側に写る撮影画像(例えば図12の撮影画像P5)がレタッチ対象として選択中である場合、新郎と新婦の位置にあわせて、男性だけをレタッチ対象として個別に選択するときに操作されるボタン42Aが左側に表示され、女性だけをレタッチ対象として個別に選択するときに操作されるボタン42Bが右側に表示される。 For example, when a photographed image in which the groom appears on the left and the bride appears on the right (e.g., photographed image P5 in FIG. 12) is selected as the subject of retouching, button 42A, which is operated when selecting only the male as an individual subject to retouching, is displayed on the left in accordance with the positions of the groom and bride, and button 42B, which is operated when selecting only the female as an individual subject to retouching, is displayed on the right.

一方、新婦が左側に写り、新郎が右側に写る撮影画像(図示せず)がレタッチ対象として選択中である場合、新婦と新郎の位置にあわせて、女性だけをレタッチ対象として個別に選択するときに操作されるボタン42Bが左側に表示され、男性だけをレタッチ対象として個別に選択するときに操作されるボタン42Aが右側に表示される。 On the other hand, when a photographed image (not shown) in which the bride appears on the left and the groom appears on the right is selected as the subject of retouching, button 42B, which is operated when selecting only the female subject individually as the subject of retouching, is displayed on the left in accordance with the positions of the bride and groom, and button 42A, which is operated when selecting only the male subject individually as the subject of retouching, is displayed on the right.

同様に、子どもが左側に写り、新婦が右側に写る撮影画像(例えば図15の撮影画像P11)がレタッチ対象として選択中である場合、子どもと新婦の位置に合わせて、子どもだけをレタッチ対象として個別に選択するときに操作されるボタン43Bが左側に表示され、新婦だけをレタッチ対象として個別に選択するときに操作されるボタン43Aが右側に表示される。 Similarly, when a captured image in which a child appears on the left side and a bride appears on the right side (for example, captured image P11 in FIG. 15) is selected as the subject of retouching, button 43B, which is operated when selecting only the child individually as the subject of retouching, is displayed on the left side in accordance with the positions of the child and bride, and button 43A, which is operated when selecting only the bride individually as the subject of retouching, is displayed on the right side.

一方、新婦が左側に写り、子どもが右側に写る撮影画像(図示せず)がレタッチ対象として選択中である場合、新婦と子どもの位置に合わせて、新婦だけをレタッチ対象として個別に選択するときに操作されるボタン43Aが左側に表示され、子どもだけをレタッチ対象として個別に選択するときに操作されるボタン43Bが右側に表示される。 On the other hand, when a captured image (not shown) in which the bride is on the left and the child is on the right is selected as the subject of retouching, button 43A, which is operated when selecting only the bride individually as the subject of retouching, is displayed on the left in accordance with the positions of the bride and child, and button 43B, which is operated when selecting only the child individually as the subject of retouching, is displayed on the right.

これによっても、ユーザは、レタッチ対象とする人物を直感的に選択することができる。 This also allows users to intuitively select the person they want to retouch.

<<スタイルアップの機能について>>
図4を参照して説明したように、レタッチの機能の1つとしてスタイルアップが用意される。ユーザは、調整ボタン55を操作し、「弱い」または「強い」のレベルを選択することにより、撮影画像に写る人物のスタイルを調整することができる。スタイルの調整として、胴体や手足などの、顔以外の部分が長く見えるようにするための画像処理が行われる。
<<About the Style Up feature>>
As described with reference to Fig. 4, style up is provided as one of the retouching functions. The user can adjust the style of a person appearing in a photographed image by operating the adjustment button 55 and selecting a level of "weak" or "strong." As a style adjustment, image processing is performed to make parts of the body other than the face, such as the torso and limbs, appear longer.

<被写体が1人である場合>
図19は、レタッチ対象の撮影画像の例を示す図である。
<When there is only one subject>
FIG. 19 is a diagram showing an example of a photographed image to be retouched.

図19Aの例においては、新婦1人がアップで写る撮影画像P21が示されている。撮影画像P21には、新婦の腰付近から上の部分が写っている。 In the example of FIG. 19A, a photographed image P21 is shown that shows a close-up of the bride. In the photographed image P21, the bride's upper body is captured from around the waist up.

撮影画像P21が選択画像として選択されている場合、図19Bに示すように、特徴点p1~p5が認識部133により認識される。特徴点p1~p5は、それぞれ、顔の中央、頭頂部、あご、右側の輪郭上の位置、左側の輪郭上の位置を示す特徴点である。実際には、さらに多くの特徴点が認識される。 When captured image P21 is selected as the selected image, feature points p1 to p5 are recognized by the recognition unit 133, as shown in FIG. 19B. Feature points p1 to p5 indicate the center of the face, the top of the head, the chin, the position on the right contour, and the position on the left contour, respectively. In reality, even more feature points are recognized.

図20は、スタイルアップの画像処理の例を示す図である。 Figure 20 shows an example of image processing for style up.

図20の左側に示すように、撮影画像P21上における特徴点p1~p5のそれぞれの位置が位置(x1,y1)~(x5,y5)で表されるものとする。この状態でスタイルアップの所定のレベルが選択された場合、矢印#21の先に示すように、撮影画像P21が上下方向に引き伸ばされる(伸張する画像処理が行われる)。図20においては引き伸ばし量を誇張して示しているが、実際には、ユーザにより選択されたレベルに応じた若干の引き伸ばし量を用いて画像処理が行われる。 As shown on the left side of Figure 20, the positions of feature points p1 to p5 on captured image P21 are represented by positions (x1, y1) to (x5, y5). When a specific level of style up is selected in this state, captured image P21 is stretched vertically (image processing is performed to stretch it) as shown by the tip of arrow #21. The amount of stretching is shown exaggerated in Figure 20, but in reality, image processing is performed using a slight amount of stretching that corresponds to the level selected by the user.

図20の例においては、中心を基準として、撮影画像P21が上下方向に引き伸ばされている。特徴点p1の位置は、上下方向の位置のみ変えて、位置(x1,y1’)として表される。引き伸ばし後の撮影画像P21における特徴点p1の位置は、引き伸ばし前の撮影
画像P21における特徴点p1の位置より僅かに上にずれた位置となる。
In the example of Fig. 20, the captured image P21 is stretched in the vertical direction with the center as the reference. The position of the feature point p1 is expressed as the position (x1, y1') by changing only the position in the vertical direction. The position of the feature point p1 in the captured image P21 after stretching is shifted slightly upward from the position of the feature point p1 in the captured image P21 before stretching.

同様に、特徴点p2の位置は位置(x2,y2’)として表され、特徴点p3の位置は位置(x3,y3’)として表される。また、特徴点p4の位置は位置(x4,y4’)として表され、
特徴点p5の位置は位置(x5,y5’)として表される。
Similarly, the position of the feature point p2 is represented as the position (x2, y2'), the position of the feature point p3 is represented as the position (x3, y3'), and the position of the feature point p4 is represented as the position (x4, y4').
The position of the feature point p5 is represented as position (x5, y5').

引き伸ばし後の撮影画像P21においては、全体的に上下方向に伸びた状態で新婦が写ることになる。なお、引き伸ばし後の撮影画像P21は、レタッチを行っているユーザが目にする画像ではない(レタッチ画面に表示されない)。 In the enlarged captured image P21, the bride appears stretched vertically overall. Note that the enlarged captured image P21 is not the image that the user who is retouching the image sees (it is not displayed on the retouching screen).

なお、撮影画像の中心を基準として引き伸ばされるのではなく、撮影画像の上端や下端などの他の位置を基準として引き伸ばされるようにしてもよい。人物の顔の中心位置を基準として引き伸ばされるといったように、撮影画像の写りの内容に応じて、引き伸ばしの基準となる位置が選択されるようにしてもよい。 In addition, the captured image may not be stretched based on the center, but may be stretched based on another position, such as the top or bottom of the captured image. The position that serves as the basis for stretching may be selected depending on the content of the captured image, such as stretching based on the center of a person's face.

次に、矢印#22の先に示すように、引き伸ばし後の撮影画像P21の上端と下端がトリミングされ、それぞれの顔の特徴点を、引き伸ばし前の位置と同じ位置に戻すようにして画像処理が行われる。図20の右端に示すように、特徴点p1~p5のそれぞれの位置は、位置(x1,y1)~(x5,y5)として表される。顔の特徴点を引き伸ばし前の位置と同じ位置に戻す画像処理によって、スタイルアップ後の撮影画像P21が生成される。 Next, as indicated by the tip of arrow #22, the top and bottom of the stretched captured image P21 are trimmed, and image processing is performed to return each facial feature point to the same position it was in before stretching. As shown on the right side of Figure 20, the positions of feature points p1 to p5 are represented as positions (x1, y1) to (x5, y5). A styled-up captured image P21 is generated by image processing that returns the facial feature points to the same positions they were in before stretching.

図21は、スタイルアップ前と後の撮影画像の例を示す図である。 Figure 21 shows examples of images taken before and after styling.

顔の特徴点のみを引き伸ばし前の位置と同じ位置に戻すことにより、図21の右側に示すように、顔の写りについては引き伸ばし前から変わらずに、体が細く見える撮影画像P21がスタイルアップ後の画像として生成される。スタイルアップ前と後において撮影画像のサイズは同じである。 By returning only the facial feature points to the same positions as before enlargement, a captured image P21 is generated as an image after style enhancement, in which the face looks the same as before enlargement, but the body appears slimmer, as shown on the right side of Figure 21. The size of the captured image is the same before and after style enhancement.

このように、撮影画像全体を上下方向に伸ばし、顔の特徴点のみを引き伸ばし前の位置と同じ位置に戻すことにより、体が細く見える画像を容易に生成することが可能となる。 In this way, by stretching the entire captured image vertically and then stretching only the facial feature points and returning them to their original positions, it is possible to easily generate an image in which the body appears slimmer.

顔のそれぞれの特徴点の移動先の位置については、引き伸ばし前の位置に近付く位置であれば、引き伸ばし前の位置と同じ位置以外の様々な位置とすることが可能である。すなわち、引き伸ばし後の画像処理は、顔のそれぞれの特徴点を引き伸ばし前の位置の方向に移動させるようにして行われる。 The positions to which each facial feature point is moved can be various positions other than the same positions as before stretching, as long as they are close to the positions before stretching. In other words, image processing after stretching is performed by moving each facial feature point in the direction of the positions before stretching.

なお、スタイルアップによる写りの調整の前に小顔感や顔の形の調整が行われている場合、小顔感による調整後の顔の特徴点や、形の調整後の顔の特徴点を用いて、以上のようなスタイルアップの画像処理が行われる。スタイルアップ後の撮影画像に写る顔は、小顔感や顔の形の調整が反映された顔となる。 If adjustments to the face size or face shape have been made before the appearance adjustments for the style enhancement, the image processing for the style enhancement described above is performed using the facial feature points after the adjustments for the face size or the facial feature points after the shape adjustments. The face that appears in the captured image after the style enhancement will be one that reflects the adjustments to the face size and face shape.

<被写体が複数人である場合>
図22は、スタイルアップの画像処理の他の例を示す図である。
<When there are multiple subjects>
FIG. 22 is a diagram showing another example of image processing for style-up.

図22には、新郎と新婦がアップで写る撮影画像P31が画像処理の対象として示されている。複数人が写る撮影画像を対象とした場合にも、1人が写る撮影画像を対象とした場合と同様の処理が行われる。 In FIG. 22, a photographed image P31 showing a close-up of the bride and groom is shown as the subject of image processing. When a photographed image showing multiple people is targeted, the same processing is carried out as when a photographed image showing one person is targeted.

すなわち、スタイルアップの所定のレベルが選択された場合、矢印#31の先に示すように、撮影画像P31が、ユーザにより選択されたレベルに応じて上下方向に引き伸ばされる。引き伸ばし後の撮影画像P31においては、全体的に上下方向に伸びた状態で新郎と新婦が写ることになる。 In other words, when a specific level of style up is selected, the captured image P31 is stretched vertically according to the level selected by the user, as indicated by the tip of arrow #31. After stretching, the captured image P31 shows the groom and bride stretched overall in the vertical direction.

次に、矢印#32の先に示すように、引き伸ばし後の撮影画像P31の上端と下端がトリミングされ、新郎と新婦のそれぞれの顔の特徴点を、引き伸ばし前の位置と同じ位置に戻すようにして画像処理が行われる。新郎と新婦のそれぞれの顔の特徴点を引き伸ばし前の位置と同じ位置に戻す画像処理によって、スタイルアップ後の撮影画像P31が生成される。 Next, as indicated by the tip of arrow #32, the top and bottom of the stretched captured image P31 are trimmed, and image processing is performed to return the facial feature points of the bride and groom to the same positions they were in before stretching. By performing image processing that returns the facial feature points of the bride and groom to the same positions they were in before stretching, a styled-up captured image P31 is generated.

このように、スタイルアップの画像処理の対象となる撮影画像に複数の人物が写っている場合、引き伸ばし後の撮影画像における顔の特徴点を引き伸ばし前の位置と同じ位置に戻す画像処理は、それぞれの人物の顔を対象として行われる。 In this way, when multiple people appear in a captured image that is the subject of style-up image processing, the image processing that returns facial feature points in the stretched captured image to the same positions as they were before stretching is performed on each person's face.

これにより、撮影画像に複数の人物が写っている場合であっても、体が細く見える画像を容易に生成することが可能となる。 This makes it easy to generate an image that makes people's bodies look slimmer, even when multiple people are in the image.

撮影画像に複数の人物が写っている場合においても、それぞれの顔の特徴点の移動先の位置を、引き伸ばし前の位置と同じ位置以外の様々な位置とすることが可能である。この場合、新郎と新婦とで、顔の特徴点の移動量が切り替わるようにしてもよい。例えば、女性である新婦の顔の特徴点の移動量を、男性である新郎の顔の特徴点の移動量より多い量とすることにより、女性の顔が小さく見える画像を生成することが可能となる。 Even when multiple people appear in a captured image, it is possible to move each facial feature point to a different position other than the same position as before enlargement. In this case, the amount of movement of the facial feature points may be switched between the bride and groom. For example, by moving the facial feature points of the bride, who is a woman, by an amount greater than the amount of movement of the facial feature points of the groom, who is a man, it is possible to generate an image in which the woman's face appears smaller.

顔の特徴点の移動量が性別に応じて切り替えられるのではなく、年齢などの他の属性に応じて切り替えられるようにしてもよい。それぞれの人物の属性については、管理ファイルに記録されている情報に基づいて特定される。 The amount of movement of facial feature points may be changed according to other attributes such as age, rather than according to gender. The attributes of each person are identified based on the information recorded in the management file.

顔のサイズ、顔の向きなどの、顔の写りの状態に応じて、顔の特徴点の移動量が切り替えられるようにしてもよい。 The amount of movement of facial feature points may be changed depending on the appearance of the face, such as the size of the face and the direction of the face.

<スタイルアップに関する変形例>
・引き伸ばし方向の変形例
スタイルアップの画像処理時の撮影画像の引き伸ばし方向(伸張方向)が上下方向であるものとしたが、画像処理の対象となる撮影画像に写る被写体の状況などに応じて、上下方向以外の所定の方向に引き伸ばされるようにしてもよい。
<Modifications for improving style>
Variations in stretching direction Although the stretching direction (extension direction) of the captured image during image processing for style-up is set to be vertical, the captured image may be stretched in a specified direction other than vertical depending on the condition of the subject appearing in the captured image to be processed.

図23は、引き伸ばし方向の例を示す図である。 Figure 23 shows examples of stretching directions.

図23Aの例においては、新婦1人がアップで写る撮影画像P41が示されている。撮影画像P41には、画像の右上方向を頭の方向とするように、新婦が斜めの状態で写っている。ウェディング撮影においては、このような様々な角度で人物が写る画像の撮影も行われる。 In the example of Figure 23A, a photographed image P41 is shown that shows a close-up of the bride. In photographed image P41, the bride is photographed at an angle, with her head facing in the upper right direction of the image. In wedding photography, images are also taken that show people at various angles like this.

新婦が斜めの状態で写っている場合、図23Bに示すように、画像の中心を基準として、撮影画像P41が斜めの方向(右上左下方向)に引き伸ばされる。引き伸ばし方向として、例えば顔の中心線の方向と同じ方向が選択される。図23Bの一点鎖線L1は、顔の中心を通る中心線を示す。顔の中心線は、例えば、頭頂部の位置を示す特徴点とあごの位置を示す特徴点を結ぶ直線として設定される。引き伸ばし方向が他の特徴点に基づいて設定されるようにしてもよい。 When the bride is photographed at an angle, as shown in FIG. 23B, the captured image P41 is stretched diagonally (upper right to lower left) with the center of the image as the reference point. For example, the same direction as the center line of the face is selected as the stretching direction. The dashed dotted line L1 in FIG. 23B indicates the center line passing through the center of the face. The center line of the face is set, for example, as a straight line connecting the feature point indicating the position of the top of the head and the feature point indicating the position of the chin. The stretching direction may also be set based on other feature points.

斜めの方向に引き伸ばした場合においても、顔の特徴点のみを、引き伸ばし前の位置と同じ位置に戻すようにしてスタイルアップの画像処理が行われる。 Even if the image is stretched diagonally, image processing to style it up is performed by returning only the facial feature points to the same positions they were in before stretching.

引き伸ばし方向が人物の状態に応じて設定されることにより、人物が斜めの状態で写っている場合においても、違和感のないスタイルアップの画像処理が可能となる。例えば、図23に示す撮影画像P41を上下方向に引き伸ばした場合、スタイルアップ後の撮影画像においては、新婦の肩幅が不自然に広がって違和感のある画像となってしまうことがあるが、そのようなことを防ぐことが可能となる。 By setting the stretching direction according to the state of the person, it is possible to process the image to style up without looking unnatural, even if the person is photographed at an angle. For example, if the captured image P41 shown in FIG. 23 is stretched vertically, the bride's shoulders may appear unnaturally wide in the captured image after the style up, resulting in an unnatural image, but it is possible to prevent this from happening.

・人物選択ボタン36を用いた操作との関係
撮影画像全体の引き伸ばしが行われることから、画像処理の対象となる撮影画像に複数の人物が写っていたとしても、スタイルアップの画像処理は、個別の人物を対象とすることができない処理となる。レタッチ対象とする1人の人物が人物選択ボタン36を用いて選択された場合に、調整ボタン55を操作してスタイルアップの機能をそのまま利用できるようにしてもよいし、利用不可となるようにしてもよい。
Relationship with operation using person selection button 36 Since the entire captured image is stretched, even if multiple people appear in the captured image to be processed, the style-up image processing is not capable of targeting individual people. When a single person to be retouched is selected using the person selection button 36, the adjustment button 55 may be operated to enable or disable the use of the style-up function.

図24は、レタッチ画面の表示例を示す図である。 Figure 24 shows an example of the retouch screen.

図24の例においては、新郎と新婦が写る撮影画像P1がレタッチ対象として表示されている。また、人物選択ボタン36のボタン41Aが操作され、左側に写る新郎だけがレタッチ対象として選択されている。 In the example of FIG. 24, a photographed image P1 showing a bride and groom is displayed as an object to be retouched. In addition, button 41A of person selection buttons 36 is operated, and only the groom, who appears on the left side, is selected as an object to be retouched.

この状態において、例えば図24の左下に示すように調整ボタン55を用いてスタイルアップがレベル「2」として選択された場合、レベル「2」のパラメータに従って、撮影画像P1を対象として上述した画像処理が行われる。スタイルアップ後の撮影画像には、レベル「2」に従って体が細く見える新郎と新婦の2人が写ることになる。 In this state, for example, if the style up is selected to level "2" using the adjustment button 55 as shown in the lower left of FIG. 24, the above-mentioned image processing is performed on the photographed image P1 according to the parameters of level "2." After the style up, the photographed image shows the bride and groom with their bodies looking slimmer according to level "2."

その後、例えば、人物選択ボタン36のボタン41Bが操作され、右側に写る新婦だけがレタッチ対象として選択された場合において、調整ボタン55を用いてスタイルアップがレベル「1」として選択されたとき、レベル「1」のパラメータに従って、撮影画像P1を対象として画像処理が行われる。スタイルアップ後の撮影画像には、レベル「1」に従って体が細く見える新郎と新婦の2人が写ることになる。 After that, for example, when button 41B of person selection buttons 36 is operated and only the bride on the right side is selected as the subject of retouching, and when style up is selected as level "1" using adjustment button 55, image processing is performed on captured image P1 according to the parameters of level "1." After style up, the captured image will show both the groom and the bride, whose bodies look slimmer according to level "1."

このように、レタッチ対象とする人物が人物選択ボタン36を用いて選択された場合であっても、スタイルアップが選択されたときには、同じパラメータ(レベル)を用いてスタイルが調整された複数の人物が写る撮影画像が生成される。 In this way, even if the person to be retouched is selected using the person selection button 36, when style up is selected, a captured image is generated that shows multiple people whose styles have been adjusted using the same parameters (levels).

図25は、レタッチ画面の他の表示例を示す図である。 Figure 25 shows another example of the retouch screen.

図25の例においても、新郎と新婦が写る撮影画像P1がレタッチ対象として表示されている。また、人物選択ボタン36のボタン41Aが操作され、左側に写る新郎だけがレタッチ対象として選択されている。 In the example of FIG. 25, captured image P1, which shows the groom and bride, is also displayed as the subject of retouching. In addition, button 41A of person selection buttons 36 is operated, and only the groom, who appears on the left side, is selected as the subject of retouching.

撮影画像に複数の人物が写っている場合において、一方の人物だけがレタッチ対象として選択されたとき、図25の左下に示すように、調整ボタン55が操作不可の状態で表示されるようにしてもよい。図25の調整ボタン55に色を付していることは、調整ボタン55がグレーアウトし、操作不可の状態になっていることを示す。 When a captured image contains multiple people, and only one of the people is selected as the subject of retouching, the adjustment button 55 may be displayed in an inoperable state, as shown in the lower left of FIG. 25. The adjustment button 55 in FIG. 25 is colored to indicate that the adjustment button 55 is grayed out and inoperable.

これにより、レタッチ対象として選択されていない方の人物に対して、意図しない写りの調整がスタイルアップの機能によって行われてしまうのを防ぐことが可能となる。 This will prevent the Style Up feature from making unintended adjustments to the appearance of people who are not selected for retouching.

<<顔枠画像の表示の変形例>>
図15の例においては、子どもをレタッチ対象として選択し、顔の写りなどを調整することができるものとしたが、子どもがレタッチ対象から除外されるようにしてもよい。ブライダル撮影においては子どもを含めて新郎新婦の撮影が行われることがある。
<<Modification of Face Frame Image Display>>
15, the child is selected as a retouching target and the appearance of the face can be adjusted, but the child may be excluded from the retouching target. In bridal photography, the bride and groom may be photographed including the child.

図26は、レタッチ画面の他の表示例を示す図である。 Figure 26 shows another example of the retouch screen.

図26に示すレタッチ画面のサムネイル領域32には撮影画像P1乃至P4と撮影画像P11のサムネイル画像が表示され、サムネイル画像を用いて選択された撮影画像P11が表示領域31に拡大表示されている。撮影画像P11は、新郎と新婦の間に子どもが写っている画像である。 Thumbnail images of the photographed images P1 to P4 and the photographed image P11 are displayed in the thumbnail area 32 of the retouch screen shown in FIG. 26, and the photographed image P11 selected using the thumbnail image is enlarged and displayed in the display area 31. The photographed image P11 is an image in which a child is captured between the bride and groom.

右側に写る新婦の顔を囲むように枠画像F1が表示され、子どもの顔を囲むように枠画像F2が表示されている。枠画像F1と枠画像F2は、それぞれ異なる色の枠の画像である。左側に写る新郎の顔には枠画像が表示されていない。 A frame image F1 is displayed around the bride's face on the right, and a frame image F2 is displayed around the child's face. Frame images F1 and F2 are frame images of different colors. No frame image is displayed around the groom's face on the left.

枠画像F1は、新婦がレタッチ対象であることを示すUI情報である。図26の例においては、ボタン41Bが操作され、右側に写っている人物である新婦がレタッチ対象として選択されている。 Frame image F1 is UI information indicating that the bride is the subject of retouching. In the example of FIG. 26, button 41B is operated, and the bride, who is the person on the right side, is selected as the subject of retouching.

一方、枠画像F2は、子どもに対してレタッチを施すことができないこと(レタッチ不可であること)を示すUI情報である。すなわち、図26の例においては、ユーザの操作によらずに、子どもがレタッチ対象から自動的に除外され、レタッチを施すことができないことを示す枠画像F2が、レタッチ対象の人物を示す枠画像F1とともに画像P11上に表示されるようになっている。 On the other hand, frame image F2 is UI information indicating that retouching cannot be applied to children (retouching is not possible). That is, in the example of FIG. 26, children are automatically excluded from the subjects to be retouched without any user operation, and frame image F2 indicating that retouching cannot be applied is displayed on image P11 together with frame image F1 showing the person to be retouched.

違和感が大きいなどの理由から子どもの顔にはレタッチを施したくないというニーズがある。枠画像F2が表示され、子どもにレタッチを施すことができないことが明示されることにより、新郎新婦は安心して自分達の写りを調整することができる。 There is a need to avoid retouching children's faces because it can look very unnatural. By displaying frame image F2 and clearly indicating that retouching of children is not possible, the bride and groom can adjust their appearance without worry.

図27は、枠画像の表示例を示す図である。 Figure 27 shows an example of how a frame image is displayed.

例えば図26に示す状態においてボタン41Aが操作され、左側に写っている人物である新郎がレタッチ対象として選択された場合、図27Aに示すように、新郎の顔を囲むように枠画像F3が表示される。子どもの顔には枠画像F2が表示され続ける。レタッチ対象として選択可能であるが、レタッチ対象として選択されていない新婦の顔には枠画像が表示されない。 For example, when button 41A is operated in the state shown in FIG. 26 and the groom, who is the person on the left, is selected as the subject to be retouched, a frame image F3 is displayed surrounding the groom's face, as shown in FIG. 27A. A frame image F2 continues to be displayed around the child's face. No frame image is displayed around the face of the bride, who can be selected as a subject to be retouched but has not been selected as a subject to be retouched.

また、ボタン41Cが操作され、新郎と新婦の2人がレタッチ対象として選択された場合、図27Bに示すように、2人の顔を囲むように枠画像F1と枠画像F3が表示される。子どもの顔には枠画像F2が表示され続ける。 In addition, when button 41C is operated to select the bride and groom as subjects for retouching, frame images F1 and F3 are displayed to surround the faces of the two people, as shown in FIG. 27B. Frame image F2 continues to be displayed around the child's face.

枠画像F2の表示は、例えば子どもが写っている撮影画像がサムネイル画像を用いて選択されたときに開始され、同じ画像がレタッチ対象として選択されている間続けられる。レタッチ対象の撮影画像に例えば複数人の子どもが写っている場合、それぞれの子どもの顔に対して、レタッチを施すことができないことを示す枠画像が表示される。 Display of the frame image F2 begins when, for example, a photographed image that includes a child is selected using a thumbnail image, and continues while the same image is selected for retouching. If, for example, multiple children appear in the photographed image to be retouched, a frame image is displayed around each child's face to indicate that retouching is not possible.

図28は、レタッチ対象とするか否かの選択例を示す図である。 Figure 28 shows an example of how to select whether or not to retouch an image.

図28に示すように、レタッチ可否選択モデルM1が例えば認識部133(図17)に用意される。レタッチ可否選択モデルM1は、撮影画像を入力とし、撮影画像に写るそれぞれの人物をレタッチ可能とするか否かを示す情報を出力とする推論モデルである。レタッチ可能とするか否かを示す情報には、それぞれの人物の顔の顔IDが紐付けられる。レタッチ可否選択モデルM1は、例えば、レタッチ可能とするか否かのラベルがそれぞれの人物に対して設定された撮影画像を教師データとした機械学習によって生成される。 As shown in FIG. 28, the retouching possible/not possible selection model M1 is prepared, for example, in the recognition unit 133 (FIG. 17). The retouching possible/not possible selection model M1 is an inference model that takes a photographed image as input and outputs information indicating whether each person appearing in the photographed image can be retouched. The information indicating whether retouching is possible is linked to the face ID of each person's face. The retouching possible/not possible selection model M1 is generated, for example, by machine learning using photographed images in which a label indicating whether retouching is possible or not is set for each person as training data.

認識部133は、画像選択画面を用いて選択されたそれぞれの撮影画像をレタッチ可否選択モデルM1に入力し、それぞれの人物をレタッチ可能とするか否かを選択する。それぞれの人物をレタッチ可能とするか否かが撮影画像の特徴に基づいて選択される。 The recognition unit 133 inputs each photographed image selected using the image selection screen into the retouching possibility selection model M1, and selects whether or not each person can be retouched. Whether or not each person can be retouched is selected based on the characteristics of the photographed image.

表示制御部134は、レタッチ画面を表示している場合において、レタッチ不可の人物が写る撮影画像がレタッチ対象として選択されたとき、レタッチを施すことができないことを示す枠画像を撮影画像に重ねて表示させる。 When the retouching screen is displayed and a captured image containing a person who cannot be retouched is selected as the subject of retouching, the display control unit 134 displays a frame image superimposed on the captured image indicating that retouching cannot be applied.

レタッチ可能であるか否かの選択が機械学習によって生成された推論モデルを用いて行われるのではなく、画像解析の結果に基づいて行われるようにしてもよい。また、レタッチ可能であるか否かの選択が、認識部133により認識された年齢に基づいて行われるようにしてもよい。例えば、認識された年齢と閾値として設定された年齢とが比較され、閾値の年齢以下の人物がレタッチ不可の人物として選択される。 The selection of whether or not retouching is possible may be made based on the results of image analysis, rather than using an inference model generated by machine learning. The selection of whether or not retouching is possible may also be made based on the age recognized by the recognition unit 133. For example, the recognized age is compared with an age set as a threshold, and people who are below the threshold age are selected as people who cannot be retouched.

大人であるか子どもであるかの判定結果を出力する推論モデルが認識部133に用意され、レタッチ可能であるか否かの選択がこの推論モデルの出力に基づいて行われるようにしてもよい。 An inference model that outputs a determination result of whether the person is an adult or a child may be prepared in the recognition unit 133, and the selection of whether or not retouching is possible may be made based on the output of this inference model.

レタッチ不可とする人物をユーザが選択できるようにしてもよい。レタッチ対象としない人物の選択は、例えば、表示領域31に表示された撮影画像上でユーザが人物の顔を指定することによって行われる。 The user may be allowed to select people who should not be retouched. For example, the user may select people not to be retouched by designating the face of a person on the captured image displayed in the display area 31.

<<特徴認識について>>
<特徴の種類>
性別、年齢などの人物の属性を含む特徴が認識部133により認識されるものとしたが、撮影画像の以下の特徴が認識(判定)されるようにしてもよい。それぞれの特徴は、例えば、機械学習によってあらかじめ生成された推論モデルを用いて、または、画像の解析結果に基づいて認識される。
<<About feature recognition>>
<Type of features>
Although the recognition unit 133 recognizes features including human attributes such as gender and age, the following features of the captured image may be recognized (determined). Each feature is recognized, for example, by using an inference model generated in advance by machine learning, or based on the analysis result of the image.

・顔の角度(向き)
人物の顔の向きが認識される。例えば、正面、斜め、横の3種類の向きのいずれかの向きが認識される。
・Face angle (direction)
The orientation of the person's face is recognized. For example, one of three orientations, i.e., facing forward, diagonally, or sideways, is recognized.

・表情
目をつぶっている、笑っている等の、人物の表情が認識される。
・Facial expressions A person's facial expressions, such as closing their eyes or smiling, are recognized.

・画角
撮影画像の画角(人物が写っている範囲)が認識される。例えば、撮影画像のサイズに対する顔のサイズに応じて、アップ、全身などが画角として認識される。
Angle of view: The angle of view of the captured image (the range in which a person is captured) is recognized. For example, depending on the size of the face relative to the size of the captured image, the angle of view may be recognized as a close-up, a full body, etc.

・キャッチライトの有無
人物の目にキャッチライトが入っているか否かが認識される。
- Presence or absence of catchlights This function recognizes whether or not there is a catchlight in a person's eyes.

・顔の明るさ
輝度、照度などの顔の明るさが認識される。
・Facial brightness The brightness of the face, such as luminance and illuminance, is recognized.

・肌の色
肌の色が適正の範囲内にあるか否かが認識される。所定の色の範囲が適正の範囲としてあらかじめ設定される。
Skin color: It is recognized whether or not the skin color is within an appropriate range. A specific color range is set in advance as the appropriate range.

・顔の重なりの程度
ある人物の顔の領域と他の人物の顔の領域との位置関係に基づいて、顔が隠れているか否か、または、顔同士がくっついているか否かが認識される。
Degree of Facial Overlapping Based on the positional relationship between the facial region of one person and the facial region of another person, it is recognized whether a face is hidden or whether the faces are touching each other.

・髪の写り
髪の色、髪の明るさなどの、髪の写りの状態が認識される。
- Hair appearance The state of the hair appearance, such as hair color and hair brightness, is recognized.

・全身が写っているか否か
人物の全身が写っているか否かが認識される。
- Whether or not the whole body is captured Whether or not a person's whole body is captured is recognized.

・体の向き
人物の体が写っている場合に、その向きか認識される。
-Body direction: If a person's body is in the photo, its direction will be recognized.

・衣装の種類
ドレス、和装、打掛などの、衣装の種類が認識される。
- Type of costume The type of costume, such as dress, kimono, uchikake, etc., is recognized.

・撮影シーン
撮影場所などの撮影シーンが認識される。逆光、白とびなどの撮影時の光学条件が撮影シーンとして認識されるようにしてもよい。
Photographing scene Photographing scenes such as the location of photography are recognized. Optical conditions at the time of photography such as backlighting, blown-out highlights, etc. may be recognized as the photographing scene.

・ルールに違反していないか否か
ブライダル写真のルール、成人式写真のルールなどの撮影コースの種類毎にルールが決められている場合、そのルールに違反していないか否かが認識される。学校の証明写真を撮影するコースにおいては、例えば校則に違反していないか否かが認識される。
Whether or not rules are violated When rules are set for each type of photography course, such as rules for bridal photos, rules for coming-of-age ceremony photos, etc., it is recognized whether or not the rules are violated. In a course for taking school ID photos, for example, it is recognized whether or not school rules are violated.

以上のような様々な特徴のうちの少なくともいずれかの認識が認識部133により行われるようにすることが可能である。 It is possible for the recognition unit 133 to recognize at least one of the various features described above.

<認識結果の用途>
・レタッチの画像処理に用いる例
特徴の認識結果に基づいてレタッチの内容が切り替わるようにすることが可能である。例えば、衣装の種類の認識が行われている場合において、衣装の種類が打掛であると認識されたとき、スタイルアップの処理が自動的に行われ、体全体が細く見えるような画像処理が行われる。また、上腕(二の腕)を細くするレタッチが用意されている場合において、衣装の種類が和装であると認識されたとき、そのレタッチが行われないようにすることが可能である。
<Use of recognition results>
- Example of use in retouching image processing It is possible to change the content of retouching based on the result of feature recognition. For example, when the type of clothing is recognized, if it is recognized that the type of clothing is an uchikake, processing to improve the style is automatically performed, and image processing is performed to make the whole body look slimmer. Also, when retouching to make the upper arms (upper arms) slimmer is prepared, it is possible to prevent the retouching from being performed when the type of clothing is recognized as a traditional Japanese garment.

このように、レタッチとして行われる画像処理の内容が撮影画像の特徴の認識結果に基づいて切り替わるようにすることが可能である。 In this way, it is possible to change the content of the image processing performed as retouching based on the results of recognizing the characteristics of the captured image.

・認識結果を提示に用いる例
特徴の認識結果がユーザに提示されるようにしてもよい。
Example of using recognition results for presentation The feature recognition results may be presented to the user.

レタッチ画面における提示
図29は、特徴の認識結果の提示例を示す図である。
Presentation on Retouch Screen FIG. 29 is a diagram showing an example of presentation of the feature recognition results.

図29Aに示す撮影画像P11は、図26を参照して説明したようにレタッチ画面において拡大表示された画像である。右側に写る新婦の顔を囲むように枠画像F1が表示され、子どもの顔を囲むように枠画像F2が表示されている。 The captured image P11 shown in FIG. 29A is an image that has been enlarged and displayed on the retouch screen as described with reference to FIG. 26. A frame image F1 is displayed surrounding the face of the bride on the right side, and a frame image F2 is displayed surrounding the face of the child.

また、レタッチ対象となる新婦の顔を囲む枠画像F1の隣には、レタッチ対象の人物の性別が「女性」として認識されたことと、顔の向きが「斜め」として認識されたことを示す情報が表示されている。図29の例においては、子どもの特徴の認識結果は表示されていない。 In addition, next to the frame image F1 that surrounds the face of the bride to be retouched, information is displayed indicating that the gender of the person to be retouched has been recognized as "female" and that the orientation of the face has been recognized as "diagonal." In the example of Figure 29, the recognition results of the child's features are not displayed.

レタッチ対象の人物が新郎に切り替えられた場合、図29Bに示すように、レタッチ対象となる新郎の顔を囲む枠画像F3が表示され、その隣に、レタッチ対象の人物の性別が「男性」として認識されたことと、顔の向きが「正面」として認識されたことを示す情報が表示されている。 When the person to be retouched is switched to the groom, as shown in FIG. 29B, a frame image F3 is displayed surrounding the face of the groom to be retouched, and next to it is information indicating that the gender of the person to be retouched has been recognized as "male" and that the orientation of his face has been recognized as "frontal."

このように、認識結果を示す情報が表示されることにより、ユーザは、特徴の認識が正しく行われているかどうかを確認することができる。 In this way, by displaying information showing the recognition results, the user can check whether the features have been recognized correctly.

上述したレタッチの機能の中には、対象が女性である場合と男性である場合とで、同じレベルのパラメータが選択された場合でも画像処理の強度が異なる機能がある。また、女性用として用意された機能と、男性用として用意された機能(例えば「ひげ消し」の機能)がある。特徴の認識結果が提示されることにより、ユーザは、認識結果が正しいことを確認した上で、それらの機能を利用してレタッチを行うことができる。 Some of the retouching functions described above have different image processing intensities depending on whether the subject is a woman or a man, even if the same level of parameters are selected. There are also functions prepared for women and functions prepared for men (for example, a "beard remover" function). By presenting the feature recognition results, the user can use those functions to perform retouching after confirming that the recognition results are correct.

図30は、認識結果の他の提示例を示す図である。 Figure 30 shows another example of the presentation of recognition results.

図29の例においては、レタッチ対象として選択された人物の特徴だけが表示されるものとしたが、図30に示すように、撮影画像に写るすべての人物の特徴の認識結果が表示されるようにしてもよい。図30の例においては、レタッチ対象として選択された新郎の顔の隣に認識結果を示す情報が表示されるとともに、レタッチ対象として選択されていない新婦の顔の隣にも認識結果を示す情報が表示されている。また、レタッチ対象とはならない子どもの顔の隣にも認識結果を示す情報が表示されている。子どもの特徴の認識結果として、人物の年齢が「子ども」として認識されたことと、顔の向きが「正面」として認識されたことを示す情報が表示されている。 In the example of FIG. 29, only the features of the person selected as the subject of retouching are displayed, but as shown in FIG. 30, the recognition results of the features of all people appearing in the captured image may be displayed. In the example of FIG. 30, information indicating the recognition result is displayed next to the face of the groom selected as the subject of retouching, and information indicating the recognition result is also displayed next to the face of the bride not selected as the subject of retouching. Information indicating the recognition result is also displayed next to the face of a child not to be retouched. As the recognition result of the child's features, information indicating that the person's age has been recognized as "child" and that the orientation of the face has been recognized as "frontal" is displayed.

特徴の認識結果が文字で表示されるのではなく、アイコンやマークなどの他の情報が表示されるようにしてもよい。特徴の認識結果が音声で提示されるようにしてもよいし、アニメーションを用いて提示されるようにしてもよい。 Instead of displaying the feature recognition results as text, other information such as icons or marks may be displayed. The feature recognition results may be presented as audio or using animation.

特徴の認識結果を示す情報が、レタッチ対象の撮影画像上の位置に表示されるのではなく、撮影画像の外の所定の領域に表示されるようにしてもよい。撮影画像上の顔にカーソルをあわせたときに特徴の認識結果を示す情報が表示されるようにしてもよい。 Information indicating the result of feature recognition may be displayed in a specified area outside the photographed image, rather than being displayed at a position on the photographed image to be retouched. Information indicating the result of feature recognition may be displayed when the cursor is placed over a face on the photographed image.

図29、図30の例においては性別、顔の向き、年齢を示す情報が表示されるものとしたが、認識結果として表示させる特徴の種類を例えば撮影スタジオのスタッフが選択できるようにしてもよい。レタッチを行いながらユーザが特徴の種類を選択できるようにしてもよい。 In the examples of Figures 29 and 30, information indicating gender, facial orientation, and age is displayed, but the type of features to be displayed as the recognition result may be selected by, for example, the staff of a photography studio. The user may also be allowed to select the type of features while retouching the image.

画像選択画面における提示
レタッチ対象とする撮影画像の選択に用いられる画面である画像選択画面において特徴の認識結果が提示されるようにしてもよい。
Presentation on Image Selection Screen The feature recognition results may be presented on an image selection screen that is used to select a captured image to be retouched.

図31は、画像選択画面の例を示す図である。 Figure 31 shows an example of an image selection screen.

撮影画像の選択枚数は、画像選択の前に、例えば撮影スタジオのスタッフにより設定される。5枚の撮影画像を印刷してアルバムとして受け取るプランをユーザが申し込んでいる場合、選択枚数として5枚が設定される。 The number of selected images is set, for example, by a staff member at the photography studio, before selecting images. If a user applies for a plan to receive five images printed as an album, five is set as the number of selected images.

画像選択画面の右側にはサムネイル表示領域201が形成される。サムネイル表示領域201は、撮影画像のサムネイル画像が表示される領域である。例えば50枚の撮影画像の撮影が行われている場合、50枚の撮影画像のそれぞれのサムネイル画像が表示される。図31の例においては、9枚の撮影画像のサムネイル画像を一度に表示させることが可能とされている。切り替えボタン(「NEXT」、「BACK」)を押すことにより、サムネイル表示領域201に表示させるサムネイル画像をユーザは切り替えることができる。 A thumbnail display area 201 is formed on the right side of the image selection screen. The thumbnail display area 201 is an area in which thumbnail images of the captured images are displayed. For example, if 50 captured images have been taken, thumbnail images of each of the 50 captured images are displayed. In the example of FIG. 31, it is possible to display thumbnail images of nine captured images at once. By pressing the switching buttons ("NEXT" and "BACK"), the user can switch the thumbnail images displayed in the thumbnail display area 201.

サムネイル画像を用いて選択された撮影画像が、サムネイル表示領域201の左側に形成された表示領域202に拡大表示される。図31の例においては、サムネイル表示領域201の右下端に表示されているサムネイル画像が選択され、その撮影画像が表示領域202に拡大表示されている。 A captured image selected using a thumbnail image is enlarged and displayed in a display area 202 formed to the left of the thumbnail display area 201. In the example of FIG. 31, the thumbnail image displayed at the bottom right edge of the thumbnail display area 201 is selected, and the captured image is enlarged and displayed in the display area 202.

また、新郎と新婦のそれぞれの顔を囲むように枠画像が表示され、その上に、新郎と新婦の特徴の認識結果を示す情報が表示されている。 In addition, a frame image is displayed around the faces of the bride and groom, and information showing the recognition results of the bride and groom's features is displayed on top of it.

表示領域202の右下には決定ボタン203が表示される。決定ボタン203は、表示領域202に表示されている撮影画像をレタッチ対象として決定するときに押下されるボタンである。ユーザは、サムネイル画像を選択することによってそれぞれの撮影画像を表示領域202に順次拡大して表示させ、気に入った撮影画像があったとき、決定ボタン203を押下してレタッチ対象として選択することになる。 A confirm button 203 is displayed at the bottom right of the display area 202. The confirm button 203 is a button that is pressed when deciding on the captured image displayed in the display area 202 as the image to be retouched. The user selects thumbnail images to sequentially enlarge and display each captured image in the display area 202, and when the user finds an image that the user likes, the user presses the confirm button 203 to select it as the image to be retouched.

表示領域202の下には、ユーザにより選択された撮影画像のサムネイル画像が表示される選択画像表示領域204が形成される。撮影画像P1乃至P4の4枚が選択された場合、それぞれのサムネイル画像が図31に示すように並べて表示される。 Below the display area 202, a selected image display area 204 is formed in which thumbnail images of the captured images selected by the user are displayed. When four captured images P1 to P4 are selected, the respective thumbnail images are displayed side by side as shown in FIG. 31.

5枚の撮影画像の選択が終了した場合、画像選択作業は終了となる。レタッチ対象とする撮影画像の選択が終了した後、選択されたそれぞれの撮影画像に対するレタッチが開始される。 When the selection of five captured images has been completed, the image selection process is complete. After the selection of the captured images to be retouched has been completed, retouching of each of the selected captured images begins.

このように、認識結果を示す情報が表示されることにより、ユーザは、それぞれの撮影画像の特徴の認識が正しく行われているかどうかを確認することができ、誤認識のない撮影画像をレタッチ対象として選択することが可能となる。例えば、目を閉じて写っていることを示す情報が表示されることにより、ユーザはそのような撮影画像をレタッチ対象から除外することができる。また、画角の認識結果を示す情報が表示されることにより、ユーザは、好ましくない画角の撮影画像をレタッチ対象から除外することができる。 In this way, by displaying information showing the recognition results, the user can check whether the characteristics of each captured image have been correctly recognized, and can select captured images without erroneous recognition as targets for retouching. For example, by displaying information showing that the eyes are closed in the photograph, the user can exclude such captured images from targets for retouching. In addition, by displaying information showing the recognition results of the angle of view, the user can exclude captured images with undesirable angles of view from targets for retouching.

上述したように、レタッチ後の全数反映は、レタッチ済みの撮影画像のうちのどの撮影画像のレタッチの内容をどの未選択画像に対して反映させるかを、選択画像と未選択画像のそれぞれの特徴に基づいて選択するようにして行われる。すなわち、レタッチ対象として選択された撮影画像に対して施されたレタッチの内容が、その撮影画像と同じ特徴を有する未選択画像に対して施される。例えば、新婦に対して施されたレタッチの内容は、未選択画像に同じような状態で写る新婦に対して反映され、新郎に対して施されたレタッチの内容は、未選択画像に同じような状態で写る写る新郎に対して反映される。 As described above, the reflection of all retouched images is performed by selecting which of the retouched images to reflect the retouching of, based on the characteristics of the selected and unselected images. In other words, the retouching applied to the image selected to be retouched is applied to unselected images that have the same characteristics as the image selected. For example, the retouching applied to the bride is reflected to the bride who appears in a similar state in the unselected images, and the retouching applied to the groom is reflected to the groom who appears in a similar state in the unselected images.

全数反映がこのようにして行われる場合、レタッチが施された撮影画像の特徴に誤認識があると、新婦に対して施されたレタッチの内容を未選択画像に写る新郎に対して反映させたり、新郎に対して施されたレタッチの内容を未選択画像に写る新婦に対して反映させたりするといったような誤った反映が行われてしまうことがある。誤認識のない撮影画像をレタッチ対象として選択することにより、このような誤った反映が全数反映時に行われてしまうのを防ぐことが可能となる。 When full reflection is performed in this manner, if there is a misrecognition of the characteristics of a retouched photographed image, the retouching applied to the bride may be incorrectly reflected on the groom in an unselected image, or the retouching applied to the groom may be incorrectly reflected on the bride in an unselected image. By selecting photographed images that are not misrecognized as the images to be retouched, it is possible to prevent such erroneous reflections from occurring when full reflection is performed.

画像選択画面における特徴の認識結果の提示は、例えば、認識部133による特徴の認識が撮影された全ての画像に対して行われることによって実現される。サムネイル表示領域201においてサムネイル画像が選択されたタイミングで、そのサムネイル画像に対応する撮影画像の特徴の認識が行われ、認識結果が提示されるようにしてもよい。 The presentation of the feature recognition results on the image selection screen is realized, for example, by performing feature recognition by the recognition unit 133 on all captured images. When a thumbnail image is selected in the thumbnail display area 201, the features of the captured image corresponding to that thumbnail image may be recognized, and the recognition results may be presented.

<<その他>>
・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
<<Others>>
Regarding the program: The above-mentioned series of processes can be executed by hardware or software. When the series of processes is executed by software, the program constituting the software is installed in a computer incorporated in dedicated hardware, or in a general-purpose personal computer.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図16に示されるリムーバブルメディア111に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM102や記録部108に、あらかじめインストールしておくことができる。 The program to be installed is provided by being recorded on removable media 111 shown in FIG. 16, which may be an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) or a semiconductor memory. It may also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in ROM 102 or recording unit 108.

コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or it may be a program in which processing is performed in parallel or at the required timing, such as when called.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described in this specification are merely examples and are not limiting, and other effects may also exist.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of this technology is not limited to the above-mentioned embodiment, and various modifications are possible without departing from the gist of this technology.

例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when a single step includes multiple processes, the multiple processes included in that single step can be executed by a single device, or can be shared and executed by multiple devices.

1 レタッチ用PC, 2 画像管理サーバ, 3 携帯端末, 11 ディスプレイ, 121 情報処理部, 131 画像取得部, 132 表示制御部, 133 認識部, 134 レタッチ処理部, 135 ファイル管理部 1 Retouching PC, 2 Image management server, 3 Mobile terminal, 11 Display, 121 Information processing unit, 131 Image acquisition unit, 132 Display control unit, 133 Recognition unit, 134 Retouching processing unit, 135 File management unit

Claims (16)

被写体として写る人物の属性を含むそれぞれの撮影画像の特徴を認識する認識部と、
前記撮影画像を対象とした加工の内容の選択に用いられる加工画面を構成する、加工対象とする前記人物の選択に用いられる選択ボタンの表示を、加工対象として選択中の前記撮影画像の特徴に応じて切り替える表示制御部と、
加工対象として選択中の前記撮影画像のうちの、前記選択ボタンを用いてユーザにより選択された前記人物の部分に加工を施す画像処理部と
を備える情報処理装置。
a recognition unit that recognizes features of each captured image including attributes of a person appearing as a subject;
a display control unit that switches display of a selection button used to select the person to be processed, which constitutes a processing screen used to select the content of processing for the photographed image, in accordance with a feature of the photographed image being selected as the processing target;
an image processing unit that processes a portion of the person selected by a user using the selection button in the captured image that is being selected as a processing target.
前記表示制御部は、前記選択ボタンの表示を、選択中の前記撮影画像が変更される毎に切り替える
請求項1に記載の情報処理装置。
The information processing device according to claim 1 , wherein the display control unit switches the display of the selection button every time the selected captured image is changed.
前記表示制御部は、加工対象として選択中の前記撮影画像に複数の前記人物が写っている場合、前記選択ボタンの表示をオン状態とし、1人の前記人物が写っている場合、前記選択ボタンの表示をオフ状態とする
請求項1に記載の情報処理装置。
The information processing device according to claim 1 , wherein the display control unit turns on the display of the selection button when a plurality of people are depicted in the captured image selected as the processing target, and turns off the display of the selection button when one person is depicted in the captured image.
前記表示制御部は、加工対象として選択中の前記撮影画像に写る一方の人物の選択に用いられる第1のボタンと、他方の人物の選択に用いられる第2のボタンと、両方の人物の選択に用いられる第3のボタンとの3種類のボタンを前記選択ボタンとして表示させる
請求項1乃至3のいずれかに記載の情報処理装置。
The information processing device according to any one of claims 1 to 3, wherein the display control unit displays three types of buttons as the selection buttons: a first button used to select one of the people appearing in the captured image selected as the subject of processing, a second button used to select the other person, and a third button used to select both people.
前記表示制御部は、左側に写る前記人物の選択に用いられる前記第1のボタンと、右側に写る前記人物の選択に用いられる前記第2のボタンとを含む前記選択ボタンを表示させる
請求項4に記載の情報処理装置。
The information processing device according to claim 4 , wherein the display control unit displays the selection buttons including the first button used to select the person appearing on the left side and the second button used to select the person appearing on the right side.
前記認識部は、前記撮影画像に写るそれぞれの前記人物の性別を前記属性として認識し、
前記表示制御部は、男性を選択するときに用いられる前記第1のボタンと、女性を選択するときに用いられる前記第2のボタンとを含む前記選択ボタンを表示させる
請求項4に記載の情報処理装置。
The recognition unit recognizes the gender of each of the persons appearing in the captured image as the attribute,
The information processing device according to claim 4 , wherein the display control unit displays the selection buttons including the first button used to select a male and the second button used to select a female.
前記認識部は、前記撮影画像に写るそれぞれの前記人物の年齢を前記属性として認識し、
前記表示制御部は、大人を選択するときに用いられる前記第1のボタンと、子どもを選択するときに用いられる前記第2のボタンとを含む前記選択ボタンを表示させる
請求項4に記載の情報処理装置。
The recognition unit recognizes an age of each of the persons appearing in the captured image as the attribute,
The information processing device according to claim 4 , wherein the display control unit displays the selection buttons including the first button used to select an adult and the second button used to select a child.
情報処理装置が、
被写体として写る人物の属性を含むそれぞれの撮影画像の特徴を認識し、
前記撮影画像を対象とした加工の内容の選択に用いられる加工画面を構成する、加工対象とする前記人物の選択に用いられる選択ボタンの表示を、加工対象として選択中の前記撮影画像の特徴に応じて切り替え、
加工対象として選択中の前記撮影画像のうちの、前記選択ボタンを用いてユーザにより選択された前記人物の部分に加工を施す
情報処理方法。
An information processing device,
It recognizes the characteristics of each captured image, including the attributes of the people in the image,
switching display of a selection button used to select the person to be processed, which constitutes a processing screen used to select the content of processing for the photographed image, in accordance with a feature of the photographed image being selected as the processing target;
the information processing method further comprising: processing a portion of the person selected by a user using the selection button in the captured image selected as a processing target.
コンピュータに、
被写体として写る人物の属性を含むそれぞれの撮影画像の特徴を認識し、
前記撮影画像を対象とした加工の内容の選択に用いられる加工画面を構成する、加工対象とする前記人物の選択に用いられる選択ボタンの表示を、加工対象として選択中の前記撮影画像の特徴に応じて切り替え、
加工対象として選択中の前記撮影画像のうちの、前記選択ボタンを用いてユーザにより選択された前記人物の部分に加工を施す
処理を実行させるプログラム。
On the computer,
It recognizes the characteristics of each captured image, including the attributes of the people in the image,
switching display of a selection button used to select the person to be processed, which constitutes a processing screen used to select the content of processing for the photographed image, in accordance with a feature of the photographed image being selected as the processing target;
a program for executing a process of applying processing to a part of the person selected by a user using the selection button in the captured image selected as a processing target.
撮影画像の加工の内容の選択に用いられる加工画面を表示させる表示制御部と、
加工対象として選択中の前記撮影画像のうちの、ユーザにより選択された人物の部分に加工を施す画像処理部と
を備え、
前記表示制御部は、前記ユーザにより選択された第1の人物に対して、加工対象であることを示す第1のUI情報を表示させ、前記第1の人物とは異なる第2の人物に対して、加工を施すことができないことを示す第2のUI情報を表示させる
情報処理装置。
a display control unit that displays a processing screen used for selecting the processing content of the captured image;
an image processing unit that processes a portion of the photographed image selected as a processing target, the portion being selected by a user to process the person;
The display control unit displays first UI information for a first person selected by the user, indicating that the first person is a target for processing, and displays second UI information for a second person different from the first person, indicating that processing cannot be applied to the second person.
前記表示制御部は、前記第1のUI情報と前記第2のUI情報として、それぞれ異なる色の枠画像を表示させる
請求項10に記載の情報処理装置。
The information processing device according to claim 10 , wherein the display control unit displays frame images of different colors as the first UI information and the second UI information.
前記撮影画像に写るそれぞれの前記人物の特徴を認識する認識部をさらに備え、
前記表示制御部は、加工しない人物として前記特徴の認識結果に基づいて選択された前記第2の人物に対して前記第2のUI情報を表示させる
請求項10に記載の情報処理装置。
A recognition unit that recognizes features of each of the persons appearing in the captured image is further provided,
The information processing device according to claim 10 , wherein the display control unit displays the second UI information for the second person selected as a person not to be processed based on a result of the recognition of the features.
前記表示制御部は、前記第2の人物である子どもに対して前記第2のUI情報を表示させる
請求項12に記載の情報処理装置。
The information processing device according to claim 12 , wherein the display control unit displays the second UI information for a child who is the second person.
前記表示制御部は、前記ユーザにより選択された前記第2の人物に対して前記第2のUI情報を表示させる
請求項10に記載の情報処理装置。
The information processing device according to claim 10 , wherein the display control unit causes the second UI information to be displayed for the second person selected by the user.
撮影画像の加工の内容の選択に用いられる加工画面を表示させる表示制御部と、
加工対象として選択中の前記撮影画像のうちの、ユーザにより選択された人物の部分に加工を施す画像処理部と
を備える情報処理装置が、
前記ユーザにより選択された第1の人物に対して、加工対象であることを示す第1のUI情報を表示させ、
前記第1の人物とは異なる第2の人物に対して、加工を施すことができないことを示す第2のUI情報を表示させる
情報処理方法。
a display control unit that displays a processing screen used for selecting the processing content of the captured image;
an image processing unit that processes a part of a person selected by a user in the captured image that is being selected as a processing target,
displaying first UI information indicating that a first person selected by the user is a processing target;
The information processing method further comprises displaying second UI information indicating that processing cannot be performed on a second person different from the first person.
撮影画像の加工の内容の選択に用いられる加工画面を表示させる表示制御部と、
加工対象として選択中の前記撮影画像のうちの、ユーザにより選択された人物の部分に加工を施す画像処理部と
を備える情報処理装置を制御するコンピュータに、
前記ユーザにより選択された第1の人物に対して、加工対象であることを示す第1のUI情報を表示させ、
前記第1の人物とは異なる第2の人物に対して、加工を施すことができないことを示す第2のUI情報を表示させる
処理を実行させるプログラム。
a display control unit that displays a processing screen used for selecting the processing content of the captured image;
an image processing unit that processes a part of the photographed image selected as a processing target, the part being selected by a user,
displaying first UI information indicating that a first person selected by the user is a processing target;
a program for executing a process of displaying second UI information indicating that processing cannot be performed on a second person different from the first person.
JP2023100161A 2022-12-08 2023-06-19 Information processing device, information processing method, and program Pending JP2024083217A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024025099A JP7502711B1 (en) 2022-12-08 2024-02-22 PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022196686 2022-12-08
JP2022196686 2022-12-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024025099A Division JP7502711B1 (en) 2022-12-08 2024-02-22 PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Publications (1)

Publication Number Publication Date
JP2024083217A true JP2024083217A (en) 2024-06-20

Family

ID=91539060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023100161A Pending JP2024083217A (en) 2022-12-08 2023-06-19 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2024083217A (en)

Similar Documents

Publication Publication Date Title
US20240193833A1 (en) System and method for digital makeup mirror
JP6055160B1 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
JP4291963B2 (en) Image processing method
CN103945104B (en) Information processing method and electronic equipment
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
JP2007193824A (en) Image processing method
WO2018005884A1 (en) System and method for digital makeup mirror
CN106034206A (en) Electronic equipment and image display method
JP7502711B1 (en) PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP2024083217A (en) Information processing device, information processing method, and program
JP2024082674A (en) Information processor, method for processing information, and program
JP7492150B2 (en) Information processing device, information processing method, and program
JP7260737B2 (en) Image capturing device, control method for image capturing device, and program
JP2018064220A (en) Photograph preparation game machine and display method
JP2024082675A (en) Information processing device, method for processing information, and program
JP2024060324A (en) Image processing device, image processing method, and program
JP7549565B2 (en) Image processing device, image processing method, and program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2018106678A (en) Sticker making game machine and image processing method
JP2024143954A (en) Information processing device, information processing method, and program
JP6969622B2 (en) Shooting game equipment and programs
JP2023163374A (en) Information processing unit, information processing method, and program
JP6606935B2 (en) Image processing apparatus, image processing method, and program
JP2010224706A (en) Portrait creating system, control server, client terminal, portrait creating method, and program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM