Nothing Special   »   [go: up one dir, main page]

JP2012070222A - Imaging device, imaging method, and imaging program - Google Patents

Imaging device, imaging method, and imaging program Download PDF

Info

Publication number
JP2012070222A
JP2012070222A JP2010213357A JP2010213357A JP2012070222A JP 2012070222 A JP2012070222 A JP 2012070222A JP 2010213357 A JP2010213357 A JP 2010213357A JP 2010213357 A JP2010213357 A JP 2010213357A JP 2012070222 A JP2012070222 A JP 2012070222A
Authority
JP
Japan
Prior art keywords
subject
related information
unit
imaging
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010213357A
Other languages
Japanese (ja)
Inventor
Yusuke Tomita
祐介 冨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010213357A priority Critical patent/JP2012070222A/en
Publication of JP2012070222A publication Critical patent/JP2012070222A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To bring a a person as a subject into a state suitable for imaging depending on their features or behaviors and enable recording of high-quality images.SOLUTION: Personal authentication is performed on a person to be a subject in photography with a camera, and an image engine 15 saves features or behaviors of each individual, such as the degree of tension, smiling, blinking, or red-eye, in an operation history database 32 as subject-related information. When the authenticated person is photographed next time, a subject-related information acquisition and attention necessity determination part 31 reads the subject-related information from the operation history database 32 and instructs an attention execution part 33 to call an attention depending on the subject-related information. The attention execution part 33 calls an attention, and then, an imaging part 11 performs imaging.

Description

本発明は、撮像装置、撮像方法、及び撮像プログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and an imaging program.

画像処理パラメータを、過去のユーザの設定値や見本となる設定値を用いて最適に設定できるようにしたものが、以下の特許文献1〜特許文献5に記載されている。   Patent Documents 1 to 5 listed below allow image processing parameters to be optimally set using setting values and sample setting values of past users.

特許文献1に記載の電子カメラシステムは、電子カメラから取り込んだ撮影画像データに対してユーザの指示により補正を行い、修正項目毎の補正値を補正履歴情報として記録し、その補正値に基づいて平均値である代表補正値を算出するパソコンと、パソコンで算出された代表補正値を取り込んで記憶し、その代表値に基づいて撮影時の画像処理条件を補正し撮影を行う電子カメラとで電子カメラシステムを構成することで、過去の画像処理の履歴から精度のよい好みの画質で記録できるようにしたものである。   The electronic camera system described in Patent Document 1 corrects captured image data captured from an electronic camera according to a user instruction, records a correction value for each correction item as correction history information, and based on the correction value. A computer that calculates a representative correction value that is an average value, and an electronic camera that captures and stores the representative correction value calculated by the personal computer and corrects the image processing conditions at the time of shooting based on the representative value. By configuring the camera system, it is possible to record with the desired image quality with high accuracy from the history of past image processing.

特許文献2に記載のカメラ装置は、ユーザが新たな被写体を撮影するために撮影パラメータを変更したり、レンズを新たな被写体に向けることによって自動的に撮影パラメータが変更されたりした場合に、スルー画像の一部に、部分的に変更された撮影パラメータに応じて推定される撮影シーンのカテゴリの見本画像を表示する。これによって、ユーザは、被写体や構図を決める作業を行いながら、現在の撮影シーンに類似する撮影条件の設定用の撮影シーンの存在を知ることができ、また、ユーザが見本画像を選択すると、それと対応する撮影条件を直ちに自動設定できるとされている。   The camera device described in Patent Literature 2 is used when a user changes a shooting parameter to shoot a new subject or when a shooting parameter is automatically changed by directing a lens toward a new subject. A sample image of a shooting scene category estimated according to the partially changed shooting parameter is displayed on a part of the image. As a result, the user can know the existence of a shooting scene for setting shooting conditions similar to the current shooting scene while performing the work of determining the subject and composition, and when the user selects a sample image, It is said that the corresponding shooting conditions can be automatically set immediately.

特許文献3に記載の撮影情報提供システムは、サーバを介して、サンプル提供者が撮影に用いた情報を一般ユーザに提供することで、カメラの取り扱いに精通していないユーザでも、その撮影条件下において優秀な画像撮影を行うことができるようにしたものである。   The imaging information providing system described in Patent Document 3 provides information used for imaging by a sample provider to a general user via a server, so that even a user who is not familiar with camera handling can perform the imaging conditions. In this way, excellent image shooting can be performed.

特許文献4に記載の画像処理方法は、ユーザが使用した画像の撮影機種・撮影情報、表示方法、処理手順及び処理時間、撮影機種・撮影条件による処理内容を記録しておき、その後同条件の撮影画像が入力されたときには、自動的に保存されている処理パラメータ群から適切な処理手順を選択するようにしたものである。   The image processing method described in Patent Document 4 records the shooting type / photographing information, display method, processing procedure and processing time of the image used by the user, the processing contents according to the shooting model / shooting conditions, and then the same conditions. When a photographed image is input, an appropriate processing procedure is automatically selected from the processing parameter group stored automatically.

特許文献5に記載の撮像支援方法は、撮影機能を持つカメラ撮影部を備えた携帯電話端末が、過去の撮影画像とその撮影条件からなる撮影情報を対応付けて撮影履歴データベースに記憶すると共に、その撮影情報を撮影履歴活用部によって検索可能にする撮影状況分析エンジンを備え、この撮影状況分析エンジンを用いて過去の撮影データの撮影条件に基づく新たな撮影を可能にするものである。   In the imaging support method described in Patent Document 5, a mobile phone terminal including a camera imaging unit having an imaging function stores past captured images and shooting information including shooting conditions in association with each other in a shooting history database. A shooting situation analysis engine that makes it possible to retrieve the shooting information by the shooting history utilization unit is provided, and this shooting situation analysis engine enables new shooting based on shooting conditions of past shooting data.

これら特許文献1〜特許文献5は、過去のユーザの設定値や、見本となる設定値により、画像処理パラメータを最適に設定するものである。また、これらの画像処理パラメータは、風景、ポートレート、夜景等のシーンに依存するものである。   In these Patent Documents 1 to 5, image processing parameters are optimally set based on past user setting values and sample setting values. Further, these image processing parameters depend on scenes such as landscape, portrait, and night view.

しかしながら、たとえ、画像処理パラメータが最適に設定されていたとしても、被写体となる人物が緊張して硬直した顔であったり、目を瞑ったりしていては、満足した撮影画像とならない。特許文献1〜特許文献5に示されているものでは、このような各人物の特徴や癖等に依存して被写体を撮像に適した状態に導くことについて言及されていない。   However, even if the image processing parameters are set optimally, if the person who is the subject has a tense and stiff face or the eyes are meditated, a satisfactory captured image cannot be obtained. Patent Documents 1 to 5 do not mention that the subject is brought into a state suitable for imaging depending on the characteristics and wrinkles of each person.

また、特許文献6には、撮影した画像に対して特徴抽出処理を施し、被写体の目や口の形状を抽出し、抽出した形状に基づいて係数を演算し、演算した係数が予め定めた所定閾値以下か否かを判断し、所定閾値以下の場合には、被写体の表情を修正させるためのアドバイスメッセージを生成して出力することで、被写体の表情や姿勢等を検出し、検出した表情や姿勢に応じて適正にアドバイスを行うことができるようにしたデジタルカメラが記載されている。   In Patent Document 6, a feature extraction process is performed on a photographed image, the shape of the subject's eyes and mouth is extracted, a coefficient is calculated based on the extracted shape, and the calculated coefficient is a predetermined value determined in advance. It is determined whether or not the threshold value is less than or equal to the threshold value. If the threshold value is not more than the predetermined threshold value, an advice message for correcting the facial expression of the subject is generated and output, thereby detecting the facial expression and posture of the subject. A digital camera is described in which advice can be given appropriately according to the posture.

また、特許文献7には、被写体の動きや、被写体の顔の表情や、被写体の目の状態や、被写体の顔の向き等を検知し、これらの検知結果に対応して、被写体の動きを止めたり、被写体の表情変化を促したり、被写体の目の状態変化を促したり、被写体の顔の向きの変化を促す旨の各指示情報を被写体に向けて可視表示したりするようにした撮像装置が記載されている。   In Patent Document 7, the movement of the subject, facial expression of the subject, the state of the subject's eyes, the orientation of the subject's face, and the like are detected, and the movement of the subject is determined according to these detection results. An image pickup device that stops, prompts a change in the facial expression of the subject, prompts a change in the state of the subject's eyes, and visually displays each instruction information for prompting a change in the orientation of the face of the subject. Is described.

また、特許文献8には、入力された画像から人物の顔画像を検出し、当該検出した顔画像から表情毎に対応した表情評価値を算出し、当該算出された表情評価値と、表情評価値に対応して設けられた表情判定用閾値との関係を顔画像に基づき更新するとともに、当該更新された表情評価値と表情判定用閾値との関係に基づき顔画像の表情を判定する表情認識装置が記載されている。   Further, in Patent Document 8, a human face image is detected from an input image, a facial expression evaluation value corresponding to each facial expression is calculated from the detected face image, and the calculated facial expression evaluation value and facial expression evaluation are calculated. The facial expression recognition that updates the relationship with the facial expression determination threshold provided corresponding to the value based on the facial image and determines the facial expression based on the updated facial expression evaluation value and the facial expression determination threshold An apparatus is described.

特開2002−262174号公報JP 2002-262174 A 特開2006−186695号公報JP 2006-186695 A 特開2007−36716号公報JP 2007-36716 A 特開2007−219728号公報JP 2007-219728 A 特開2010−41527号公報JP 2010-41527 A 特開2003−219218号公報JP 2003-219218 A 特開2009−246832号公報JP 2009-246832 A 特開2009−253848号公報JP 2009-253848 A

上述のように、特許文献1〜特許文献5は、過去のユーザの設定値や、見本となる設定値により画像処理パラメータを最適に設定するものであり、被写体となる人物の特徴や癖等に依存して被写体を撮像に適した状態に導くものではない。   As described above, Patent Documents 1 to 5 optimally set image processing parameters based on past user setting values and sample setting values. It does not depend on the subject to be in a state suitable for imaging.

特許文献6及び特許文献7に示される技術は、現在撮影している被写体の表情や状態に応じて、アドバイスやメッセージを行うものである。しかしながら、これらの特許文献に示されるものは、被写体となる人物の個人認証を行っておらず、各人物の特徴や癖等にかかわらずアドバイスやメッセージを行う。したがって、アドバイスやメッセージを必要としない被写体に対しても、被写体の表情や状態の検出をし続ける点で、演算負荷が高くなり電力消費が発生する。また、特許文献6及び特許文献7に示される技術では、被写体の表情や状態に基づいてアドバイスやメッセージを行うため、撮像直前における被写体の変化には対応できない。例えば、まばたきしやすい被写体が、撮像される瞬間に突然まばたきをすることを防止できない。   The techniques disclosed in Patent Document 6 and Patent Document 7 provide advice and messages according to the facial expression and state of the subject currently being photographed. However, those disclosed in these patent documents do not perform personal authentication of a person who is a subject, and give advice or a message regardless of the characteristics or habits of each person. Therefore, even for a subject that does not require advice or a message, the calculation load increases and power consumption occurs because the facial expression and state of the subject are continuously detected. Further, the techniques disclosed in Patent Documents 6 and 7 provide advice and messages based on the facial expression and state of the subject, and thus cannot cope with changes in the subject immediately before imaging. For example, it is impossible to prevent a subject that is easily blinked from blinking suddenly at the moment of being imaged.

特許文献8は、表情評価値を更新していくことで、表情認識の精度を上げることができる。また、この特許文献8には、被写体に対して個人認証を行って人物を判定し、その人物について過去に検出された表情と、被写体の現在の表情とに基づいて撮影を行うか否かを判定することが記載されている。   Patent Document 8 can increase the accuracy of facial expression recognition by updating the facial expression evaluation value. Further, in this patent document 8, a person is determined by performing personal authentication on a subject, and whether or not shooting is performed based on a facial expression detected in the past and the current facial expression of the subject is determined. It is described that it is judged.

しかしながら、特許文献8は、表情に応じて撮影を行うか否かを決定するものであり、被写体となる人物毎の特徴や癖等に依存して被写体を撮像に適した状態に導くものではない。   However, Patent Document 8 determines whether or not to perform shooting according to a facial expression, and does not lead the subject to a state suitable for imaging depending on characteristics or habits of each person who is the subject. .

本発明は、上述の課題を鑑み、被写体となる人物に対して働きかけを行って、被写体となる人物毎の特徴や癖等に依存して被写体を撮像に適した状態に導き、品質の高い画像を記録できるようにした撮像装置、撮像方法、及び撮像プログラムを提供することを目的とする。   In view of the above-described problems, the present invention works on a person who is a subject, leads the subject to a state suitable for imaging depending on the characteristics and habits of each person who is the subject, and provides a high-quality image. An object of the present invention is to provide an imaging apparatus, an imaging method, and an imaging program that can record the image.

上述の課題に鑑み、本発明は、被写体の特徴や癖に基づいて、被写体に対する働きかけの要否を決定する働きかけ要否決定部と、働きかけ決定部が働きかけ必要と決定すると、被写体に対して働きかけを行う働きかけ実行部と、働きかけ実行部が働きかけを行った後に撮像を行う撮像部とを具備する撮像装置である。   In view of the above-described problems, the present invention is based on the characteristics and habits of the subject, and determines whether the subject needs to be acted on, and determines whether or not the approach determining unit needs to act on the subject. And an imaging unit that performs imaging after the action execution unit performs an action.

本発明は、被写体を個人認証し、個人認証結果に基づいて、個人認証された被写体に対応する被写体関連情報を記憶部から取得し、記憶部から取得された被写体関連情報に基づいて、被写体に対する働きかけの要否を決定し、働きかけが必要な場合には、被写体に対して働きかけを実行した後に撮像を行うようにした撮像方法である。   The present invention personally authenticates a subject, acquires subject-related information corresponding to the subject subject to personal authentication from a storage unit based on a personal authentication result, and applies the subject to the subject based on the subject-related information acquired from the storage unit In this imaging method, it is determined whether or not an action is necessary, and when an action is necessary, an image is taken after the action is performed on the subject.

本発明は、被写体を個人認証するステップと、個人認証結果に基づいて、個人認証された被写体に対応する被写体関連情報を記憶部から取得するステップと、記憶部から取得された被写体関連情報に基づいて、被写体に対する働きかけの要否を決定するステップと、働きかけが必要な場合には、被写体に対して働きかけを実行した後に撮像を行うステップとを含むようにしたコンピュータにより実行可能な撮像プログラムである。   The present invention includes a step of personally authenticating a subject, a step of acquiring subject-related information corresponding to the subject that has been personally authenticated based on a personal authentication result from a storage unit, and a subject-related information acquired from the storage unit The computer-executable imaging program includes a step of determining whether or not the subject needs to be acted, and a step of taking an image after performing the act on the subject when the act is necessary. .

本発明によれば、カメラ撮影時の被写体となる人物に対して個人認証し、各個人の特徴や癖を被写体関連情報として履歴として保持し、次回、個人認証済みの人物を撮影する際に、被写体関連情報に応じて、働きかけを行っているので、被写体となる人物毎の特徴や癖等に依存して被写体を撮像に適した状態に導き、品質の高い画像を記録できる。   According to the present invention, personal authentication is performed on a person who is a subject at the time of camera shooting, and the characteristics and habits of each individual are stored as subject-related information as a history. Since the work is performed in accordance with the subject-related information, the subject is brought into a state suitable for imaging depending on the characteristics and habits of each person as the subject, and a high-quality image can be recorded.

本発明の一実施形態に係るカメラ付き携帯端末装置の機能に基づくブロック図である。It is a block diagram based on the function of the portable terminal device with a camera concerning one embodiment of the present invention. 同実施形態において、操作履歴データベースに保持されている各個人の被写体関連情報を利用してカメラ撮影を行うときの処理を示すフローチャートである。4 is a flowchart showing processing when camera shooting is performed using subject-related information of each individual held in an operation history database in the embodiment. 同実施形態に係るカメラ付き携帯端末装置における操作履歴データベースの説明図である。It is explanatory drawing of the operation history database in the portable terminal device with a camera concerning the embodiment.

以下、本発明の実施の形態について図面を参照しながら説明する。図1は、本発明の一実施形態に係るカメラ付き携帯端末装置1の機能に基づくブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram based on functions of a camera-equipped mobile terminal device 1 according to an embodiment of the present invention.

図1に示すように、携帯端末装置1は、無線通信部10と、撮像部11と、画像記録処理部12と、画像記録部13と、画像再生処理部14と、画像エンジン15と、被写体分析エンジン16と、位置検出部17と、表示部18とを有している。   As illustrated in FIG. 1, the mobile terminal device 1 includes a wireless communication unit 10, an imaging unit 11, an image recording processing unit 12, an image recording unit 13, an image reproduction processing unit 14, an image engine 15, and a subject. The analysis engine 16, the position detection unit 17, and the display unit 18 are included.

無線通信部10は、基地局と無線で通信を行い、電話機能、メール機能、インターネットへの接続機能等を実現する。
撮像部11は、撮像された被写体像光を光電変換し、被写体像光に基づく撮像信号を出力する。撮像部11としては、CCD(Charge Coupled Device)撮像装置やCMOS(Complementary Metal Oxide Semiconductor)撮像装置が用いられる。
The wireless communication unit 10 communicates with a base station wirelessly to realize a telephone function, a mail function, an internet connection function, and the like.
The imaging unit 11 photoelectrically converts the captured subject image light and outputs an imaging signal based on the subject image light. As the imaging unit 11, a CCD (Charge Coupled Device) imaging device or a CMOS (Complementary Metal Oxide Semiconductor) imaging device is used.

画像記録処理部12は、撮像部11からの撮像信号の画像処理を行う。画像記録処理には、ガンマ補正、シャープネス、ホワイトバランス補正等のカメラ処理や、JPEG(Joint Photographic Experts Group)方式等による画像の圧縮処理が含まれる。
画像記録部13は、画像記録処理部12で処理された撮像信号を記録媒体に記録する。記録媒体としては、内蔵半導体メモリや、カード型フラッシュメモリ等が用いられる。
The image recording processing unit 12 performs image processing on the imaging signal from the imaging unit 11. Image recording processing includes camera processing such as gamma correction, sharpness, and white balance correction, and image compression processing using a JPEG (Joint Photographic Experts Group) method or the like.
The image recording unit 13 records the imaging signal processed by the image recording processing unit 12 on a recording medium. As the recording medium, a built-in semiconductor memory, a card type flash memory, or the like is used.

画像再生処理部14は、画像記録部13に記録されている画像信号を再生する。再生処理には、JPEG方式等による画像の伸張処理が含まれる。画像再生処理部14で再生された画像は、表示部18に表示される。表示部18としては、例えば、液晶ディスプレイが用いられる。   The image reproduction processing unit 14 reproduces the image signal recorded in the image recording unit 13. The reproduction process includes an image expansion process by the JPEG method or the like. The image reproduced by the image reproduction processing unit 14 is displayed on the display unit 18. For example, a liquid crystal display is used as the display unit 18.

画像エンジン15は、画像記録処理部12からの撮像部11で撮像されている画像又は画像再生処理部14からの画像記録部13から再生されている画像を分析して、被写体となる人物の特徴や癖に基づく被写体関連情報を取得する。画像エンジン15は、個人認証部21、顔検出部22、笑顔検出部23、まばたき検出部24、赤目検出部25等を有している。これらにより、被写体の人物の個人認証(例えば顔認証による人物の特定)が行われ、また、被写体関連情報として、顔の緊張度、笑顔度、まばたき度、赤目度等が取得できる。   The image engine 15 analyzes the image captured by the image capturing unit 11 from the image recording processing unit 12 or the image reproduced from the image recording unit 13 from the image reproduction processing unit 14, and the characteristics of the person serving as the subject Acquire subject-related information based on yam. The image engine 15 includes a personal authentication unit 21, a face detection unit 22, a smile detection unit 23, a blink detection unit 24, a red-eye detection unit 25, and the like. As a result, personal authentication of the person of the subject (for example, identification of a person by face authentication) is performed, and facial tension, smile, blink, red-eye, etc. can be acquired as subject-related information.

被写体分析エンジン16は、被写体関連情報取得及び働きかけ要否決定部(被写体関連情報取得部)31と、操作履歴データベース(記憶部)32と、働きかけ実行部33と、ルールデータベース(ルール記憶部)34と、行動制御部35とを有している。   The subject analysis engine 16 includes a subject-related information acquisition and action necessity determination unit (subject-related information acquisition unit) 31, an operation history database (storage unit) 32, an action execution unit 33, and a rule database (rule storage unit) 34. And an action control unit 35.

被写体関連情報取得及び働きかけ要否決定部31は、画像エンジン15を用いて被写体の人物毎の被写体関連情報を取得し、操作履歴データベース32への読み出し/書き込みを行う。すなわち、被写体関連情報取得及び働きかけ要否決定部31は、カメラ撮影時に個人認証を行い、画像エンジン15により、その人物の緊張度、笑顔度、まばたき度、赤目度等を分析し、個人毎の特徴や癖等の被写体関連情報を抽出し、これらの被写体関連情報を、撮影条件に応じて重み付けして、操作履歴データベース32に記述する。また、既に個人認証済みの人物を撮影する場合、被写体関連情報取得及び働きかけ要否決定部31は、操作履歴データベース32から設定ファイルを読み出して、被写体(個人認証済みの人物)の撮影条件(緊張度の大きさ、笑顔度の大きさ、赤目度、まばたき度数等)に基づいて、働きかけ実行部33に指示を出力する。その際、携帯端末装置1は、現在地を測位する位置検出部17と、各場所(撮影地)に関する豆知識等を予め記憶する位置関連情報提供部36とを備えており、被写体関連情報取得及び働きかけ要否決定部31は、必要に応じて、撮影時の位置情報と当該位置に関する豆知識とを取得し、働きかけ実行部33および音声再生部41を介して、取得した豆知識を被写体に披露する。   The subject-related information acquisition and action necessity determination unit 31 acquires subject-related information for each person of the subject using the image engine 15, and reads / writes to / from the operation history database 32. That is, the subject-related information acquisition / working necessity determination unit 31 performs personal authentication at the time of camera shooting, analyzes the person's tension level, smile level, blink level, red-eye level, etc. Subject-related information such as features and wrinkles is extracted, and the subject-related information is weighted according to shooting conditions and described in the operation history database 32. In addition, when photographing a person who has already been personally authenticated, the subject-related information acquisition and action necessity determination unit 31 reads the setting file from the operation history database 32 and captures the shooting condition (tension of the subject (person who has been personally authenticated)). Instructions are output to the action execution unit 33 based on the degree of smile, the degree of smile, the degree of red-eye, the blinking frequency, and the like. At that time, the mobile terminal device 1 includes a position detection unit 17 that measures the current location, and a position-related information providing unit 36 that stores in advance information about each location (photographing location). The action necessity determination unit 31 acquires position information at the time of shooting and bean knowledge about the position as necessary, and presents the acquired bean knowledge to the subject via the work execution unit 33 and the sound reproduction unit 41. To do.

働きかけ実行部33は、被写体関連情報取得及び働きかけ要否決定部31からの被写体の撮影条件に基づく指示を実行する。働きかけ実行部33からの働きかけとは、例えば、緊張し易い被写体であるときに、音声再生部41から撮影地に関する豆知識に関する音声を出力して被写体の緊張をほぐすことであり、また、笑顔度が低い被写体であるときに、音声再生部41から「はいチーズ」あるいは冗談を発音して被写体が笑うように仕向けることであり、また、赤目になり易い被写体であるときに、フラッシュランプ42から赤目防止光を発することであり、また、まばたきし易い被写体であるときに、音声再生部41から、まばたきを我慢するタイミングを指示する、あるいは、撮像装置を注視するよう促しなどを出力して、まばたきを抑制することである。さらに、働きかけ実行部33は、表示部38にアドバイスを表示したり、画像記録部12での画像処理パラメータを設定したりすることができる。   The action execution unit 33 executes an instruction based on the subject photographing conditions from the subject-related information acquisition and the action necessity determination unit 31. The action from the action execution unit 33 is, for example, to output a sound related to the knowledge about the shooting location from the sound reproduction unit 41 when the subject is easily strained, and to relieve the tension of the subject. When the subject is a low subject, the sound reproduction unit 41 makes a “yes cheese” or joke to direct the subject to laugh, and when the subject is prone to red eyes, the red eye from the flash lamp 42 When the subject is a subject that is easy to blink, the voice reproduction unit 41 instructs the timing to end the blink, or prompts the user to pay attention to the imaging device, and blinks. It is to suppress. Further, the work execution unit 33 can display advice on the display unit 38 and set image processing parameters in the image recording unit 12.

ルールデータベース34は、実行される動作を記述したデータベースである。ルールデータベース34に記述されるルール群は、以下のようなものである。   The rule database 34 is a database describing operations to be executed. The rule group described in the rule database 34 is as follows.

(1)カメラ撮影時、被写体に対して個人認証を行い、画像エンジン15で個人毎の特徴や癖を抽出して、必要であれば撮影時の位置情報と併せて操作履歴データベース32内に保持する。 (1) At the time of camera shooting, personal authentication is performed on the subject, and the image engine 15 extracts features and wrinkles for each individual, and if necessary, stores them in the operation history database 32 together with position information at the time of shooting. To do.

(2)個人認証時、画像エンジン15の顔検出部22で緊張度が大きいと判断した人物に対しては、次回撮影時に、音声再生部41から撮影地に関する豆知識に関する音声を出力して被写体の緊張をほぐす。 (2) At the time of personal authentication, for a person who is determined to have a high degree of tension by the face detection unit 22 of the image engine 15, at the next shooting, a sound related to background knowledge is output from the audio playback unit 41 Relieve tension.

(3)個人認証時、画像エンジン15の笑顔検出部23で笑顔度が低いと判断した人物に対しては、次回撮影時に、「はいチーズ」あるいは冗談を発音して被写体が笑うように仕向ける。 (3) At the time of personal authentication, for the person who has determined that the smile level of the smile detection unit 23 of the image engine 15 is low, at the next shooting, the subject is laughed by pronouncing “yes cheese” or a joke.

(4)個人認証時、画像エンジン15の赤目検出部25で赤目になり易いと判断した人物に対しては、次回撮影時に、フラッシュランプ42から赤目防止光を発して、赤目補正を適用する。 (4) At the time of personal authentication, red-eye correction is applied to a person who is determined to be easily red-eyed by the red-eye detection unit 25 of the image engine 15 and emits red-eye prevention light from the flash lamp 42 at the next shooting.

(5)カメラ撮影時、画像エンジン15のまばたき検出部24でまばたきが検出され、再度撮り直しを行った人物に対しては、次回撮影時に、まばたきを我慢するタイミングを指示する、あるいは、撮像装置を注視する促しなどを出力して、まばたきを抑制する。 (5) At the time of shooting with the camera, the blink detection unit 24 of the image engine 15 detects blinking, and the person who has taken a picture again is instructed the timing to end the blinking at the next shooting, or the imaging device Outputs prompts to keep an eye on and suppresses blinking.

(6)カメラ撮影時、個人認証済みの被写体の場合は、操作履歴データベース32から設定ファイルを読み出して、被写体にふさわしい撮影条件を読み出し、撮影者へフィードバックやアドバイスする、あるいは、読み出した撮影条件に基づいてカメラ撮影を行う。 (6) When photographing a camera, if the subject is a personally authenticated subject, the setting file is read from the operation history database 32, the photographing conditions suitable for the subject are read, and feedback or advice is given to the photographer, or the read photographing conditions are set. Based on the camera shooting.

携帯端末装置1は、撮影モードとしてベストショットモードと通常撮影モードとを備える。ベストショットモードで撮影を行う際は、携帯端末装置1は、上述した働きかけを行う。これに対して、通常撮影モードで撮影を行う際は、携帯端末装置1は、上述した働きかけは行わない。一方、携帯端末装置1は、ベストショットモード、通常撮影モードのいずれにおいても、被写体の特徴や癖を示す被写体関連情報を取得して操作履歴データベース32に保存する。   The mobile terminal device 1 includes a best shot mode and a normal shooting mode as shooting modes. When shooting in the best shot mode, the mobile terminal device 1 performs the above-described action. On the other hand, when shooting in the normal shooting mode, the mobile terminal device 1 does not perform the above-described action. On the other hand, the mobile terminal device 1 acquires subject-related information indicating the characteristics and wrinkles of the subject and stores them in the operation history database 32 in both the best shot mode and the normal shooting mode.

行動制御部35は、ベストショットモードで撮影を行う際に、ルールデータベース34からルールを読み込み、読み出されたルールに従って処理を行う。   The behavior control unit 35 reads a rule from the rule database 34 and performs processing according to the read rule when shooting in the best shot mode.

図2は、操作履歴データベース32に保持されている各個人の被写体関連情報を利用して働きかけを行ってカメラ撮影を行うときの処理を示すフローチャートである。   FIG. 2 is a flowchart showing a process when shooting is performed by using the subject-related information of each individual held in the operation history database 32 to perform an action.

図2において、個人認証が終了したと判定されると(ステップS1)、被写体関連情報取得及び働きかけ要否決定部31は、操作履歴データベース32からその個人の被写体関連情報を読み出す(ステップS2)。そして、被写体関連情報取得及び働きかけ要否決定部31は、先ず、操作履歴データベース32から読み出した被写体関連情報に含まれる緊張度の情報から緊張度が大きい被写体か否かを判定する(ステップS3)。緊張度が大きい場合には、被写体関連情報取得及び働きかけ要否決定部31は、撮影地に関する豆知識を操作履歴データベース32から読み出し、働きかけ実行部33に、撮影地に関する豆知識に関する音声を出力させるように指示し、音声再生部41から、撮影地に関する豆知識に関する音声を出力させ被写体の緊張をほぐす(ステップS4)。   In FIG. 2, when it is determined that the personal authentication has been completed (step S1), the subject related information acquisition and action necessity determination unit 31 reads the subject related information of the individual from the operation history database 32 (step S2). Then, the subject-related information acquisition and action necessity determination unit 31 first determines whether the subject has a high degree of tension from the information on the degree of tension included in the subject-related information read from the operation history database 32 (step S3). . When the degree of tension is large, the subject-related information acquisition and action necessity determination unit 31 reads the bean knowledge about the shooting location from the operation history database 32 and causes the work execution unit 33 to output the sound about the bean knowledge about the shooting location. The sound reproduction unit 41 outputs a sound related to knowledge about the shooting location to relieve the subject's tension (step S4).

次に、被写体関連情報取得及び働きかけ要否決定部31は、被写体関連情報に含まれる笑顔度の情報から笑顔度が低い被写体か否かを判定する(ステップS5)。笑顔度が低い場合には、被写体関連情報取得及び働きかけ要否決定部31は、働きかけ実行部33に、「はいチーズ」あるいは冗談を出力させるように指示し、音声再生部41から、「はいチーズ」あるいは冗談を出力させ、被写体を笑顔にさせる(ステップS6)。   Next, the subject-related information acquisition and action necessity determination unit 31 determines whether the subject has a low smile level from the smile level information included in the subject-related information (step S5). If the degree of smile is low, the subject-related information acquisition / working necessity determination unit 31 instructs the work execution unit 33 to output “yes cheese” or a joke. Or a joke is output to make the subject smile (step S6).

次に、被写体関連情報取得及び働きかけ要否決定部31は、被写体関連情報に含まれるの赤目度の情報から、赤目度が大きい被写体(赤目になり易い被写体)か否かを判定する(ステップS7)。赤目度が大きい場合には、被写体関連情報取得及び働きかけ要否決定部31は、働きかけ実行部33に、赤目防止光を発するように発するように指示し、フラッシュランプ42から赤目防止光を発光させる(ステップS8)。   Next, the subject-related information acquisition and action necessity determination unit 31 determines whether or not the subject has a large red-eye degree (subject that tends to have red eyes) from the red-eye degree information included in the subject-related information (step S7). ). When the red-eye degree is large, the subject-related information acquisition and action necessity determination unit 31 instructs the action execution unit 33 to emit red-eye prevention light and causes the flash lamp 42 to emit red-eye prevention light. (Step S8).

次に、被写体関連情報取得及び働きかけ要否決定部31は、被写体関連情報に含まれるまばたき情報から、まばだきし易い被写体か否かを判定する(ステップS9)。まばたきし易い場合には、被写体関連情報取得及び働きかけ要否決定部31は、働きかけ実行部33に、まばたきを我慢するタイミングを出力するように指示、あるいは、撮像装置を注視する促しを出力するように指示し、音声再生部41から、まばたきを我慢するタイミングの指示、あるいは、撮像装置を注視する促しを出力させる(ステップS10)。   Next, the subject-related information acquisition and action necessity determination unit 31 determines whether or not the subject is easily blinked from the blink information included in the subject-related information (step S9). When it is easy to blink, the subject-related information acquisition and action necessity determination unit 31 outputs an instruction to the action execution unit 33 to output a timing to endure blinking or a prompt to watch the imaging apparatus. And the voice reproducing unit 41 outputs an instruction for timing to endure blinking or a prompt to watch the image pickup apparatus (step S10).

このように、ステップS1〜ステップS9の処理により、被写体に対する働きかけが行われる。その後、撮像部11は、被写体画像の撮像を行う(ステップS11)。   In this way, the subject is acted on by the processing of step S1 to step S9. Thereafter, the imaging unit 11 captures a subject image (step S11).

以上説明したように、本発明の一実施形態では、カメラ撮影時の被写体となる人物に対して個人認証し、各個人の特徴や癖を被写体関連情報として履歴として保持し、次回、個人認証済みの人物を撮影する際に、被写体関連情報に応じて、働きかけを行うことができる。すなわち、次回、個人認証済みの人物を撮影する際に、被写体関連情報から、緊張し易い被写体であるときに、撮影地に関する豆知識を披露して被写体の緊張をほぐすことができ、また、笑顔度が低い被写体であるときに、「はいチーズ」あるいは冗談を発音して被写体が笑うように仕向けることができ、また、赤目になり易い被写体であるときに、赤目防止光を発することができ、また、まばたきを我慢するタイミングを指示する、あるいは、撮像装置を注視するよう促すなどして、まばたきを抑制することができる。   As described above, in one embodiment of the present invention, personal authentication is performed on a person who is a subject at the time of camera shooting, and each person's characteristics and wrinkles are stored as subject-related information as a history. When shooting a person, it is possible to work according to subject-related information. In other words, when shooting a person who has been personally authenticated next time, if the subject is subject to tension from subject-related information, it is possible to show the knowledge about the shooting location to relieve the subject's tension, and to smile When it is a low-grade subject, you can make the subject laugh by saying “yes cheese” or a joke, and when it is a subject that is prone to red eyes, it can emit red-eye prevention light, Further, it is possible to suppress blinking by instructing the timing to endure blinking or prompting the user to watch the imaging apparatus.

例えば、ユーザAが、カメラ付き携帯端末装置1で人物Bを撮影する際、人物Bは、カメラ撮影に緊張することが多いとする。この場合、人物Bが撮影されると、画像エンジン15の顔検出部22は、緊張度大と検出する。この際、画像エンジン15から抽出される被写体関連情報は、以下のようになる。   For example, when the user A photographs the person B with the camera-equipped mobile terminal device 1, the person B is often nervous about camera photography. In this case, when the person B is photographed, the face detection unit 22 of the image engine 15 detects that the degree of tension is high. At this time, subject-related information extracted from the image engine 15 is as follows.

個人認証機能で認証した人物:人物B
被写体関連情報:緊張度大
設定ファイル:人物Bに対する被写体関連情報が紐付けられたファイル
Person authenticated by personal authentication function: Person B
Subject-related information: Tension level large setting file: File associated with subject-related information for person B

これに基づいて、図3(A)に示すように、操作履歴データベース32の人物Bに紐付けされたファイルには、「緊張度」の欄に「大」が記述される。   Based on this, as shown in FIG. 3A, “Large” is described in the “Tension” column of the file associated with the person B in the operation history database 32.

後日、ユーザAが観光地Xで人物Bを撮影するとする。この際、ユーザAがカメラを起動し、ベストショットモードに設定すると、画像エンジン15の個人認証部21で被写体が人物Bと認識される。そして、被写体関連情報取得部及び働きかけ要否決定部31により、操作履歴データベース32から人物Bに紐付けられた設定ファイル(図3(A))が読み出される。   Suppose that user A takes a picture of person B at sightseeing spot X at a later date. At this time, when the user A activates the camera and sets the best shot mode, the subject is recognized as the person B by the personal authentication unit 21 of the image engine 15. Then, the setting file (FIG. 3A) associated with the person B is read from the operation history database 32 by the subject related information acquisition unit and the action necessity determination unit 31.

図3(A)に示すように、操作履歴データベース32の設定ファイルから、人物Bは、緊張度が「大」と判定される。緊張度が大きい場合、被写体関連情報取得及び働きかけ要否決定部31は、位置検出部17から現在位置(撮像地)を示す情報を取得し、位置関連情報提供部が予め記憶する場所ごとの豆知識の中から、現在位置に関する豆知識を読み出す。そして、被写体関連情報取得及び働きかけ要否決定部31は、読み出した豆知識と、この豆知識を披露する旨の指示とを働きかけ実行部33に出力する。この指示に基づいて、働きかけ実行部33は、音声再生部41から、撮影地に関する豆知識に関する音声を出力する。これにより、人物Bを緊張をほぐすことができる。   As shown in FIG. 3A, from the setting file of the operation history database 32, the person B is determined to have a high degree of tension. When the degree of tension is large, the subject-related information acquisition / working necessity determination unit 31 acquires information indicating the current position (imaging location) from the position detection unit 17, and the bean for each location stored in advance by the position-related information providing unit. Read knowledge about the current position from the knowledge. Then, the subject-related information acquisition and action necessity determination unit 31 outputs the read bean knowledge and an instruction to show the bean knowledge to the action execution unit 33. Based on this instruction, the work execution unit 33 outputs a sound related to the knowledge about the shooting location from the sound reproduction unit 41. Thereby, the person B can be relieved of tension.

また、例えば、ユーザAがカメラ付き携帯端末装置1で人物Cを撮影する際、人物Cは赤目に写る事が多いとする。ここで、人物Cが撮影されると、画像エンジン15の赤目検出部25で赤目「大」が検出され、画像エンジン15から抽出される被写体関連情報は、以下のようになる。   Further, for example, when the user A takes a picture of the person C with the camera-equipped mobile terminal device 1, it is assumed that the person C often appears in red eyes. Here, when the person C is photographed, red-eye “large” is detected by the red-eye detection unit 25 of the image engine 15, and subject-related information extracted from the image engine 15 is as follows.

個人認証機能で認証した人物:被写体人物C
被写体関連情報:赤目度大
設定ファイル:被写体人物Cに対する被写体関連情報が紐付けられたファイル
Person authenticated by personal authentication function: Subject person C
Subject-related information: Red eye degree large setting file: File associated with subject-related information for subject person C

これに基づいて、図3(B)に示すように、操作履歴データベース32の人物Cの設定ファイルには、「赤目度」の欄に「大」が記述される。   Based on this, as shown in FIG. 3B, “Large” is described in the “red eye degree” column in the setting file of the person C in the operation history database 32.

後日、ユーザAは人物Cを撮影するとする。ユーザAはカメラを起動し、ベストショットモードに設定すると、個人認証機能で被写体がCと認識される。そして、被写体関連情報取得部及び働きかけ要否決定部31により、操作履歴データベース32から「人物B」に紐付けられた設定ファイル(図3(B))が読み出される。   It is assumed that user A takes a picture of person C at a later date. When the user A activates the camera and sets the best shot mode, the subject is recognized as C by the personal authentication function. Then, the subject related information acquisition unit and the action necessity determination unit 31 read the setting file (FIG. 3B) associated with “person B” from the operation history database 32.

図3(B)に示すように、操作履歴データベース32の設定ファイルから、人物Cは、赤目度が大きいと判定される。赤目度が大きい場合には、被写体関連情報取得及び働きかけ要否決定部31から働きかけ実行部33に赤目防止の指示が与えられ、フラッシュランプ42から赤目防止光が発光される。これにより、人物Cの赤目を防止することができる。   As shown in FIG. 3B, it is determined from the setting file of the operation history database 32 that the person C has a high red eye degree. When the red-eye degree is large, the subject-related information acquisition and action necessity determination unit 31 gives a red-eye prevention instruction to the action execution unit 33, and red-eye prevention light is emitted from the flash lamp 42. Thereby, the red eye of the person C can be prevented.

以上のように、携帯端末装置1は、被写体の特徴や癖を示す被写体関連情報に基づいて、必要に応じて被写体への働きかけを行い、働きかけの後撮像を行う。これにより、被写体の緊張を解きほぐすなど、被写体を撮像に適した状態に導いて撮像を行うことができ、品質の高い画像を記録できる。   As described above, the mobile terminal device 1 acts on the subject as necessary based on the subject-related information indicating the feature or habit of the subject, and performs imaging after the approach. As a result, the subject can be guided to a state suitable for imaging, such as releasing the tension of the subject, and imaging can be performed, and a high-quality image can be recorded.

その際、携帯端末装置1は、被写体関連情報を用いて働きかけの要否を判定するので、撮影の直前における被写体の変化を防止することができる。例えば、まばたきし易い被写体に対しては、未だまばたきをしていなくても、まばたきを防止する働きかけを行うことができ、これによって、撮影の瞬間にまばたきすることを防止できる。
また、携帯端末装置1は、被写体関連情報を用いて働きかけの要否を判定するので、働きかけが不要な被写体であると判定した後は、被写体の表情や状態の検出をしなくてもよく、演算負荷や電力消費を抑えることができる。
At that time, since the mobile terminal device 1 determines whether or not the action is required using the subject-related information, it is possible to prevent the subject from being changed immediately before shooting. For example, it is possible to perform an action to prevent blinking on a subject that is easy to blink, even if the subject has not yet blinked, thereby preventing blinking at the moment of shooting.
In addition, since the mobile terminal device 1 determines whether or not an action is necessary using the subject-related information, it is not necessary to detect the facial expression or state of the subject after determining that the subject does not require an action. Calculation load and power consumption can be reduced.

また、携帯端末装置1は、撮影時に被写体関連情報を取得するので、ユーザは、被写体関連情報を取得するための特別な操作を行う必要が無い。この点で、ユーザの負担を小さくできる。   Moreover, since the portable terminal device 1 acquires subject-related information at the time of shooting, the user does not need to perform a special operation for acquiring subject-related information. In this respect, the burden on the user can be reduced.

なお、上述の例では、カメラ付き携帯端末に適用した実施形態について説明したが、本発明は、これに限定されず、通常のデジタルカメラなど様々な撮像装置にも同様に適用できる。   In the above-described example, the embodiment applied to the camera-equipped mobile terminal has been described. However, the present invention is not limited to this, and can be similarly applied to various imaging apparatuses such as a normal digital camera.

また、上述の例では、被写体となる各個人の特徴や癖として、緊張度、笑顔度、まばたき度、赤目度を用いているが、各個人の特徴や癖として用いるものは、これに限定されるものではない。また、上述の例では、各個人の特徴や癖に対する働きかけとしては、緊張し易い被写体であるときに、撮影地に関する豆知識を披露して被写体の緊張をほぐし、笑顔度が低い被写体であるときに、冗談を発音して被写体が笑うように仕向け、赤目になり易い被写体であるときに、赤目防止光を発し、まばたきが多い場合に、我慢するタイミングを指示する、あるいは、撮像装置を注視するよう促すようにしているが、各個人の特徴や癖に対する働きかけとは、これに限定されるものではない。   In the above-described example, the tension, smile, blink, and red-eye are used as the characteristics and wrinkles of each individual that is the subject. However, what is used as the characteristics and wrinkles of each individual is limited to this. It is not something. Also, in the above example, when working on the characteristics and habits of each individual, when the subject is subject to tension, when the subject has a low smile level by showing the tips on the shooting location to ease the subject's tension In addition, when the subject is laughing by pronouncing a joke, it emits red-eye prevention light when the subject is prone to red-eye, and when there are many blinks, it indicates the endurance timing or gazes at the imaging device However, the approach to individual characteristics and habits is not limited to this.

また、携帯端末装置1が被写体関連情報を読み出すために被写体を識別する方法は、上述した個人認証を行う方法に限らない。例えば、ユーザが操作入力によって被写体の識別情報を入力するなど、被写体を識別可能な様々な方法を用いることが出来る。   In addition, the method for identifying the subject for the mobile terminal device 1 to read the subject-related information is not limited to the above-described personal authentication method. For example, various methods capable of identifying a subject can be used, such as a user inputting identification information of a subject by an operation input.

なお、携帯端末装置1の各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
It should be noted that a program for realizing the function of each unit of the mobile terminal device 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like without departing from the gist of the present invention.

1:携帯端末装置
10:無線通信部
11:撮像部
12:画像記録処理部
13:画像記録部
14:画像再生処理部
15:画像エンジン
16:被写体分析エンジン
17:位置検出部
18:表示部
21:個人認証部
22:顔検出部
23:笑顔検出部
24:まばたき検出部
25:赤目検出部
31:被写体関連情報取得及び働きかけ要否決定部
32:操作履歴データベース
33:働きかけ実行部
34:ルールデータベース
35:行動制御部
36:位置関連情報提供部
41:音声再生部
42:フラッシュランプ
1: mobile terminal device 10: wireless communication unit 11: imaging unit 12: image recording processing unit 13: image recording unit 14: image reproduction processing unit 15: image engine 16: subject analysis engine 17: position detection unit 18: display unit 21 : Personal authentication unit 22: face detection unit 23: smile detection unit 24: blink detection unit 25: red-eye detection unit 31: subject-related information acquisition and action necessity determination unit 32: operation history database 33: action execution unit 34: rule database 35: Action control unit 36: Position related information providing unit 41: Audio reproduction unit 42: Flash lamp

Claims (5)

被写体の特徴や癖に基づいて、被写体に対する働きかけの要否を決定する働きかけ要否決定部と、
前記働きかけ要否決定部が働きかけ必要と決定すると、被写体に対して働きかけを行う働きかけ実行部と、
前記働きかけ実行部が働きかけを行った後に撮像を行う撮像部と、
を具備する撮像装置。
An action necessity determination unit that determines whether or not to act on the subject based on the characteristics and habits of the subject;
When the action necessity determination unit determines that the action is necessary, an action execution unit that works on the subject; and
An imaging unit that captures an image after the action execution unit has worked,
An imaging apparatus comprising:
さらに、人物毎の癖や特徴を被写体関連情報として記憶する記憶部と、
前記被写体関連情報と働きかけ要否とが対応付けられたルールを記憶するルール記憶部と、
被写体を個人認証する個人認証部と、
前記個人認証結果に基づいて、前記個人認証された被写体に対応する被写体関連情報を前記記憶部から取得する被写体関連情報取得部とを具備し、
前記働きかけ要否決定部は、前記被写体関連情報取得部が取得する被写体関連情報に、前記ルール記憶部の記憶するルールを適用して、被写体に対する働きかけの要否を決定する
ことを特徴とする請求項1に記載の撮像装置。
In addition, a storage unit that stores wrinkles and features for each person as subject-related information;
A rule storage unit for storing a rule in which the subject-related information and the necessity of working are associated;
A personal authentication unit for personal authentication of the subject;
A subject-related information acquisition unit that acquires, from the storage unit, subject-related information corresponding to the subject that has been personally authenticated based on the personal authentication result;
The said action necessity determination part applies the rule which the said rule memory | storage part memorize | stores in the subject relevant information which the said subject relevant information acquisition part acquires, The necessity determination of the subject with respect to a subject is determined. Item 2. The imaging device according to Item 1.
前記記憶部に記憶されている人物毎の癖や特徴は、次回以降の撮影時に被写体関連情報として用いられることを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the wrinkles and characteristics of each person stored in the storage unit are used as subject-related information at the next and subsequent shootings. 被写体を個人認証し、
前記個人認証結果に基づいて、前記個人認証された被写体に対応する被写体関連情報を前記記憶部から取得し、
前記記憶部から取得された被写体関連情報に基づいて、被写体に対する働きかけの要否を決定し、
前記働きかけが必要な場合には、前記被写体に対して働きかけを実行した後に撮像を行う
ようにした撮像方法。
Personally identify the subject,
Based on the personal authentication result, subject related information corresponding to the personally authenticated subject is acquired from the storage unit,
Based on the subject-related information acquired from the storage unit, determine whether or not to act on the subject,
An imaging method in which, when the action is required, an image is taken after the subject is executed.
被写体を個人認証するステップと、
前記個人認証結果に基づいて、前記個人認証された被写体に対応する被写体関連情報を前記記憶部から取得するステップと、
前記記憶部から取得された被写体関連情報に基づいて、被写体に対する働きかけの要否を決定するステップと、
前記働きかけが必要な場合には、前記被写体に対して働きかけを実行した後に撮像を行うステップと
を含むようにしたコンピュータにより実行可能な撮像プログラム。
Personal authentication of the subject;
Obtaining subject-related information corresponding to the subject subject to personal authentication from the storage unit based on the personal authentication result;
Determining whether or not to act on the subject based on the subject-related information acquired from the storage unit;
An imaging program that can be executed by a computer, including a step of performing imaging after performing an action on the subject when the action is required.
JP2010213357A 2010-09-24 2010-09-24 Imaging device, imaging method, and imaging program Pending JP2012070222A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010213357A JP2012070222A (en) 2010-09-24 2010-09-24 Imaging device, imaging method, and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010213357A JP2012070222A (en) 2010-09-24 2010-09-24 Imaging device, imaging method, and imaging program

Publications (1)

Publication Number Publication Date
JP2012070222A true JP2012070222A (en) 2012-04-05

Family

ID=46166952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010213357A Pending JP2012070222A (en) 2010-09-24 2010-09-24 Imaging device, imaging method, and imaging program

Country Status (1)

Country Link
JP (1) JP2012070222A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057676A (en) * 2014-09-05 2016-04-21 株式会社ブランカ Campaign application system
WO2020116069A1 (en) * 2018-12-07 2020-06-11 株式会社 資生堂 Information processing device and program
US11394870B2 (en) 2019-10-29 2022-07-19 Canon Kabushiki Kaisha Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
US11575826B2 (en) 2019-12-26 2023-02-07 Canon Kabushiki Kaisha Image processing apparatus and method, and image capturing apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057676A (en) * 2014-09-05 2016-04-21 株式会社ブランカ Campaign application system
WO2020116069A1 (en) * 2018-12-07 2020-06-11 株式会社 資生堂 Information processing device and program
JPWO2020116069A1 (en) * 2018-12-07 2021-10-21 株式会社 資生堂 Information processing equipment and programs
JP7406502B2 (en) 2018-12-07 2023-12-27 株式会社 資生堂 Information processing device, program and information processing method
US11394870B2 (en) 2019-10-29 2022-07-19 Canon Kabushiki Kaisha Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
US11575826B2 (en) 2019-12-26 2023-02-07 Canon Kabushiki Kaisha Image processing apparatus and method, and image capturing apparatus

Similar Documents

Publication Publication Date Title
KR102068621B1 (en) Apparatus and method for shooting a image in device having a camera
JP5401420B2 (en) Imaging device
US10630891B2 (en) Image processing apparatus, image processing method, and program
US8989504B2 (en) Image processing device that renews identification information of specific subject
CN107743191B (en) Terminal, anti-shake photographing method thereof and storage device
US10455154B2 (en) Image processing device, image processing method, and program including stable image estimation and main subject determination
JP6861342B2 (en) A system including an imaging device and an imaging device and a server
US10237466B2 (en) Recognition of degree of focus of an image
JP2007096477A (en) Camera, camera shake correction method, and camera shake correction program
JP2010171797A (en) Imaging apparatus and program
JP2011160413A (en) Imaging device
JP2012070222A (en) Imaging device, imaging method, and imaging program
JP2005250977A (en) Photographing apparatus, image reproducing device, image appreciation room, data accumulation/analysis apparatus, silver salt camera, and scanner
KR20150088200A (en) Imaging apparatus, imaging control method and program
JP5386880B2 (en) Imaging device, mobile phone terminal, imaging method, program, and recording medium
JP5550114B2 (en) Imaging device
JP2006128793A (en) Image pickup device and control method thereof
JPWO2006016461A1 (en) Imaging device
JP7064609B2 (en) Shooting equipment, shooting method, and program
JP2010171841A (en) Imaging apparatus
JP4661980B2 (en) Image recognition apparatus and program
JP2010004357A (en) Image capturing apparatus and image capturing method
JP2008271181A (en) Imaging apparatus and imaging method, reproducing device and reproducing method, and imaged image processing system
JP2012216936A (en) Imaging apparatus and program
JP5846420B2 (en) Image processing apparatus, image management method, and program