Nothing Special   »   [go: up one dir, main page]

JP7293039B2 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP7293039B2
JP7293039B2 JP2019149407A JP2019149407A JP7293039B2 JP 7293039 B2 JP7293039 B2 JP 7293039B2 JP 2019149407 A JP2019149407 A JP 2019149407A JP 2019149407 A JP2019149407 A JP 2019149407A JP 7293039 B2 JP7293039 B2 JP 7293039B2
Authority
JP
Japan
Prior art keywords
subject
photographer
image
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149407A
Other languages
English (en)
Other versions
JP2021032927A5 (ja
JP2021032927A (ja
Inventor
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019149407A priority Critical patent/JP7293039B2/ja
Priority to US16/944,533 priority patent/US11496668B2/en
Publication of JP2021032927A publication Critical patent/JP2021032927A/ja
Publication of JP2021032927A5 publication Critical patent/JP2021032927A5/ja
Application granted granted Critical
Publication of JP7293039B2 publication Critical patent/JP7293039B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は撮像装置およびその制御方法に関し、特に視線検出機能を有する撮像装置およびその制御方法に関する。
視線検出機能を有し、視線入力によって焦点検出領域が選択可能なカメラが知られている(特許文献1)。
特開2002-303781号公報
撮影者の眼球像を用いて視線を検出する場合、眼球像から得られる虹彩パターンによって撮影者を認識することが可能である。しかし、従来技術ではせいぜい個人差に起因する視線検出精度の補正において撮影者の認識結果を利用するに過ぎなかった。
本発明はこのような従来技術の課題に鑑みてなされたものであり、視線検出機能を利用した撮影者の認識結果を用いて主被写体の選択を支援することが可能な撮像装置およびその制御方法を提供することを目的とする。
上述の目的は、撮影された画像に対して被写体検出処理を行う被写体検出手段と、撮影者の眼球像を取得する取得手段と、眼球像に基づいて撮影者を認識する認識手段と、撮影者に関連づけて記憶された、過去に撮影された被写体に関する情報のうち、認識手段が認識した撮影者に関連づけて記憶された情報に基づいて、被写体検出手段が検出した被写体領域から主被写体の領域を選択する選択手段と、を有することを特徴とする撮像装置によって達成される。
本発明によれば、視線検出機能を利用した撮影者の認識結果を用いて主被写体の選択を支援することが可能な撮像装置およびその制御方法を提供することができる。
本発明を実施可能な撮像装置の構成例に関する図 本発明を実施可能な撮像装置の構成例に関する図 実施形態におけるファインダ内視野の例を示す模式図 実施形態における視線検出方法に関する図 実施形態において得られる眼球像に関する図 実施形態における視線検出動作に関するフローチャート 発明の効果を説明するための図 実施形態における関連付けデータの構成例を示す図 実施形態における被写体選択動作を説明するための図 実施形態における主被写体領域の選択処理に関するフローチャート 実施形態の変形例における主被写体領域の選択処理に関するフローチャート 実施形態における関連づけデータの更新処理に関するフローチャート
●(第1実施形態)
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下の実施形態では、本発明をレンズ交換式のデジタルカメラで実施する場合に関して説明する。しかし、本発明は視線検出機能ならびに撮像機能を搭載可能な任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダなどが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。また、視線検出機能と撮像機能とを互いに通信可能な別個の機器(例えば本体とリモートコントローラ)に設ける構成にも本発明は適用可能である。
<構成の説明>
図1は実施形態に係るデジタルスチルカメラ(以下、単にカメラという)の構成例について、主に光学系について模式的に示した垂直断面図である。カメラは、本体20と、本体20に着脱可能な撮影レンズ1とを有している。なお、レンズ交換式であることは本発明に必須でない。撮影レンズ1が本体20に装着されると撮影レンズ1と本体20とはマウント接点117を通じて電気的に接続される。撮影レンズ1にはマウント接点117を通じて本体20から電源が供給される。また、撮影レンズ1内の回路と本体20のCPU3とはマウント接点117を通じて通信可能である。
撮影レンズ1は可動レンズ1aと固定レンズ1bとを有している。図ではそれぞれ1枚のレンズとして記載しているが、実際には複数のレンズから構成される。ここでは可動レンズ1aがフォーカスレンズであるものとするが、変倍レンズやぶれ補正レンズなど、他の可動レンズが含まれていてもよい。可動レンズ1aはレンズ駆動部材114で支持され、レンズ駆動用モータ113によって光軸方向(図面左右方向)に駆動される。レンズ駆動部材114と連動するパルス板116の回転をフォトカプラ115によって検知して、レンズ焦点調節回路118に出力している。レンズ焦点調節回路118はフォトカプラ115の出力に基づいて可動レンズ1aの駆動量および駆動方向を検出することができる。レンズ焦点調節回路118は、本体20のCPU3から可動レンズ1aの駆動量と駆動方向を指示されると、フォトカプラ115の出力に基づいてレンズ駆動用モータ113の動作を制御する。
カメラ本体20において、撮像素子2はCCDイメージセンサやCMOSイメージセンサである。撮像素子2には複数の画素が2次元配置され、各画素には1つのマイクロレンズ、1つのカラーフィルタ、および1つ以上の光電変換部が設けられている。本実施形態においては、各画素に複数の光電変換部が設けられ、光電変換部ごとに信号を読み出し可能に構成されている。画素をこのような構成にすることにより、撮像素子22から読み出した信号から撮像画像、視差画像対、および位相差AF用の像信号を生成することができる。撮像素子2は撮影レンズ1が形成する光学像を複数の画素による光電変換によって画素信号群(アナログ画像信号)に変換する。また、本実施形態では撮像素子2はA/D変換機能を有し、アナログ画像信号をデジタル画像データに変換して出力する。
メモリ部4は不揮発性メモリ(ROM)と揮発性メモリ(RAM)とを有する。CPU3はROMに記憶されたプログラムをRAMに読み込んで実行することにより、本体20および撮影レンズ1の動作を制御し、カメラの機能を実現する。また、メモリ部4には、撮影で得られた画像データや音声データを記録するための記録媒体(メモリカードなど)も含まれる。CPU3はマウント接点117通じてレンズ焦点調節回路118および絞り駆動部112の動作を制御する。
メモリ部4の不揮発性メモリは書き換え可能であってよい。不揮発性メモリは、CPU3が実行するプログラム、各種の設定値、GUI(Graphical User Interface)の画像データ、視線の個人差を補正する視線補正データなどを記憶する。また、不揮発性メモリには、虹彩パターンと個人情報とが関連づけられて記憶されている。
表示素子10はLCDや有機ELディスプレイパネルであり、ライブビュー画像など撮影された画像、メニュー画面、各種の情報などを表示する。表示素子駆動回路11は、CPU3の制御に従って表示素子10を駆動する。表示素子10は本体20の内部に設けられているため、本体20の外部から表示素子10を観察するための接眼部が設けられている。接眼部には接眼レンズ12や視線検出用の照明光源13a~13fが設けられている。また、眼球の画像を撮影するための光分割器15および眼球用撮像素子17も接眼部に設けられている。
照明光源13a~13fは接眼レンズ12の周囲に設けられた複数の赤外線LEDであり、接眼部を覗く撮影者の眼球14を赤外光で照明する。照明光源13a~13fの赤外光が眼球14に反射して得られる眼球像は、光分割器15で反射され、上方に設けられた受光レンズ16を介して眼球用撮像素子17で撮影される。受光レンズ16は撮影者の眼球14の瞳孔と眼球用撮像素子17を共役な結像関係に位置付けている。眼球用撮像素子17は2次元配列された複数の画素を有し、赤外光による像を撮影するように構成されている。眼球用撮像素子17の画素数は撮像素子2の画素数より少なくてよい。眼球用撮像素子17で得られる眼球像における角膜反射と瞳孔との位置関係に基づいて、眼球14の視線方向を検出することができる。
照明光源13a~13、光分割器15、受光レンズ16、眼球用撮像素子17、CPU3、および後述する視線検出回路201が視線検出装置を構成する。CPU3はさらに、眼球像における虹彩パターンと、記憶されている虹彩パターンとに基づいて、撮影者を特定する撮影者の認識手段としても機能する。
図2は本実施形態のカメラの構成例を電気回路に着目して記載したブロック図である。図1に示した構成については図1と同一の参照数字を付してある。CPU3には視線検出回路201、測光回路202、自動焦点検出回路203、操作部204、表示素子駆動回路11、照明光源駆動回路205が接続されている。また、撮影レンズ1に設けられた焦点調節回路118および絞り制御回路206(絞り駆動部112に含まれる)は、マウント接点117を通じてCPU3と電気的に接続されている。
視線検出回路201は、眼球用撮像素子17(CCD-EYE)から得られる眼球像のアナログ画像信号をA/D変換し、デジタル画像データとしてCPU3に送信する。CPU3は眼球像のデジタル画像データから、視線検出に必要な特徴点を公知のアルゴリズムに従って検出し、各特徴点の位置から撮影者の視線方向を検出する。
測光回路202は、撮像素子2から得られる画像データに基づいて予め定められた露出制御用の評価値としての輝度情報を生成し、CPU3に出力する。CPU3は輝度情報に基づいて自動露出制御(AE)処理を行い、撮影条件を決定する。撮影条件は例えば静止画撮影であればシャッター速度、絞り値、感度である。CPU3は決定した撮影条件に基づいて撮影レンズ1の絞り111の絞り値(開口量)を制御する。また、CPU3は本体20内のメカニカルシャッタの動作も制御する。
自動焦点検出回路203は、撮像素子2から得られる画像データに基づいて位相差AF用の像信号を生成し、CPU3に出力する。CPU3は位相差AF用の像信号の位相差に基づいてデフォーカス量を算出する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図3のファインダ内視野像(後述)で示した箇所に対応する撮像面上の位置に180か所の焦点検出ポイントがあるものとするが、これに限定されない。
操作部204はユーザが操作可能な複数の入力デバイス(ボタン、スイッチ、ダイヤルなど)を有する。操作部204が有する入力デバイスの一部は、割り当てられた機能に応じた名称を有し、代表例としてシャッターボタン、電源スイッチ、メニューボタン、方向キー、決定ボタンなどがある。操作部204に含まれる入力デバイスの操作はCPU3が監視している。CPU3は、入力デバイスの操作を検出すると、検出した操作に応じた処理を実行する。
シャッターボタンは半押し状態でONする第1シャッタースイッチ(SW1)と、全押し状態でONする第2シャッタースイッチ(SW2)とを有する。CPU3は、SW1のONを検出すると、静止画撮影の準備動作を実行する。準備動作には、AE処理やAF処理などが含まれる。また、CPU3は、SW2のONを検出すると、AE処理で決定した撮影条件に従った静止画の撮影および記録動作を実行する。
照明光源駆動回路205は、CPU3の制御に従って照明光源13a~13fの発光動作を制御する。
図3は、接眼レンズ12を通じて観察される視野(ファインダ視野)の例を示す図であり。ここでは表示素子10に各種の指標が重畳されたライブビュー画像が表示されている状態を示している。
図3において、300は視野マスク、400は焦点検出が可能な範囲を示す指標、4001~4180は焦点検出が可能な点(焦点検出点)に対応する位置に表示された180個の標を示す。また、焦点検出点の指標のうち、現在の焦点検出領域に対応する指標については、図3(a)に合焦ポイントAとして示すように強調表示される。
<視線検出動作の説明>
図4~図6を用いて、視線検出動作について説明する。
図4は視線検出の原理に関する図であり、図1と同じ構成については同じ参照数字を付してある。照明光源13a~13fは受光レンズ16の光軸に対して略対称に配置され、撮影者の眼球14に赤外光を照射する。図4では照明光源13a,13bのみが示されている。受光レンズ16は眼球14で反射した赤外光による眼球像を、眼球用撮像素子17の撮像面に形成する。
図5(a)は受光レンズが形成する眼球像の模式図、図5(b)は図5(a)の領域αにおける輝度分布の模式図である。
図6は、視点検出動作に関するフローチャートである。視点検出動作は例えば接眼レンズ12に物体が近接していることが検知されている際に実行することができる。接眼レンズ12に物体が近接していることは、例えば接眼レンズ12の近傍に設けた近接センサを用いるなど、公知の任意の方法を用いて検知することができる。操作部204を通じた撮影者の指示に応じて視点検出動作を開始してもよい。
S1においてCPU3は、照明光源駆動回路205を通じて照明光源13a~13fの1つ以上を点灯させる。ここでは便宜上、図4に示した照明光源13a,13bを点灯させるものとする。これにより、照明光源13a,13bから本体20の外部に向けて赤外光が照射される。赤外光は接眼レンズ12を覗いている撮影者の眼球で反射され、光分割器15でさらに反射されて受光レンズ16に入射する。
S2においてCPU3は眼球用撮像素子17により撮影を行う。受光レンズ16が形成する眼球像が、眼球用撮像素子17によって画像信号に変換される。画像信号は視点検出回路201でA/D変換され、眼球像データとしてCPU3に入力される。
S3でCPU3は、S2で取得した眼球像データから、照明光源13a,13bの角膜反射像Pd’,Pe’の座標および瞳孔中心cに対応する点の座標を求める。眼球用撮像素子17で得られる眼球像には、角膜142に写った照明光源13a,13bの像Pd,Peに対応する反射像Pd’,Pe’が含まれている(図5(a))。
図5(a)に示すように、水平方向をX軸、垂直方向をY軸とする。このとき、眼球像に含まれる、照明光源13a,13bの反射像Pd’,Pe’の中心のX軸座標をXd,Xeとする。また、瞳孔14bの端部である瞳孔端a,bの像a’,b’のX軸座標をXa、Xbとする。
図5(b)に示すように、照明光源13a,13bの反射像Pd’,Pe’に相当する座標Xd,Xeの輝度は、他の位置の輝度に対して非常に高くなる。一方、瞳孔141の領域に相当する、座標XaからXbの範囲の輝度は、座標Xd,Xeを除いて非常に低くなる。また、瞳孔141の外側の虹彩143の領域に相当する、座標がXaより小さい範囲およびXbより大きい範囲では、照明光源の反射像の輝度と、瞳孔の輝度との中間的な輝度となる。
このようなX軸方向における輝度レベルの特性に基づいて、CPU3は、眼球像から照明光源13a,13bの反射像Pd’,Pe’のX軸座標Xd,Xeと、瞳孔端a,bの像a’,b’のX軸座標Xa、Xbを検出することができる。また、本実施形態のような用途においては、受光レンズ16の光軸に対する眼球14の光軸の回転角θxは比較的小さい。このような場合、眼球像における瞳孔中心cの像c’のX軸座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。このようにして、CPU3は、眼球像から、照明光源13a,13bの角膜反射像Pd’,Pe’の座標および瞳孔中心cの像c’のX軸座標を求めることができる。
次にS4においてCPU3は、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、照明光源の反射像Pd’,Pe’の間隔(Xd-Xe)の関数として求めることができる。
また、S5においてCPU3は、眼球の回転角度を算出する。角膜142上の照明光源の像Pd,Peの中点のX軸座標と、角膜142の曲率中心OのX軸座標とはほぼ一致する。そのため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θxは、
β*Oc*SINθx≒{(Xd+Xe)/2}-Xc
の関係式から求めることができる。図4および図5においては、Y軸に垂直な平面内における回転角θxを算出する例を示しているが、X軸に垂直な平面内における回転角θyについても同様に算出することができる。このようにして、CPU3は、眼球の回転角θx,θyを求める。眼球の回転角から視線方向が特定できる。
S6でCPU3は、メモリ部4から視線補正係数を取得する。視線補正係数は、撮影者の視線の個人差を補正する係数である。視線補正係数は後述するキャリブレーション動作によって生成され、視線検出動作を開始する前にメモリ部4に記憶される。本実施形態においてCPU3は、眼球像から虹彩パターンを示すコードを生成し、コードに基づいてメモリ部4から撮影者用の視線補正係数を取得することができる。虹彩パターンに基づく撮影者の認識に関しては後述する。
S7でCPU3は、S5で求めた眼球の回転角θx,θyを用いて、撮影者が表示素子10上で注視している点の位置(撮影者が注視している画像中の位置とも言える)を求める。なお、実際には視線は微動しており、1点を厳密に特定することが容易でないため、以下では注視点に代えて注視領域という。また、注視領域の座標は、中心座標など、領域を代表する座標とする。注視領域の座標は、表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx=m×( Ax×θx + Bx )
Hy=m×( Ay×θy + By )
と算出することができる。
ここで、係数mは回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数であり、カメラのファインダ光学系の構成によって定まる。係数mは予めメモリ部4に記憶しておくことができる。また、Ax,Bx,Ay,ByはS6で取得した視線補正係数である。
S8でCPU3は、S7で算出した注視領域座標(Hx,Hy)をメモリ部4に記憶して、視線検出動作を終了する。なお、視線検出動作は繰り返し実行され、注視領域座標を順次更新する。直近の一定時間分の注視領域座標の時系列データをメモリ部4に保持してもよい。
ここでは、注視領域座標を照明光源13a,13bの反射像の位置と瞳孔像の位置とに基づいて検出する例について説明した。しかし、注視領域座標は撮像された眼球画像から眼球回転角度を取得する任意の公知の手法を用いて検出することができる。
<キャリブレーション動作>
眼球の回転角から注視領域の座標を精度良く得るためには、個人差を補正する必要がある。個人差の補正を行わない場合、撮影者が実際に注視している位置と検出された注視領域座標とにずれが生じ、撮影者の意図と異なる位置がカメラに認識されてしまう。例えば図3(b)に示す例では撮影者の注視領域Bに対し、カメラは別の注視領域Cを算出(推定)している。
そのため、キャリブレーション動作を行い、撮影者ごとの視線補正係数を生成してメモリ部4に記憶しておく。キャリブレーション動作では、図3(c)に示すように位置の異なる複数の指標を強調表示し、撮影者に強調表示した指標を1つずつ注視させながら視線検出動作を実行し、各指標について注視領域座標を取得する。得られた注視領域座標と実際の指標の位置の差に基づいて視線補正係数を求める。このような視線入力のキャリブレーション動作は公知であるため、これ以上の詳細については説明を省略する。
本実施形態のカメラは、視線検出のために取得する眼球像から得られる虹彩パターンを用いて撮影者を識別する機能を有する。眼球用撮像素子17からは図5(a)のような眼球像が得られる。図5(c)は、図5(a)に示した眼球像について、虹彩143に着目して記載したものである。虹彩143には瞳孔141の大きさを変化させるための筋肉があり、眼球形成の段階で皺が形成される。図5(c)ではこの皺を放射状に延びる線で示している。この皺は個人によって異なるため、指紋などと同様に、個人を識別可能な生体情報として用いられている。
CPU3は眼球像から得られる虹彩パターンを例えば特表平8-504979号公報に記載されるような公知の技術を用いてコード化し、視線補正係数と関連づけてメモリ部4に記憶することができる。メモリ部4に記憶されたコードと、視検出動作で得られた眼球像から得られるコードとを比較することで、CPU3は撮影者を特定することができる。眼球像から得られたコードがメモリ部4に記憶されていない場合、CPU3はコードをメモリ部4に追加することができる。視線検出のための構成を用いて虹彩パターンによる撮影者を特定することで、CPU3は撮影者の操作を必要とせずに撮影者に適切な視線補正係数をメモリ部4から取得することができる。また、後述するように、撮影者ごとに被写体情報を関連付けて記憶しておくことにより、撮影者の意図に沿った可能性の高い主被写体をカメラが選択できる可能性を高めることができる。
図7を用いて本発明が有効なシーンの一例について説明する。図7は徒競争のゴール付近の撮影シーンを模式的に示しており、手前の選手501と奥の選手502が存在し、その境界付近に注視領域503がある場合を示している。
CPU3は撮像素子2から読み出した画像に対して様々な画像処理を適用するが、その1つとして被写体検出処理が含まれる。被写体検出処理は、エッジ検出、パターンマッチング、学習済みのニューラルネットワークなどを用いて、予め定められた種類の被写体(例えば花、人物、鉄道など)が写っていると思われる領域を検出する処理である。また、顔の特徴などに基づいて特定の人物を認識する個人識別処理も被写体検出処理に含まれる。このような被写体検出処理に用いるデータ(被写体の種類に応じた特徴を示すデータ、テンプレート画像、個人を特定するための特徴データなど)は、メモリ部4に記憶しておくことができる。ここでは、CPU3が、被写体検出処理により、図7に示すシーンの画像の被写体として2人の人物(選手501と選手502)を検出し、また検出した人物をそれぞれ人物C、人物Aと特定したものとする。
図7に示すような、距離の異なる被写体が混在するシーンにおいては、全ての被写体に合焦させることが難しいため、ユーザが意図した被写体が合焦するように焦点検出することが重要になる。また、図7では注視領域503が被写体の境界付近に存在するため、注視領域503のみからユーザが意図する被写体を特定することが難しい。近くの被写体を優先して合焦制御を行うことも考えられるが、ユーザの意図と一致しているとは限らない。
本発明では、撮影者が撮影した画像に対して実施した被写体検出処理の結果を用い、撮影者ごとに、撮影者に関連する被写体情報をカメラが自動的に関連づけて保持する。そして、注視領域に基づいて焦点検出領域を設定する際、虹彩パターンによって認識された特定の撮影者に関連づけられた被写体情報を考慮することにより、その撮影者が意図している主被写体に対して焦点検出が行われる確率を高める。
図8を用いて、被写体情報の例と、撮影者情報と被写体情報との関連づけの一例について説明する。CPU3は、キャリブレーション動作時など、虹彩パターンを取得した際に虹彩バターンのコードを撮影者情報としてメモリ部4に登録することができる。その後、撮影時における視線検出動作を通じて、CPU3は撮影者を特定することができる。そして、CPU3は、撮影された画像の被写体検出処理の結果を、その画像の撮影者の撮影者情報と関連づけてメモリ部4に記憶する。
ここでは、被写体検出処理の結果を、被写体の種類(クラスまたはカテゴリ)と、各種類に属する特定の被写体という階層的な構造の被写体情報として管理するものとする。図8において、情報の項目間を接続する線の太さは項目の関連付けの強さを示し、線が太いほど項目の関連付けが強いことを示している。
撮影者情報が登録された時点においては、その撮影者情報に関連づけられた被写体情報は存在しない。その後、撮影者情報が登録されたユーザが撮影を行うと、撮影された画像に対する被写体検出処理の結果に基づいて被写体情報が、そのユーザの撮影者情報に関連づけられる。また、CPU3は、新たな被写体が撮影された場合には、その被写体を認識するための特徴情報を生成してメモリ部4に登録する。
CPU3は、被写体検出処理の結果を被写体情報と比較し、以前撮影された被写体と同じ種類の被写体や同一の被写体が撮影されたと判定された場合には、その種類や被写体の項目について、撮影者情報との関連付けを強くする。CPU3は、被写体情報の各項目について、各被写体情報との関連付けの強さ(重み)を表す値をメモリ部4に記憶することにより、撮影者情報と個々の被写体情報との関連付けを管理することができる。なお、項目間の関連付けは他の方法で管理してもよい。
図8に示す例では、2人の撮影者A,Bについて撮影者情報が登録されている。ここでは一方が母、他方が父であるものとするが、カメラは単に2人の撮影者A,Bとして撮影者情報を登録している。また、撮影者Aは花と人物を同様の頻度で撮影しており、人物では人物Aおよび人物Bについて人物Cよりも高い頻度で撮影していることが分かる。このように、関連づけ情報において、撮影頻度が高い被写体に対応するする被写体情報ほど関連付けが強く(重みが大きく)なる。なお、図8では図の簡単さのため、個別の被写体の関連づけを1本の線で示しているが、実際には撮影者ごとに関連付けの強さを管理している。例えば、人物Aは撮影者A,Bの両方に撮影されているが、撮影者Aに対する関連付けの強さと、撮影者Bに対する関連付けの強さとは別個に管理されている。
例えば図7に示したシーンにおいて、撮影者Aが撮影しており、被写体検出処理において選手501が人物C(他人)、選手502が人物A(息子)であることが認識されたとする。この場合、CPU3は、被写体情報における人物および人物の項目のうち、撮影者Aとの関連付けが強い人物(ここでは人物A)を、撮影者Aが意図した被写体であると見なす。このように、撮影者が過去に撮影した被写体に関する情報を用いることにより、個々の撮影者が意図している可能性の高い被写体を正しく選択できる可能性を高めることができる。
図9に別の撮影シーンの例を示す。このようにシーンに含まれる人物の領域が小さい場合、手前の花511と奥の人物512のどちらに合焦させるかは撮影者の意図によるところが大きい。このような場合でも、撮影者情報と関連付けが強い被写体情報を参照することにより、撮影者の意図に沿った被写体を選択できる可能性を高めることができる。
例えば、撮影者が花よりも人物をよく撮影していたり、人物512が良く撮影している被写体(家族等)であったりすれば、「花」よりも「人物」や「人物512」の被写体情報が撮影者情報に強く関連付けされている。そのため、人物512を被写体として選択することが撮影者の意図に沿う可能性が高い。一方で、撮影者が人物よりも花を良く撮影していたり、人物512は撮影したことがない人物(たまたま花畑にいた他人)であったりすれば、「人物」や「人物512」よりも「花」の被写体情報が撮影者情報に強く関連付けされている。そのため、花511を被写体として選択することが撮影者の意図に沿う可能性が高い。図9には注視領域座標を示していないが、注視領域座標をさらに考慮して最終的に選択する被写体を決定してもよい。このように、撮影者固有の被写体情報を利用した被写体選択の支援は、注視領域座標の利用を必須としない。ただし、撮影者を特定するために眼球像は撮影する必要がある。
本実施形態によれば、撮影者は例えば本体20の内部に配置された表示素子10を覗くだけで、撮影者の認識が行われ、過去に撮影者が撮影した主被写体の情報に基づいて自動的に主被写体が選択された状態になる。CPU3は例えば、選択した主被写体の領域に対応する焦点検出点の指標(図3)を強調表示することにより、自動選択された主被写体の領域を撮影者に報知することができる。
図10に示すフローチャートを用いて、本実施形態に係る、被写体情報を用いた被写体選択動作について説明する。この動作は例えば撮影スタンバイ状態において開始することができる。
S1002でCPU3は、メモリ部4のROMから、図8に示した撮影者ごとの関連づけデータを読み出してRAMに記憶する。なお、関連づけデータは撮影者が特定できた後に、かつ特定した撮影者に関するものだけを読み出してもよい。
S1004でCPU3はライブビュー(LV)表示のための動作を開始する。具体的にはCPU3は動画撮影動作と、ライブビュー画像の生成動作、ライブビュー画像の表示動作を開始し、S1005以降の処理と並行して継続的に実行する。これにより、表示素子10にはライブビュー画像が表示され、ユーザは接眼レンズ12を通じて表示素子10を観察することによってカメラの撮影範囲を確認することができる。
S1005でCPU3は、シャッターボタンのSW1がONになるのを待機し、SW1がONしていると判定されるとS1006に処理を進める。
S1006でCPU3は、眼球像から虹彩パターンのコードを生成し、S1002で読み出した関連づけデータもしくはメモリ部4を参照して、撮影者が登録済みユーザであるか否か確認する(虹彩認証)。なお、眼球像はS1006の実行時に取得してもよいし、S1004~S1005の実行中に取得してもよい。
S1007でCPU3は、ライブビュー画像に対して被写体検出処理を適用し、被写体情報を取得する。ここでは被写体検出処理として、予め定められた1つ以上の種類の被写体(図8における「花」、「人物」、「鉄道」)の領域の検出処理と、検出された被写体領域に対する認識(図8の例における「菜の花」、「人物A」、「新幹線」などの特定)処理を行う。
S1008でCPU3は被写体検出処理によって被写体領域が1つ以上検出できたか否かを判定し、検出できたと判定されればS1009へ、判定されなければS1010へ、処理を進める。
S1010に進むのは被写体領域が検出できなかった場合である。この場合、CPU3はライブビュー画像のコントラスト情報などに基づいて、最も被写体らしい領域を主被写体の領域として選択し、処理をS1013に進める。
S1009でCPU3は、S1006において、撮影者が登録済みユーザであると確認できていればS1011へ、確認できていなければS1012へ、処理を進める。
S1011でCPU3は、撮影者についての関連づけデータを参照し、被写体検出処理で得られた被写体情報(被写体の種類および/または認識されている被写体)のうち、関連づけた最も強い被写体情報に該当する被写体領域を主被写体の領域として選択する。そして、CPU3は処理をS1013に進める。
S1012に進むのは、被写体検出には成功しているが、撮影者が登録済みユーザと確認できなかった場合である。この場合、CPU3は、被写体検出処理で得られた被写体情報に基づいて主被写体の存在する領域を選択する。CPU3は、例えば画面の中心に最も近い被写体領域、最も大きな被写体領域、最も距離が近い被写体領域、または特定の種類の被写体領域(例えば人物)を選択することができるが、これらに限定されない。そして、CPU3は処理をS1013に進める。
S1013でCPU3は、S1010~S1012で選択した主被写体の領域が適切に撮影されるような設定を実行する。例えばCPU3は、主被写体の領域が適正露出になるように露出条件を決定する自動露出制御を行ったり、主被写体の領域が合焦するように可動レンズ1aの位置を調節する自動焦点検出を行ったりすることができる。また、CPU3は、主被写体の領域を基準としてホワイトバランスを調整してもよい。また、主被写体の種類を考慮して現像処理などの画像処理のパラメータを調整してもよい。例えば主被写体が花であれば、花の色域の再現性がよくなるように画像処理のパラメータを調整することができる。なお、これらは単なる例示であり、主被写体の領域もしくはそこから得られる情報を他の動作に利用することができる。
以降、CPU3は、SW2がONすればS1013で設定した内容に基づいて記録用の撮影処理、記録用画像データの生成処理、生成した画像データの記録処理などを実行する。
(変形例)
図10で説明した動作では、注視領域座標を利用せずに主被写体の領域を選択した。しかし、注視領域座標を考慮してもよい。図11は、注視領域座標を利用して主被写体の選択を行う動作に関するフローチャートである。図11において、注視領域座標を利用しない場合と同じ動作を行うステップには図10と同じ参照数字を付し、重複する説明を省略する。
S1002~S1007においてCPU3は図10と同じ動作を実行する。
S1101でCPU3は、視線検出処理を実行し、注視領域座標を検出する。眼球像から注視領域座標を得る方法は先に説明した通りである。CPU3は、注視領域座標をメモリ部4のRAMに記憶する。
S1008においてCPU3は、被写体検出処理によって被写体領域が1つ以上検出できたか否かを判定し、検出できたと判定されればS1104へ、判定されなければS1102へ、処理を進める。
S1102でCPU3は、S1101において注視領域座標が得られたか否かを判定し、得られていると判定されればS1103へ、判定されなければS1010へ、処理を進める。
S1103に進むのは、被写体領域は検出できなかったが、注視領域座標は取得できた場合である。この場合CPU3は、注視領域座標を含む所定の大きさの領域内で、S1010と同様にして主被写体の存在する領域を選択し、処理をS1013に進める。
S1104でCPU3は、S1101において注視領域座標が得られたか否かを判定し、得られていると判定されればS1105へ、判定されなければS1106へ、処理を進める。
S1105でCPU3は、S1006において撮影者が登録済みユーザであると確認できていればS1107へ、確認できていなければS1108へ、処理を進める。
S1107でCPU3は、注視領域座標と、撮影者についての関連づけデータとに基づいて、主被写体の領域を選択する。例えばCPU3は、注視領域座標に近い(閾値未満の距離に存在する)被写体領域の中から、関連づけ情報において関連づけが最も強い被写体情報に該当する被写体領域を主被写体の領域として選択する。あるいは、CPU3は、撮影者についての関連づけデータに含まれる被写体情報に該当する被写体領域のうち、注視領域座標を含む(あるいは注視領域座標に最も近い被写体領域を主被写体の領域として選択する。そして、CPU3は処理をS1013に進める。注視領域座標を利用することにより、撮影者が意図している主被写体の領域を選択できる可能性(精度)の向上が見込めるとともに、領域を限定できることから演算速度の向上も見込める。
S1108に進むのは、被写体領域が検出でき、また注視領域座標も得られたが、撮影者が登録ユーザと確認できなかった(虹彩認証ができなかった)場合である。この場合CPU3は、注視領域座標を含む所定範囲内に存在する被写体領域を主被写体が存在する領域として選択する。
S1106でCPU3は、S1006において撮影者が登録済みユーザであると確認できていればS1011へ、確認できていなければS1012へ、処理を進める。
<関連づけ情報の更新処理>
上述したように、CPU3は、撮影者の指示によって撮影された画像について被写体検出処理を行い、その結果に基づいて撮影者についての関連づけデータを更新する。関連づけ情報の更新処理について、図12に示すフローチャートを用いて説明する。更新処理は記録用の撮影処理から画像データの記録が完了した直後に行ってもよいし、記録後の任意のタイミングで行ってもよい。なお、関連づけデータの更新処理は、撮影者が登録済みユーザであることが確認され(虹彩認証に成功し)、かつ被写体検出処理において被写体領域が検出されている場合に実行する。
S201でCPU3は、図10または図11のS1007で行った被写体検出処理によって検出された被写体領域の全てに関して関連づけデータを更新したか否か判定する。CPU3は、更新したと判定されれば処理を終了し、判定されなければ処理をS203に進める。
S203でCPU3は、更新対象の被写体領域が、撮影者についての関連づけデータに未登録の種類の被写体に関する領域であるか否かを判定する。CPU3は、未登録の種類の被写体と判定されればS207へ、判定されなければS205へ、処理を進める。
S205でCPU3は、撮影者についての関連づけデータに登録されている被写体情報のうち、更新対象の被写体領域の種類に対応する被写体情報についての関連付けを所定量だけ強めたのち、処理をS209に進める。
S207でCPU3は、撮影者についての関連づけデータに、更新対象の被写体領域の種類に対応する被写体情報を追加したのち、処理をS209に進める。
S209でCPU3は、更新対象の被写体領域が、撮影者についての関連づけデータに未登録の被写体に関する領域であるか否かを判定する。CPU3は、未登録の被写体と判定されればS213へ、判定されなければS211へ、処理を進める。
S211でCPU3は、撮影者についての関連づけデータに登録されている被写体情報のうち、更新対象の被写体領域で認識された被写体に対応する被写体情報についての関連付けを所定量だけ強めたのち、処理をS201に戻す。
S213でCPU3は、撮影者についての関連づけデータに、更新対象の被写体領域で認識された被写体に対応する被写体情報を追加したのち、処理をS201に戻す。なお、この被写体をこれ以降撮影される画像で認識できるよう、CPU3は被写体領域から特徴情報を生成し、併せて登録する。
以上説明したように、本実施形態によれば、過去に撮影した画像に対する被写体検出結果を撮影者に関連づけて記憶しておき、主被写体の領域を選択する際に利用するようにした。そのため、視線検出機能を利用して認識した撮影者が意図している可能性の高い主被写体を選択する可能性を高めることができる。このように、視線検出機能を利用した撮影者の認識結果を用いて主被写体の選択を支援することが可能な撮像装置およびその制御方法を提供することができる。
(その他の実施形態)
上述の実施形態ではカメラの本体内部に設けられた表示素子10を接眼レンズ12越しに覗く構成を利用して眼球像を撮影した。しかし、カメラ本体の表面に設けられた表示素子を見る撮影者の眼球像を撮影する構成についても本発明は適用可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。
1…撮影レンズ、2…撮像素子、3…CPU、4…メモリ部、10…表示素子、12…接眼レンズ、13a~13f…照明光源、14…眼球、15…光分割器、16…受光レンズ、17…眼球用撮像素子

Claims (13)

  1. 撮影された画像に対して被写体検出処理を行う被写体検出手段と、
    撮影者の眼球像を取得する取得手段と、
    前記眼球像に基づいて撮影者を認識する認識手段と、
    撮影者に関連づけて記憶された、過去に撮影された被写体に関する情報のうち、前記認識手段が認識した撮影者に関連づけて記憶された情報に基づいて、前記被写体検出手段が検出した被写体領域から主被写体の領域を選択する選択手段と、
    を有することを特徴とする撮像装置。
  2. 前記選択手段は、前記被写体検出手段が検出した被写体領域のうち、前記過去に撮影された被写体に関する情報に対応する被写体領域から前記主被写体の領域を選択することを特徴とする請求項1に記載の撮像装置。
  3. 前記眼球像に基づいて、撮影者の注視している前記画像中の位置を検出する視線検出手段をさらに有することを特徴とする請求項1または2に記載の撮像装置。
  4. 前記選択手段は、前記過去に撮影された被写体に関する情報に加え、前記視線検出手段が検出した位置を考慮して前記主被写体の領域を選択することを特徴とする請求項3に記載の撮像装置。
  5. 前記選択手段は、前記被写体検出手段が検出した被写体領域のうち、前記画像中の位置から閾値未満の距離に存在する被写体領域から、前記過去に撮影された被写体に関する情報に基づいて前記主被写体の領域を選択することを特徴とする請求項3または4に記載の撮像装置。
  6. 前記選択手段は、前記被写体検出手段が検出した被写体領域のうち、前記過去に撮影された被写体に関する情報に対応する被写体領域から、前記画像中の位置に基づいて前記主被写体の領域を選択することを特徴とする請求項3または4に記載の撮像装置。
  7. 前記過去に撮影された被写体に関する情報は、撮影頻度が高い被写体ほど大きな重み付けがなされていることを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
  8. 前記被写体検出手段は、前記撮影者の指示によって撮影された画像に対して前記被写体検出処理を行い、該被写体検出処理の結果に基づいて、前記撮影者に関連づけて記憶された前記過去に撮影された被写体に関する情報を更新することを特徴とする請求項1から7のいずれか1項に記載の撮像装置。
  9. 前記選択手段が選択した被写体領域に基づいて、焦点検出、露出制御、および撮影された画像に対する画像処理の設定、の少なくとも1つを行う制御手段をさら有することを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
  10. 前記認識手段は、前記眼球像から得られる虹彩パターンに基づいて撮影者を認識することを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
  11. 画像を表示する表示手段を覗いている撮影者の眼球像を取得する取得手段と、
    前記眼球像から撮影者を認識する認識手段と、
    前記画像に対する被写体検出処理の結果と、前記認識した撮影者に関連づけて記憶された、該撮影者が過去に撮影した被写体に関する情報とに基づいて前記画像から主被写体の領域を選択する選択手段と、
    前記主被写体の領域を前記表示手段を通じて前記撮影者に報知する報知手段と、
    を有することを特徴とする撮像装置。
  12. 被写体検出手段が、撮影された画像に対して被写体検出処理を行う被写体検出工程と、
    取得手段が、撮影者の眼球像を取得する取得工程と、
    認識手段が、前記眼球像に基づいて撮影者を認識する認識工程と、
    選択手段が、撮影者に関連づけて記憶された、過去に撮影された被写体に関する情報のうち、前記認識手段が認識した撮影者に関連づけて記憶された情報に基づいて、前記被写体検出工程で検出された被写体領域から主被写体の領域を選択する選択工程と、
    を有することを特徴とする撮像装置の制御方法。
  13. 撮像装置が有するコンピュータを、請求項1から11のいずれか1項に記載の撮像装置が有する各手段として機能させるためのプログラム。
JP2019149407A 2019-08-16 2019-08-16 撮像装置およびその制御方法 Active JP7293039B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019149407A JP7293039B2 (ja) 2019-08-16 2019-08-16 撮像装置およびその制御方法
US16/944,533 US11496668B2 (en) 2019-08-16 2020-07-31 Image capture apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149407A JP7293039B2 (ja) 2019-08-16 2019-08-16 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2021032927A JP2021032927A (ja) 2021-03-01
JP2021032927A5 JP2021032927A5 (ja) 2022-08-26
JP7293039B2 true JP7293039B2 (ja) 2023-06-19

Family

ID=74567624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149407A Active JP7293039B2 (ja) 2019-08-16 2019-08-16 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US11496668B2 (ja)
JP (1) JP7293039B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7547062B2 (ja) * 2020-03-25 2024-09-09 キヤノン株式会社 撮像装置
JP2022171084A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
JP2023038037A (ja) * 2021-09-06 2023-03-16 キヤノン株式会社 電子機器及び制御方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
JP2003189148A (ja) 2001-12-21 2003-07-04 Konica Corp 電子カメラ
JP2011165008A (ja) 2010-02-10 2011-08-25 Canon Inc 画像認識装置および方法
JP2013236194A (ja) 2012-05-08 2013-11-21 Canon Inc 撮影システム
JP2013239796A (ja) 2012-05-11 2013-11-28 Canon Inc 画像処理装置
US20140050370A1 (en) 2012-08-15 2014-02-20 International Business Machines Corporation Ocular biometric authentication with system verification
WO2015145769A1 (ja) 2014-03-28 2015-10-01 富士通株式会社 撮像装置、情報処理装置、撮影補助システム、撮影補助プログラム及び撮影補助方法
JP2019129461A (ja) 2018-01-26 2019-08-01 キヤノン株式会社 被写体認識装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
JP2002303781A (ja) 2001-04-09 2002-10-18 Canon Inc 光学装置及びカメラ
US6842670B2 (en) * 2003-05-02 2005-01-11 Chung Shan Institute Of Science And Technology Eye-tracking driving system
TWI314306B (en) * 2006-11-23 2009-09-01 Au Optronics Corp Digital television and information-informing method using the same
US10456209B2 (en) * 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
JP5863423B2 (ja) * 2011-11-30 2016-02-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5900622B2 (ja) * 2012-07-27 2016-04-06 日産自動車株式会社 立体物検出装置及び立体物検出方法
CN109074212B (zh) * 2016-04-26 2021-12-31 索尼公司 信息处理装置、信息处理方法和程序
CN105892691A (zh) * 2016-06-07 2016-08-24 京东方科技集团股份有限公司 代步工具的控制方法和控制装置、代步工具系统
KR20180071589A (ko) * 2016-12-20 2018-06-28 삼성전자주식회사 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
JP2003189148A (ja) 2001-12-21 2003-07-04 Konica Corp 電子カメラ
JP2011165008A (ja) 2010-02-10 2011-08-25 Canon Inc 画像認識装置および方法
JP2013236194A (ja) 2012-05-08 2013-11-21 Canon Inc 撮影システム
JP2013239796A (ja) 2012-05-11 2013-11-28 Canon Inc 画像処理装置
US20140050370A1 (en) 2012-08-15 2014-02-20 International Business Machines Corporation Ocular biometric authentication with system verification
WO2015145769A1 (ja) 2014-03-28 2015-10-01 富士通株式会社 撮像装置、情報処理装置、撮影補助システム、撮影補助プログラム及び撮影補助方法
JP2019129461A (ja) 2018-01-26 2019-08-01 キヤノン株式会社 被写体認識装置

Also Published As

Publication number Publication date
US11496668B2 (en) 2022-11-08
US20210051265A1 (en) 2021-02-18
JP2021032927A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
US7672580B2 (en) Imaging apparatus and method for controlling display device
CN103081455B (zh) 从手持设备所捕获的多个图像进行肖像图像合成
JP5178553B2 (ja) 撮像装置
JP2022106849A (ja) 画像処理装置、撮像装置および制御方法
JP7358530B2 (ja) 被写体認識装置及び被写体認識装置の制御方法
JP5171468B2 (ja) 撮像装置及び撮像装置の制御方法
JP7293039B2 (ja) 撮像装置およびその制御方法
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2007081682A (ja) 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
US20050099684A1 (en) Telescope main body and spotting scope
US11388331B2 (en) Image capture apparatus and control method thereof
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
US20230336862A1 (en) Electronic device, control method, and non-transitory computer readable medium
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
US20230142934A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP7342883B2 (ja) 撮像制御装置、撮像装置、撮像制御方法
JPH05328197A (ja) 撮影装置
US20230396876A1 (en) Apparatus, method for apparatus, image capturing apparatus, and storage medium
JP2013054256A (ja) 撮像装置
JP2021043256A (ja) 撮像装置
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
US11050923B2 (en) Imaging apparatus and control method
JP2005091432A (ja) カメラ
US20240147066A1 (en) Imaging apparatus, method for controlling the same, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R151 Written notification of patent or utility model registration

Ref document number: 7293039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151