Nothing Special   »   [go: up one dir, main page]

JP2009231922A - 構図判定装置、構図判定方法、プログラム - Google Patents

構図判定装置、構図判定方法、プログラム Download PDF

Info

Publication number
JP2009231922A
JP2009231922A JP2008071721A JP2008071721A JP2009231922A JP 2009231922 A JP2009231922 A JP 2009231922A JP 2008071721 A JP2008071721 A JP 2008071721A JP 2008071721 A JP2008071721 A JP 2008071721A JP 2009231922 A JP2009231922 A JP 2009231922A
Authority
JP
Japan
Prior art keywords
subject
detected
information
composition
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008071721A
Other languages
English (en)
Other versions
JP4508257B2 (ja
Inventor
Shingo Yoshizumi
真吾 善積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008071721A priority Critical patent/JP4508257B2/ja
Priority to KR1020090016148A priority patent/KR20090100242A/ko
Priority to TW098108465A priority patent/TWI398826B/zh
Priority to EP09155492A priority patent/EP2104336A3/en
Priority to US12/381,982 priority patent/US8810673B2/en
Priority to CN2009101288689A priority patent/CN101540844B/zh
Publication of JP2009231922A publication Critical patent/JP2009231922A/ja
Application granted granted Critical
Publication of JP4508257B2 publication Critical patent/JP4508257B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】必要とする構図判定結果がより的確に得られるようにする。
【解決手段】取り込んだ画像データに基づく画像内における被写体を検出する被写体検出処理と、
画像データに基づく画像、又は被写体検出処理により検出される被写体を対象として静止の状態を検出する静止検出処理と、この静止検出処理の検出結果に基づいて、被写体検出処理により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定処理とを実行するようにして構成する。
【選択図】図35

Description

本発明は、画像データの画内容が有する構図についての判定を行うようにされた装置である、構図判定装置とその方法に関する。また、このような装置が実行するプログラムに関する。
例えば、鑑賞者に良い印象を与えることのできる写真を撮影するためのテクニック的な一要素として、構図設定が挙げられる。ここでいう構図は、フレーミングともいわれるもので、例えば写真としての画枠内における被写体の配置状態をいう。
良好な構図とするための一般的、基本的な手法はいくつかあるものの、一般のカメラユーザが良い構図の写真を撮影することは、写真撮影に関する充分な知識、技術を持っていない限り、決して簡単なことではない。このことからすると、例えば良好な構図の写真画像を手軽で簡単に得ることのできる技術が求められることになる。
例えば特許文献1には、自動追尾装置として、一定時間間隔の画像間の差を検出して、画像間の差の重心を算出し、この重心の移動量、移動方向から被写体画像の撮像画面に対する移動量、移動方向を検出して撮像装置を制御し、被写体画像を撮像画面の基準領域内に設定する技術が開示されている。
また、特許文献2には、自動追尾装置として、人物を自動追尾する場合に、人物の顔が画面中央となるように画面上の人物像全体の面積に対してその人物上の上側から20%の面積となる位置を画面中央にして追尾することによって人物の顔を確実に撮影しながら追尾できるようにした技術が開示されている。
これらの技術構成を構図決定の観点から見れば、人物としての被写体を自動的に探索して、撮影画面において或る決まった構図でその被写体を配置させることが可能となる。
また、特許文献3には、監視カメラにより撮像される画像により顔認識を行う場合において、ポスターや立て看板などに含まれる顔画像を効果的にマスキングするための技術として、例えば遊技店において遊技者や従業員が存在しない時間帯において、撮像により得た画像の一部をマスキングするマスキングパターンを発生させ、顔画像抽出手段により、画像より到来者ではない顔画像が抽出できない状態までマスキングパターンを変化させながら繰り返し、このマスキングパターンを用いて、画像がマスキングされることにより画像より到来者ではない顔画像が抽出できない状態となったマスキングパターンを記憶し、この記憶したマスキングパターンにより画像にマスキングを施して顔画像検出を行う構成が開示されている。
特開昭59−208983号公報 特開2001−268425号公報 特開2007−156693号公報
本願発明としては、1つの例として、人としての被写体を対象に構図判定を行うものとして、この際にポスターなどに写されている顔やオブジェの顔など、単なる像のみで現実には人として存在しない被写体を、構図判定の対象から除外する、あるいはこのような被写体のみを構図判定の対象とすることが可能なようにして、必要とする構図判定結果がより的確に得られるようにすることを目的とする。そのうえで、このような構図判定を行う装置などとして、これまでよりも応用範囲が広く優れたものを提供できるようにすることを目的とする。
そこで本発明は上記した課題を考慮して、構図判定装置として次のように構成する。
つまり、取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手段と、画像データに基づく画像、又は被写体検出手段により検出される被写体を対象として静止しているか否かを検出する静止検出手段と、この静止検出手段の検出結果に基づいて、上記被写体検出手段により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手段とを備えることとした。
上記構成では、画像データに基づく画像、又は被写体検出手段により検出される被写体を対象として静止検出が行われることで、上記画像における静止領域、あるいは被写体検出により検出された被写体のうちで静止しているものが認識される。そして、このような静止検出の結果を利用することで、被写体検出手段により検出される被写体のうちから現実被写体、若しくは非現実被写体のいずれか一方のみを構図判定の対象として設定することができる。
このように本願発明の構図判定処理では、現実被写体、若しくは非現実被写体のいずれかのみを構図判定の対象とするのにあたり、画像若しくは被写体についての静止検出を利用している。このようして静止検出を利用することにより、例えば画像内において、同じ被写体として、現実に存在するものと、例えば単なる像などとして現実には存在しないものとが混在する状態であっても、的確に、そのいずれかを構図判定の対象とすることが可能になる。
このようにして本発明は、同じ被写体として、現実に存在するものと、例えば単なる像などとして現実には存在しないものとが混在している状況において、そのいずれかを対象として構図判定を的確に行えるものを提供できる。これにより、例えばこれまでのようにして、現実に存在する被写体と、現実には存在しない被写体とを同じ被写体として検出する技術を適用して構図判定を行うものと比較すれば、その応用範囲は大幅に拡がって、ユーザにとっても使い易いものとなる。
以降、本願発明を実施するための最良の形態(以降、実施の形態という)についての説明を行っていくのにあたり、構図、画枠、画角、撮像視野角なる語を用いることとする。
構図は、フレーミングともいわれるもので、例えば画枠内における被写体の配置状態をいう。
画枠は、例えば画像が嵌め込まれるようにしてみえる一画面相当の領域範囲をいい、一般には縦長若しくは横長の長方形としての外枠形状を有する。
画角は、ズーム角などともいわれるもので、撮像装置の光学系におけるズームレンズの位置によって決まる画枠に収まる範囲を角度により表したものである。一般的には、撮像光学系の焦点距離と、像面(イメージセンサ、フィルム)のサイズによって決まるものとされているが、ここでは、焦点距離に対応して変化し得る要素を画角といっている。
撮像視野角は、定位置に置かれた撮像装置により撮像して得られる画像の画枠に収まる範囲について、上記の画角に加え、パン(水平)方向における振り角度と、チルト(垂直)方向における角度(仰角、俯角)により決まるものをいう。
例えば、構図は、画像視野角によって決まる画枠内に収まる被写体の配置状態を指すものとなる。
先ず、本願発明を実施するための最良の形態(以降、実施の形態という)は、構図判定を行うようにして構成される装置あるいはシステムとなるが、本実施の形態の構成を説明するのに先立ち、例えば撮像により得られた被写体を対象として、自動的に構図の調整を行うこととした場合を考えてみる。なお、ここでの被写体は、人であることとする。
図1(a)には、例えば撮像によって得られた画像内容例として、画枠内に1つの被写体301が存在している状態が示されている。
そして、構図判定処理のアルゴリズムとしては、例えば図1(a)に示される画像から、先ず、被写体301が1つ存在することを検出し、この検出結果に基づいて、この被写体301が写っている画像として最適とされる構図(最適構図)は、図1(b)に示すものであるとして判定するように構成できる。例えば、この場合には、画枠300内の被写体301を或るサイズにまで拡大してほぼ中央に位置させた配置状態(構図)となっている。
また、図2においては、構図判定処理として、例えば図2(a)に画像を入力した場合には、この画像から2つの被写体301A、301Bが存在することを検出し、この検出結果に基づいて、図2(b)の画像内容を最適構図として判定していることが示されている。なお、図2(b)は、これらの被写体301A、301Bを或る程度のサイズまでに拡大して、左右にほぼ均等に配置させた構図となっている。
ここで、上記した構図判定にあたって、人としての被写体検出は、例えば顔検出の技術を適用することができるが、単純に、顔検出技術を用いることとした場合には、次のような不都合が生じる。
つまり、例えば図3に示すようにして、画枠300内において、現実には人である被写体301とともに、人物の顔が写されている(描かれている)ようなポスター(顔画像ポスター)302も存在するような場合、被写体検出として顔検出技術を用いている場合には、構図判定に利用すべき被写体として、被写体301だけではなく、顔画像ポスター302に写っている顔の部分も被写体であるとして検出することになる。
この場合、正しくは現実の人としての被写体は1つのみであるから、本来であれば、図1(b)に準じて被写体301のみをクローズアップするような構図判定結果が得られるべきである。しかし、実際には2つの被写体が存在すると検出したことに基づいて、構図判定結果としても、例えば図2(b)に準じて、被写体301と顔画像ポスター302の顔とを共にクローズアップするような画を最適構図であるとして判定してしまうことになる。
そこで、本実施の形態としては、以降説明するようにして、例えば人を主体的な被写体(以降、単に被写体という)としたうえでの構図判定にあたって、ポスター、立て看板などに写っている(描かれている)顔(人物)であるとか、立体的な銅像や彫刻などの人や顔に代表される、現実に人として存在しているものではない被写体(非現実被写体)は除外して、現実に人としてそこに存在している被写体(現実被写体)のみを対象とした的確な構図判定結果が得られるようにする技術構成を提案するものである。
図4は、本実施の形態としての構図判定についての構成を概念的に示した図(第1例)である。
この図には、構図判定を実行する部位として構図判定ブロック200が示されている。この構図判定ブロック200は、画像データを取り込んで構図判定を実行するものとされており、図示するようにして、被写体検出処理部201、静止検出処理部202、構図判定処理部203から成るものとしている。
被写体検出処理部201は、取り込んだ画像データを利用して被写体検出処理を実行する部位とされる。
ここでの被写体検出処理は、先ず画像データの画内容から、人としての被写体を弁別して検出する処理をいうものであり、ここでの検出結果として得られる情報(個別被写体検出情報)は、人としての被写体の数と、個々の被写体(個別被写体)ごとについての画枠内での位置情報(例えば画枠内の位置であれば画素のマトリクスの下でのX座標、Y座標により表現できる)、及び個別被写体ごとについての画像内におけるサイズ(占有面積)などとなる。
上記被写体検出処理の具体的手法としては、顔検出の技術を用いることができる。この顔検出の方式、手法はいくつか知られているが、本実施の形態においてはどの方式を採用するのかについては特に限定されるべきものではなく、検出精度や設計難易度、また、後述する静止検出に採用する手法との兼ね合いなどを考慮して適当とされる方式が採用されればよい。
また、この段階での被写体検出処理の手法、アルゴリズムは、現実の人として存在しているものが写った現実被写体と、非現実被写体とを区別することなく被写体として検出するものであってよい。
そして、この場合の被写体検出処理部201は、上記個別被写体検出情報の集合から成る情報を検出被写体情報として出力する。
また、この被写体検出処理部201が実行する被写体検出処理は、画像信号処理として実現することができる。例えば画像信号処理をDSP(Digital Signal Processor)により実行するように構成する場合、この被写体検出処理は、DSPに与えるプログラム、インストラクションにより実現できる。なお、次の静止検出処理部202をはじめ、以降において説明する、画像信号処理によりその機能を実現可能な部位については、上記のことが同様にいえるものである。
また、取り込んだ画像データは、分岐して、静止検出処理部202も入力する。
ここでの静止検出処理部202は、例えば画像信号処理によって、取り込んだ画像データの画像(画枠)において、動きが無く、静止しているとされる領域(静止領域)を検出する処理を実行する。この検出処理によっては、画像データの画像において静止領域の位置、分布を示す情報(検出静止領域情報)が得られる。なお、検出静止領域情報としては、例えば静止領域として検出された画素についての分布を示すものを考えることができる。
この場合の構図判定処理部203は、被写体検出処理部201から出力される検出被写体情報と、静止検出処理部202から出力される検出静止領域情報とを取り込んで入力し、最終的に、現実被写体のみを対象として最適構図を判定する、構図判定処理を実行する。
なお、構図判定処理部203としての構図判定の処理は、例えばCPU(Central Processing Unit)がプログラムを実行することにより実現できる。つまり、ソフトウェアにより実現できる。また、必要に応じて、ソフトウェア若しくはハードウェアによる画像信号処理を併用する構成とされてもよい。
図10のフローチャートは、上記図4に示す構図判定ブロック200において被写体検出処理部201、静止検出処理部202、構図判定処理部203が実行する処理の手順例を示している。
なお、この図に示す処理手順例は、あくまでも一例であり、図4に示す構図判定ブロック200が実行する処理手順は、これに限定されるべきではない。図4としては、あくまでも、結果的に、構図判定処理部203が、被写体検出処理部201からの出被写体情報と、静止検出処理部202からの検出静止領域情報とに基づいて現実被写体のみを対象として最適構図を判定するようにさればよい。この点については、以降説明する第2例〜第6例についても同様である。
また、ここで述べている、図4におけるブロック構成と図10のステップとの対応関係は、順当に考えられる1つの例であって、それ以外の対応が採られてよい。この点についても、以降において説明するブロック図とフローチャートとの関係において、同様である。
ステップS101においては、先ず、被写体検出処理部201と静止検出処理部202が画像データの取り込み(入力)を実行する。
ステップS102、S103は、被写体検出処理部201が実行する手順となる。
被写体検出処理部201は、ステップS102により上述の被写体検出処理を実行し、ステップS103により、その検出結果である検出被写体情報を出力する。
また、静止検出処理部202は、上記ステップS102、S103と併行して、ステップS104、S105の手順を実行する。
ステップS104では、入力した画像データの画枠内の画像における静止領域を検出する。
この第1例に対応する静止領域の検出には、例えば、動き検出の手法を応用することができる。つまり、例えばフレーム(あるいはフィールド)に相当する時間的に前後する画像において変化(動き)量が一定以下である領域を検出するようにされる。そして、ステップS105により検出結果である検出静止領域情報を出力する。
ステップS106は、構図判定処理部203が実行するものとなる。
ステップS106として、構図判定処理部203は、ステップS103により出力される検出被写体情報と、ステップS105により出力される検出静止領域情報とを入力することになる。そのうえで、先ず、構図判定処理部203は、検出被写体情報が示す個別被写体(検出個別被写体)のうちから、非現実被写体を除外して、現実被写体のみを選別する処理(選別処理)を実行する。
例えば実際において、現実の人は、例えば顔自体が揺れたり、また、顔自体が動かなくとも、瞬きをしたり、顔の表情が変化したりするなど、顔の部分について動きとして捉えることのできる変化を生じる。従って、ステップS104に対応する静止検出処理部202による静止検出処理によっては、画像において現実の人が写っているとされる領域、即ち現実被写体が検出された位置を含む領域は動きがあるものとして検知され、静止領域としては検出されない領域となる。
これに対して、非現実被写体に相当するポスターや立て看板の顔などは、上記の現実の人のような動きが全くないことから、上記の静止検出処理によっては、非現実被写体が検出された位置を含む領域は、静止領域として検出されることになる。
そこで、構図判定処理部203は、上記の選別処理のために、検出被写体情報が示す検出個別被写体ごとの位置情報と、検出静止領域情報が示す静止領域の分布とを比較するようにされる。つまり、この比較処理の結果として、検出個別被写体のうちで、その位置情報が静止領域に含まれていたものが、動きの無い静止している被写体、即ち非現実被写体であることになる。これに対して、その位置情報が静止領域に含まれていないものが、動きのある被写体、即ち現実被写体であることになる。このようにして、本実施の形態では、現実被写体のみを選別することができる。また、このような処理は、概念的には、検出個別被写体について、現実被写体と非現実被写体のいずれであるのかを判定しているものであるとして見ることもできる。
そして、構図判定処理部203は、上記のようにして選別した現実被写体のみを、構図判定に利用すべき個別被写体(対象個別被写体)として設定する。
次に、構図判定処理部203は、ステップS107としての処理を実行する。
ステップS107では、上記ステップS106により設定された対象個別被写体の検出被写体情報を利用して、所定のアルゴリズムにより構図判定のための処理を実行する。
なお、構図判定のアルゴリズムについての例、また、構図判定の結果の利用例などについては後述する。
図5は、実施の形態における第2例としての構図判定ブロック200の構成を示している。
この図における構図判定ブロック200も、図4の第1例と同様に、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203を備えて成る。
この場合には、先ず、被写体検出処理部201が画像データを取り込んで個別被写体(現実被写体と非現実被写体を含む)の検出を行い、その検出結果である検出被写体情報を、構図判定処理部203と、静止検出処理部202とに対して出力する。
この場合の静止検出処理部202は、静止検出処理として、入力した検出被写体情報に基づいて、検出された個別被写体のうちから静止しているとされる被写体(静止被写体)を検出する。なお、ここで検出される静止被写体は、即ち、非現実被写体に相当するものとなる。
ここでの第2例における静止被写体の検出にも、例えば、1つには動き検出を用いることができる。つまり、前後の検出個別被写体のサンプルタイミングにより得られる検出被写体情報が示す位置情報の変化を検知することとして、その変化量が一定以下となるものを静止被写体であるとして検出すればよい。
また、この第2例のようにして、被写体検出を行った後の段階にて、静止しているとされる被写体(静止被写体)を検出しようとうする構成においては、次のような静止検出の手法も考えることができる。
1つには、表情検出の手法を応用できる。顔の表情に関しては、現実被写体であれば当然変化し得るが、非現実被写体では顔の表情が変化することはないからである。
例えば、被写体検出処理部201が所定方式による顔検出処理により個別被写体検出を行うものとしたうえで、この顔検出処理により検出された個別被写体の顔の画像部分を抜き出した画像(顔画像)の情報を、静止検出処理部202が受け取るようにする。静止検出処理部202は、受け取った顔画像を対象として、表情の変化量を求め、この変化量が一定以下となる顔画像に対応する検出個別被写体を、静止被写体であるとして検出する。
なお、一例として、上記の表情検出については、先に本出願人が出願した特開2008−42319号公報に記載される表情評価の手法を適用できる。ここでの表情評価は、正規化した顔画像と判別軸情報を基に、顔画像における顔の表情の度合いを評価する演算を行い、表情評価値を得ようとするものである。例えば、単位時間における表情評価値の変化量を求めることとして、この変化量が一定以下である顔画像に対応する検出個別被写体を静止被写体であるとして検出することができる。
また、もう1つには、まぶたのうごき、即ち、瞬きを検出する手法を応用することも考えられる。これも、現実被写体であれば当然瞬きをするが、非現実被写体では、通常、瞬きすることはありえない、ということがいえる。
この場合にも、例えば、被写体検出処理部201が所定方式による顔検出処理により個別被写体検出を行うものとしたうえで、この顔検出処理により検出された個別被写体の顔の画像部分を抜き出した画像(顔画像)の情報を、静止検出処理部202が受け取るようにする。静止検出処理部202は、受け取った顔画像から目の部分をさらに抜き出す。そして、この抜き出した目画像のうちで瞬きをしないと判定したものに対応する検出個別被写体を、静止被写体であるとして検出するものである。
このような瞬き検出の手法として、1つには、先に本出願人が出願した特開2004−343315号公報に記載される手法を適用できる。ここでの手法は、先ず肌色検出を含む顔検出処理により顔検出を行い、検出された肌色領域内の白色の領域(白領域)、つまり目の部分を検出し、この目の部分を含む領域(目領域)を取り込む。そして、この目領域における白の情報の割合を算出する。この算出結果としては、時間経過に応じて、瞬きをしていない状態では白の情報の割合が多く、瞬きしたことに応じてまぶたが閉じたときには白の情報が最小となるようにして変化するものとなる。そして、例えば、時間経過に応じた白の情報の算出結果が一定であって、上記のような変化を生じることがない目領域に対応する検出個別被写体を静止被写体として検出すればよい。
このようにして、静止検出の手法、アルゴリズムは、上記した例をはじめとしていくつか考えることができる。本実施形態としては、これらの手法、アルゴリズムのうちのいずれか1つを応用することとしてもよいし、2以上を複合的に応用してもよい。
そして、静止検出処理部202は、上記のようにして検出した静止被写体ごとの検出個別被写体情報を有して成る情報を、検出静止被写体情報として出力する。
構図判定処理部203は、被写体検出処理部201からの検出被写体情報と、静止検出処理部202からの検出静止被写体情報とを利用して最終的に、現実被写体を対象とする構図判定を行う。
このための構図判定処理部203の処理例としては、先ず、現実被写体を選別する処理を実行する。この処理としては、取り込んだ検出被写体情報が示す検出個別被写体の位置情報と、検出静止被写体情報が示す静止被写体の位置情報とを比較する。このようにして比較を行い、検出被写体情報が示す検出個別被写体のうちで、その位置情報が検出静止被写体情報が示す静止被写体の位置情報と一致したものが非現実被写体であり、一致しないものが現実被写体であることになる。
そして、現実被写体であるとして認識された検出個別被写体を対象個別被写体として設定する。
そのうえで、構図判定処理部203は、入力した検出被写体情報のうちから、対象個別被写体とされた個別被写体についての個別被写体検出情報を取り出して、この個別被写体検出情報を利用して構図判定処理を実行する。
なお、上記の表情検出、瞬き検出を応用した静止検出は、先に図4に示した第1例の構成においても適用し得る。例えば、静止検出部202は、取り込んだ画像データについて先ず顔検出を行い、これにより得られる顔画像を利用して、上記の表情検出、瞬き検出による静止検出を行う。そして、構図判定処理部203は、被写体検出処理部201からの検出被写体情報が示す各検出個別被写体の位置と、静止検出処理部202にて静止状態にあるとしているとされた顔画像の位置とを比較することにより、現実被写体を選別することができる。
図11のフローチャートは、上記図5により述べた構成による第2例の構図判定ブロック200において実行される処理の手順例を示したものである。
なお、図5の構成においても、構図判定処理部203は、被写体検出処理部201からの検出被写体情報と、静止検出処理部202からの検出静止被写体情報とを利用して最終的に、現実被写体を対象とする構図判定が行われるようにされればよいものであり、図11により示す処理の手順は、あくまでも一例となるものである。
ここでは、先ず、被写体検出処理部201が、ステップS201〜S203の処理を実行する。ステップS201では、画像データの取り込み(入力)を行う。
ステップS202では、入力した画像データを基に被写体検出処理を実行し、ステップS203によりその検出結果である検出被写体情報を出力する。
ステップS204、S205は、静止検出処理部202が実行する処理となる。
ステップS204では、上記ステップS203により被写体検出処理部201から出力される検出被写体情報を入力し、上記のようにして、検出被写体情報が示す検出個別被写体のうちから静止被写体を検出し、ステップS205により、この検出結果を示す検出静止被写体情報を出力する。
ステップS206、S207は、構図判定処理部203が実行する処理となる。
ステップS206では、ステップS203により被写体検出処理部201から出力された検出被写体情報と、ステップS205により静止検出処理部202から出力された検出静止被写体情報とを入力したうえで、これらの情報に基づいて、図5による説明のようにして検出被写体情報が示す検出個別被写体のうちから現実被写体を選別し、選別した現実被写体を、対象個別被写体として設定する。そして、ステップS207により、上記対象個別被写体の検出個別被写体情報に基づいて、構図判定の処理を実行する。
図6は、実施に形態における第3例としての構図判定ブロック200の構成例を示している。この図に示す構成は、図4に示した第1例の構成を基として、構図判定処理部203が行っていた現実被写体を選別する処理を、被写体選別処理部204として抜き出したものとしてみることができる。
つまり、この場合においては、先ず、図4と同様に、被写体検出処理部201が取り込んだ画像データに基づいて被写体検出処理を行って検出被写体情報を出力し、静止検出処理部202も、取り込んだ画像データに基づいて、画枠内における静止領域の検出を行って検出静止領域情報を出力する。
この場合においては、上記検出被写体情報と検出静止領域情報を、被写体選別処理部204が入力する。被写体検出処理部204は、検出被写体情報と検出静止領域情報を利用して、図4における構図判定処理部203が実行していたのと同様にして現実被写体を選別するための処理(選別処理)を実行する。そして、被写体選別処理部204は、この被写体選別処理によって現実被写体であるとして選別された個別被写体ごとについての検出個別被写体情報を、構図判定処理部203に出力する。
構図判定処理部203は、被写体選別処理部204から出力される現実被写体であるとして選別された個別被写体ごとについての検出個別被写体情報を、対象個別被写体の個別被写体情報であるとして扱って、構図判定処理を実行する。
図12のフローチャートは、上記図6に示した構成による第3例の構図判定ブロック200において実行される処理の手順例を示している。
ステップS301〜S305までの手順は、図10のステップS101〜S105と同様にして、画像データの取り込みを実行したうえで、この画像データに基づいて、被写体検出処理部201が被写体検出処理を行って検出被写体情報を出力し、また、静止検出処理部202静止領域の検出を行って検出静止領域情報を出力するものとなる。
この場合のステップS306は、被写体選別処理部204が実行するものとなる。
ステップS306においては、図10のステップS106として説明したのと同様の処理による選別処理を実行して、検出個別被写体のうちから現実被写体を選別する。
そのうえで、ステップS306においては、検出被写体情報を成す検出個別被写体情報のうちから、上記選別処理により現実被写体として選別された検出個別被写体の検出個別被写体情報を、構図判定処理部204に対して出力する。
ステップS307は、構図判定処理部203が、上記ステップS306により出力された検出個別被写体情報を対象個別被写体についてのものとして入力し、この検出個別被写体情報に基づいて構図判定処理を実行する。
図7は、実施の形態における第4例としての構図判定ブロック200の構成例を示している。この図に示す構成は、図5に示した第2例の構成を基として、構図判定処理部203が行っていた現実被写体を選別する処理を、被写体選別処理部204として抜き出したものとしてみることができる。
この場合には、先ず、被写体検出処理部201が画像データを取り込んで、図5と同様の被写体検出処理を実行する。そして、その検出結果である検出被写体情報を、この場合には、静止検出処理部202と、被写体検出処理部204に対して出力する。
静止検出処理部202は、図5と同様の静止被写体の検出処理を実行し、その検出結果である検出静止被写体情報を被写体選別処理部204に対して出力する。
被写体選別処理部204は、上記のようにして出力される検出被写体情報と検出静止被写体情報とを入力して、先に図5にて述べたようにして構図判定処理部203にて実行していたの同様の選別処理を実行して現実被写体を選別し、検出個別被写体情報から、選別した現実被写体に対応する検出個別被写体情報を抜き出して集め、これを構図判定処理部203に出力する。
構図判定処理部203は、上記被写体選別処理部204からの検出個別被写体情報を、対象個別被写体に対応する検出個別被写体情報として入力し、この検出個別被写体情報に基づいて構図判定を行う。
図13のフローチャートは、上記図7に示した構成による第4例の構図判定ブロック200において実行される処理の手順例を示している。
ステップS401〜S405までの手順は、図11のステップS201〜S205と同様にして、画像データの取り込みを実行したうえで、この画像データに基づいて、被写体検出処理部201が被写体検出処理を行って検出被写体情報を出力し、また、静止検出処理部202静止領域の検出を行って検出静止領域情報を出力するものとなる。
この場合のステップS406は、被写体選別処理部204が実行するものとなる。
ステップS406においては、図11のステップS206として説明したのと同様の処理による選別処理を実行して、検出個別被写体のうちから現実被写体を選別する。
そのうえで、ステップS406においては、検出被写体情報を成す検出個別被写体情報のうちから、上記選別処理により現実被写体として選別された検出個別被写体の検出個別被写体情報を、構図判定処理部204に対して出力する。
ステップS407は、構図判定処理部203が、上記ステップS406により出力された検出個別被写体情報を対象個別被写体についてのものとして入力し、この検出個別被写体情報に基づいて構図判定処理を実行する。
図8は、実施の形態の第5例としての構図判定ブロック200の構成例を示している。
この図に示す構図判定ブロック200は、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203に加え、マスキング処理部205が備えられて成る。
この場合、構図判定ブロック200が外部から取り込んだとされる画像データは、先ず、マスキング処理部205と静止検出処理部202とが入力する。
静止検出処理部202は、取り込んだ画像データの画像(画枠)における静止領域を検出し、その検出結果である検出静止領域情報を、マスキング処理部205に出力する。
マスキング処理部205は、静止検出処理部202からの検出静止領域情報に基づいて、入力した画像データの画像(画枠)において、被写体検出処理部201による被写体検出処理の対象から除外すべき無効領域(検出対象無効領域)を設定する。このためには、マスキング処理部205は、入力した画像データに対応する全画像領域のうちで、検出静止領域情報が示す静止領域と一致する領域を、検出対象無効領域として設定する。なお、画像データの全画像領域において、検出対象無効領域以外の領域については検出対象有効領域ということにする。
次にマスキング処理部205は、マスキング処理として、入力した画像データについて、上記のようにして設定した検出対象無効領域を反映させる処理を実行する。つまり、この場合の、被写体検出処理部201は、被写体検出処理を実行するのにあたり、検出対象無効領域を対象としては被写体検出処理を実行しないように構成するのであるが、被写体検出処理部201により、画像データにおける検出対象無効領域が認識できるようにするための処理を実行する。このような処理の具体例として、1つには、画像データのメタデータとして、検出対象無効領域となる画素範囲を示すデータ(あるいは逆に検出対象有効領域となる画素範囲を示すデータとされてもよい)を付加することが考えられる。あるいは、画像データについて、検出対象無効領域については例えば所定の固定色に書き換えるなど、被写体が現れないような内容に変更してしまう画像処理を実行することも考えられる。
そして、マスキング処理部205は、上記のマスキング処理が施された画像データ(マスキング画像データ)を被写体検出処理部201に対して出力する。
被写体検出処理部201では、入力したマスキング画像データを利用して被写体検出処理を実行する。
マスキング画像データについては、上記したようにマスキング処理によって、静止状態にある画像領域は、被写体検出処理の対象とならないようにされている。従って、被写体検出処理部201は、動きのあるとされる画像領域のみを対象として被写体検出処理を実行することになる。従って、この場合の被写体検出処理によっては、検出された個別被写体が、そのまま現実被写体であることになる。つまり、この図に示される構成では、静止検出の結果に基づいてマスキング処理部205がマスキング処理を実行することを以て、検出個別被写体から、非現実被写体を除外して現実被写体のみを選別する処理(即ち、検出個別被写体であるか非現実被写体であるのかの判定処理)を行っているものとみることができる。
そこで、この場合の被写体検出処理部201は、上記のようにして検出した個別被写体ごとの個別被写体情報から成る検出被写体情報を、構図判定処理部203に出力する。
構図判定処理部203は、上記のようにして出力される検出被写体情報を入力して構図判定処理を実行する。これにより得られる構図判定結果は、画像データの画像において存在するとされる被写体のうち、非現実被写体を除外し、現実被写体としての個別被写体のみを対象とした適正なものが得られることになる。
図14のフローチャートは、上記図8に示した構成による第5例の構図判定ブロック200において実行される処理の手順例を示している。
ステップS501においては、静止検出処理部202とマスキング処理部205とが画像データの取り込みを行う。
ステップS502〜S504は、マスキング処理部205が実行する。
ステップS502は、現在において静止検出処理部202から入力している検出静止領域情報に基づいて先の図8における説明のようにして検出無効領域を設定し、ステップS503により、同じく図8により説明したマスキング処理を実行する。そして、ステップS504によりマスキング処理を経た画像データであるマスキング画像データを出力する。
また、ステップS502〜504と併行して行われるものとされているステップS505、S506は、静止検出処理部202が実行する。
ステップS505は、ステップS501により取り込んで入力した画像データから静止領域を検出し、ステップS506は、その検出結果である検出静止領域情報を、マスキング処理部205に対して出力する。確認のために、ステップS502では、このようにして出力される検出静止領域情報を利用している。
ステップS507、S508は、被写体検出処理部201が実行する。
ステップS507は、ステップS504により出力されたマスキング画像データを対象にして、先の図8による説明のようにして被写体検出処理を実行し、ステップS508により、その検出結果である検出被写体情報を構図判定処理部203に対して出力する。
ステップS509では、構図判定処理部203が、上記検出被写体情報を利用して構図判定を実行する。
図9は、実施の形態の第6例としての構図判定ブロック200の構成例を示している。
この図に示す構図判定ブロック200も、被写体検出処理部201、静止検出処理部202、及び構図判定処理部203、及びマスキング処理部205を有して形成されている点では、図8の第5例と同様であるが、そのうえで、第6例にあっては、次のような構成を有する。
この場合、構図判定ブロック200が取り込んだとされる画像データは、マスキング処理部205が入力する。マスキング処理部205は、図8の場合と同様の処理により、静止検出処理部202から入力する検出静止被写体情報を利用して入力した画像データに対するマスキング処理を実行して、マスキング画像データを被写体検出処理部201に対して出力する。
被写体検出処理部201では、入力したマスキング画像データを利用して被写体検出処理を実行し、検出した個別被写体についての検出個別被写体情報から成る検出被写体情報を構図判定処理部203に対して出力する。
構図判定処理部203は、入力した検出被写体情報に基づいて構図判定処理を実行する。
この場合の静止検出処理部202は、被写体検出処理部201から出力される検出被写体情報を入力して、例えば図5、図7の静止検出処理部202と同様の処理によって、検出被写体情報が示す検出個別被写体のうちで、静止状態にあるとされる静止被写体を検出する。そしてこの場合には、検出結果として、検出した静止被写体ごとについての位置情報、即ち、画像データの画像において静止被写体がどこに在るのかを示すことのできる情報を、検出静止被写体情報として出力するようにする。
マスキング処理部205は、入力した画像データについて、その画像領域内において、入力した検出静止被写体情報が示す静止被写体ごとの位置情報が対応する領域を検出対象無効領域として設定してマスキング処理を実行し、マスキング画像データを生成して出力する。
このようにして生成されるマスキング画像データは、上記もしているように静止被写体として検出された検出個別被写体が位置しているとされる領域について検出対象無効領域として設定されているものであり、逆に言えば、現実被写体としての検出個別被写体が位置している領域については検出対象有効領域とされている。従って、このマスキング画像データを入力する被写体検出処理部201によっては、画像内に存在している被写体のうちから、非現実被写体(静止被写体)を除外した現実被写体のみが個別被写体として検出することができる。
そして、構図判定処理部203は、このようにして検出された個別被写体の検出個別被写体情報に基づいて構図判定を実行することになる。つまり、現実被写体のみを対象とした構図判定が適正に行われることになる。
なお、このような構成では、適切な所定のトリガ、タイミングでもって、マスキング処理部205での検出対象無効領域の設定をクリアする。
図15のフローチャートは、上記図9に示した構成による第6例の構図判定ブロック200において実行される処理を手順として示している。
この場合のステップS601は、マスキング処理部205が画像データを取り込んで入力する手順となる。
次に、マスキング処理部205は、ステップS602〜S604の手順を実行する。
ステップS602では、現在において静止検出処理部202から出力されている検出静止被写体情報を入力して、入力した画像データの画像におけるマスキング領域(検出対象無効領域)を設定し、ステップ603により、設定したマスキング領域を反映させるためのマスキング処理を画像データに施してマスキング画像データを得て、ステップS603にてマスキング画像データを出力する。
ステップS605、S606は被写体検出処理部201が実行する。
ステップS605では、上記ステップS604により出力されたマスキング画像データを入力して被写体検出処理605を実行し、ステップS606により、検出された個別被写体ごとの検出個別被写体情報から成る検出被写体情報を出力する。このようにして出力される検出個別被写体情報を、構図判定処理部203が実行するステップS609と、静止検出処理部202が実行するステップS607にて利用することになる。
先ず、静止検出処理部202は、ステップS607により、入力した検出個別被写体情報に基づいて静止被写体を検出し、その検出結果として、先にも述べたように、例えば検出した静止被写体ごとの位置情報(検出個別被写体情報)から成る検出静止被写体情報をマスキング処理部205に対して出力する。
また、構図判定処理部203は、入力した検出被写体情報に基づいて構図判定処理を実行する。
これまでに説明した第1例〜第6例による構図判定ブロック200の構成、つまり、実施の形態としての基本的な構図判定の構成によっては、画像データの画像において存在する被写体として、現実被写体と非現実被写体とが混在しているとしても、構図判定の対象として除外すべき非現実被写体については的確に除外して、現実被写体のみを対象とする適切な構図判定を行うことが可能になる。
そのうえで、現実被写体と非現実被写体とを選別するのにあたっては、画像データの画像、若しくは検出被写体についての静止検出の結果、即ち、画像の動きに関する検出を利用することとしている。従って、画像データの画内容が時間進行に応じて変化したとしても、そのときの画内容に応じて静止している領域又は被写体をダイナミックに特定していくことが可能であり、常に、現実被写体と非現実被写体とを的確に選別することが可能となる。
例えば、特許文献3においては、顔画像検出に際して、ポスターの顔などの顔画像(本実施の形態の非現実被写体に相当)が検出されないようにマスキングパターンを発生させる構成が記載されている。しかし、この構成では、段落0060にも記載されているように、適切なマスキングパターンの発生は、本実施の形態での現実被写体に相当する遊技者や従業員などの現実の人の顔が検出対象の画像内に存在していない条件で、キャリブレーション(初期設定)として行われるべきものであり、換言すれば、非現実被写体と現実被写体が混在する画像内容に対応しては、適切なマスキングパターンを発生させることは難しい。
これに対して、本実施の形態では、上記もしたように、画像(画枠)内に現実被写体と非現実被写体とが混在し、なおかつ、時間経過に応じて画内容が変化する状況にも対応して、適切にマスキング処理が行われ、結果として、現実被写体のみを対象とした構図判定を実行させることができる。これにより、本実施の形態としては、例えば、特許文献1などにおける定点監視システムなどに適用した場合にも、上記のようなキャリブレーション的な動作を予め実行させる必要が無く、また、何らかの事情で、営業時間中にポスターが貼られたような状況にも対応して、ポスターの顔などは除外できることになる。このようにして、本実施の形態の構成は、これまでよりも使い易く、性能的にも優れたものを提供できる。
そしてまた、本実施の形態の構成を採ることで、例えば特許文献3におけるような定点監視システム程度の用途に限定されることなく、多様な用途に使用できる柔軟性が与えられることにもなる。
そこで、続いては、本実施の形態の構図判定の構成を適用した装置例、システム構成例をいくつか挙げていくこととする。
先ずは、本実施の形態の構図判定を、デジタルスチルカメラと、このデジタルスチルカメラが取り付けられる雲台とからなる撮像システムに適用したものについて説明する。この本実施の形態に対応する撮像システムによっては、構図判定により判定した構図に合わせて静止画の撮像記録が可能とされる。
図16は、本実施の形態に対応する撮像システムの外観構成例を、正面図により示している。
この図に示されるように、本実施の形態の撮像システムは、デジタルスチルカメラ1と雲台10とから成る。
デジタルスチルカメラ1は、本体正面側のパネルに設けられているレンズ部3によって撮像して得られる撮像光に基づいて静止画像データを生成し、これを内部に装填されている記憶媒体に記憶させることが可能とされている。つまり、写真として撮影した画像を、静止画像データとして記憶媒体に記憶保存させる機能を有する。このような写真撮影を手動で行うときには、ユーザは、本体上面部に設けられているシャッター(レリーズ)ボタンを押し操作する。
雲台10には、上記デジタルスチルカメラ1を固定するようにして取り付けることができる。つまり、雲台10とデジタルスチルカメラ1は、相互の取り付けを可能とするための機構部位を備えている。
そして、雲台10においては、取り付けられたデジタルスチルカメラ1を、パン方向(水平方向)とチルト方向との両方向により動かすためのパン・チルト機構を備える。
雲台10のパン・チルト機構により与えられるデジタルスチルカメラ1のパン方向、チルト方向それぞれの動き方は例えば図17(a)(b)に示されるものとなる。図17(a)(b)は、雲台10に取り付けられているとされるデジタルスチルカメラ1を抜き出して、それぞれ、平面方向、側面方向より見たものである。
先ずパン方向については、デジタルスチルカメラ1の本体横方向と図17(a)に示される直線X1とが同じ向きとなる位置状態を基準にして、例えば回転軸Ct1を回転中心として回転方向+αに沿った回転が行われることで、右方向へのパンニングの動きが与えられる。また、回転方向−αに沿った回転が行われることで、左方向へのパンニングの動きが与えられる。
また、チルト方向については、デジタルスチルカメラ1の本体縦方向が垂直方向の直線Y1と一致する位置状態を基準にして、例えば回転軸Ct2を回転中心として回転方向+βへの回転が行われることで、下方向へのパンニングの動きが与えられる。また、回転方向−βへの回転が行われることで、上方向へのパンニングの動きが与えられる。
なお、図17(a)(b)に示される、±α方向、及び±β方向のそれぞれにおける最大可動回転角度については言及していないが、被写体の捕捉の機会をできるだけ多くするべきことを考慮するのであれば、できるだけ最大可動回転角度を大きく取ることが好ましいことになる。
図18は、本実施の形態に対応する撮像システムの内部を、機能動作ごとに対応したブロック構成により示している。
この図において、デジタルスチルカメラ1は、撮像ブロック61、構図判定ブロック62、パン・チルト・ズーム制御ブロック63、及び通信制御処理ブロック64を備えて成るものとされている。
撮像ブロック61は、撮像により得られた画像を画像信号のデータ(撮像画像データ)として出力する部位であり、撮像のための光学系、撮像素子(イメージセンサ)、及び撮像素子から出力される信号から撮像画像データを生成する信号処理回路などを有して成る部位である。
構図判定ブロック62は、撮像ブロック61から出力される撮像画像データを取り込んで入力し、この撮像画像データを基にして構図判定のための処理を実行する。この構図判定ブロック62としては、先に図4〜図9により示した構図判定ブロック200のいずれかを適用することができる。即ち、この構図判定ブロック62は、撮像画像データの画像内に非現実被写体が存在している状況にあっても、これを除外して、現実被写体のみを対象とした構図判定を実行する。
パン・チルト・ズーム制御ブロック63は、構図判定ブロック62から入力した構図判定結果の情報が示す撮像画像の構図となる撮像視野角を得るためのパン・チルト・ズーム制御(構図制御)を実行する。
つまり、判定結果が示す構図となる撮像方向をデジタルスチルカメラ1が向くための、雲台10のパン・チルト機構についての移動量を求め、この求めた移動量に応じた移動を指示するパン・チルト制御信号を生成する。
また、判定結果が示す構図となる画角を得るためのズーム位置を求め、このズーム位置となるようにして、撮像ブロック61が備えるとされるズーム機構を制御する。
通信制御ブロック64は、雲台10側に備えられる通信制御ブロック71との間で所定の通信プロトコルに従って通信を実行するための部位となる。上記パン・チルト・ズーム制御ブロック63が生成したパン・チルト制御信号は、通信制御ブロック64の通信により、雲台10の通信制御ブロック71に対して送信される。
雲台10は、例えば図示するようにして、通信制御ブロック71、及びパン・チルト制御処理ブロック72を有している。
通信制御ブロック71は、デジタルスチルカメラ1側の通信制御ブロック64との間での通信を実行するための部位であり、上記のパン・チルト制御信号を受信した場合には、このパン・チルト制御信号をパン・チルト制御処理ブロック72に対して出力する。
パン・チルト制御処理ブロック72は、ここでは図示していない雲台10側のマイクロコンピュータなどが実行する制御処理のうちで、パン・チルト制御に関する処理の実行機能に対応するものとなる。
このパン・チルト制御処理ブロック72は、入力したパン・チルト制御信号に応じて、ここでは図示していないパン駆動機構部、チルト駆動機構部を制御する。これにより、判定された構図に応じた水平視野角と垂直視野角を得るためのパンニング、チルティングが行われる。
また、構図判定ブロック62により被写体が検出されないときには、パン・チルト・ズーム制御ブロック63は、例えば指令に応じて被写体探索のためのパン・チルト・ズーム制御を行うことができるようになっている。
上記図18に示した構成のデジタルスチルカメラ1と雲台10から成る撮像システムでは、例えば、人を主体的な被写体(以降は単に被写体という)として扱うこととしたうえで、この被写体を探索するとともに、被写体の存在が検出されたのであれば、この被写体が写っている画像として最適とされる構図(最適構図)が得られるように(フレーミングが行われるように)して雲台10のパン・チルト機構を駆動する。そして、最適構図が得られたタイミングで、そのときの撮像画像データを記憶媒体に記録(撮像記録)させることが可能になる。なお、撮像記録の指示(レリーズ動作の指示)は、例えば図18の構成の下では、パン・チルト・ズーム制御ブロック63が、構図合わせのためのパン・チルト・ズーム制御が完了したタイミングでもって、例えば撮像ブロック61などのしかるべき部位に対して行うようにされればよい。あるいは、構図判定ブロック62において、撮像画像データの画像において得られている実際の構図と、判定した最適構図との近似度が一定以上になったと判断したタイミングで、レリーズの指示が行われるようにしてもよい。
このように、図18の撮像システムでは、デジタルスチルカメラによる写真撮影を行うのにあたり、先ず、探索された被写体について最適構図を決定(判定)して撮影記録を行うという動作が自動的に実行される。これにより、ユーザ自身が構図を判断して撮影を行わなくとも、相応に良質な写真の画像を得ることが可能になる。また、このようなシステムでは、誰かがカメラを持って撮影する必要が無くなるので、その撮影が行われる場所に居る全員が被写体となることができる。また、被写体となるユーザが、カメラの視野角範囲に入ろうと特に意識しなくとも、被写体が収まった写真が得られることになる。つまり、その撮影場所に居る人の自然な様子を撮影する機会が増えるものであり、これまでにはあまりなかった雰囲気の写真を多く得ることができる。
また、被写体が向いているとされる方向により、最適とされる構図は異なってくるとの考え方をとることができるが、本実施の形態によれば、複数の被写体が存在する場合の、これら被写体の向いている方向の関係性に応じて、異なる最適構図が決定されるようにして構成される。これにより、本実施の形態に対応する構成の装置を利用するユーザは、面倒な手間を掛けることなく、最適構図の画像を得ることが可能になる。
そのうえで、上記の撮像システムは、本実施の形態としての構図判定を行うようにされていることで、例えばポスターの人物など(非現実被写体)に誤って反応することなく、現実の人(現実被写体)のみを対象とする適切な構図を持つ画像の撮像記録が可能となっているものである。
図19は、上記図18に示した本実施の形態対応の撮像システムについての変形例を示している。
この図では、先ず、デジタルスチルカメラ1において、撮像ブロック61により得られる撮像画像データを、通信制御処理ブロック64から雲台10側の通信制御ブロック71に対して送信するようにされている。
この図においては、雲台10の構成として通信制御処理ブロック71、パン・チルト制御処理ブロック72、及び構図判定ブロック73が示されている。
通信制御処理ブロック71により受信された撮像画像データは、構図判定ブロック73に対して出力される。この構図判定ブロック73も、先に図4〜図9により示した構図判定ブロック200のいずれかの構成が適用されるもので、入力した撮像画像データを基として現実被写体のみを対象とする構図判定処理を実行する。そして、この場合には、構図判定結果に基づいて、例えば、図18のパン・チルト・ズーム制御ブロック63のようにして、判定された構図が得られる撮像方向とするためのパン機構部とチルト機構部の移動量を求め、この移動量を指示するパン・チルト制御信号をパン・チルト制御処理ブロック72に対して出力する。これにより、構図制御処理ブロック73にて判定した構図が得られるようにしてパンニング、チルティングが行われる。
このようにして、図19に示す撮像システムは、デジタルスチルカメラ1から雲台10に撮像画像データを送信させることとして、雲台10側により、取り込んだ撮像画像データに基づく構図判定とこれに応じたパン・チルト制御(構図制御)とを実行するようにして構成しているものである。また、この図19に示す構成においては、撮像視野角の制御(構図制御)として、ズーム(画角)制御を行っていないが、これは、実施の形態のもとでは、構図制御として、パン・チルト・ズームの各制御が必須ではないことを示している。例えば、条件・状況に応じては、パン制御のみ、チルト制御のみ、あるいはズーム制御のみによっても、判定された構図に応じた構図制御を実現できるものである。
図20は、本実施の形態に対応する撮像システムについての他の変形例としての構成例を示している。なお、この図において、図19と同一部分には同一符号を付して説明を省略する。
このシステムにおいては、雲台10側において撮像ブロック75が備えられる。この撮像ブロック75は、例えば図18、図19の撮像ブロックと同様に、撮像のための光学系と撮像素子(イメージセンサ)を備えて、撮像光に基づいた信号(撮像信号)を得るようにされているとともに、この撮像信号から撮像画像データを生成するための信号処理部から成る。
撮像ブロック75により生成される撮像画像データは、構図判定ブロック73に出力される。
なお、撮像ブロック75が撮像光を取り込む方向(撮像方向)は、例えば雲台10に載置されるデジタルスチルカメラの撮像方向とできるだけ一致するようにして設定することが好ましい。
この場合の構図判定ブロック73、及びパン・チルト制御処理ブロック72は、上記図19と同様にして構図判定と、この構図判定結果に応じたパン・チルト機構の駆動制御を実行する。
但し、この場合の構図判定ブロック73は、デジタルスチルカメラ1にレリーズ動作を実行させるタイミング(撮像ブロック75からの撮像画像データの画像について、判定構図が得られたとするタイミング)に対応しては、通信制御処理ブロック71経由でデジタルスチルカメラ1に対して、レリーズ指示信号を送信させる。デジタルスチルカメラ1では、レリーズ指示信号が受信されることに応じてレリーズ動作を実行し、そのときに撮像ブロック75により得られているとされる撮像画像データを基とした画像データの撮像記録を実行する。
このようにして他の変形例では、構図判定及び構図制御に関して、レリーズ動作自体に関する以外の全ての制御・処理を雲台10側で完結して行うことができる。
なお、上記の説明では、パン制御、チルト制御に関しては、雲台10のパン・チルト機構の動きを制御することにより行うこととしているが、雲台10に代えて、例えば、デジタルスチルカメラ1の光学系部(21)に対しては、反射鏡により反射された撮像光が入射されるようにしたうえで、撮像光に基づいて得られる画像についてパンニング・チルティングされた結果が得られるようにして上記反射光を動かす構成を採用することも考えられる。
また、デジタルスチルカメラ1の撮像素子(イメージセンサ22)から画像として有効な撮像信号を取り込むための画素領域を水平方向と垂直方向にシフトさせるという制御を行うことによっても、パンニング・チルティングが行われるのと同等の結果を得ることができる。この場合には、雲台10若しくはこれに準ずる、デジタルスチルカメラ1以外のパン・チルトのための装置部を用意する必要が無く、デジタルスチルカメラ1単体により本実施の形態としての構図制御を完結させることが可能となる。
また、画角制御(ズーム制御)についても、ズームレンズの駆動に代えて、撮像画像データから一部画像領域を切り出すという画像処理を実行することによって実現可能である。
また、デジタルスチルカメラ1の光学系部におけるレンズの光軸を水平・垂直方向に変更することのできる機構を備えて、この機構の動きを制御するように構成しても、パンニング・チルティングを行うことが可能である。
続いては、本実施の形態の構図判定の構成を、上記撮像システム以外に適用した例について挙げていく。
先ず、図21は、実施の形態としての構図判定を、デジタルスチルカメラなどの撮像装置単体に対して適用したもので、例えば撮像モード時において撮像装置により撮像している画像が、判定結果に応じた適正な構図になったときに、このことを表示によってユーザに通知しようとするものである。
このために撮像装置が備えるべき構成として、ここでは構図判定ブロック81、通知制御処理ブロック82、表示部83を示している。ここでの構図判定ブロック81が、図4〜図9に示した構図判定ブロック200としてのいずれかの構成を採るものとされる。
例えばユーザは、撮像装置を撮像モードに設定したうえで、撮像装置を手に持っており、いつでもレリーズ操作(シャッターボタン操作)を行えば撮像画像の記録が行える状況にあるものとする。
このような状態の下、構図判定ブロック81では、先ず、そのときに撮像して得られる撮像画像データを取り込んで、先に述べた一連の構図判定の処理を実行して、最適構図を判定する。
そのうえで、さらに、この場合の構図判定ブロック81としては、そのときに実際に得られている撮像画像データの画内容の構図と、判定された最適構図との一致性、類似度を求めるようにされる。そして、例えば類似度が一定以上になったときに、実際に撮影して得られている撮像画像データの画内容が最適構図になったと判定する。なお、例えば実際においては、撮像画像データの画内容の構図と最適構図とが一致したとみなされる程度の、所定以上の類似度が得られたら、最適構図と判断するようにしてアルゴリズムを構成することが考えられる。また、ここでの一致性、類似度をどのようにして求めるのかについては多様なアルゴリズムを考えることができるので、ここでは、その具体例については特に言及しない。
このようにして撮像画像データの画面内容が最適構図になったことの判定結果の情報は通知制御処理ブロック82に対して出力される。通知制御処理ブロック82は、上記の情報の入力に応じて、現在において撮像されている画像が最適構図であることをユーザに通知するための所定態様による表示が表示部83にて行われるように表示制御を実行する。なお、通知制御処理ブロック82は、撮像装置が備えるマイクロコンピュータ(CPU)などによる表示制御機能と、表示部83に対する画像表示を実現するための表示用画像処理機能などにより実現される。なお、ここでの最適構図であることのユーザへの通知は、電子音、若しくは合成音声などをはじめとした音により行われるように構成してもよい。
また、表示部83は、例えば本実施の形態のデジタルスチルカメラ1の表示部33に対応するもので、例えば撮像装置における所定位置に対してそのディスプレイパネルが表出するようにして設けられ、撮影モード時にはいわゆるスルー画といわれる、そのときに撮像されている画像が表示されることが一般的である。従って、この撮像装置の実際にあっては、表示部83において、スルー画に対して重畳される態様で最適構図であることを通知する内容の画像が表示されることになる。ユーザは、この最適構図であることを通知する表示が現れたときにレリーズ操作を行うようにされる。これにより、写真撮影の知識や技術に長けていないようなユーザであっても、良好な構図の写真撮影を簡単に行うことが可能になる。
また、図22も、上記図21と同様にデジタルスチルカメラなどの撮像装置単体に対して実施の形態の構図判定の構成を適用したものとなる。
先ず、この図に示す構成においては、図21と同様に、構図判定ブロック81により、入力される撮像画像データを基にして最適構図を判定する処理を実行するとともに、その後のタイミングにおいて得られる撮像画像データの画内容が上記の最適構図であるか否かを判定するようにされる。そして、最適構図になったことを判定すると、このことをレリーズ制御処理ブロック84に対して通知する。
レリーズ制御処理ブロック84は、撮像画像データを記録するための制御を実行する部位とされ、例えば撮像装置が備えるマイクロコンピュータが実行する制御などにより実現される。上記の通知を受けたレリーズ制御処理ブロック84は、そのときに得られている撮像画像データが、例えば記憶媒体に記憶されるようにして画像信号処理、記録制御処理を実行する。
このような構成であれば、例えば最適な構図の画像が撮像されたときには、自動的にその撮像画像の記録が行われるようにした撮像装置を得ることができる。
なお、上記図21及び図22の構成は、例えばスチルカメラの範疇であれば、例えば図1により示されるような構成のデジタルスチルカメラに適用できるほか、銀塩フィルムなどに撮像画像を記録するいわゆる銀塩カメラといわれるものにも、例えば光学系により得られた撮像光を分光して取り入れるイメージセンサと、このイメージセンサからの信号を入力して処理するデジタル画像信号処理部などを設けることで適用が可能である。
図23は、実施の形態の構図判定の構成をデジタルスチルカメラなどの撮像装置に適用した構成の一例である。この図に示す撮像装置100は、図示するようにして、構図判定ブロック101、メタデータ作成処理ブロック102、ファイル作成処理ブロック103を備える。ここでは、構図判定ブロック101が、先の図4〜図9のいずれかに示した構成を有するものとなる。
ここでは図示していない撮像ブロックにより撮像して得られる撮像画像データは、撮像装置100内の構図判定ブロック101、ファイル作成処理ブロック103とに対して入力することとしている。なお、この場合において、撮像装置100内に入力された撮像画像データは、例えばレリーズ操作などに応じて記憶媒体に記憶されるべきこととなった撮像画像データであり、ここでは図示していない、撮像ブロックでの撮像により得られた撮像信号を基に生成されたものである。
先ず構図判定ブロック101では、非現実被写体(静止被写体)を除外した現実被写体を対象とする構図判定を行う。そのうえで、この場合の構図判定処理としては、さらに、この構図判定結果に基づき、入力された撮像画像データの全画像領域において、判定された最適構図が得られるとされる所定の縦横比による画像部分(最適構図の画像部分)がどこであるのかを特定する処理を実行する。そして、特定した最適構図の画像部分を示す情報を、メタデータ作成処理ブロック102に対して出力する。
メタデータ作成処理ブロック102では、入力された情報に基づいて、対応する撮像画像データから最適構図を得るために必要な情報から成るメタデータ(構図編集メタデータ)を作成し、ファイル作成処理ブロック103に対して出力する。この構図編集メタデータの内容としては、例えば、対応する撮像画像データとしての画面においてトリミングする画像領域部分がどこであるのかを示し得る位置情報などとなる。
この図に示す撮像装置100では、撮像画像データについて、所定形式による静止画像ファイルとして管理されるようにして記憶媒体に記録するものとされる。これに対応して、ファイル作成処理ブロック103は、撮像画像データを、静止画像ファイル形式に変換(作成)する。
ファイル作成処理ブロック103は、先ず、入力される撮像画像データについて、画像ファイル形式に対応した画像圧縮符号化を行い、撮像画像データから成るファイル本体部分を作成する。これとともに、メタデータ作成処理ブロック102から入力された構図編集メタデータを、所定の格納位置に対して格納するようにしてヘッダ及び付加情報ブロックなどのデータ部分を作成する。そして、これらファイル本体部分、ヘッダ、付加情報ブロックなどから静止画像ファイルを作成し、これを出力する。これにより、図示するようにして、記憶媒体に記録すべき静止画像ファイルとしては、撮像画像データとともにメタデータ(構図編集メタデータ)が含まれる構造を有したものが得られることになる。
図24は、上記図23の装置により作成された静止画像ファイルについて編集を行う編集装置の構成例を示している。
図に示す編集装置110は、静止画像ファイルのデータを取り込んで、先ずメタデータ分離処理ブロック111に入力する。メタデータ分離処理ブロック111は、静止画像ファイルのデータから、ファイル本体部分に相当する撮像画像データとメタデータとを分離する。分離して得られたメタデータについてはメタデータ解析処理ブロック112に対して出力し、撮像画像データについてはトリミング処理ブロック113に対して出力する。
メタデータ解析処理ブロック112は、取り込んだメタデータを解析する処理を実行する部位とされる。そして、解析処理として、構図編集メタデータについては、その内容である最適構図を得るための情報から、すくなくとも、対応の撮像画像データを対象としてトリミングを行う画像領域を特定する。そして、この特定された画像領域のトリミングを指示するトリミング指示情報をトリミング処理ブロック113に対して出力する。
トリミング処理ブロック113は、先の図23のトリミング処理ブロック91と同様に、メタデータ分離処理ブロック111側から入力した撮像画像データから、上記メタデータ分離処理ブロック112から入力されるトリミング指示情報が示す画像部分を抜き出すための画像処理を実行し、抜き出した画像部分を1つの独立した画像データである、編集撮像画像データとして出力する。
上記図23、図24に示される撮像装置と編集装置から成るシステムによれば、例えば撮影などにより得たオリジナルの静止画像データ(撮像画像データ)はそのまま無加工で保存しておけるようにしたうえで、このオリジナル静止画像データからメタデータを利用して、最適構図となる画像を抜き出す編集が行えることになる。また、このような最適構図に対応した抜き出し画像部分の決定は、自動的に行われるものであり、ユーザにとっては、非常に編集が簡単になる。
なお、図24に示す編集装置としての機能は、例えばパーソナルコンピュータなどにインストールされる画像データ編集のためのアプリケーションであるとか、画像データを管理するアプリケーションにおける画像編集機能などで採用することが考えられる。
図25は、ビデオカメラなどとしての動画像の撮影記録が可能な撮像装置に、実施の形態の構図判定の構成を適用した例である。
この図に示す撮像装置120には、動画像データが入力される。この動画像データは、例えば同じ撮像装置120が有するとされる撮像部により撮像を行って得られる撮像信号に基づいて生成されるものである。この動画像データは、撮像装置120における構図判定ブロック122、及びファイル作成・記録処理ブロック124に対して入力される。
この場合の構図判定ブロック122は、先に図4〜図9のいずれかに示した構成により、入力されてくる動画像データの画像について、現実被写体のみを対象とする構図判定を行って最適構図を求める。そのうえで、さらに、上記動画像データの画像の実際に構図について、判定した最適構図との差違を比較することにより、良否判定を行う。例えば後述する構図判定の具体例との対応では、構図判定により、最適構図に対応した、画像内の対象個別被写体の占有率(サイズ)、被写体間距離などのパラメータが求められる。そこで、上記の比較の際には、これらの最適構図に対応するパラメータと、動画像データの画像において現に得られているパラメータとを比較すればよい。
そして、この比較結果として双方のパラメータが一定以上の類似度を有していれば良好な構図であると判定され、上記類似度が一定以下であれば、良好な構図ではないと判定される。
構図判定ブロック122は、上記のようにして動画像データについて良好な構図が得られていると判定したときには、メタデータ作成処理ブロック123に対して、動画像データにおいて、今回、上記の良好な構図が得られていると判定した画像区間(良好構図画像区間)がどこであるのかを示す情報(良好構図画像区間指示情報)を出力する。良好構図画像区間指示情報)は、例えば動画像データにおける良好構図画像区間としての開始位置と終了位置を示す情報などとされる。
この場合のメタデータ作成処理ブロック123は、次に説明する動画像記録処理ブロック124により記憶媒体にファイルとして記録される動画像データについての、各種所要のメタデータを生成するものとされる。そのうえで、上記のようにして構図判定ブロック122から良好構図画像区間指示情報を入力した場合には、入力された良好構図画像区間指示情報が示す画像区間が良好な構図であることを示すメタデータを生成し、動画像記録処理ブロック124に対して出力する。
動画像記録処理ブロック124は、入力された動画像データについて、所定形式による動画像ファイルとして管理されるようにして記憶媒体に記録するための制御を実行する。そして、メタデータ作成処理ブロック123からメタデータが出力されてきた場合には、このメタデータが、動画像ファイルに付随するメタデータに含められるようにして記録されるようにするための制御を実行する。
これにより、図示するようにして、記憶媒体に記録される動画像ファイルは、撮像により得られたとする動画像データに、良好な構図が得られている画像区間を示すメタデータが付随された内容を有することになる。
なお、上記のようにしてメタデータにより示される、良好な構図が得られている画像区間は、或る程度の時間幅を有する動画像による画像区間とされてもよいし、動画像データから抜き出した静止画像によるものとされてもよい。また、上記のメタデータに代えて、良好な構図が得られている画像区間の動画像データ若しくは静止画像データを生成して、これを動画像ファイルに付随する副次的な画像データ(或いは動画像ファイルと独立したファイル)として記録する構成も考えられる。
また、図25に示されるようにして、撮像装置120に対して構図判定ブロック122を備える構成では、構図判定ブロック122により良好構図画像区間であると判定された動画像の区間のみを動画像ファイルとして記録するように構成することも考えられる。さらには、構図判定ブロック122により良好構図であると判定された画像区間に対応する画像データを、データインターフェースなどを経由して外部機器に出力するような構成も考えることができる。
また、図23の撮像装置100に対応する装置としては、図24に示した編集装置以外に、図26に示す印刷装置130を考えることができる。
この場合には、印刷装置130が、印刷すべき画像として、静止画像ファイルを取り込むこととされている。この静止画像ファイルは、例えば撮像装置100により生成して記録されたものを含み、図示するようにして、静止画としての画像データの実体と、メタデータとを有する構造を持っている。従って、このメタデータは、図23、図24に示した静止画像ファイルにおけるものと同意義の内容の構図編集メタデータを含んでいるものである。
このようにして取り込んだファイルは、メタデータ分離処理ブロック131が入力する。メタデータ分離処理ブロック131は、図24のメタデータ分離処理ブロック111と同様にして、静止画像ファイルのデータから、ファイル本体部分に相当する画像データと、これに付随するメタデータとを分離する。分離して得られたメタデータについてはメタデータ解析処理ブロック132に対して出力し、画像データについてはトリミング処理ブロック133に対して出力する。
メタデータ解析処理ブロック132は、取り込んだメタデータについて、図24のメタデータ分離処理ブロック111と同様の解析処理を実行し、トリミング処理ブロック133に対してトリミング指示情報を出力する。
トリミング処理ブロック133は、図24におけるトリミング処理ブロック113と同様にして、メタデータ分離処理ブロック131より入力した画像データから、上記メタデータ分離処理ブロック132から入力されるトリミング指示情報が示す画像部分を抜き出すための画像処理を実行する。そして、この抜き出した画像部分から生成した印刷用の形式の画像データを、印刷用画像データとして、印刷制御処理ブロック134に出力する。
印刷制御処理ブロック134は、入力された印刷用画像データを利用して、ここでは図示していない印刷機構を動作させるための制御を実行する。
このような動作により、印刷装置130によっては、入力した画像データの画内容から、最適構図が得られているとされる画像部分が自動的に抜き出されて、1枚の画として印刷されることになる。
続いては、本実施の形態の構図判定を適用した装置、システムについてのより具体的な構成例について説明する。この説明にあたっては、先に図16、図17に示した及び図18により説明したシステム構成のデジタルスチルカメラ1と雲台10から成る撮像システムを例に挙げることとする。
先ず、図27により、デジタルスチルカメラ1についてのより実際的な内部構成例をブロックとして示す。
この図において、先ず、光学系部21は、例えばズームレンズ、フォーカスレンズなども含む所定枚数の撮像用のレンズ群、絞りなどを備えて成り、入射された光を撮像光としてイメージセンサ22の受光面に結像させる。
また、光学系部21においては、上記のズームレンズ、フォーカスレンズ、絞りなどを駆動させるための駆動機構部も備えられているものとされる。これらの駆動機構部は、例えば制御部27が実行するとされるズーム(画角)制御、自動焦点調整制御、自動露出制御などのいわゆるカメラ制御によりその動作が制御される。
イメージセンサ22は、上記光学系部21にて得られる撮像光を電気信号に変換する、いわゆる光電変換を行う。このために、イメージセンサ22は、光学系部21からの撮像光を光電変換素子の受光面にて受光し、受光された光の強さに応じて蓄積される信号電荷を、所定タイミングにより順次出力するようにされる。これにより、撮像光に対応した電気信号(撮像信号)が出力される。なお、イメージセンサ22として採用される光電変換素子(撮像素子)としては、特に限定されるものではないが、現状であれば、例えばCMOSセンサやCCD(Charge Coupled Device)などを挙げることができる。また、CMOSセンサを採用する場合には、イメージセンサ22に相当するデバイス(部品)として、次に述べるA/Dコンバータ23に相当するアナログ−デジタル変換器も含めた構造とすることができる。
上記イメージセンサ22から出力される撮像信号は、A/Dコンバータ23に入力されることで、デジタル信号に変換され、信号処理部24に入力される。
信号処理部24では、A/Dコンバータ23から出力されるデジタルの撮像信号について、例えば1つの静止画 (フレーム画像)に相当する単位で取り込みを行い、このようにして取り込んだ静止画単位の撮像信号について所要の信号処理を施すことで、1枚の静止画に相当する画像信号データである撮像画像データ(撮像静止画像データ)を生成することができる。
上記のようにして信号処理部24にて生成した撮像画像データを画像情報として記憶媒体(記憶媒体装置)であるメモリカード40に記録させる場合には、例えば1つの静止画に対応する撮像画像データを信号処理部24からエンコード/デコード部25に対して出力するようにされる。
エンコード/デコード部25は、信号処理部24から出力されてくる静止画単位の撮像画像データについて、所定の静止画像圧縮符号化方式により圧縮符号化を実行したうえで、例えば制御部27の制御に応じてヘッダなどを付加して、所定形式に圧縮された撮像画像データの形式に変換する。そして、このようにして生成した撮像画像データをメディアコントローラ26に転送する。メディアコントローラ26は、制御部27の制御に従って、メモリカード40に対して、転送されてくる撮像画像データを書き込んで記録させる。この場合のメモリカード40は、例えば所定規格に従ったカード形式の外形形状を有し、内部には、フラッシュメモリなどの不揮発性の半導体記憶素子を備えた構成を採る記憶媒体である。なお、画像データを記憶させる記憶媒体については、上記メモリカード以外の種別、形式などとされてもよい。
また、本実施の形態としての信号処理部24は、先の説明のようにして取得される撮像画像データを利用して、被写体検出としての画像処理を実行することも可能とされている。本実施の形態における被写体検出処理がどのようなものであるのかについては後述する。
また、デジタルスチルカメラ1は信号処理部24にて得られる撮像画像データを利用して表示部33により画像表示を実行させることで、現在撮像中の画像であるいわゆるスルー画を表示させることが可能とされる。例えば信号処理部24においては、先の説明のようにしてA/Dコンバータ23から出力される撮像信号を取り込んで1枚の静止画相当の撮像画像データを生成するのであるが、この動作を継続することで、動画におけるフレーム画像に相当する撮像画像データを順次生成していく。そして、このようにして順次生成される撮像画像データを、制御部27の制御に従って表示ドライバ32に対して転送する。これにより、スルー画の表示が行われる。
表示ドライバ32では、上記のようにして信号処理部24から入力されてくる撮像画像データに基づいて表示部33を駆動するための駆動信号を生成し、表示部33に対して出力していくようにされる。これにより、表示部33においては、静止画単位の撮像画像データに基づく画像が順次的に表示されていくことになる。これをユーザが見れば、そのときに撮像しているとされる画像が表示部33において動画的に表示されることになる。つまり、モニタ画像が表示される。
また、デジタルスチルカメラ1は、メモリカード40に記録されている撮像画像データを再生して、その画像を表示部33に対して表示させることも可能とされる。
このためには、制御部27が撮像画像データを指定して、メディアコントローラ26に対してメモリカード40からのデータ読み出しを命令する。この命令に応答して、メディアコントローラ26は、指定された撮像画像データが記録されているメモリカード40上のアドレスにアクセスしてデータ読み出しを実行し、読み出したデータを、エンコード/デコード部25に対して転送する。
エンコード/デコード部25は、例えば制御部27の制御に従って、メディアコントローラ26から転送されてきた撮像画像データから圧縮静止画データとしての実体データを取り出し、この圧縮静止画データについて、圧縮符号化に対する復号処理を実行して、1つの静止画に対応する撮像画像データを得る。そして、この撮像画像データを表示ドライバ32に対して転送する。これにより、表示部33においては、メモリカード40に記録されている撮像画像データの画像が再生表示されることになる。
また表示部33に対しては、上記のモニタ画像や撮像画像データの再生画像などとともに、ユーザインターフェイス画像も表示させることができる。この場合には、例えばそのときの動作状態などに応じて制御部27が必要なユーザインターフェイス画像としての表示用画像データを生成し、これを表示ドライバ32に対して出力するようにされる。これにより、表示部33においてユーザインターフェイス画像が表示されることになる。なお、このユーザインターフェイス画像は、例えば特定のメニュー画面などのようにモニタ画像や撮像画像データの再生画像とは個別に表示部33の表示画面に表示させることも可能であるし、モニタ画像や撮像画像データの再生画像上の一部において重畳・合成されるようにして表示させることも可能である。
制御部27は、例えば実際においてはCPU(Central Processing Unit)を備えて成るもので、ROM28、RAM29などとともにマイクロコンピュータを構成する。ROM28には、例えば制御部27としてのCPUが実行すべきプログラムの他、デジタルスチルカメラ1の動作に関連した各種の設定情報などが記憶される。RAM29は、CPUのための主記憶装置とされる。
また、この場合のフラッシュメモリ30は、例えばユーザ操作や動作履歴などに応じて変更(書き換え)の必要性のある各種の設定情報などを記憶させておくために使用する不揮発性の記憶領域として設けられるものである。なおROM28について、例えばフラッシュメモリなどをはじめとする不揮発性メモリを採用することとした場合には、フラッシュメモリ30に代えて、このROM28における一部記憶領域を使用することとしてもよい。
操作部31は、デジタルスチルカメラ1に備えられる各種操作子と、これらの操作子に対して行われた操作に応じた操作情報信号を生成してCPUに出力する操作情報信号出力部位とを一括して示している。制御部27は、操作部31から入力される操作情報信号に応じて所定の処理を実行する。これによりユーザ操作に応じたデジタルスチルカメラ1の動作が実行されることになる。
雲台対応通信部34は、雲台10側とデジタルスチルカメラ1側との間での所定の通信方式に従った通信を実行する部位であり、例えばデジタルスチルカメラ1が雲台10に対して取り付けられた状態において、雲台10側の通信部との間での有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。
図28は、雲台10の構成例をブロック図により示している。
先に述べたように、雲台10は、パン・チルト機構を備えるものであり、これに対応する部位として、パン機構部53、パン用モータ54、チルト機構部56、チルト用モータ57を備える。
パン機構部53は、雲台10に取り付けられたデジタルスチルカメラ1について、図17(a)に示したパン(横)方向の動きを与えるための機構を有して構成され、この機構の動きは、パン用モータ54が正逆方向に回転することによって得られる。同様にして、チルト機構部56は、雲台10に取り付けられたデジタルスチルカメラ1について、図17(b)に示したチルト(縦)方向の動きを与えるための機構を有して構成され、この機構の動きは、チルト用モータ57が正逆方向に回転することによって得られる。
制御部51は、例えばCPU、ROM、RAMなどが組み合わされて形成されるマイクロコンピュータを有して成り、上記パン機構部53、チルト機構部56の動きをコントロールする。例えば制御部51がパン機構部53の動きを制御するときには、パン機構部53に必要な移動量と移動方向に対応した制御信号をパン用駆動部55に対して出力する。パン用駆動部55は、入力される制御信号に対応したモータ駆動信号を生成してパン用モータ54に出力する。このモータ駆動信号によりパン用モータ54が、例えば所要の回転方向及び回転角度で回転し、この結果、パン機構部53も、これに対応した移動量と移動方向により動くようにして駆動される。
同様にして、チルト機構部56の動きを制御するときには、制御部51は、チルト機構部56に必要な移動量と移動方向に対応した制御信号をチルト用駆動部58に対して出力する。チルト用駆動部58は、入力される制御信号に対応したモータ駆動信号を生成してチルト用モータ57に出力する。このモータ駆動信号によりチルト用モータ57が、例えば所要の回転方向及び回転角度で回転し、この結果、チルト機構部56も、これに対応した移動量と移動方向により動くようにして駆動される。
通信部52は、雲台10に取り付けられたデジタルスチルカメラ1内の雲台対応通信部34との間で所定の通信方式に従った通信を実行する部位であり、雲台対応通信部34と同様にして、相手側通信部と有線若しくは無線による通信信号の送受信を可能とするための物理層構成と、これより上位となる所定層に対応する通信処理を実現するための構成とを有して成る。
ここで、図18に示した撮像システムの構成と、図27、図28に示したデジタルスチルカメラ1、雲台10の構成との対応は、例えば次のようになる。なお、ここで述べる対応は、あくまでも順当に考えられるものの1つとして捉えられるべきものであり、ここで述べる以外の対応の態様も採り得るものである。
図18のデジタルスチルカメラ1における撮像ブロック61は、例えば図27における光学系部21、イメージセンサ22、A/Dコンバータ23、及び信号処理部24において撮像画像データを得るまでの信号処理段から成る部位が対応する。
図18のデジタルスチルカメラ1における構図判定ブロック62は、例えば図27の信号処理部24における被写体検出、静止検出、被写体選別、マスキングなどを始めとする所要の処理に対応する画像信号処理機能と、制御部(CPU)27が実行するものとされる構図判定に関連する所要の処理機能が対応する。
図18のパン・チルト・ズーム制御処理ブロック63は、例えば図27における制御部27がパン・チルト・ズーム制御のために実行する処理機能が対応する。
図18のデジタルスチルカメラ1における通信制御処理ブロック64は、例えば図27における雲台対応通信部34と、この雲台対応通信部34を利用する通信のために制御部27が実行する処理機能が対応する。
図18の雲台10における通信制御ブロック71は、例えば図28における通信部52と、この通信部を利用した通信のために制御部51が実行する処理が対応する。
図18のパン・チルト制御処理ブロック72は、例えば図28における制御部51が実行する制御処理のうちで、パン・チルト制御に関する処理の実行機能に対応するもので、入力される制御信号に応じてパン機構部53、チルト機構部56の動きをコントロールするための信号をパン用駆動部55、チルト用駆動部58に対して出力する。
ところで、先に図14〜図15により述べてきた、本実施の形態の基本的な構図判定(構図判定ブロック200)の構成では、常に静止検出処理がはたらいている。実施の形態の構図判定の適用の仕方によっては、静止検出処理を定常的に実行させることについて特に問題がない、あるいは、積極的にその必要性を持つ可能性もある。
しかし、例えばここで挙げている撮像システムは、先にも述べたように、雲台10のパン・チルト機構を動かしながら被写体探索を行い、被写体が検出されたのであれば実施の形態の構図判定を実行し、その判定結果に応じたパン・チルト・ズーム制御により構図合わせを行って撮像記録をするというものである。
しかし、この撮像システムの場合、デジタルスチルカメラ1は、定点に置かれた雲台10の上でパンニング、チルティング、さらにはズーム可変が行われることで、撮像方向、撮像視野角が変更されることになる。従って、被写体探索が可能な範囲は、そのときの撮像システムの配置に応じて決まってくることになる。そして、この被写体探索可能範囲においてポスターの顔などの非現実被写体が存在しているとすると、例えば被写体探索において、この非現実被写体が個別被写体として検出される都度、静止検出処理により非現実被写体であるとして除外する処理を実行することになる。
この場合において、非現実被写体は、撮像システムの周囲において固定した位置において存在するものであり、この点で、その位置が不定の存在ではない。このように位置が固定であるのにもかかわらず、その非現実被写体が検出個別被写体として検出される都度、静止検出処理を伴って、これを非現実被写体として除外する処理を実行しなければならないのは、効率的ではない。そこで、本実施の形態としては、これまでの構図判定に加えて、一度、非現実被写体であるとして選別したものについては、以降において、再度、静止検出処理を用いての非現実被写体であるか否かの判定に相当する処理を実行することなく、対象個別被写体から除外できる機能(重複検出回避機能)が与えられるように構成する。以下、この点について説明する。
図29は、上記した重複検出回避機能が与えられた構図判定ブロック62の構成例を示している。なお、この図に示す構図判定ブロック62は、以降の説明より理解されるように、図7に示した第4例としての構成を基としたうえで、重複検出回避機能を与えたものとなっている。
図29(a)は、構図判定処理ブロック62として、静止検出処理に対応した構成を抜き出して示している。
静止検出処理に際しては、先ず、図7の場合と同様にして、被写体検出処理部201が撮像画像データを取り込んで入力して被写体検出処理を実行し、検出した個別被写体ごとの検出個別被写体情報から成る検出被写体情報を静止検出処理部202に対して出力する。
静止検出処理部202は、入力した検出被写体情報に基づいて、個々の検出個別被写体ごとについての静止検出を実行し、その検出結果である静止被写体情報を得る。そして、この場合には、このようにして得た静止被写体情報を、静止被写体情報保持部210に対して保持させる。
なお、静止被写体情報保持部210は、例えば、制御部27と接続されるRAM29に設定した静止被写体情報を保持するための領域とされる。これにより静止被写体情報保持部210には、静止被写体、即ち非現実被写体についての検出個別被写体情報が保持されることになる。
そのうえで、図29(a)に示される静止検出処理部202は、静止被写体の検出を行うのにあたって、そのときに静止被写体情報保持部210にて保持されている静止被写体の検出個別被写体情報と、被写体検出部201から入力する検出被写体情報を成す検出個別被写体情報とを比較して、被写体検出部201にて検出された個別被写体(検出個別被写体情報)のうちで、既に静止被写体情報保持部210において保持されているものについては静止検出対象から除外し、静止被写体情報保持部210において保持されていない被写体のみを対象として静止検出を実行する。
このようにして、静止検出処理部202が、先ず、静止被写体情報保持部210にて保持されている静止被写体の検出個別被写体情報を利用して静止検出処理を実行することによって、静止検出処理としては、これまでにおいて一度静止被写体であると検出された検出個別被写体については改めて静止検出を実行する必要がない。このようにして、重複検出回避機能が実現されている。
また、被写体検出部201による検出結果である検出個別被写体情報と、静止被写体情報保持部210において保持される検出個別被写体情報とにより、正しく、被写体選別処理が行われるためには、被写体検出部201が生成する検出個別被写体情報に含まれる情報として、同じ静止被写体を検出するごとに得られる検出個別被写体情報において、少なくともその静止被写体には固有で不変な情報が含まれている必要がある。このような静止被写体に不変の情報を比較対象として一致・不一致を判定することで、被写体選別が可能となるからである。
このような比較対象となる情報として、1つには、その静止被写体の位置情報を挙げることができる。ただし、実施の形態として挙げている撮像システムは、パン・チルト・ズームによって画枠に収まる撮像視野角が変化するので、ここでの位置情報について、単純に撮像画像内における静止被写体の位置を示すものであるとすると、パン・チルト・ズームの位置状態によって変化してしまう。そこで、比較対象となる位置情報としては、そのときに撮像システムが設置されている状態での、静止被写体についての絶対的な位置を示し得る情報(絶対位置情報)を利用する。
なお、絶対位置情報の求め方の手法例については後述する。
図29(b)は、同じ構図判定ブロック62として、被写体選別を含む構図判定処理に対応した構成を抜き出して示している。この構成としては、被写体検出処理部201、構図判定処理部203、静止被写体情報保持部210、被写体選別処理部211から成るものとされる。また、この図では、説明の便宜上、構図判定ブロック62とともにパン・チルト・ズーム制御ブロック63を示している。
ここでの被写体検出部201は、図29(a)と同様のものであり、被写体検出処理を実行して検出被写体情報を出力する。
上記検出被写体情報は、被写体選別処理部211が取り込む。被写体選別処理部211は、基本的には、図7の場合と同様の検出アルゴリズムにより被写体選別の処理を実行する。但し、この場合の被写体選別処理部211は、選別処理に際して、静止検出処理部202による検出結果を(静止被写体の検出個別被写体情報)を直接に利用するのではなく、静止被写体情報保持部210において保持されている静止被写体の検出個別被写体情報を下記のように利用する。
この図29(b)における静止被写体情報保持部210は、図29(a)に示したものと同一である。従って、静止被写体情報保持部210には、これまでの静止検出処理部202の静止検出処理により検出された静止被写体の検出個別被写体情報が保持されていることになる。
そこで、被写体選別処理部211は、図7の場合と同様の検出アルゴリズムにより被写体選別の処理を実行するのにあたって、静止被写体の検出個別被写体情報は、この静止被写体情報保持部210に保持されているものを取り込んで利用する。
例えば、静止検出処理部202からの静止被写体の検出個別被写体情報は、そのときの撮像画像データにおいてリアルタイムとされるタイミングで得られている静止被写体についての情報となる。従って、静止検出処理部202からの静止被写体の検出個別被写体情報を直接に利用して被写体選別の処理を実行する場合には、先にも述べたように、一度、非現実被写体であるとして選別した被写体であっても、例えば、以降において、その被写体が再び検出されたときには、静止検出処理により、静止被写体(非現実被写体)であることを検出することになってしまう。
これに対して、静止被写体情報保持部210に保持される静止被写体の検出個別被写体情報は、これまでに静止被写体であるとして検出された被写体についてのものとなる。図29(b)の被写体選別処理部211が、これらの静止被写体の検出個別被写体情報により被写体選別処理を行うことによっては、現時点に対応するまでのタイミングにおいて、静止被写体であると検出されたものについては全て非現実被写体として除外され、ここから残ったものが現実被写体として選別される結果となる。つまり、過去において一度静止被写体であるとして検出されたものを除外するという選別が行われるものであり、現在おいて検出される被写体のうちで、現実被写体とされるもののみが的確に選別される結果が得られることとなる。
この図29(b)の構図判定処理部203は、図7の場合と同様にして、被写体選別処理部211から出力される、選別された個別被写体ごとについての検出個別被写体情報に基づいて構図判定処理を実行し、その判定結果の情報を出力する。そして、パン・チルト・ズーム制御ブロック63は、図18と同様にして、構図判定ブロック62(構図判定処理部203)からの構図判定結果の情報が示す撮像画像の構図となる撮像視野角を得るためのパン・チルト・ズーム制御(構図制御)を実行する。
なお、図29の構成は、図7に示した第4例を基としたものであると先に述べた。例えば図29における静止検出処理部202と静止被写体情報保持部210から成る部位を、図7における静止検出処理部202であると捉えると、図29の構成は、図7に示した第4例に対応したものとなる。
また、ここでは、構図判定ブロック62として、図29(a)と図29(b)とで、静止検出処理と、被写体選別・構図判定処理とを分けて示しているが、これは、構図判定ブロック62において、静止検出処理と、被写体選別・構図判定処理とを、それぞれ独立して実行させることが可能であることを示している。よって、例えば図29(a)と図29(b)の構成を1つにまとめて示すこともできる。この場合には、図29(b)の構成において、静止検出処理部202を備えることとして、被写体検出処理部201からの出力を、被写体選別処理部211と静止検出処理部202とに対して分岐して入力させる。また、静止検出処理部202が静止被写体情報保持部210にアクセスして静止被写体情報(静止被写体の個別被写体情報)の読み出し、書き込みができるようにして接続する。
図30のフローチャートは、図29(a)に示した構成により実行される静止検出処理の手順例を示したものである。
先ずは、被写体検出処理部201が、ステップS701により撮像画像データを取り込み、ステップS702により被写体検出処理を実行する。
また、ここでは、被写体検出処理部201は、上記ステップS702による検出処理の結果として、少なくとも1つの個別被写体が検出されたか否かについての判別を行うこととしており、ここで個別被写体が1つも検出されないとして否定の判別結果が得られたのであれば、ステップS701に戻ることで、撮像画像データの取り込みと被写体検出処理を繰り返すようにされる。
ステップS703にて被写体が検出されたとして肯定の判別結果が得られたのであれば、ステップS704に進む。
ステップS704以降の手順は、静止検出処理部202によるものとなる。ステップS704では、最後のステップS702により検出された個別被写体に付すべき番号を示す変数nについて、1を代入する初期化を行う。なお、変数nの最大値は、最後のステップS702により検出された個別被写体数(検出個別被写体情報数)となる。
ステップS705では、n番目の個別被写体(検出個別被写体)を検出処理対象として選択する設定処理を行ったうえで、ステップS706により、静止被写体情報保持部210において保持されている静止被写体の検出個別被写体情報を読み込む。そして、ステップS707により、n番目の個別被写体の検出個別被写体情報と一致する被写体を示検出個別被写体情報が、上記ステップS706により読み込んだ静止被写体の検出個別被写体情報のなかに存在するか否かについて判別する。
先ず、ステップS707にて、否定の判別結果が得られた場合には、このn番目の個別被写体は、少なくとも、現在までにおいて、静止被写体であるとして検出されたことはない、ということになる。この段階では、n番目の個別被写体は、静止被写体(非現実被写体)であるのか、あるいは現実被写体であるのかについての特定はされていない。そこで、この場合にはステップS708により、静止検出処理部202が、被写体検出処理部201から出力されるこのn番目の被写体に対応する検出個別被写体情報に基づいて、このn番目の個別被写体を対象とする静止検出処理を実行する。
ステップS708では、上記ステップS708の検出結果として、静止状態であるとの検出結果が得られたか否かについて判別する。ここで、否定の判別結果が得られた場合には、n番目の個別被写体は、静止被写体ではなく現実被写体であることになるが、この場合には、ステップS710をスキップしてステップS711に進む。
これに対して、ステップS709において肯定の判別結果が得られた場合には、n番目の被写体は、はじめて静止被写体であるとして検出されたことになる。そこで、この場合にはステップS710により、このn番目の個別被写体の検出個別被写体情報を、静止被写体情報保持部210に対して書き込んで保持させる。これにより、静止被写体情報保持部210に対して、新規に、1つの静止被写体が登録されることとなる。
また、ステップS707にて肯定の判別結果が得られた場合には、n番目の個別被写体は、既に静止被写体情報保持部210に登録されている静止被写体であることになる。そこで、この場合には、ステップS708〜S710の手順をスキップしてステップS711に進む。
ステップS711では、現在の変数nについて最大値以上であるか否かについて判別し、否定の判別結果が得られたのであれば、ステップS712により変数nについてインクリメントしてステップS705に戻ることで、次の個別被写体(検出個別被写体)を静止検出対象とした処理を繰り返す。
そして、全ての検出個別被写体を対象とする静止検出処理を実行したとして、ステップS711にて肯定の判別結果が得られたとされると、ステップS701に戻る。
図31のフローチャートは、図29(b)に示した構成により実行される静止検出処理の手順例を示したものである。
この図では、先ず、被写体検出処理部201が、ステップS801〜S803により、図30のステップS701、S802、S803と同様にして、撮像画像データの取り込み、被写体検出処理、及び個別被写体の検出の有無を判別する。
ステップS803にて否定の判別結果が得られた場合には、ステップS801に戻るべきことになるが、この場合の被写体検出処理部201としては、ステップS811により、被写体探索のためのパン・チルト・ズーム制御を指示した上で、ステップS801に戻るようにされる。つまり、この場合のステップS801〜S804の手順は、被写体探索として被写体検出を実行するものとなる。
この被写体探索の結果として、ステップS803にて少なくとも1つの個別被写体が検出されたことで肯定の判別結果が得られたのであれば、ステップS804以降の手順に進む。
ステップS804、S805は、例えば被写体選別処理部211が実行する処理となる。
ステップS804では、静止被写体情報保持部210から静止被写体情報の読み込みを行い、ステップS805により、上記の静止被写体情報を成す静止被写体ごとの検出個別被写体情報と、被写体検出処理部201からの検出被写体情報を成す検出個別被写体情報とを利用して、被写体選別処理を実行する。先に図29(b)においても述べたように、ここで実行される被写体選別処理によっては、被写体検出処理部201により検出された個別被写体のうちで、これまでにおいて静止被写体であるとして検出されたものは全て除外されることになる。
ステップS806は、例えば構図判定処理部203が実行する。
ステップS806においては、今回、被写体検出処理部201により検出された個別被写体のうちで、対象個別被写体、即ち現実被写体が残っているか否かについて判別する。構図判定処理部203は、上記ステップS805の選別処理によって選別された検出個別被写体の検出個別被写体情報の取り込みを行うが、その結果として、有効な検出個別被写体情報が1つも存在しない場合には、対象個別被写体(現実被写体)は残っていないということになる。これに対して、有効な検出個別被写体情報が存在しているのであれば、対象個別被写体は残っていることになる。
ここで、対象個別被写体が残っていないとして否定の判別結果が得られた場合には、ステップS811により被写体探索を指示した上で、ステップS801に戻る。これに対して、ステップS806において肯定の判別結果が得られた場合には、ステップS807に進む。
ステップS807は、構図判定処理部203が、被写体選別処理部211から取り込んだ対象個別被写体の検出個別被写体情報に基づいて構図判定処理を実行し、その判定結果の情報をパン・チルト・ズーム制御ブロック63に送信する。
ステップS808は、パン・チルト・ズーム制御ブロック63における処理となる。つまり、パン・チルト・ズーム制御ブロック63は、構図判定結果に応じた撮像視野角が得られるようにするための、即ち構図合わせのためのパン・チルト・ズーム制御を実行する。
上記ステップS808の構図合わせの処理が開始されて以降においては、ステップS809により、実際にそのときの撮像画像データの画像として得られている構図が、ステップS807により判定した構図と同じであるみなされる状態(例えば一定以上の近似度となる状態)となったか否か(構図がOKであるか否か)を判別することとしている。なお、この判別は、例えば構図判定処理部203において、構図判定結果を出力した後に得られる対象個別被写体の検出個別被写体情報の位置情報の変化などを検出することで実現できる。
ここで、例えば何らかの原因で、必要なだけのパン・チルト・ズームの移動、駆動を行わせたとしても構図がOKにはならなかった場合には、ステップS809にて否定の判別結果が出力される。この場合には、ステップS811を経たうえでステップS801に戻ることで、被写体探索を再開させることとしている。
これに対して、ステップS809において構図がOKになったとの判別結果が得られた場合には、ステップS810により、レリーズ動作、つまり、そのときに得られている撮像画像データを静止画として記録する動作の実行を指示する。このレリーズ指示の処理も、例えばここでは、構図判定処理部203が実行するものとして捉えればよい。
ところで、本実施の形態の撮像システムは、例えば使用中において、ユーザが、雲台10とともにデジタルスチルカメラ1を動かしてこれまでとは別の位置状態で配置し直す可能性がある。
また、上記のようにして静止検出処理及び被写体判別処理に、静止被写体情報保持部210にて保持している静止被写体情報(静止被写体の検出個別被写体情報)を利用する構成においては、個別被写体情報における位置情報は、そのときのデジタルスチルカメラ1の配置位置を基本とする絶対位置情報であるとした。
すると、上記のようにして、デジタルスチルカメラ1(及び雲台10)の位置が動かされた段階で、静止被写体情報保持部210に保持されている静止被写体情報(静止被写体の個別被写体情報)が有している絶対位置情報は誤ったものとなってしまうので、以降において、この絶対位置情報を利用することは避けなければならない。このためには、例えばユーザが、デジタルスチルカメラ1(及び雲台10)を動かして置き直した後、例えばデジタルスチルカメラ1に対する所定操作により、静止被写体情報保持部210にこれまで保持させていた静止被写体情報をクリア(消去)させて、改めて、静止検出を伴う静止被写体情報保持部210への静止被写体の登録処理をはじめから実行させるようにすることが考えられる。
そして、この考え方をさらに推し進めれば、デジタルスチルカメラ1(及び雲台10)が動かされたことに応じた静止被写体情報保持部210の静止被写体情報のクリアが自動実行されるようにして、そのための操作を不要とすれば、ユーザへの便宜が図られることになる。
図32は、静止被写体情報保持部210の静止被写体情報を自動的にクリアするための構成を示している。この図においては、これまでの説明の流れを考慮して、静止被写体情報の自動クリアの構成を、図29に示した構成を基とした構図判定ブロック62に対して付加した例を示している。この図において図29(b)と同一部分には同一符号を付して説明を省略する。また、この場合の静止検出についての構成は、図29(a)と同様であればよい。
図32においては、図29の構成に対して、クリア制御部212、及び加速度センサ213が備えられる。加速度センサ213は、例えば実際においてはデジタルスチルカメラ1における所定位置に固定して取り付けられ、自身に生じる加速度、即ちデジタルスチルカメラ1自体に加えられる力による動きを検出する。クリア制御部212は、パン・チルト・ズーム制御ブロック63から出力されるパン・チルト制御信号と、加速度センサ213にて検出された加速度値とに基づいて、静止被写体情報保持部210にて保持している静止被写体情報をクリアする処理を実行する。
図33のフローチャートは、上記図32に示したクリア制御部212が実行するとされる処理手順例を示している。
クリア制御部212は、先ず、ステップS901により加速度センサ213から出力されている検出信号の取り込みを実行し、ステップS902において、取り込んだ検出信号が示す加速度値が、所定の閾値以上であるか否かを判別する。このステップS902において設定される閾値は、例えばデジタルスチルカメラ1を人が持って動かしたとするときに加速度センサ213により検出される一般的、平均的な加速度値を基にして設定される。つまり、ステップS901においては、そのときのデジタルスチルカメラ1の状態として、人が持って動かしたとする場合に対応した程度の動きをしているか否かを判別するものである。
ステップS902において否定の判別結果が得られた場合には、デジタルスチルカメラ1は、パン・チルト方向の移動に応じた動きも含め、動きがない状態にあるものとしてみることができる。そこで、この場合には、ステップS901に戻る。
これに対して、ステップS902において肯定の判別結果が得られた場合には、ステップS903以降の手順を実行する。
ステップS903においては、パン・チルト・ズーム制御ブロック63からパン・チルト制御信号を取り込む処理を実行し、次のステップS904により、現在においてパン・チルト駆動、即ち、雲台10によるパン方向及び/又はチルト方向に対する移動が行われているか否かについての判別を行う。例えば、ステップS903により有効なパン・チルト制御信号を取り込むことができなかった場合には、そのときにパン・チルト・ズーム制御ブロック63は、パン・チルト制御を行っておらず、従って、これに応じた雲台10によるデジタルスチルカメラ1の移動も行われていないことになるので、ステップS904としては否定の判別結果が得られる。これに対して、ステップS903により有効なパン・チルト制御信号が取り込まれたのであれば、これに応じた雲台10によるデジタルスチルカメラ1の移動が実行中であることになり、肯定の判別結果が得られる。
ステップS904にて否定の判別結果が得られた場合には、ステップS905、S906をスキップしてステップS907に進むが、肯定の判別結果が得られたのであれば、ステップS905、S906の手順を実行する。
ステップS905に至った段階では、雲台10によりデジタルスチルカメラ1のパンニング、チルティングが実行中であることは分かっているが、このパンニング、チルティングが実行中の状態において、さらに、デジタルスチルカメラ1(及び雲台10)が人為的に動かされている状態にあるか否かは分かっていない。そこで、ステップS905、S906においては、この点についての判別を行う。
このために、ステップS905においては、期待加速度値を算出する。この期待加速度値は、デジタルスチルカメラ1を固定した雲台10が人為的に動かされずに定位置にて静止した状態の下で現在のパンニング・チルティングを実行しているときに得られるものとして推定、期待される加速度値のことをいう。この期待加速度値は、例えばステップS903にて取り込んだパン・チルト制御信号が示す移動量と、パンニング・チルティングの移動速度をパラメータとして所定の関数を用いた演算を実行することで得ることが可能である。パン・チルト制御信号が示す移動量と、パンニング・チルティングの移動速度に対応して、加速度センサ123にて検出される加速度値はほぼ決まるものとしてみることができる。なお、パンニング・チルティングの移動速度は、雲台10において採用されるパン機構部、チルト機構部の構造であるとか、各機構部のモータを駆動する電圧、電流などにより一義的に求めることができる。
ステップS906では、上記ステップS905により算出した期待加速度値と、先のステップS901にて取り込んだ検出信号が示す実の加速度値とを比較して、両者の差が一定以上であるか否かについて判別する。なお、期待加速度値と実の加速度値との差を求めるのではなく、期待加速度値と実の加速度値との比率を求め、この比率が一定以上であるか否かを判別するようにしてもよい。
ステップS906にて否定の判別結果が得られた場合には、雲台10は人為的に動かされておらず静止しておかれた状態で、パンニング・チルティングの動作を実行中であることになる。この場合には、そのままステップS901に戻る。これに対してステップS906にて肯定の判別結果が得られた場合には、雲台10はパンニング・チルティングの動作を実行中であり、かつ、雲台10とこれに固定されているデジタルスチルカメラ1が人為的に動かされている状態であることになる。この場合には、ステップS907に進む。このようにして、本実施の形態では、パンニング・チルティングの動作が実行中であっても、的確に、雲台10とこれに固定されているデジタルスチルカメラ1自体が、雲台10のパン・チルト機構(可動機構部)以外の力により動かされている状態であることを検知できるようになっている。
これまでの説明から分かるように、ステップS907に至る場合とは、雲台10がパンニング・チルティングの動作を実行している、いないに関わらず、雲台10とこれに固定されているデジタルスチルカメラ1が人為的に動かされている状態のときとなる。そして、ステップS907においては、静止被写体情報保持部210において保持されている静止被写体情報をクリア(消去)するための処理を実行する。
なお、上記の説明では、デジタルスチルカメラ1及び雲台10から成る実施の形態の撮像システムにおいて必要性があることを前提として述べた。しかし、この静止被写体情報保持部210に保持される静止被写体情報を自動的にクリアする構成は、実施の形態の撮像システム以外の装置、システムにおいて必要に応じて適用されてよいものである。
また、静止被写体情報保持部210に保持されている静止被写体情報を基にして被写体選別処理部211が被写体選別を行うように構成した場合には、構図判定ブロック62として、上記図29(及び図32)に示したもの以外に、図34に示す構成を採ることも可能になる。
なお、図34において、図29と同一部分には同一符号を付して重複する説明については省略する。また、静止被写体情報保持部210の静止被写体情報を自動的にクリアする構成は、ここでは省略しているが、この構成については、図32及び図33により説明した構成を適用すればよい。
図34においては、静止検出処理部202を、被写体選別処理部211と構図判定処理部203の間に挿入した構成としている。また、静止検出処理部202は静止被写体情報保持部210にアクセスできるようにされている。そのうえで、この場合の静止検出処理部202は、次の説明から理解されるようにして、被写体選別処理としてもみることのできる静止検出処理を行う。
図35のフローチャートは、図34に示した構成の構図判定処理ブロック62(及びパン・チルト・ズーム制御ブロック63)によって実行される処理の手順例を示している。
先ずステップS1001、ステップS1002によっては、図31のステップS801、S802と同様にして、被写体検出処理部201が撮像画像データを取り込んで被写体検出処理を実行する。
次のステップS1003〜S1005は、被写体選別処理部211が実行する。
被写体選別処理部211は、ステップS1003により、静止被写体情報保持部210において現在保持されている静止被写体情報の読み込みを行う。続いて、ステップS1004により、被写体検出処理部201から取り込んだ検出被写体情報を形成する検出個別被写体情報と、読み込んだ静止被写体情報を形成する個別被写体情報とを利用して、図31のステップS805と同様の被写体選別処理を実行する。
また、この場合の被写体選別処理部203は、ステップS1005により、自身の被写体選別処理結果として、選別された個別被写体が残っているか否かについての判別を行うこととしている。ここで否定の判別結果が得られた場合には、ステップS1018により被写体探索のためのパン・チルト・ズーム制御を指示して、ステップS1001に戻る。なお、このステップS1018の被写体探索の指示も、ここでは被写体選別処理部211が実行するものとして構成してよい。
これに対してステップS1005において肯定の判別結果が得られたのであれば、ステップS1006以降の手順に進む。
なお、この場合において、ステップS1004の被写体選別処理のために、被写体選別処理部211が被写体検出処理部201から取り込む検出被写体情報は、例えば被写体検出処理部201が実行した最後の被写体選別処理により得られたものとなる。これに対して、このときに静止被写体情報保持部210にて保持されている静止被写体情報は、上記最後の被写体選別処理より前のタイミングで実行された最後の静止検出処理と、これより以前に行われた静止検出処理により得られたものとなっている。このような被写体選別処理と、静止検出処理との間での処理タイミングのずれは、以降の説明から分かるように、この場合の静止検出処理部202は、被写体選別処理部211の被写体選別処理結果として得られる、選別された検出個別被写体情報を対象に静止被写体検出を行うことにより生じるものとされる。
従って、この場合の被写体選別処理部211が被写体選別処理によって選別した個別被写体には、今回の被写体選別処理のために取り込んだ検出個別被写体情報を得るための被写体検出処理よりも前のタイミングで行われた静止検出処理により検出された(静止被写体情報保持部210に登録された)静止被写体については除外されているが、最後の被写体検出処理の対象となった撮像画像データにはじめて現れたもので、未だ静止被写体情報保持部210には未登録の非現実被写体は、除外されることなく選別されて残っている可能性がある。
そこで、次に述べるようにして、静止被写体情報保持部210は、静止被写体の検出と、これに応じた静止被写体情報保持部210への登録処理を実行するとともに、静止被写体の検出結果を用いて、被写体検出処理部211を経るまでの段階では除外されずに残っている非現実被写体を、この段階で改めて除外する。
ここでの静止検出処理部202が実行するものとされる処理は、ステップS1006〜S1012となる。
先ず、ステップS1006では、被写体選別処理部211にて選別された個別被写体(現実被写体の候補)に付す番号を示す変数nについて、1を代入する初期化を行う。
次に、ステップS1007においては、n番目の個別被写体について静止検出処理を実行する。このときの静止検出処理は、例えば所定の検出期間内において、被写体選別処理部211から取り込むn番目の個別被写体についての検出個別被写体情報の変化(例えば絶対位置情報の変化)を検出し、その変化量に基づいて、n番目の個別被写体は静止被写体であるか否かの判定を行うようにして実行される。
ステップS1008では、上記ステップS1007による静止検出処理の結果として、n番目の個別被写体が静止被写体として検出されたか否かを判別することとしている。
ステップS1008にて肯定の判別結果が得られた場合には、ステップS1009に進んで、n番目の個別被写体に対応する検出個別被写体情報を静止被写体情報保持部に対して登録したうえでステップS1011に進む。これに対して、否定の判別結果が得られたのであれば、ステップS1010に進み、n番目の個別被写体を、後段の構図判定処理の対象である対象個別被写体として設定して、ステップS1011に進む。
ステップS1011においては、現在の変数nについて最大値以上であるか否かについての判別を行い、否定の判別結果が得られている限りは、未だ静止検出処理の対象となる個別被写体が残っているとして、ステップS1012により変数nについてインクリメントしたうえで、ステップS1007に戻る。
これに対して、ステップS1011にて肯定の判別結果が得られた場合には、静止検出処理の対象となる個別被写体の全てについての静止検出処理を完了したことになるので、ステップS1013以降の手順に進む。
ステップS1013は、例えば構図判定処理部203が実行するものとしてみることができる。
ステップS1011にて肯定の判別結果が得られた段階では、ステップS1010までの手順が実行されていることにより、対象個別被写体として設定された個別被写体についての検出個別被写体情報が、構図判定処理部203にて取り込まれている状態にある。そこで、ステップS1013においては、構図判定処理部203は、検出個別被写体情報の取り込み状況から、対象個別被写体が存在するか否かについて判別する。このときに構図判定処理部203が、対象個別被写体として有効な検出個別被写体情報を、1つも取り込んでいなければ、ステップS1003では否定の判別結果が得られ、1つでも取り込んでいれば、肯定の判別結果が得られる。
ステップS1013にて否定の判別結果が得られた場合には、構図判定処理を実行する必要性は無い。そこで、この場合には、ステップS1018により被写体探索を指示したうえで、ステップS1001に戻る。このときのステップS1018は、例えば構図判定処理部203が実行するものとしてみればよい。
これに対して、ステップS1013において肯定の判別結果が得られた場合には、ステップS1014以降の手順を実行する。
ステップS1014〜S1017は、図31におけるステップS807〜S810と同様となる。つまり、構図判定処理部203は、対象個別被写体の検出個別被写体情報に基づいて構図判定処理を実行し、この判定結果に応じてパン・チルト・ズーム制御ブロック63により、構図合わせのためのパン・チルト・ズーム制御を実行させる。そして、このパン・チルト・ズーム制御により撮像視野角が変化された結果、構図がOKであると判定されたのであれば、レリーズ動作を指示して、そのときの撮像画像データから静止画像データを取り出して記録させる。
ところで、先に述べたように、本実施の形態では、被写体情報保持部210に保持されている静止被写体情報を利用して被写体選別処理を適正に実行できるようにするために、検出個別被写体情報において、その個別被写体の位置を示す位置情報としては、絶対位置情報であることとした。そこで、ここでは、この絶対位置情報を求めるための手法例について説明していくこととする。
図36(a)は、雲台10と、これに取り付けられているデジタルスチルカメラ1とを平面から見ている。また、この図においては、デジタルスチルカメラ1は、雲台10のパン機構部53によるパン方向(横方向)における可動範囲内において、基準として設定した位置(基準位置:例えば可動範囲における中間位置)にあるものとされる。基準線Lは、デジタルスチルカメラ1がこのパン方向における基準位置に在るとした場合において、そのレンズ部3(光学系部21)の光軸(撮像光軸)と一致、平行となる線である。
また、ここでは、設定している画角(ズーム角)を、画角中央angC、画角左端angL、画角右端angRにより表現している。なお、画角中央angCは、デジタルスチルカメラ1の撮像光軸と一致するものであり、画角中央angCから画角左端angLまでの角度の大きさと、画角中央angCから画角右端angRまでの角度の大きさは同じになる。
なお、ここで設定されている画角は、被写体探索動作の実行時において設定される画角であるとする。被写体探索時においては、できるだけ効率よく被写体が探索(検出)できるようにすることを配慮して、広めであるとしてみることのできる所定の画角に設定される。
また、このデジタルスチルカメラ1及び雲台10が設置されている周囲において、図示するように、デジタルスチルカメラ1に対して、紙面上で右手前となる方向の位置に1つの被写体SBJsが存在しているものとする。
例えば、ここで被写体探索のために、デジタルスチルカメラ1を、パン方向において、上記図36(a)に示す位置状態から、図の紙面上で時計周りの方向に回転させるようにして動かしていったとする。すると、あるときに図36(b)に示すようにして、被写体SBJsが画角右端angRに対応する画角内の限界位置にはじめて収まる状態が得られることになる。このときのパン角度、即ち、基準線Lから撮像光軸(画角中央angC)との間の角度は、αleft°により表している。また、このときに実際に得られるとされる撮像画像では、被写体SBJsは、画枠内において最も右に寄っている状態となる。
また、図36(b)の状態から、さらに図の紙面上で右(時計方向)にデジタルスチルカメラ1を回転させるようにして動かしていったとすると、ある時に、図36(c)に示すようにして、被写体SBJsは、画角左端angLに対応する画角内の限界位置に在る状態で撮像される状態に至ることになる。ときのパン角度はαright°により表している。また、このときの撮像画像では、被写体SBJsは、画枠内において最も左に寄っている状態となる。
被写体探索時においては上記のような状況が当然に生じることに基づいて、絶対位置情報を求めるための手法の1つとしては、次のようなものを考えることができる。
例えば、上記図36(a)から図36(b)への遷移へと示すようにして、はじめて撮像画像の画枠内に被写体SBJsが現れてこれが被写体として検出されたタイミングで静止検出を実行し、その静止検出結果に基づいて、この被写体SBJsが静止被写体であるか否かを判定するようにする。ここでは、被写体SBJsは非現実被写体であるとしているから、静止被写体であるとして判定されることになる。このようにして静止被写体であると判定したのであれば、この被写体SBJsについての検出個別被写体情報として、画枠内に被写体SBJsがはじめて現れたときのパン角度αleftを含めるようにされる。そして、この検出個別被写体情報を、静止被写体情報保持部210に登録するようにされる。そして、例えば被写体選別処理では、静止被写体情報において示されるパン角度が得られているときに、はじめて画枠内に入ってきて検出される個別被写体については、選別対象から除外するという処理を実行させる。なお、この被写体選別処理を被写体探索時においてのみ実行させることとすれば、パン角度も被写体探索時の画角のもとで得られたものであるから、被写体選別は適正に行われる。
このようにして、上記の処理にあっては、静止被写体として検出される個別被写体がはじめて撮像画像の画枠内に収まることとなるパン角度(パン位置)を、絶対位置情報として扱うようにされる。
なお、上記の被写体選別処理では、そのときのパン角度を認識する必要があるが、これについては、例えば雲台10からパン位置に相当する情報を受け取るようにすればよい。パン位置(パン回転角度)の情報としては、例えばパン用モータ57がステッピングモータであれば、駆動パルス信号の入力数に基づいて得ることができる。また、ステッピングモータ以外であっても、駆動信号が与えられた時間、モータに付加したセンサなどからの情報、モータのフィードバック制御により得られる情報などを用いて得ることができる。
また、被写体選別処理時において、例えば被写体SBJsについての絶対位置情報としてのパン角度を求めたときと異なる画角が設定されている状況であっても、そのときに現に設定されている画角と、絶対位置情報のパン角度を求めたときの画角との比に基づいて、そのときに被写体SBJsがはじめて画角に現れるパン角度を求めることができる。絶対位置情報のパン角度を求めたときの画角については、例えば、絶対位置情報のパン角度を求める処理が被写体探索時においてしか行われないのであれば、被写体探索時に設定される所定の画角を用いればよい。また、絶対位置情報のパン角度を求める処理が、被写体探索時以外にも行われる、あるいは被写体探索時においても画角が変更される可能性があれば、絶対位置情報としてパン角度と共に、そのときの画角情報も含めるようにすればよい。
また、例えば、パン角度αright°よりも大きなパン角度の状態から、図の紙面のおける反時計方向にデジタルスチルカメラ1を回転移動させていけば、図36(c)の状態となって、撮像画像の画枠内の最も左に被写体SBJsが現れることになる。これに対応しては、静止被写体SBJsの絶対位置情報は、パン角度αright°とすることになる。
また、絶対位置情報としては、次のようなものも考えることができる。
上記図36によれば、被写体SBJsは、パン角度αleft°〜αright°までのパン位置の範囲において撮像されて、撮像画像の画枠内において例えば見切られることなく収まっていることになる。
そこで、この被写体SBJsの絶対位置情報として、上記したパン角度αleft°、αright°のような点としての情報ではなく、パン角度αleft°〜αright°までの角度範囲を示す情報とすることが考えられる。
そして、上記図36により説明した絶対位置情報は、同じく、チルト方向に対応しても持つようにされる。つまり、上記図36に準じて、チルト角度(チルト位置)を同様に求める。このようにして、実際においては、絶対位置情報としてパン角度の情報とチルト角度の情報(パン・チルト位置情報)を得るようにされる。
ただし、場合によっては、パン方向とチルト方向のいずれかのみが可変とされる雲台10の構成を考えることもできるが、この場合には、可変となる方向に応じて、パン角度とチルト角度のいずれかを絶対位置情報とすればよい。この点については、次に説明する絶対位置情報に関しても同様である。
さらに、絶対値情報については、次のようにして求めることもできる。
図37(a)は、デジタルスチルカメラ1が、基準線Lに対して時計回りの方向にパン角度αx°分回転した位置にあって、かつ、水平画角内において被写体SBJsが撮像されている状態が示されている。この場合において、水平画角はθx°により表しており、また、被写体SBJsは、中心画角angCから反時計回りの方向に角度βx°だけ回転した角度に対応する線上に、その水平方向における中心位置(重心)が対応するようにして位置している。
また、図37(a)によると、被写体SBJsは、基準線Lを基準とすると、ここから時計回りの方向に角度γx°だけ回転した位置に対応する線上に、その水平方向における中心位置(重心)が対応するようにして位置しているということがいえる。
ここで、基準線Lは、そのときの雲台10の配置の状態に応じて決まる絶対的なものとなる。従って、上記の角度γx°によって示される被写体SBJsの位置は、基準線Lを基とする絶対的なものとなる。つまり、絶対位置情報として扱うことができる。なお、以降、この角度γx°のようにして、被写体の絶対的位置を示し得る角度については、絶対位置対応角度ということにする。また、角度βx°については、そのときのパン角度αx°のもとで、中心画角angCを基にして決まる被写体SBJsの位置を示すものであるから、相対位置対応角度ということにする。
そして、絶対位置対応角度は、下記のようにして求めることができる。
図37(b)は、上記図37(a)に示した位置状態のデジタルスチルカメラ1により撮像して得られる撮像画像を示している。
ここで、撮像画像の画枠300における水平画枠サイズ(例えば画素数により表現できる)をCxとし、この水平画枠サイズにおける中点を通過する垂直線をMとして、この垂直線Mを撮像画像の画枠における水平方向の基準(X軸座標の基準:X=0)とする。水平方向に沿ったX軸座標としては、垂直線Mより右の領域が正となり、左の領域が負となる。そして、撮像画像の画枠300内において存在する被写体SBJsについての、水平方向における座標値はX=aとして表している。なお、図37(b)の場合のX座標値aは、負の数となる。
ここで、図37(b)における被写体SBJsの重心までのX座標の座標値aと水平画枠サイズCxとの関係(比)は、図37(a)における相対位置対応角度βx°と水平画角θx°との関係(比)に相当する。
よって、相対位置角度βx°は、
βx°=(a/Cx)*θx・・・(式1)
により表される。
また、図37(b)によれば、パン角度αx°、相対位置対応角度βx°、及び絶対位置対応角度γx°の関係は、
αx°=γx°−βx°・・・(式2)
で表される。
よって、絶対位置対応角度γ°としては、下記のようにして求めることができる。
γx°=(a/Cx)*θx°+αx°・・・(式3)
つまり、絶対位置対応角度γ°は、水平画枠サイズCx、撮像画像の画枠内における被写体SBJsのX座標値a、水平画角θx°、及びパン角度αx°のパラメータにより求められることになる。
ここで、上記パラメータのうち、水平画枠サイズCxは既知であり、撮像画像の画枠内における被写体SBJsのX座標値βは、撮像画像内にて検出される被写体についての水平方向における位置情報に他ならないから、本実施の形態の被写体検出処理により得ることできる。また、水平画角θx°の情報は、画角(ズーム)制御の情報に基づいて得ることができる。より具体的には、例えば光学系部21が備えるズームレンズのズーム倍率1倍を設定しているときの標準画角の情報を保持しておいたうえで、ズーム制御に応じて得られるズーム位置と、上記標準画角とを利用して求めることができる。また、パン角度αx°についてもパン制御の情報として得ることができる。
このようにして、本実施の形態の撮像システムでは、絶対位置対応角度γx°について、特に支障なく簡単に求めることができる。
また、このような絶対位置対応角度は、画枠300の端に対応した限界位置付近ではなく、画枠300におけるより内側の領域にて被写体を検出しているときにも、上記のパラメータさえ取得できれば的確に求めることができる。従って、動きのある現実被写体についても、逐次、追跡するようにして、その絶対位置対応角度を求めていくことが可能である。
そして、例えば実際の被写体探索時においては、検出個別被写体のうちで、静止被写体であるものが検出されると、この検出された静止被写体を、上記図37の被写体SBJsとして扱って、上記の水平画枠サイズCx、撮像画像の画枠内における被写体SBJsのX座標値であるa、水平画角θx°、及びパン角度αx°のパラメータから、この静止被写体についての絶対位置対応角度γx°を求めるようにすればよい。
また、実際においては、同様にして、垂直方向における絶対位置対応角度(γy°)も求めるようにされる。確認のために、垂直方向における絶対位置対応角度γy°は、垂直画枠サイズCy、撮像画像の画枠内における被写体SBJsのY座標値b(垂直画枠サイズCyの中点をY=0とする)、垂直画角θy°、及びチルト角度αy°のパラメータにより、
γy°=(b/Cy)*θy°+αy°・・・(式4)
により求めることができる。
続いて、上記のようにして得られる絶対位置情報を利用した被写体選別処理のための構成例について、図38を参照して説明する。なお、確認のために述べておくと、この処理は、先に挙げた、図29、図32、図34のいずれの構図判定ブロック62にも適用できる。また、ここでの説明にあたっては、図38により説明した、絶対位置対応角度としての絶対位置情報を採用する場合を採り上げることとする。
図38に示す被写体選別処理部211は、被写体位置算出部221と選別処理部222とから成るものとしている。なお、図29、図32、図34との対応では、例えば被写体選別処理部211については被写体検出処理部201に含まれ、選別処理部222については被写体選別処理部211に含まれるものとしてみることができる。
被写体検出処理部221では、撮像画像データを対象とする被写体検出処理により、先ず、検出個別被写体ごとの検出個別被写体情報における位置情報(検出個別被写体位置情報)として、撮像画像内での位置情報(撮像画像内位置情報)を取得することになる。この撮像画像内位置情報は、撮像画像としての画枠内におけるX座標値、Y座標値により表現される。従って、例えば撮像画像内位置情報は、検出個別被写体1〜nに対応して、(X1,Y1)(X2,Y2)・・・(Xn,Yn)のようにして得られるものとなる。
被写体位置算出部221は、検出個別被写体ごとの位置情報として、上記の撮像画像内位置情報を取り込むこととしている。
また、被写体位置算出部221は、そのときのパン角度αx°、チルト角度αy°の情報と、画角情報として水平画角θx、垂直画角θyの情報を取り込む。これの情報は、図38での説明のようにして得ることができる。
そして、被写体位置算出部221は、これらの情報(パラメータ)を利用して、検出個別被写体ごとの絶対位置情報として、図38にて説明したようにして水平(パン)方向における絶対位置対応角度(水平絶対位置対応角度γx°)と、垂直(チルト)方向における絶対位置対応角度(垂直絶対位置対応角度γy°)を演算により求める処理を実行する。
このようにして求められた検出個別被写体ごとの絶対位置情報(水平・垂直絶対位置対応角度)は被写体選別処理部211にあるとされる選別処理部222に対して渡される。
選別処理部222は、静止被写体情報保持部210にて保持されている静止被写体情報として、この静止被写体情報を形成する静止被写体ごとの個別被写体情報のうちから、位置情報(静止被写体位置情報)を取り込む。
ここで、上記静止被写体位置情報の各々は、画角内におけるX,Y座標により表現されるものではなく、絶対値位置情報(水平・垂直絶対位置対応角度)により表現されるものとされる。
このための仕組みは、例えば次のようになる。つまり、図29(a)に示される静止検出の構成を例に採ると、被写体検出処理部201では、静止検出処理部202に渡すべき検出個別被写体情報位置情報として、上記被写体位置算出部221により算出した絶対位置情報(水平・垂直絶対位置対応角度)を含めるようにされる。そして、静止検出処理部202は、検出した静止被写体ごとの個別被写体情報を静止被写体情報保持部210に保持させるのにあたり、その個別被写体情報に、上記の絶対値位置情報を含めるようにされる。これにより、図38の選別処理部222は、静止被写体情報保持部210から、静止被写体として登録されている被写体ごとの位置情報として、絶対値位置情報を取り込むことができる。
選別処理部222は、上記のようにして、静止被写体情報保持部210に保持されているm個の静止被写体ごとの静止被写体位置情報として、絶対位置情報である水平・垂直絶対位置対応角度(γx°1,γy°1)(γx°2,γy°2)・・・(γx°m,γy°m)と、被写体位置算出部221から渡される、撮像画像データから検出された検出個別被写体ごとの絶対位置情報である水平・垂直絶対位置対応角度とを比較する。そして、この比較結果として、静止被写体と同じであるとみなされる絶対位置情報を持つ検出個別被写体は、対象として除外して、静止被写体とは異なるとしてみなされる絶対位置情報を持つ検出個別被写体を、対象個別被写体として選別する。そして、このようにして選別した対象個別被写体位置情報を、構図判定処理部203に渡す。なお、ここで構図判定処理部203に渡すべき位置情報は、絶対位置情報とされてもよいが、画枠内での構図判定に利用されるのであるから、撮像画像内位置情報であることが構図判定処理にとっては扱いやすいので好ましい。この図に示される構成との対応であれば、選別処理部222が例えば被写体位置算出部221から撮像画像内位置情報を受け取るようにすれば、構図判定処理部203に撮像画像内位置情報を渡すことができる。
また、ここで写体選別処理の変形例として、被写体検出処理によって、例えば顔の特徴などを検出することによって、被写体ごとの個別認識(個人認識、固体認識)が可能とされる場合の構成例を図39に示す。なお、この図に示す構成は、例えば被写体選別処理部211が備えるものとしてみることができる。
この場合の被写体検出処理部201は、上記のようにして被写体検出処理として、検出個別被写体ごとの画像の特徴を検出することなどにより個別認識を行うようにされている。このような個別認識のための技術は、ここでは特に限定されるべきものではなく、例えばこれまでに知られているものを採用すればよい。
このような被写体検出処理によって得られる検出個別被写体情報としては、例えばこれまでに説明した位置情報をはじめとする情報のほかに、個別認識を可能とするための属性情報(例えばその個別被写体の画像的特徴を表す情報)を含めるようにされる。
そこで、図39における選別処理部223は、被写体検出処理部211から、検出個別被写体ごとの検出個別被写体情報として、上記した検出個別被写体ごとの属性情報(検出個別被写体属性情報)を取り込む。
また、この場合において、静止被写体情報保持部210が保持する静止被写体ごとの個別被写体情報にも、上記の属性情報が含まれるようにする仕組みを与えておくこととする。この仕組みは、例えば図38において説明した、静止被写体ごとの個別被写体情報に、絶対位置情報を含めるための構成に準ずればよい。
選別処理部223は、検出個別被写体属性情報とともに、静止被写体情報保持部210から、静止被写体ごとの個別被写体情報に含まれる属性情報(静止被写体属性情報)を取り込む。
そして、選別処理部223は、上記検出個別被写体が持つ属性情報と、静止被写体属性情報とを比較して、静止被写体属性情報と一致するとみなされる検出個別被写体を除外して、静止被写体属性情報と一致しないとみなされる検出個別被写体を選別する。そして選別結果として、選別された検出個別被写体に対応する検出個別被写体属性情報を、位置情報変換部224に対して出力する。
ここで、検出個別被写体属性情報には、同じ検出個別被写体情報において含まれる位置情報と対応付けるタグ、IDの機能を持つ情報(対応データ)を含ませているとする。
位置情報変換部224は、選別処理部223から出力される検出個別被写体属性情報と、全ての検出個別被写体の検出個別被写体位置情報とを取り込む。そして、取り込んだ検出個別被写体位置情報のうちから、選別処理部223から取り込んだ検出個別被写体属性情報と対応付けられているものを選択する。そして、選択した検出個別被写体位置情報を、対象個別被写体位置情報として、構図判定処理部203に対して出力する。
続いては、これまでに述べてきた実施の形態の撮像システム(デジタルスチルカメラ1、雲台10)による構図判定処理、及び構図合わせの制御(構図制御)についてのより具体的な例について、説明していくこととする。
なお、ここで挙げる例は、あくまでも一例であって、例えば静止被写体(非現実被写体)を除外した現実被写体のみを対象とする限り、構図制御の具体例については多様に考えることができるものである。
先ず、図40を参照して、被写体検出処理部201が実行するとされる被写体検出処理のより具体的な例を挙げておく。なお、ここでは顔検出を基とした被写体検出を行うことを前提とする。
ここで、被写体検出処理部201が、図40(a)に示す画内容の撮像画像データを取り込んだとする。この撮像画像データの画内容としては、人としての被写体が1つ存在した画を撮影して得られたものである。また、図40(a)(及び図40(b))には、1画面をマトリクス状に区切った状態を示しているが、これは、撮像画像データとしての画面が、所定数による水平・垂直画素の集合から成るものであることを模式的に示している。
図40(a)に示す画内容の撮像画像データを対象に被写体検出(顔検出)を行うことによっては、図において示される1つの個別被写体SBJの顔が検出されることになる。即ち、顔検出処理によって1つの顔が検出されることを以て、ここでは1つの個別被写体が検出されることとしている。そして、このようにして個別被写体を検出した結果としては、個別被写体の数、向き、位置、サイズの情報を得るようにされる。
また、個別被写体数に関しては、例えば顔検出により検出された顔の数を求めればよい。図40(a)の場合には、検出される顔が1つであるから、個別被写体数としても1であるとの結果が得られる。
また、個別被写体ごとの位置情報としては、先に述べたように、画枠内の位置情報、また絶対位置情報となるが、これらの位置情報が具体的に示すものとしては、個別被写体SBJの重心であることとする。
例えば、撮像画像の画枠内における個別被写体SBJの重心Gとしては、先にも述べたように、(X,Y)により表現されることになる。なお、確認のために、この場合の重心G(X,Y)の基準となる撮像画像データの画面上のX,Y原点座標P(0,0)は、例えば図41に示すようにして、画面サイズに対応したX軸方向(水平方向)の幅(水平画サイズ)Cxの中間点と、Y軸方向(垂直方向)の幅(垂直画サイズ)Cyの中間点との交点であることとしている。
また、この重心Gについての個別被写体の画像内における位置の定義であるとか、重心Gをどのようにして設定するのかについては、例えばこれまでに知られている被写体重心検出方式を採用することができる。
また、個別被写体ごとのサイズについては、例えば顔検出処理により顔部分であるとして特定、検出される領域の画素数を求めるようにすればよい。
また、個別被写体ごとの顔方向に関しては、先にも述べたように、顔検出処理に基づいて、例えば左、右の何れであるのかが検出されることになる。
また、図40(b)に示す撮像画像データを取り込んで被写体検出処理部201が被写体検出処理を実行したとされると、先ずは、顔検出により2つの顔の存在することが特定されることになるので、個別被写体数については2であるとの結果が得られることになる。ここでは、2つの個別被写体のうち、左側を個別被写体SBJ0、右側を個別被写体SBJ1として識別性を持たせている。また、個別被写体SBJ0、SBJ1ごとに求めた重心の座標については、それぞれ、G0(X0,Y0)、G1(X1,Y1)として示されている。
また、このようにして、2以上の個別被写体が検出される場合には、これら複数の個別被写体をひとまとまりの被写体(総合被写体)としてみた場合の重心である、総合被写体重心Gt(Xg,Yg)を求めるようにされる。
この総合被写体重心Gtをどのようにして設定するのかについては、いくつか考えることができるが、ここでは、最も簡易な例として、検出された複数の個別被写体のうちで、画面の左端と右端の両端に位置する個別被写体の重心を結ぶ線分上の中間点を総合被写体重心Gtとして設定した場合を示している。この総合被写体重心Gtは、例えば後述するようにして構図制御において利用することができる情報であり、個別被写体の重心の情報が取得されれば演算により求められる情報である。従って、総合被写体重心Gtについては、被写体検出処理部201により求め、これを検出情報として出力することとしてもよいが、構図制御処理ブロック62が、検出情報として取得した個別被写体の重心の位置を示す情報のうちから、左右両端に位置する個別被写体の重心に関する情報を利用して求めるようにしてもよい。
なお、ほかには例えば、複数の個別被写体のサイズに応じて重み付け係数を与え、この重み付け係数を利用して、例えばサイズの大きな個別被写体に総合被写体重心Gtの位置が近くなるように配慮した設定手法も考えることができる。
また、個別被写体のサイズについては、例えば個別被写体SBJ0、SBJ1ごとに、その検出された顔が占有するとされる画素数を求めることとすればよい。
そして、本実施の形態としては、上記のようにして検出した個別被写体について、先に説明したようにして、現実被写体と非現実被写体(静止被写体)との間での選別を行い、現実被写体として選別したものを、構図判定対象に適う対象個別被写体として設定する。
続いては、図42〜図44を参照して、本実施の形態における第1例としての構図制御により得られる構図についての説明を行う。
確認のために、ここでの構図制御とは、構図判定処理と、この構図判定処理により判定した最適構図となるように構図合わせを行うための制御処理とを合わせていう。
図42には、被写体検出処理、被写体選別処理の結果として、撮像画像データの画枠内において、1つの対象個別被写体SBJs0の存在が検出された場合を示している。
なお、例えばこの図に示される画枠内においては、実際には、非現実被写体として検出された個別被写体が存在している可能性があるが、ここでは、例えば図を見やすくすることの便宜などを考えて、ここでの非現実被写体の図示は省略している。
また、本実施の形態にあっては、デジタルスチルカメラ1を取り付けた雲台10を通常に設置した場合には、横長の画像が撮像されるようにしてデジタルスチルカメラ1の向きが設定される。従って、第1例や後述する第2例の構図制御にあっては、撮像により横長の画像が得られることを前提とする。
上記図42に示したようにして1つの対象個別被写体が検出された場合には、まず、この対象個別被写体SBJs0の撮像画像データの画面内における占有率が、最適とみなされる所定値となるように対象個別被写体のサイズを変更する。例えば、対象個別被写体が検出された段階において、この対象個別被写体の画面内における占有率が上記の所定値より小さい場合、対象個別被写体の占有率が所定値にまで大きくなるように画角を狭くしていくズーム制御を実行させる。また、対象個別被写体の画面内における占有率が所定値より大きい場合には、対象個別被写体の占有率が所定値にまで小さくなるように画角を広くしていくズーム制御を実行させる。このようなズーム制御により、構図として先ずは、対象個別被写体が1つの場合における被写体サイズが適正となるようにされる。つまり、先ずは構図として、被写体の最適サイズを判定し、この最適サイズとなるようにして構図合わせを行うものである。
次に、対象個別被写体が1つの場合における画面上での被写体の位置(被写体位置)は、次のようにして調整する。
構図判定としてこの被写体位置の判定に関しては、検出された顔方向の情報を利用する。この図42の場合の対象個別被写体SBJs0は、顔方向が左であるとして検出されているものとする。このとき、この図42に示される画内容の画面を実際に見たとした場合、これを見る者からは、画面において、対象個別被写体SBJs0の顔が左側を向いているようにして見えることになる。ちなみに、この対象個別被写体SBJs0としての実際の人物自身は、現実には、撮像を行った撮像装置と相対する方向を正面として、これより右側を向いていることになる。
また、この被写体位置調整にあたっては、画像中の原点座標P(0,0)を通過する垂直線、即ちY軸線と一致する直線であって、被写体位置調整の基準線となる画像領域分割線Ldを仮想的に設定する。
そして、この場合のようにして顔方向が左であると検出された場合には、対象個別被写体SBJs0の重心Gが、上記画像領域分割線Ldに対応する位置(X=0)から、水平オフセット量Δxで表される右方向への移動量に従って移動させた位置(水平シフト位置)となるのが最適構図であると判定する。そして、この位置に上記重心Gを配置させるための構図合わせを行う。このためには、重心Gが、上記水平シフト位置にくるようにして、雲台10のパン機構を駆動させる制御を実行する。
一般に、被写体を画面の中央に位置させた構図は、良くない構図の典型とされている。そこで、例えば三分割法であるとか黄金率法などに代表されるようにして、画面中央から在る規則に従って被写体の位置をずらした方が、良い構図が得られるものとされている。本実施の形態としては、このような構図決定の手法に従い、先ずは、画面水平方向における個別被写体SBJの位置(重心G)について、画面中央に対して一定量(水平オフセット量Δx)だけ移動させるようにしているものである。
そのうえで、さらに、本実施の形態では、図42に例示するように、対象個別被写体の顔方向が左であれば、その重心Gの水平方向における位置について、Y軸線に沿った画像領域分割線Ldにより2分割される左右の画像領域(分割領域)のうちで、顔方向が示す「左」とは反対側の「右」側の画像領域に在るようにさせることで、画面においては、検出被写体SBJの顔が向いている方向である左側において空間が得られるようにしている。このような構図とすることで、例えば、顔方向が左であるとされる対象個別被写体SBJsの重心Gを、左右方向における画面中央に対応させた(一致させた)被写体位置とする場合や、画像領域分割線Ldに対して左方向の画像領域とするような場合と比較して、より良好な構図を得ることができる。
本実施の形態における水平オフセット量Δxとしての実値を決定するアルゴリズムについては多様に考えられるが、ここでは、三分割法に基づいて行うものとしている。三分割法は、最も基本的な構図設定手法の1つであり、方形の画面を垂直方向と水平方向のそれぞれに沿って三等分する仮想線上に被写体を位置させることにより良好な構図を得ようとするものである。
例えば、図42は、水平画枠サイズCxを三等分するようにされた画面縦方向に沿った2本の仮想線のうち、右側の仮想線上において重心Gが位置するようにして、水平オフセット量Δxが設定されているものである。これにより、個別被写体の顔方向に応じた水平方向における被写体位置として最適とされる構図の1つが得られることになるわけである。
また、図示による説明は省略するが、1つの対象個別被写体SBJsについて、顔方向について右であることが検出されている場合には、図42に示される位置に対して、画像領域分割線Ldを基準にして線対称となる水平位置に対象個別被写体SBJsの重心Gが位置するようにされる。つまり、この場合の水平オフセット量Δxとしては、図42の場合の実値の正/負を反転した値が設定され、この水平オフセット量Δxに基づいたパン制御が行われる。
また、図43(a)のように、2つの対象個別被写体SBJs0、SBJs1の存在が検出された場合には、構図制御として、先ず、対象個別被写体SBJs0、SBJs1の画像部分の集合から成るとされる総合被写体画像部分のサイズ(例えば画面全体に対する被写体画像部分の占有率としても捉えることができる)について、例えば対象個別被写体数が2である場合に対応して最適であるとして設定(判定)された値となるようにして調整(ズーム制御)を行う。
なお、上記の総合被写体画像部分をどのようにして定義してそのサイズを求めるのかについてはいくつか考えられるが、例えば、検出された複数の対象個別被写体ごとの画像部分のサイズを足し合わせるようにして求めることができる。あるいは、検出された複数の個別被写体が全て含まれるようにして仮想的に描いた線により囲まれる画像部分のサイズとして求めることも考えられる。
また、これら2つの対象個別被写体SBJs0、SBJs1についての水平方向における被写体位置に関しては、これら2つの対象個別被写体SBJs0、SBJs1ごとの顔方向の情報を利用する。
この図43(a)に示される2つの対象個別被写体SBJs0、SBJs1の顔方向は、何れも左であると検出されているものとする。つまり、2つある対象個別被写体の全ての顔方向が同一とされており、これらの顔方向がこの場合には左とされているものである。
この場合には、図42に示した1つの対象個別被写体SBJsの顔方向が左であった場合に準じて、画面左側に空間ができるように、対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分を、顔方向が示す「左」とは反対となる、画像領域分割線Ldの右側に寄せて位置させるようにする。つまり、この被写体配置が最適構図であるとしてこの場合には判定されているものである。このためには、例えば図示しているように、右側に所定量ずらすための水平オフセット量Δxを設定した上で、2つの対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分の重心である、総合被写体重心Gtについて、画像領域分割線Ldである原点座標P(0,0)を通過する垂直線(Y軸線)から水平オフセット量Δxだけ移動した位置にくるように、パン制御を行うようにされる。
また、図示はしていないが、2つの対象個別被写体SBJs0、SBJs1の顔方向が何れも右で同一である場合には、図43(a)の位置に対して、画像領域分割線Ldを基準にして線対称となる位置(Y軸線に対して左側の画面領域において同じ水平オフセット量Δxの絶対値分移動した位置)に総合被写体重心Gtが在る状態を最適構図として判定するので、この状態となるようにしてパン制御を行うことになる。
ただし、このように対象個別被写体が複数である場合において、対象個別被写体数が1の場合のときに最適とされる水平オフセット量Δxを与えたとすると、右(あるいは左)に寄りすぎた印象の構図となりやすい。そこで、図43(a)に示されるように対象個別被写体数が2の場合においては、水平オフセット量Δxについては、図42に示した対象個別被写体数が1の場合よりも小さい値(絶対値)を所定規則によって設定(判定)することとしている。
また、図43(b)には、2つの対象個別被写体SBJs0、SBJs1について検出された顔方向が、それぞれ左、右となっている場合の例を示している。なお、これは、個別被写体数が2である場合において、それぞれの顔方向が同一ではない場合の一例を示している。
この場合の水平方向における総合被写体画像部分の位置については、図示するようにして、2つの対象個別被写体SBJs0、SBJs1の総合被写体重心Gtが、画像領域分割線Ld上に位置する状態が最適構図であると判定し、この状態となるようにして調整(パン制御)を行う。
これにより得られる構図では、2つの対象個別被写体SBJs0、SBJs1から成る総合被写体画像部分は、水平方向において画面のほぼ中央に位置することとなる。しかし、被写体が複数とされて、かつ、これらの被写体が同一の方向を向いていないような画の場合、総合被写体画像部分が中央にきたとしても、その構図は相応に良好なものとなる。
また、図44においては、3つの対象個別被写体SBJs0、SBJs1、SBJs2が検出された場合を示している。
この場合の構図制御としても、先ず、対象個別被写体SBJs0、SBJs1、SBJs2から成る総合被写体画像部分のサイズについて、個別被写体数が3である場合に対応して最適であるとして設定された値となるようにして調整(ズーム制御)を行う。
そのうえで、総合被写体画像部分の水平方向における位置については、この場合にも、各個別被写体ごとに検出された顔方向の情報を利用することになる。図44においては、3つの対象個別被写体SBJs0、SBJs1、SBJs2の顔方向が全て左で同一であるものとする。
この場合には、図43(a)の場合に準じて、対象個別被写体SBJs0、SBJs1から成る画像領域部分を画像領域分割線Ldよりも右側の画像領域に寄せて位置させるようにして、水平オフセット量Δxの設定(判定)と、これによって決まる(判定される)所要位置への総合被写体重心Gtの移動のためのパン制御を行うようにされる。また、仮に3つの対象個別被写体SBJs0、SBJs1、SBJs2の顔方向が全て右で同一である場合には、総合被写体重心Gtは、図44の位置に対して、画像領域分割線Ldを基準にして線対称となる水平位置に在るようにしてパン制御が行われることになる。
また、このときに設定される水平オフセット量Δxは、図43(a)の対象個別被写体が2つの場合よりも、小さな絶対値を設定するようにされる。これにより、例えば対象個別被写体数が3とされる場合に応じて、水平方向における被写体位置はより最適となって、良好な構図が得られることになる。
また、この第1例の構図制御にあって、3つの対象個別被写体SBJs0、SBJs1、SBJs2の顔方向が全て同一ではなかった場合には、図43(b)に準じて、画像領域分割線Ld(Y軸線)上に総合被写体重心Gtが位置する構図が得られるようにする。
これまでの説明によると第1例の構図制御による水平方向の位置調整は、先ず、対象個別被写体ごとに検出される顔方向に対応させていることが分かる。つまり、最も基本的な制御として、対象個別被写体数が1の場合には、その対象個別被写体で検出された顔方向が左、右の何れであるのかに対応して、その重心G(総合被写体重心Gt)について、画像領域分割線Ld(Y軸線)の右側領域、あるいは左側領域に対して所定量だけずらして位置させる(重心Gの水平オフセットを行う)ようにして、画面内では被写体の向いているほうに空間ができるようにしている。
そして、構図制御として、対象個別被写体数が複数(2以上)の場合には、対象個別被写体の顔方向が全て同一ならば、上記の位置調整に倣い、総合被写体重心Gtの水平オフセットを行うようにされ、全て同一でないならば、水平オフセットを行うことなく、総合被写体重心Gtには画像領域分割線Ldに対応したX座標を与えて、総合被写体画像部分が画面内のほぼ中央に在るようにする。
そのうえで、総合被写体重心Gt(重心Gは個別被写体数が1の場合の総合被写体重心Gtとみなす)の水平オフセットを行うのにあたっては、図42〜図44により述べたようにして、水平オフセット量Δxを、対象個別被写体数に応じて変更するものとしている。これにより、画面における総合被写体画像部分の水平方向に沿った位置について、対象個別被写体数に応じた最適な位置が得られるように配慮している。
図45は、上記図42〜図44により説明した第1例としての構図制御に対応して、構図判定ブロック62、パン・チルト・ズーム制御ブロック63が実行するものとされる手順例を示している。なお、この図に示される手順は、図29、図32、図34に示したいずれの構成にも適用できる。
また、この図に示す処理は、DSPとしての信号処理部24、制御部27におけるCPUがプログラムを実行することで実現されるものとしてみることができる。
また、以降のフローチャートの説明においては、これまでに使用してきた「総合被写体重心(Gt)」、及び「総合被写体画像部分」の語句は、検出されている個別被写体数が2以上の場合のみに適用するのではなく、1の場合にも適用する。つまり、例えば図42に示した重心Gが、検出されている個別被写体数が1の場合の個別被写体重心Gtとなるものであり、また、図42の個別被写体SBJのみからなる画像部分が、検出されている個別被写体数が1の場合の総合被写体画像部分となる。
先ず、ステップS1101〜ステップS1106までは、被写体を探索して検出、及び被写体選別のための手順となり、主に被写体検出処理部201が実行するものとされる。
ステップS1101では、イメージセンサ22からの撮像信号に基づいた撮像画像データを取り込んで取得する。ステップS1102では、上記ステップS1101により取得した撮像画像データを利用して被写体検出処理、及び被写体選別処理を実行する。ここでの被写体検出処理は、これまでの説明のようにして、被写体検出処理部201が実行するものとなる。また、ここでの被写体検出処理では、先にも述べたように、検出個別被写体ごとの顔方向についても検出して、その情報を得るようにされている。また、被写体選別処理は、これまでの説明に従って被写体選別処理部211が実行するものとなる。
ステップS1103では、上記ステップS1102による被写体検出処理、被写体選別処理の結果として、構図判定対象となる現実被写体の存在、即ち対象個別被写体が存在しているか(選別されたか)否かについての判別を行う。ここで対象個別被写体の存在が検出されなかった(選別された対象個別被写体数が0である)として否定の判別結果が得られた場合には、ステップS1104に進み、被写体探索時に応じた所定の画角(水平・垂直画角)にまで広くするためのズームレンズの移動制御(ズームアウト制御)を実行する。このようにして画角を広くすることで、より広い範囲が撮像されることになるので、それだけ被写体を補足しやすくなる。また、これとともに、ステップS1105により、被写体探索のために雲台10のパン・チルト機構を動かすための制御(パン・チルト制御)を実行する。このときには、被写体検出処理部201がパン・チルト制御のための制御信号を通信制御処理ブロック64に渡し、雲台10の通信部52に対して送信されるようにして制御を行う。
なお、上記被写体探索のためのパン・チルト制御として、雲台10のパン・チルト機構をどのようなパターンで動かすのかについては、例えば探索が効率的に行われることを配慮して決めることとすればよい。
また、ステップS1106においては、モードフラグfについて0を設定(f=0)し、ステップS1101に戻るようにされる。
このようにして、撮像画像データの画内容において少なくとも1つの個別被写体が検出されるまでは、ステップS1101〜ステップS1106の手順が繰り返される。このとき、デジタルスチルカメラ1と雲台10から成るシステムは、被写体探索のために、デジタルスチルカメラ1がパン方向及びチルト方向に動かされている状態となっている。
そして、ステップS1103において対象個別被写体が存在しているとして肯定の判別結果が得られたとされると、ステップS1107以降の手順に進む。
ステップS1107においては、現在のモードフラグfに設定されている値が何であるのかを判別する。
f==0であると判別された場合には、構図制御として、最初のラフな被写体捕捉モードを実行すべき場合であることを示すものであり、図のようにしてステップS1108から始まる手順を実行する。
ステップS1108においては、総合被写体重心Gtが、撮像画像データの画面(撮像画像データの画内容を表したとするときに得られる画面)における原点座標P(0,0)(図41参照)に位置しているか否かについての判別を行う。ここで、総合被写体重心Gtは、未だ原点座標に位置していないとして否定の判別結果が得られた場合には、ステップS1109により、総合被写体重心Gtが原点座標に位置するようにして、雲台10のパン・チルト機構を動かすための制御を実行し、ステップS1101に戻る。このようにして、個別被写体の存在が検出されている状態での最初の構図制御の手順である捕捉モードは、総合被写体重心Gtを、先ずは初期の基準位置である原点座標に対して位置させるようにして雲台10のパン・チルト機構を制御することで、検出された対象個別被写体が写っているとされる画像領域を画面内の中央に位置させようとするものである。
なお、上記ステップS1109としてのパン・チルト制御を実際に行うのにあたってのアルゴリズムの一例をここで示しておく。
モードフラグf==0の状態で個別被写体が検出される状態では、被写体検出処理部201は、下記の(数1)により示される演算を行って、パン方向における必要移動量Spanとチルト方向における必要移動量Stiltを求めるようにされる。下記の(数1)において、nは選別された対象対象個別被写体数を示し、P(Xi,Yi)は0番からn−1番までの番号が与えられた対象個別被写体のうちのi番目の対象個別被写体の重心のX,Y座標を示す。確認のために、図41に示したように、この場合における原点座標(0,0)は、画面における水平方向における中点と垂直方向における中点との交点となる。
Figure 2009231922
例えばステップS1108では、上記のようにして求められる必要移動量Span,Stiltの絶対値が所定値(厳密には0となるが、0より大きな値とされてもよい)以内であるか否かを判別することを以て、総合被写体重心Gtが原点座標Pに在るか否かと同等の判別を行うことができる。そして、ステップS1109においては、必要移動量Span,Stiltの絶対値が所定値以内となるようにしてパン・チルト制御を実行するようにされる。なお、このときのパン・チルト制御に際してのパン機構部53、チルト機構部56の速度は一定としても良いのであるが、例えば、必要移動量Span,Stiltが大きくなるのに応じて速度を高くしていくなどして可変させることが考えられる。このようにすれば、パンニングあるいはチルティングによる必要移動量が大きくなったときも、比較的短時間で総合被写体重心Gtを原点座標に近づけることが可能になる。
そして、ステップS1108において、総合被写体重心Gtが原点座標に位置したとして肯定の判別結果が得られたとされると、ステップS1110によりモードフラグfについて1を設定(f=1)してステップS1101に戻る。このステップS1110によりモードフラグfについて1が設定された状態は、構図制御における最初の手順である捕捉モードは完了し、次の第1の構図の調整制御(構図調整モード)を実行すべき状態であることを示す。
そして、モードフラグf==1とされて第1の構図調整モードを実行すべき場合には、ステップS1107からステップS1111に進むことになる。第1の構図調整モードは、検出された個別被写体数と個別被写体ごとの顔方向の組み合わせに応じた最適構図を得るためズーム(画角)調整とパン制御を行うものである。なお、画角調整とパン制御によっては画面内における個別被写体のサイズや個別被写体の位置が変化する結果を生じる。
ステップS1111においては、現在において設定されている対象個別被写体数がいくつであるかを判別し、1であればステップS1112から始まる手順を実行する。
ステップS1112においては、検出されている対象個別被写体数が1であることに対応した目標被写体サイズを設定する。ここでの目標被写体サイズとは、画面における総合被写体画像部分のサイズとして構図的に最適であるとみなされるものをいい、例えば図42との対応では、「(1つの)対象個別被写体SBJs0の撮像画像データの画面内における占有率が、最適とみなされる所定の範囲値」に相当する。
ステップS1113においては、対象個別被写体のサイズがOKであるか否かについて判別する。対象個別被写体のサイズがOKである状態とは、そのときに検出されている対象個別被写体のサイズが、上記ステップS1112により設定された目標被写体サイズとなっている状態である。ステップS1113において否定の判別結果が得られた場合には、ステップS1114に進み、対象個別被写体のサイズが目標被写体サイズとなるようにズームレンズの駆動制御(ズーム制御)を実行し、ステップS1101に戻る。
なお、このときには、総合被写体重心Gtの水平方向(左右方向)における位置に関しては、ステップS1109にて設定されたX座標(X=0)に対応する位置を維持するようにしてズーム制御を行うようにされる。これにより、対象個別被写体を左右方向においてほぼ中央に位置させた状態を維持することができる。また、被写体探索動作の実行時においては、ステップS1104によりズームアウト制御が行われるので、ステップS1114としてのズーム制御に際してはズームイン制御となる場合が多いと考えられる。しかし、何らかの原因で、そのときに検出された個別被写体のサイズが、目標被写体サイズよりも大きくなっている状態に応じてステップS1113にて否定の判別結果が得られた場合、ステップS1114ではズームアウトを実行させて、実際の対象個別被写体のサイズが目標被写体サイズとなるように制御することになる。
そして、ステップS1113において肯定の判別結果が得られたのであればステップS1115以降の手順に進むようにされる。
ステップS1115においては、水平オフセット量Δxを設定する。
ここで、本実施の形態における第1例の構図制御にあっては、水平オフセット量Δxについては、下記の(式1)により求めるものとする。
θx=D×(Cx/6)/n・・・(式5)
上記(式5)において、Dは、顔方向若しくは複数の顔方向の組み合わせ(関係性)に基づいて、+1、−1、0のいずれかが設定される係数である。Cxは、水平画サイズを示す。Cx/6の項は、三分割法に基づいて得られる縦方向に沿った仮想線のX座標に対応したものである。nは、選別(設定)されている対象個別被写体数を示す。
ステップS1115に至った場合、検出されている対象個別被写体数は1であるので、n=1とになる。また、顔方向は、左か右の何れか一方となる。係数Dは、顔方向が左である場合には+1となり、右である場合には−1となる。
すると、選別された1つの対象個別被写体の顔方向が左である場合には、θx=−Cx/6となる。この水平オフセット量Δxは、原点座標P(0,0)を通過する垂直線(画像領域分割線Ld:Y軸線)から、Cx/6だけ右に移動した垂直線の位置を示すことになるが、この垂直線の位置は、ちょうど、三分割法に従った2本の仮想線のうち、右側にある仮想線と同じになる。
一方、選別された1つの対象個別被写体の顔方向が右である場合には、水平オフセット量Δx=Cx/6となり、原点座標P(0,0)を通過する垂直線(画像領域分割線Ld:Y軸線)から、Cx/6だけ左に移動した垂直線の位置を示すことになる。そして、この垂直線の位置は、ちょうど、三分割法に従った2本の仮想線のうち、左側にある仮想線と同じになる。
ステップS1116においては、総合被写体重心Gt(この場合には、対象個別被写体数が1なので、図42の重心Gと総合被写体重心Gtは同じになる)が、上記ステップS1115により設定された水平オフセット量Δxに対応するX座標上に位置しているか否かの判別処理を行う。ここで否定の判別結果が得られた場合には、ステップS1117に進む。
ステップS1117では、水平オフセット量Δxに対応するX座標上に総合被写体重心Gtが位置する状態となるようにパン制御を実行し、ステップS1101に戻る。
そして、上記ステップS1117の制御により、水平オフセット量Δxに対応するX座標上に総合被写体重心Gtが位置する状態に至ったとされると、ステップS1116にて肯定の判別結果が得られることになる。このようにしてステップS1116にて肯定の判別結果が得られたときには、対象個別被写体(SBJ)の重心は、図42により示したようにして、その顔方向に応じて、画像領域分割線Ldから水平オフセット量Δxだけ左又は右に移動した位置にあることになる。
ステップS1116において肯定の判別結果が得られた場合には、ステップS1118に進み、モードフラグfについて2を設定してステップS1101に戻る。このモードフラグf==2となっている状態は、後の説明からも理解されるように、第1の構図調整が完了して、次の第2の構図調整モードを実行したうえでレリーズ動作を実行すべきであることを示す。
また、ステップS1111において、検出されている対象個別被写体数が2以上であると判別した場合には、ステップS1119から始まる手順を実行する。
ステップS1119においては、目標被写体サイズを設定する処理を行う。対象個別被写体数が2以上とされる場合、最適構図を得るための目標被写体サイズは、例えば対象個別被写体数に応じて異なってくるものとされる。そこで、ステップS1119においては、ステップS1102において検出された個別被写体数に応じた所定の目標被写体サイズを設定する。また、確認のために述べておくと、対象個別被写体数が2以上の場合の目標被写体サイズは、検出されている全ての個別被写体から成る総合被写体画像部分を対象としたものとなる。
ステップS1120においては、対象個別被写体のサイズがOKであるか否かについて判別する。つまり、このときの対象個別被写体についての検出情報から求められる総合被写体画像部分のサイズが、上記ステップS1120により設定された目標被写体サイズとなっているか否かについて判別する。
ステップS1120において否定の判別結果が得られた場合には、ステップS1121に進む。ステップS1121においては、ステップS1114に準じて、このとき検出されている対象個別被写体の総合被写体画像部分のサイズが、ステップS1119により設定された目標被写体サイズとなるようにズームレンズの駆動制御(ズーム制御)を実行し、ステップS1101に戻る。
これに対して、ステップS1120において肯定の判別結果が得られた場合には、ステップS1122に進む。
ステップS1122では、複数の対象個別被写体ごとに検出された顔方向について、これらが全て同一であるか否かの判別処理を行う。
先ず、ステップS1122において肯定の判別結果が得られた場合には、ステップS1123以降の手順を実行する。ステップS1123においては、先に述べた(式5)により水平オフセット量Δxを設定する。
この場合には、(式5)における係数Dには、検出されている同一の顔方向が、左、右の何れを示しているのかに応じて、+1と−1のいずれかが代入される。また、nには、検出されている対象個別被写体数に応じた2以上の数が代入されることになる。このことからも理解されるように、(式5)によっては、対象個別被写体数が多くなるのに応じて、求められるθxの絶対値は小さくなる。つまり、図42、図43(a)、図44によっても説明したように、対象個別被写体数が多くなるのに応じて、総合被写体画像部分の左右における画像領域分割線Ldからのオフセット量は少なくなっていくようにされる。
これに対して、ステップS1122において、否定の判別結果が得られた場合には、ステップS1124により、水平オフセット量Δx=0を設定する。
なお、このステップS1124の処理にあっても、(式5)による演算を行うことで、θx=0を設定することができる。つまり、ステップS1122にて否定の判別結果が得られた場合(即ち複数の顔方向が同一でない場合)には、ステップS1124にて、係数Dについて0を代入して(式5)の演算を行うようにアルゴリズムを構成するものである。
ステップS1123、又はステップS1124の手順を実行した後は、ステップS1125以降の手順に進む。
ステップS1125、126、S1127では、先に説明したステップS1116、S1117、S1118と同様にして、総合被写体重心Gtが、ステップS1123又はステップS1124により設定された水平オフセット量Δxに対応するX座標上に位置する状態に至るまでパン制御を実行する。この制御により、複数の対象個別被写体の顔方向が同一である場合には、その数に応じた水平オフセット量Δx分だけ、左又は右方向に総合被写体画像部分(総合被写体重心Gt)が移動された状態が得られていることになる。この状態に至ると、ステップS1125にて肯定の判別結果が得られることとなって、ステップS1127によりモードフラグfについて2を設定し、ステップS1101に戻る。
このようにして、モードフラグfについて2が設定された状態では、構図制御として、図42〜図44により説明した、対象個別被写体数に応じたサイズ調整と、これらの対象個別被写体ごとの顔方向若しくはその組み合わせに応じた水平方向における位置調整までの手順が完了した状態であることになる。そこで、ステップS1107にてモードフラグfが2であると判別された場合には、ステップS1128以降の手順により、第2の構図調整モードを実行する。
例えば、図42〜図44での構図制御の説明にあっては、その説明を簡単なものとするために、画面上下方向における対象個別被写体の重心の位置をどのようにして設定するのかについては言及していないが、実際においては、画面の中央から例えば或る必要量だけ上方向に移動(オフセット)させたほうが、より良い構図となる場合がある。そこで、本実施の形態の構図制御の実際としては、最適構図としてより良好なものが得られるようにして総合被写体重心Gtの縦(垂直)方向のオフセット量も設定することとしている。このための手順が、第2の構図調整モードとなるものであり、ステップS1128及び次に説明するステップS1129として実行される。
ステップS1128では、総合被写体重心Gt(対象個別被写体が1つの場合はその対象個別被写体の重心Gとなる)の位置について、画面上の原点座標Pを通過する水平直線(X軸)から所定の垂直オフセット量Δyだけオフセットしている状態にあるか否か(重心オフセットがOKであるか否か)を判別する。
ステップS1128にて否定の判別結果が得られた場合には、ステップS1129により、設定された垂直オフセット量Δyだけ重心がオフセットされるようにして、雲台10のチルト機構が動くようにチルト制御を実行し、ステップS1101に戻る。そして、ステップS1128において肯定の判別結果が得られた段階では、総合被写体画像部分の水平方向における位置と、垂直方向における位置との双方について、最適構図に対応したものが得られている、さらに、総合被写体画像部分のサイズも最適構図に対応したものが得られていることになる。即ち、最適構図が得られている状態となる。
なお、このステップS1128、S1129に対応した垂直オフセット量Δyの実値をどのようにして設定するのかについては、いくつかの手法が考えられることから、ここでは特に限定されるべきものではない。最も簡単な設定の1つとしては、例えば三分割法に基づいて、縦方向における中心位置から、垂直画サイズCyの1/6に相当する長さの値を与えることが考えられる。もちろん、例えば対象個別被写体数であるとか、顔方向及びその組み合わせに応じた異なる値を所定の規則に従って設定するように構成することも考えられる。
そして、ステップS1128により肯定の判別結果が得られた場合には、ステップS1130から始まる、レリーズ動作に対応した処理手順を実行する。ここでのレリーズ動作とは、これまでにも述べてきているように、そのときに得られている撮像画像データを、静止画像データとして記憶媒体(メモリカード40)に記憶させるための動作をいう。つまり、手動によるシャッター操作を行っている場合では、このシャッター操作に応答して、そのときに得られていた撮像画像データを静止画像データとして記憶媒体に対して記録する動作にあたる。
ステップS1130においては、現在においてレリーズ動作を実行可能な条件を満たしているか否かを判別する。条件としては例えば、合焦状態にあること(オートフォーカス制御が有効に設定されている場合)、雲台10のパン・チルト機構が停止状態にあること、などを挙げることができる。
上記ステップS1130で否定の判別結果が得られた場合には、処理をステップS1101へ戻す。これにより、レリーズ動作を実行できる条件が満たされる状態となるのを待機することができる。そして、ステップS1130において肯定の判別結果が得られると、ステップS1131によりレリーズ動作を実行する。このようにして、本実施の形態では、最適構図の撮像画像データを記録することができる。
レリーズ動作が終了したとされると、ステップS1132により所要のパラメータについて初期設定を行う。この処理により、モードフラグfについては初期値の0が設定される。また、ズームレンズの位置も、予め設定された初期位置に戻される。
そして、ステップS1132の処理を実行した後は処理をステップS1101へ戻す。このようにして処理をステップS1132からステップS1101へ戻すことにより、被写体を探索し、この探索により検出されることとなった対象個別被写体の向いている方向と対象個別被写体数に応じた最適構図を得て撮像記録(レリーズ動作)を行うという動作が、自動的に繰り返し実行されることになる。
なお、上記図45の場合におけるレリーズ動作は、撮像画像から静止画像を記録媒体に記録する動作となるものであるが、本実施の形態におけるレリーズ動作は、より広義には、上記の静止画像を記録媒体に記録することを含め、例えば撮像画像から必要な静止画像データを取得することを指す。従って、例えば本実施の形態のデジタルスチルカメラ1により、データインターフェースなどを経由して他の記録装置などに伝送するために、撮像画像から静止画像データを取得するような動作も、レリーズ動作となるものである。
これまでに述べた図45の手順では、先ず、ステップS1108、S1109により、先の(数1)で求められる必要移動量Span,Stiltに基づいて、1以上の対象個別被写体の総合被写体重心Gtを画面における原点座標Pに位置させるという、捕捉のためのパン・チルト制御を行うこととしている。そして、次の段階として、対象個別被写体数、及び対象個別被写体ごとに検出される顔方向の関係性(同一であるか否か)に基づき、水平オフセット量Δxを求め、総合被写体重心Gtについて、原点座標Pを通過する垂直線(画像領域分割線Ld:Y軸線)を基準に、水平オフセット量Δxに対応する距離だけ、左若しくは右方向に移動させるためのパン制御を行う。さらに、設定された垂直オフセット量Δyが示す移動量に基づいて、総合被写体重心Gtについて、原点座標Pを通過する水平直線(X軸)を基準に、垂直オフセット量Δyに対応する距離だけ、上方向(若しくは下方向)に移動させるためのチルト制御を行う。
このことからすると、図45の手順におけるパン・チルト制御は、
Figure 2009231922
により必要移動量Span,Stiltを求めたうえで、必要移動量Spanに対応した画面内での移動量を得るためのパン機構の制御と、必要移動量Stiltに対応した画面内での移動量を得るためのチルト機構の制御とを行っているものである、ということがいえる。
続いては、本実施の形態における第2例としての構図制御について説明する。
第2例の構図制御に対応する事例として、図46には、3つの対象個別被写体SBJs0、SBJs1、SBJs2が選別された状態を示している。これらの対象個別被写体のうち、対象個別被写体SBJs0、SBJs2について検出されている顔方向は左であるのに対して、対象個別被写体SBJs1について検出されている顔方向は右であるものとする。この場合、全ての対象個別被写体の顔方向が同一にはなっていないので、第1の構図制御の場合であれば、図43(b)などで説明したように、総合被写体重心Gtは、原点座標Pを通過する垂直線(画像領域分割線Ld:Y軸線)上に在るように構図が設定される。
しかし、3つの対象個別被写体のうちで、例えば過半数を占める2つの対象個別被写体SBJs0、SBJs2が同じ方向を向いている(顔方向が同一である)ということは、残る1つの対象個別被写体SBJs1の顔方向に対応して向いているとする反対方向よりも、これら2つの対象個別被写体SBJs0、SBJs2が向いているとする先に、何かしら重要性の高いものが存在している可能性が高いということがいえる。このような考え方に基づけば、これら2つの対象個別被写体SBJs0、SBJs2の顔方向が示す先の画面領域に空間を設けることのほうが良い構図となる可能性が高いといえる。この場合であれば、2つの対象個別被写体SBJs0、SBJs2の顔方向が左であるとして検出されているので、画面において、3つの対象個別被写体SBJs0、SBJs1、SBJs2から成る総合被写体画像部分を画像領域分割線Ldよりも右側の画像領域に寄せて良い構図を得ようとするものである。
そこで、第2例の構図制御としては、複数の個別被写体ごとに検出される顔方向の関係性として、同一となる顔方向の数が、対象個別被写体の全体数における所定割合以上を占めるときには、この同一となる顔方向を基準顔方向とする。この基準顔方向は、例えば複数の対象個別被写体群の総体を1つの対象個別被写体としてみた場合において、画面内にて向いているとする方向を指すものといえる。そして、この基準顔方向に基づいて、水平オフセット量Δxを求めて設定するようにされる。このような構図制御により、図46の場合には、原点座標Pを通過する垂直線よりも右側に総合被写体重心Gtが位置するようにして構図が設定されることになる。
また、ここでは図示しないが、上記の所定割合以上を占めるだけの、同一の顔方向数が得られていない状態、即ち上記の基準顔方向が決定できなかった場合、本実施の形態としては、総合被写体画像部分が左右方向においてほぼ中央に位置する構図を設定することのほうが好ましいとの考えにたつものとする。そこで、この場合には、水平オフセット量Δxについては0を設定することとする。
図47は、上記した第2例の構図制御に対応して図5に示した被写体検出処理部201、構図制御処理ブロック62、及び通信制御処理ブロック64が実行するものとされる手順例を示している。
この図47に示される手順のうちで、ステップS1221−1、S1222−2を除くステップS1201〜S1232までの手順は、図45におけるステップS1101〜S1132までの手順と、それぞれ同じとなる。
そして、ステップS1221−1とこれに続くステップS1222−2は、ステップS1222において否定の判別結果が得られた場合において実行すべき手順として挿入されている。つまり、ステップS1222−1、S1222−2は、対象個別被写体数が複数の場合であって、先ずは、総合被写体画像部分のサイズ調整が完了した段階において、これらの個別被写体の顔方向の関係性として、全ての顔方向が同一ではなかった場合に実行されるものである。
ステップS1222−1では、基準顔方向を決定するための処理を実行する。
このためには、例えば、先にも述べたように、検出されている複数の対象個別被写体ごとの顔方向の関係性として、同一の顔方向を持つ対象個別被写体の組のうちで、その組を成す対象個別被写体数が、全ての対象個別被写体数における所定割合以上を示すものがあるかどうかについて判断し、このような対象個別被写体の組があれば、この組の対象個別被写体の顔方向を、有効な基準顔方向として決定するようにされる。また、このような対象個別被写体の組が無ければ、基準顔方向も無いものとする決定を行うようにされる。
なお、上記の所定割合について、実際にどのような値を設定するのかについては、実際における対象個別被写体数及び対象個別被写体ごとの顔方向の関係性との対応で、どのような構図が適当となるのかを考慮したうえで、適宜決定されて良い。また、この所定割合としての値は、基本的には固定の1つの値が設定されればよいが、例えば、決定された対象個別被写体数などに応じて、異なる所定値が設定されるようにされてもよい。
さらに、基準顔方向決定処理のためのアルゴリズムとしては、上記以外にも考えることができる。例えば、全ての対象個別被写体数における割合は考慮せずに、単に、同一の顔方向を持つ対象個別被写体の組のうちで、対象個別被写体数が最多の組の顔方向を、有効な基準顔方向として決定するような処理も考えることができる。この場合には、例えば同一の顔方向を持つ各組を成す対象個別被写体数が同じであるようなときに、基準顔方向は無いものとしての決定が行われることになる。
ステップS1222−2においては、上記ステップS1222−1の顔方向決定処理の結果として、有効な基準顔方向が決定されたか否かについての判別を行う。
ここで、肯定の判別結果が得られた場合には、ステップS1223に進む。この場合のステップS1223においては、ステップS1222−1にて決定された基準顔方向に基づいて係数Dを決定して、水平オフセット量Δxを求めて設定する。
一方、ステップS1222−2において否定の判別結果が得られた場合には、先のステップS1222−1にて、左若しくは右を示す有効な基準顔方向を決定することができなかったことになる。そこで、この場合には、ステップS1224に進むことで、水平オフセット量Δxについては0を設定する。このようにして、ステップS1222−1、S1222−2を挿入することで、図46により説明したような第2例の構図制御が実現されることになるものである。
なお、先の図45及び上記図47に示される手順では、構図判定の処理としてみることのできる手順と、その判定結果に応じた構図合わせの制御(構図制御)のための手順が入り組んだものになっており、また、ステップによっては、構図判定と構図合わせの制御とを同時的に行っているようなものもあるが、これは、図45及び図47に示す手順が、実際に応じた具体的なものとされていることによる。あくまでも実施の形態の基本的な概念は、これまでに説明してきた構図判定ブロック200、あるいは構図判定ブロック62などに示した構図判定の構成を適用したものとして捉えられるべきものである。つまり、実施の形態の撮像システムでは、対象個別被写体の数に応じて最適とみなされる構図を判定、決定し、この判定した構図の撮像画像データが実際に得られる(反映される)ようにして、ズーム制御、及びパン・チルト制御を適宜実行しているものであるとみることができる。
また、図40以降により説明した構図判定、構図制御の具体例にあっては、顔方向の検出は、左、右の2段階による検出であることを前提としていたが、実際においては、例えば左、右に加えて、正面もあるようにして顔方向検出処理を構成する場合もあると考えられる。この場合にも、本願発明に基づいた構図制御は有効に適用できる。
例えば図42のようにして1つの対象個別被写体が検出された場合において、さらに顔方向については正面であることが検出された場合であるが、1つには、水平方向における被写体位置を、画面のほぼ中央に位置させる(重心Gがほぼ画像領域分割線Ld(Y軸線)上に在るようにする)ことが考えられる。しかし、このような構図は、良くない構図の代表的なものとされることが多い。そこで、検出される個別被写体が1つである場合において、顔方向が正面の場合には、図42と同様の構図、若しくは、図42の構図に対して画像領域分割線Ldを基準に線対称となるような構図とするようにして水平オフセット量Δxを決定することも考えられる。このようにすれば、三分割法に則った良好な構図が得られる。
また、2以上の対象個別被写体が検出されている場合に、例えば全ての対象個別被写体の顔方向が正面を示している、あるいは基準顔方向が正面である場合には、(式1)の係数Dを0に設定したうえでの水平オフセット量θを求めるようにして構成することが考えられる。
また、顔方向として上下方向についても検出可能とされている場合には、この上下方向における顔方向の検出結果に応じて、本願発明に基づいた構図制御を行うことも可能である。この場合には、水平方向に沿った画像領域分割線Ld(例えば原点座標を通過する水平方向の線(X軸線)とすることができる)を基準にして、上下方向での総合被写体重心Gtの移動を行うことになる。
さらに、顔方向について、左右方向と上下方向とを合成した斜め方向の検出も可能とされているときには、この斜め方向が検出された顔方向に応じた構図制御も行うことが可能である。この場合には、検出された斜めの顔方向に直交して画面を横切る線((例えば原点座標を通過する線)を画像領域分割線Ldとして設定し、この画像領域分割線Ldにより分割された画像領域の何れか一方の側に総合被写体重心Gtを移動させるようにすることが考えられる。
さらに、例えば、顔方向について、左右方向(あるいは上下方向)において、例えば2段階、若しくは3段階よりも多い段階により、向きの検出を行えるようにされている場合には、このようにして検出された向きの段階(度合い)に応じて水平オフセット量Δx(若しくは垂直オフセット量Δy)を可変するようなアルゴリズムを採用することが考えられる。
また、基準線の通過する基準点は、この場合には、図41にて示したように、画面における原点座標としているが、この基準点の位置については、例えばより良好な構図を得ることなどを目的として、原点座標以外の位置が設定されても良いものである。
また、上記図14〜図23により説明した例は一部であって、本願発明による構図判定を適用できる装置、システム、アプリケーションソフトウェアなどはほかにも考えられる。
また、これまでの実施の形態の説明にあっては、被写体(対象個別被写体)は、人であることを前提としているが、例えば、人以外の動物を被写体とするような場合にも、本願発明を適用することが考えられる。
また、本願発明のもとで判定される構図(最適構図)は、必ずしも、三分割法などの構図設定手法に対して、対象個別被写体の数の要素を加味する手法によって決定された構図に限定されるものではない。例えば一般的には良くないとされる構図であっても、構図の設定次第では、ユーザがおもしろみを感じたり、かえって良いと感じるような場合もあると考えられる。従って、本願発明のもとで判定される構図(最適構図)としては、実用性、エンタテイメント性などを考慮して任意に設定されればよく、実際においては特に制限はない。
また、上記実施の形態においては、検出された個別被写体から現実被写体と非現実被写体(静止被写体)とを選別して、現実被写体のほうを構図判定の対象としている。これは、先にも述べたように、例えばポスターの顔などは排除して、現実の人としての被写体のみを対象とする最適構図を得ることが要求される用途を前提としている。
しかし、これまでの説明から自明なように、本願発明に基づいては、非現実被写体(静止被写体)のほうを構図判定の対象とするように構成することも当然に可能である。現実被写体を選別することによっては、非現実被写体も選別しているものとしてみることができるからである。そして、このような構成も、本願発明に基づく構図判定の構成として各種の装置に適用できるものであり、その用途によって有用となるものである。
また、このことに関して、本願発明に基づく構図判定としては、例えばユーザ操作や、所定の機器の動作条件などに基づいた判別に応じて、構図判定の対象とする被写体を、現実被写体と非現実被写体とで切り換えられるようにする構成も考えることができる。
また、上記実施の形態においては、動き検出を利用することで、静止状態にあるとされる検出個別被写体を静止被写体として検出する構成を採っているが、動き検出に基づく以外の手法を採ることも考えられる。
例えば、温度にも基づいた弁別の仕方を考えることができる。つまり、現実の人である現実被写体は体温相当の温度を有しているので、周囲温度とは異なる温度となっていることが通常である。これに対して、ポスターなどの非現実被写体は、物であることから周囲温度と同じになることが通常である。このことに基づいて、現実被写体と非現実被写体とを弁別できる。
そのための構成の一例としては、いわゆるサーモグラフィの技術を採り入れるなどして,撮像画像の画枠内における温度分布を検知することが考えられる。画枠内にて検出される個別被写体のうちで周囲と温度が同じものについては非現実被写体(静止被写体)として、同じでないものについては現実被写体であるとして弁別すればよい。
また、これまでにも述べてきたように、本願に基づく構成における少なくとも一部は、CPUやDSPにプログラムを実行させることで実現できる。
このようなプログラムは、例えばROMなどに対して製造時などに書き込んで記憶させるほか、リムーバブルの記憶媒体に記憶させておいたうえで、この記憶媒体からインストール(アップデートも含む)させるようにしてDSP対応の不揮発性の記憶領域やフラッシュメモリ30などに記憶させることが考えられる。また、USBやIEEE1394などのデータインターフェース経由により、他のホストとなる機器からの制御によってプログラムのインストールを行えるようにすることも考えられる。さらに、ネットワーク上のサーバなどにおける記憶装置に記憶させておいたうえで、デジタルスチルカメラ1にネットワーク機能を持たせることとし、サーバからダウンロードして取得できるように構成することも考えられる。
単純に顔検出技術などを用いて検出した被写体が1つの場合の構図判定例を示す図である。 単純に顔検出技術などを用いて検出した被写体が2つの場合の構図判定例を示す図である。 単純に顔検出技術などを用いて被写体検出を行う場合、現実の人だけではなく、ポスターの顔なども検出されることを説明する図である。 実施の形態の構図判定ブロックの構成例(第1例)を示す図である。 実施の形態の構図判定ブロックの構成例(第2例)を示す図である。 実施の形態の構図判定ブロックの構成例(第3例)を示す図である。 実施の形態の構図判定ブロックの構成例(第4例)を示す図である。 実施の形態の構図判定ブロックの構成例(第5例)を示す図である。 実施の形態の構図判定ブロックの構成例(第6例)を示す図である。 第1例の構図判定ブロックにおける処理手順例を示すフローチャートである。 第2例の構図判定ブロックにおける処理手順例を示すフローチャートである。 第3例の構図判定ブロックにおける処理手順例を示すフローチャートである。 第4例の構図判定ブロックにおける処理手順例を示すフローチャートである。 第5例の構図判定ブロックにおける処理手順例を示すフローチャートである。 第6例の構図判定ブロックにおける処理手順例を示すフローチャートである。 実施の形態の構図判定ブロックを適用した、実施の形態としての撮像システムを構成する、デジタルスチルカメラと雲台とを示す図である。 実施の形態の撮像システムの動作として、雲台に取り付けられたデジタルスチルカメラのパン方向及びチルト方向に沿った動きの例を模式的に示す図である。 実施の形態の撮像システムについての内部システム構成例を示すブロック図である。 実施の形態の撮像システムについての他の内部システム構成例を示すブロック図である。 実施の形態の撮像システムについての他の内部システム構成例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 撮像システム以外の実施の形態の構図判定ブロックについての適用例を示すブロック図である。 実施の形態の撮像システムを構成するデジタルスチルカメラの内部構成例を示すブロック図である。 実施の形態の撮像システムを構成する雲台の内部構成例を示すブロック図である。 実施の形態の撮像システム(デジタルスチルカメラ)に適用できる、重複検出回避機能を備える構図判定ブロックの構成例を示すブロック図である。 図29に示す構図判定ブロックにおける静止検出のための処理手順例を示すフローチャートである。 図29に示す構図判定ブロックにおける被写体選別、構図判定のための処理手順例を示すフローチャートである。 実施の形態の撮像システム(デジタルスチルカメラ)に適用できる、重複検出回避機能及び静止被写体情報のクリア機能を備える構図判定ブロックの構成例を示すブロック図である。 図32における静止被写体情報のクリア機能に対応する部位が実行するとされる処理手順例を示すフローチャートである。 実施の形態の撮像システム(デジタルスチルカメラ)に適用できる、重複検出回避機能を備える構図判定ブロックの他の構成例を示すブロック図である。 図34に示す構図判定ブロックが実行する処理手順例を示すフローチャートである。 被写体の絶対位置情報を求める手法例を説明するための図である。 被写体の絶対位置情報を求める他の手法例を説明するための図である。 絶対位置情報を利用した被写体選別処理のための構成例を示すブロック図である。 個別認識が可能な被写体検出処理が実行される場合に対応した被写体選別処理のための構成例を示すブロック図である。 個別被写体の具体的な検出の仕方とともに、検出個別被写体の重心と、複数の個別被写体の総合被写体重心の求め方の例を説明する図である。 撮像画像データの画枠内に設定した原点座標を説明する図である。 第1例の構図制御における、検出された個別被写体数が1である場合の構図制御例を模式的に示す図である。 第1例の構図制御における、検出された個別被写体数が2である場合の構図制御例を模式的に示す図である。 第1例の構図制御における、検出された個別被写体数が3である場合の構図制御例を模式的に示す図である。 第1例の構図制御のための処理手順例を示すフローチャートである。 第2例の構図制御における、検出された個別被写体数が3である場合の構図制御例を模式的に示す図である。 第2例の構図制御のための処理手順例を示すフローチャートである。
符号の説明
1 デジタルスチルカメラ、2 シャッターボタン、3 レンズ部、10 雲台、21 光学系、22 イメージセンサ、23 A/Dコンバータ、24 信号処理部、25 エンコード/デコード部、26 メディアコントローラ、27 制御部、28 ROM、29 RAM、30 フラッシュメモリ、31 操作部、32 表示ドライバ、33 表示部、34 雲台対応通信部、40 メモリカード、51 制御部、52 通信部、53 パン機構部、54 パン用モータ、55 パン用駆動部、56 チルト機構部、57 チルト用モータ、58 チルト用駆動部、61・75 撮像ブロック、62・73・81・101 構図判定ブロック、63 パン・チルト・ズーム制御ブロック、64・71 通信制御処理ブロック、72 パン・チルト制御処理ブロック、82 通知制御処理ブロック、83 表示部、84 レリーズ制御処理ブロック、100 撮像装置、102 メタデータ作成処理ブロック、103 ファイル作成処理ブロック、111・131 メタデータ分離処理ブロック、112・132 メタデータ解析処理ブロック、113・133 トリミング処理ブロック、123 メタデータ作成処理ブロック、124 動画像記録処理ブロック、134 印刷制御処理ブロック、201 被写体検出処理部、202 静止検出処理部202 構図判定処理部、204 被写体選別処理部、210 静止被写体情報保持部、211 被写体選別処理部、212 クリア制御部、213 加速度センサ、300 画枠、301(301A、301B) 被写体、302 顔画像ポスター、SBJs0〜SBJs2 対象個別被写体

Claims (16)

  1. 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手段と、
    上記画像データに基づく画像、又は上記被写体検出手段により検出される被写体を対象として静止の状態を検出する静止検出手段と、
    上記静止検出手段の検出結果に基づいて、上記被写体検出手段により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手段と、
    を備えることを特徴とする構図判定装置。
  2. 上記静止検出手段は、画像データに基づく画像を対象とする検出結果として、この画像内において静止しているとされる静止領域を検出するとともに、
    上記静止検出手段による静止領域の検出結果に基づいて、上記被写体検出手段により検出される被写体について、現実被写体と非現実被写体とを選別する選別手段をさらに備え、
    上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
    ことを特徴とする請求項1に記載の構図判定装置。
  3. 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
    上記被写体検出手段により検出される被写体について、上記静止被写体として検出された被写体については非現実被写体とし、上記静止被写体として検出されない被写体については現実被写体として選別する選別手段をさらに備え、
    上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
    ことを特徴とする請求項1に記載の構図判定装置。
  4. 上記静止検出手段は、画像データに基づく画像を対象とする検出結果として、この画像内において静止しているとされる静止領域を検出するとともに、
    上記画像データの画面から上記静止領域又は静止領域以外を被写体判定のための対象から除外するマスキング処理を実行するマスキング手段をさらに備え、
    上記被写体検出手段は、上記マスキング手段によるマスキング処理が施された画像データを取り込んで被写体検出を実行することで、現実被写体又は非現実被写体のいずれかのみを被写体として検出するようにされ、
    上記構図判定手段は、上記被写体検出手段により検出される被写体を対象として構図を判定する、
    ことを特徴とする請求項1に記載の構図判定装置。
  5. 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
    上記画像データの画面から上記静止被写体の領域、又は上記静止被写体以外の領域を被写体判定のための対象から除外するマスキング処理を実行するマスキング手段をさらに備え、
    上記被写体検出手段は、上記マスキング手段によるマスキング処理が施された画像データを取り込んで被写体検出を実行することで、現実被写体又は非現実被写体のいずれかのみを被写体として検出するようにされ、
    上記構図判定手段は、上記被写体検出手段により検出される被写体を対象として構図を判定する、
    ことを特徴とする請求項1に記載の構図判定装置。
  6. 上記静止検出手段は、上記被写体検出手段により検出される被写体を対象とする検出結果として、静止しているとされる静止被写体を検出するとともに、
    上記静止被写体ごとに関連した所定の情報から成る静止被写体関連情報を保持する情報保持手段と、
    上記静止被写体関連情報に基づいて、上記被写体検出手段により検出される被写体から、上記静止被写体と一致するとされる被写体を非現実被写体とし、上記静止被写体と一致しないとされる被写体を現実被写体として選別する選別手段とをさらに備え、
    上記構図判定手段は、上記選別手段により選別された現実被写体、若しくは非現実被写体を対象として構図を判定する、
    ことを特徴とする請求項1に記載の構図判定装置。
  7. 上記静止検出手段は、上記被写体検出手段により検出されたうえで、さらに上記選別手段により選別された上記静止被写体と一致するとされる現実被写体の候補を対象として静止被写体を検出するようにされ、
    上記構図判定手段は、上記静止検出手段により検出された静止被写体を、対象の現実被写体として構図を判定する、
    ことを特徴とする請求項6に記載の構図判定装置。
  8. この構図判定装置自体の動きを検出する動き状態検出手段と、
    上記動き状態検出手段により、上記構図判定装置自体の動きが検出されたことに応じて、上記情報保持手段にて保持されている静止被写体関連情報を消去する消去手段とをさらに備える、
    ことを特徴とする請求項6に記載の構図判定装置。
  9. 上記動き状態検出手段は、
    この構図判定装置を所定の態様で動かすことのできる可動機構部の動作のみによる、上記構図判定装置自体の動きについては、動きであると検出しないようにされ、
    上記可動機構部が動作中であり、かつ、この可動機構部以外の力によっても上記構図判定装置自体が動かされるときには、上記動きであると検出するようにされている、
    ことを特徴とする請求項8に記載の構図判定装置。
  10. パン方向及び/又はチルト方向に沿って撮像視野角が変更される撮像装置が撮像することにより上記撮像画像データを得るようにされているうえで、
    上記静止検出手段により検出される上記静止被写体の位置情報として、上記撮像画像データに基づく画像の画枠内における水平及び/又は垂直方向における限界位置にて上記静止被写体が位置しているときの、上記撮像装置のパン位置及び/又はチルト位置を示すパン・チルト位置情報を設定するようにされた位置情報設定手段をさらに備える、
    ことを特徴とする請求項1に記載の構図判定装置。
  11. 上記情報保持手段は、上記静止被写体関連情報として上記パン・チルト位置情報を含むものとされ、
    上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの上記パン・チルト位置情報と、上記被写体検出手段により上記限界位置にて検出された被写体についての上記パン・チルト位置情報とを比較し、上記静止被写体関連情報に含まれるパン・チルト位置情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれるパン・チルト位置情報と一致しないとされる被写体を現実被写体として選別する、
    ことを特徴とする請求項10に記載の構図判定装置。
  12. パン方向及び/又はチルト方向に沿って撮像視野角が変更される撮像装置が撮像することにより上記撮像画像データを得るようにされているうえで、
    上記撮像画像データに基づく画像の水平及び/又は垂直方向における画枠サイズと、この上記撮像画像データに基づく画像内において検出された被写体の位置とに基づいて、パン方向及び/又は垂直方向における絶対的な角度を示す絶対位置対応角度情報を求め、この絶対位置対応角度情報を、被写体検出手段により検出される被写体についての位置情報とする、位置情報設定手段をさらに備える、
    ことを特徴とする請求項1に記載の構図判定装置。
  13. 上記情報保持手段は、上記静止被写体関連情報として上記絶対位置対応角度情報の位置情報を含むものとされ、
    上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの上記絶対位置対応角度情報の位置情報と、上記被写体検出手段により上記限界位置にて検出された被写体についての上記絶対位置対応角度情報の位置情報とを比較し、上記静止被写体関連情報に含まれる絶対位置対応角度情報の位置情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれる絶対位置対応角度情報の位置情報と一致しないとされる被写体を現実被写体として選別する、
    ことを特徴とする請求項12に記載の構図判定装置。
  14. 上記被写体検出手段は、被写体ごとの特徴を個別に認識して被写体検出を行って、検出情報として、被写体を個別に認識可能とする個別認識情報を含めるようにされているとともに、
    上記情報保持手段は、上記静止被写体関連情報として、上記静止被写体ごとの個別認識情報を含むものとされ、
    上記選別手段は、上記静止被写体関連情報に含まれる静止被写体ごとの個別認識情報と、上記被写体検出手段の検出情報に含まれる被写体ごとの個別認識情報とを比較し、上記静止被写体関連情報に含まれる個別認識情報と一致するとされる被写体を非現実被写体とし、上記静止被写体関連情報に含まれる個別認識情報と一致しないとされる被写体を現実被写体として選別する、
    ことを特徴とする請求項1に記載の構図判定装置。
  15. 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手順と、
    上記画像データに基づく画像、又は上記被写体検出手順により検出される被写体を対象として静止の状態を検出する静止検出手順と、
    上記静止検出手順の検出結果に基づいて、上記被写体検出手順により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手順と、
    を実行することを特徴とする構図判定方法。
  16. 取り込んだ画像データに基づく画像内における被写体を検出する被写体検出手順と、
    上記画像データに基づく画像、又は上記被写体検出手順により検出される被写体を対象として静止の状態を検出する静止検出手順と、
    上記静止検出手順の検出結果に基づいて、上記被写体検出手順により検出される被写体のうちで、現実被写体、若しくは非現実被写体のみを対象として構図を判定する構図判定手順と、
    を構図判定装置に実行させるプログラム。
JP2008071721A 2008-03-19 2008-03-19 構図判定装置、構図判定方法、プログラム Expired - Fee Related JP4508257B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008071721A JP4508257B2 (ja) 2008-03-19 2008-03-19 構図判定装置、構図判定方法、プログラム
KR1020090016148A KR20090100242A (ko) 2008-03-19 2009-02-26 구도 판정 장치, 구도 판정 방법, 프로그램
TW098108465A TWI398826B (zh) 2008-03-19 2009-03-16 構圖判定裝置、構圖判定方法、程式
EP09155492A EP2104336A3 (en) 2008-03-19 2009-03-18 Composition determination device, composition determination method, and program
US12/381,982 US8810673B2 (en) 2008-03-19 2009-03-18 Composition determination device, composition determination method, and program
CN2009101288689A CN101540844B (zh) 2008-03-19 2009-03-19 构图确定设备和构图确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008071721A JP4508257B2 (ja) 2008-03-19 2008-03-19 構図判定装置、構図判定方法、プログラム

Publications (2)

Publication Number Publication Date
JP2009231922A true JP2009231922A (ja) 2009-10-08
JP4508257B2 JP4508257B2 (ja) 2010-07-21

Family

ID=40707663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008071721A Expired - Fee Related JP4508257B2 (ja) 2008-03-19 2008-03-19 構図判定装置、構図判定方法、プログラム

Country Status (6)

Country Link
US (1) US8810673B2 (ja)
EP (1) EP2104336A3 (ja)
JP (1) JP4508257B2 (ja)
KR (1) KR20090100242A (ja)
CN (1) CN101540844B (ja)
TW (1) TWI398826B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248806A1 (ja) * 2022-06-20 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、記録媒体

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5206095B2 (ja) 2008-04-25 2013-06-12 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5189913B2 (ja) * 2008-07-14 2013-04-24 イーストマン コダック カンパニー 画像処理装置
JP5159515B2 (ja) * 2008-08-26 2013-03-06 キヤノン株式会社 画像処理装置およびその制御方法
JP5434338B2 (ja) 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像方法、プログラム
JP5434339B2 (ja) * 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像システム、撮像方法、プログラム
US9912870B2 (en) * 2009-08-24 2018-03-06 Samsung Electronics Co., Ltd Method for transmitting image and image pickup apparatus applying the same
US9721388B2 (en) * 2011-04-20 2017-08-01 Nec Corporation Individual identification character display system, terminal device, individual identification character display method, and computer program
CN102819725A (zh) * 2011-06-07 2012-12-12 鸿富锦精密工业(深圳)有限公司 疲劳状态检测系统及方法
TWI446087B (zh) * 2012-08-03 2014-07-21 Wistron Corp 具有自動對焦功能之影像擷取裝置及自動對焦方法
US8825664B2 (en) * 2012-08-17 2014-09-02 Splunk Inc. Indexing preview
KR101800617B1 (ko) * 2013-01-02 2017-12-20 삼성전자주식회사 디스플레이 장치 및 이의 화상 통화 방법
CN104655288A (zh) * 2013-11-25 2015-05-27 杭州美盛红外光电技术有限公司 热像检测装置和热像检测方法
US10235587B2 (en) * 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
US20160148279A1 (en) 2014-11-26 2016-05-26 Adobe Systems Incorporated Content Creation, Deployment Collaboration, and Badges
WO2016125352A1 (ja) * 2015-02-02 2016-08-11 富士フイルム株式会社 カメラ装置、撮像システム、制御方法及びプログラム
CN105991925A (zh) * 2015-03-06 2016-10-05 联想(北京)有限公司 场景构图指示方法和指示装置
CN105323491B (zh) * 2015-11-27 2019-04-23 小米科技有限责任公司 图像拍摄方法及装置
KR20170131101A (ko) * 2016-05-20 2017-11-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP6745682B2 (ja) * 2016-08-30 2020-08-26 キヤノン株式会社 撮像装置、制御方法、プログラム、及び記憶媒体
CN106973224B (zh) * 2017-03-09 2020-08-07 Oppo广东移动通信有限公司 辅助构图的控制方法、控制装置及电子装置
JP6843439B2 (ja) * 2017-05-17 2021-03-17 エバ・ジャパン 株式会社 情報探索システム及び方法、情報探索プログラム
JP6938270B2 (ja) * 2017-08-09 2021-09-22 キヤノン株式会社 情報処理装置および情報処理方法
CN109963068A (zh) * 2017-12-25 2019-07-02 深圳市优必选科技有限公司 一种图像处理方法、系统及终端设备
JP6951753B2 (ja) * 2018-03-27 2021-10-20 エバ・ジャパン 株式会社 情報探索システム及びプログラム
CN108307120B (zh) * 2018-05-11 2020-07-17 阿里巴巴(中国)有限公司 图像拍摄方法、装置及电子终端
JP7456385B2 (ja) * 2018-10-25 2024-03-27 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US20210303853A1 (en) * 2018-12-18 2021-09-30 Rovi Guides, Inc. Systems and methods for automated tracking on a handheld device using a remote camera
CN110248104B (zh) * 2019-07-22 2021-03-19 联想(北京)有限公司 一种图像处理方法、装置及电子设备
CN111263063A (zh) * 2020-02-17 2020-06-09 深圳传音控股股份有限公司 拍摄图像的方法、装置及设备
CN111327829B (zh) * 2020-03-09 2021-12-17 Oppo广东移动通信有限公司 构图指导方法、装置、电子设备及存储介质
CN114764891A (zh) 2021-09-16 2022-07-19 杭州天眼智联科技有限公司 用于确定物料构成的方法、装置、电子设备和可读介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245278A (ja) * 2000-02-28 2001-09-07 Ty Assist:Kk 監視装置及び方法
JP2004151523A (ja) * 2002-10-31 2004-05-27 Mitsubishi Electric Corp 地図データ更新装置
JP2004356718A (ja) * 2003-05-27 2004-12-16 Sony Corp 情報記録制御装置および情報記録制御方法、記録媒体、並びにプログラム
JP2007179569A (ja) * 2007-03-09 2007-07-12 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
JP2008042729A (ja) * 2006-08-09 2008-02-21 Matsushita Electric Ind Co Ltd ネットワークカメラ

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59898A (ja) 1982-06-28 1984-01-06 松下電工株式会社 高圧放電灯点灯装置
JPH0614698B2 (ja) 1983-05-13 1994-02-23 株式会社日立製作所 自動追尾カメラ
TW373396B (en) * 1997-10-30 1999-11-01 Hewlett Packard Co Automatic digital camera image rotation
CN1278980A (zh) * 1998-09-18 2001-01-03 三菱电机株式会社 摄像机控制装置
JP2001268425A (ja) 2000-03-16 2001-09-28 Fuji Photo Optical Co Ltd 自動追尾装置
US6661450B2 (en) * 1999-12-03 2003-12-09 Fuji Photo Optical Co., Ltd. Automatic following device
US6516154B1 (en) 2001-07-17 2003-02-04 Eastman Kodak Company Image revising camera and method
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
JP2004343315A (ja) 2003-05-14 2004-12-02 Sony Corp 撮像装置
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US7453506B2 (en) * 2003-08-25 2008-11-18 Fujifilm Corporation Digital camera having a specified portion preview section
US7349020B2 (en) * 2003-10-27 2008-03-25 Hewlett-Packard Development Company, L.P. System and method for displaying an image composition template
JP4489608B2 (ja) * 2004-03-31 2010-06-23 富士フイルム株式会社 ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
US8289399B2 (en) * 2004-08-09 2012-10-16 Hewlett-Packard Development Company, L.P. System and method for image capture device
JP2006140695A (ja) * 2004-11-11 2006-06-01 Konica Minolta Photo Imaging Inc 撮像装置
JP4623368B2 (ja) * 2005-03-16 2011-02-02 ソニー株式会社 移動物体検出装置、移動物体検出方法及びプログラム
JP4779610B2 (ja) * 2005-12-02 2011-09-28 オムロン株式会社 画像処理装置および方法、並びにプログラム
JP4457358B2 (ja) 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
JP4197019B2 (ja) 2006-08-02 2008-12-17 ソニー株式会社 撮像装置および表情評価装置
JP2008071721A (ja) 2006-09-15 2008-03-27 Furukawa Electric Co Ltd:The 絶縁電線およびその製造方法
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
GB2448221B (en) * 2007-04-02 2012-02-01 Samsung Electronics Co Ltd Method and apparatus for providing composition information in digital image processing device
CN100514353C (zh) * 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245278A (ja) * 2000-02-28 2001-09-07 Ty Assist:Kk 監視装置及び方法
JP2004151523A (ja) * 2002-10-31 2004-05-27 Mitsubishi Electric Corp 地図データ更新装置
JP2004356718A (ja) * 2003-05-27 2004-12-16 Sony Corp 情報記録制御装置および情報記録制御方法、記録媒体、並びにプログラム
JP2008042729A (ja) * 2006-08-09 2008-02-21 Matsushita Electric Ind Co Ltd ネットワークカメラ
JP2007179569A (ja) * 2007-03-09 2007-07-12 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248806A1 (ja) * 2022-06-20 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、記録媒体

Also Published As

Publication number Publication date
EP2104336A2 (en) 2009-09-23
CN101540844B (zh) 2011-12-14
US8810673B2 (en) 2014-08-19
EP2104336A3 (en) 2010-04-28
TW200947356A (en) 2009-11-16
CN101540844A (zh) 2009-09-23
JP4508257B2 (ja) 2010-07-21
KR20090100242A (ko) 2009-09-23
US20090256925A1 (en) 2009-10-15
TWI398826B (zh) 2013-06-11

Similar Documents

Publication Publication Date Title
JP4508257B2 (ja) 構図判定装置、構図判定方法、プログラム
JP5206095B2 (ja) 構図判定装置、構図判定方法、プログラム
JP4640456B2 (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
US10419672B2 (en) Methods and apparatus for supporting burst modes of camera operation
TWI386056B (zh) A composition determination means, a composition determination method, and a composition determination program
JP2009100301A (ja) 構図判定装置、構図判定方法、プログラム
JP4586709B2 (ja) 撮像装置
JP2005128156A (ja) 焦点調節装置及び焦点調節方法
JP5378135B2 (ja) 画像レイアウト決定方法ならびにそのプログラムおよび情報処理装置
JP2008109552A (ja) 追跡機能付き撮像装置
JP2018050146A (ja) 探索装置及び、その撮像装置及び、探索方法
JP2007081682A (ja) 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
JP2008172342A (ja) 立体画像記録装置および立体画像記録方法
JP5440588B2 (ja) 構図判定装置、構図判定方法、プログラム
JP5383207B2 (ja) 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体
CN115812177A (zh) 图像处理装置、摄像装置、图像处理方法及程序
JP6545229B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP2011061857A (ja) 画像処理装置、画像処理方法、プログラム、撮像装置
JP2020043544A (ja) 撮像装置およびその制御方法、プログラムならびに記憶媒体
JP2023166863A (ja) 画像処理装置、画像処理方法および撮像装置
JP2020043528A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2019049643A (ja) 画像処理装置、システム、およびそれらの制御方法、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100426

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees