Nothing Special   »   [go: up one dir, main page]

JP5740822B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP5740822B2
JP5740822B2 JP2010048098A JP2010048098A JP5740822B2 JP 5740822 B2 JP5740822 B2 JP 5740822B2 JP 2010048098 A JP2010048098 A JP 2010048098A JP 2010048098 A JP2010048098 A JP 2010048098A JP 5740822 B2 JP5740822 B2 JP 5740822B2
Authority
JP
Japan
Prior art keywords
subject
projection image
information processing
irradiated
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010048098A
Other languages
English (en)
Other versions
JP2011188024A (ja
Inventor
俊一 笠原
俊一 笠原
綾 高岡
綾 高岡
篤志 松谷
篤志 松谷
奏子 簗
奏子 簗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010048098A priority Critical patent/JP5740822B2/ja
Priority to EP11153331.1A priority patent/EP2364013B1/en
Priority to EP21214242.6A priority patent/EP3996361A1/en
Priority to TW100104165A priority patent/TW201205182A/zh
Priority to US13/023,639 priority patent/US9049376B2/en
Priority to KR1020110016688A priority patent/KR20110100582A/ko
Priority to RU2011106920/07A priority patent/RU2011106920A/ru
Priority to CN201110049117.5A priority patent/CN102196220B/zh
Priority to BRPI1100158-5A priority patent/BRPI1100158A2/pt
Publication of JP2011188024A publication Critical patent/JP2011188024A/ja
Priority to US14/711,092 priority patent/US9516206B2/en
Application granted granted Critical
Publication of JP5740822B2 publication Critical patent/JP5740822B2/ja
Priority to US15/340,382 priority patent/US10015392B2/en
Priority to US15/993,902 priority patent/US10306136B2/en
Priority to US16/389,140 priority patent/US10659681B2/en
Priority to US16/865,816 priority patent/US11190678B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7408Direct viewing projectors, e.g. an image displayed on a video CRT or LCD display being projected on a screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、カメラ撮影における照明は、一般的にフラッシュなどを用いている。しかし、フラッシュ以外の特殊な証明をフラッシュのみを用いて行うことは困難であった。また、カメラで撮影した画像に画像処理によって所望の模様やテクスチャなどを画像に付与することができるが、それらを付与した結果をカメラの撮影者が視認することができても、第三者や被写体は付与した結果を確認することができなかった。
そこで、撮影対象となる被写体に、プロジェクタを用いてグラフィックを投影する技術が開示されている(例えば、特許文献1および特許文献2)。また、机などにグラフィックを投影し、指の方向や手の形状を検出して情報処理装置に所定の処理をさせる技術も開示されている(例えば、特許文献3および特許文献4)。
特表2006−523067号公報 特開2009−76983号公報 特開2008−152622号公報 特開2009−70245号公報
しかし、指の方向や手の形状に応じた処理だけでなく、投影されたグラフィックに対する被写体の何らかの動きを検出して、その動きに連動した処理を実行させることが望まれていた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、投影イメージに対する被写体のインタラクションに応じた処理を実行することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、撮像対象となる被写体に所定の操作をさせるための投影イメージを前記被写体に照射する照射部と、前記被写体の操作を認識する認識部と、前記認識部により認識された前記被写体の操作に応じて所定の処理を実行する実行部と、を備える、情報処理装置が提供される。
また、前記認識部は、撮像装置により撮像された前記被写体の画像を基に前記被写体の操作を認識してもよい。
また、照射装置により前記被写体に前記投影イメージが照射され、前記撮像装置と前記照射装置は前記情報処理装置の固定位置に備えられていてもよい。
また、前記照射部は、前記被写体に選択操作をさせるための投影イメージを照射し、前記認識部は、前記被写体による前記選択操作を認識し、前記実行部は、前記被写体により選択された操作を実行してもよい。
また、前記照射部は、ユーザ操作により選択された前記投影イメージを前記被写体に照射してもよい。
また、前記認識部は、前記被写体に含まれる物体や人を認識し、前記照射部は、前記認識部により認識された前記被写体に含まれる物体や人の領域に前記投影イメージを照射してもよい。
また、前記認識部は、前記投影イメージが照射された照射範囲内における前記被写体の動きを認識してもよい。
また、前記実行部は、前記認識部により認識された前記照射範囲内の前記被写体の動きに対応する所定の処理を実行してもよい。
また、前記実行部は、前記照射部に、前記認識部により認識された前記被写体の操作に応じた投影イメージを照射させてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、撮像対象となる被写体に所定の操作をさせるための投影イメージを前記被写体に照射するステップと、前記被写体の操作を認識するステップと、前記認識部により認識された前記被写体の操作に応じて所定の処理を実行するステップと、含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、撮像対象となる被写体に所定の操作をさせるための投影イメージを前記被写体に照射する照射部と、前記被写体の操作を認識する認識部と、前記認識部により認識された前記被写体の操作に応じて所定の処理を実行する実行部と、を備える、情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、投影イメージに対する被写体のインタラクションに応じた処理を実行することができる。
本発明の実施形態の概要について説明する説明図である。 本発明の実施形態の概要について説明する説明図である。 本発明の第1の実施形態にかかる情報処理装置のハードウェア構成を示すブロック図である。 同実施形態にかかる制御部の機能構成を示すブロック図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。 本発明の第2の実施形態にかかる情報処理装置のハードウェア構成を示すブロック図である。 同実施形態にかかる制御部の機能構成を示すブロック図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。 本発明の第3の実施形態の概要を説明する説明図である。 同実施形態にかかる概要を説明する説明図である。 同実施形態にかかる制御部の機能構成を示すブロック図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる照射される投影イメージの例について説明する説明図である。 同実施形態にかかる情報処理装置の動作の詳細を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.本実施形態の概要>
<2.第1実施形態>
<2−1.情報処理装置のハードウェア構成>
<2−2.情報処理装置の機能構成>
<2−3.情報処理装置の動作の詳細>
<3.第2実施形態>
<3−1.情報処理装置のハードウェア構成>
<3−2.情報処理装置の機能構成>
<3−3.情報処理装置の動作の詳細>
<4.第3実施形態>
<4−1.情報処理装置のハードウェア構成>
<4−2.情報処理装置の機能構成>
<4−3.情報処理装置の動作の詳細>
<1.本実施形態の概要>
まず、図1および図2を参照して、本実施形態の概要について説明する。本実施形態にかかる情報処理装置10は、主に、被写体を撮像する撮像装置(カメラ)と、映像を被写体に照射する照射装置(プロジェクタ)と、カメラにより撮像された撮像画像を表示する表示装置(ディスプレイ)などを備える。図1に示したように、情報処理装置10の一の面(表面)には、ディスプレイ11が備えられている。また、情報処理装置10の他の面(裏面)には、カメラ用レンズ12とプロジェクタ用レンズ13が備えられている。以下では、カメラ用レンズ12を含むカメラを撮像装置12またはカメラ12と称し、プロジェクタ用レンズ13を含むプロジェクタを照射装置13またはプロジェクタ13と称する。
情報処理装置10では、カメラ12とプロジェクタ13が情報処理装置10の筐体の固定の位置に備えられている。カメラ12で撮像された被写体の画像は、ディスプレイ11に表示される。また、プロジェクタ13から被写体に投影イメージが照射される。そして、投影イメージが照射された被写体がディスプレイ11に表示される。
また、図2に示したように、撮像領域51は、カメラにより撮像可能な領域であり、照射領域52は、プロジェクタにより照射可能な領域である。以下の実施形態では、撮像領域51と照射領域52とは同期しているとして説明する。ここで、同期しているとは、カメラ用レンズ12により撮像される撮像領域51、すなわちディスプレイ11に表示されている表示領域と、プロジェクタ用レンズ13により照射される照射領域52とが同一の範囲を示すことを意味する。また、撮像領域51と照射領域52とが同期していない場合には、ディスプレイ11に照射領域を示してもよい。以上、本実施形態の概要について説明した。
<2.第1実施形態>
次に、第1実施形態について説明する。従来、カメラ撮影における照明は、一般的にフラッシュなどを用いている。しかし、フラッシュ以外の特殊な証明をフラッシュのみを用いて行うことは困難であった。また、カメラで撮影した画像に画像処理によって所望の模様やテクスチャなどを画像に付与することができるが、それらを付与した結果をカメラの撮影者が視認することができても、第三者や被写体は付与した結果を確認することができなかった。
そこで、撮影対象となる被写体に、プロジェクタを用いてグラフィックを投影する技術が開示されている。これらの技術では、グラフィックを投影する位置を予めマーカ等により認識して、マーカ上にグラフィックが投影される。しかし、上記技術では、マーカ等により予め認識された位置にグラフィックが投影されるため、撮影対象全体にグラフィックの投影を照明として用いたり、指定した位置のみにグラフィックを投影したりするなど、自由度の高い照明表現を可能にするグラフィックの投影をすることができないという問題があった。
そこで、上記のような事情を一着眼点として、本実施形態にかかる情報処理装置10が創作されるに至った。本実施形態にかかる情報処理装置10によれば、撮影された画像に適したグラフィックの投影を行うことが可能となる。
<2−1.情報処理装置のハードウェア構成>
次に、図3を参照して、情報処理装置10のハードウェア構成について説明する。図3は、情報処理装置10のハードウェア構成を示すブロック図である。図3に示したように、情報処理装置10は、表示装置(ディスプレイ)11と、撮像装置(カメラ)12と、照射装置(プロジェクタ)13と、CPU14と、入力装置15と、RAM(Random Access Memory)16と、不揮発性メモリ17などを備える。
CPU14は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU14は、マイクロプロセッサであってもよい。RAM16は、CPU14の実行において使用するプログラムや、その実行において適宜変換するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。不揮発性メモリ17は、CPU14が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ17は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。
表示装置11は、情報を出力する出力装置の一例である。表示装置11として、例えば液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などを用いることができる。
撮像装置12は、撮像レンズを介して通過した光をCCDで電気信号に変換し、アナログ信号をデジタル変換することにより被写体を撮像する機能を有する。撮像装置12により撮像された画像は、表示装置11に表示される。
照射装置13は、照射レンズを介して被写体に光を照射する機能を有する。照射装置13は、CPU14の制御のもと、所定の投影イメージを被写体に照射する。上記したように、撮像装置12と照射装置13とは、情報処理装置10の固定の位置に配置されている。また、撮像装置12により撮像される撮像領域と、照射装置13により照射される照射領域とは同期している、すなわち、同じ領域であるとして以下説明する。
入力装置15は、例えば、タッチパネル、ボタン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU14に出力する入力制御回路などから構成されている。
<2−2.情報処理装置の機能構成>
以上、情報処理装置10のハードウェア構成について説明した。次に、図4を参照して、情報処理装置10の制御部(CPU14)の機能構成について説明する。図4の機能構成を説明するに際し、適宜図5〜図16を参照する。図5〜図16は、照射される投影イメージの例について説明する説明図である。図4は、情報処理装置10の制御部の機能構成を示したブロック図である。
図4に示したように、情報処理装置10の制御部は、解析部102、照射部104、生成部106、記憶部108などを備える。解析部102は、撮像装置12により撮像された被写体の画像を解析する機能を有する。解析部102は、被写体の画像を解析して、被写体に含まれる物体の画像を認識する。また、解析部102は、被写体の画像を解析して被写体に含まれる人の画像を検出したり、顔の画像を検出したりする。また、解析部102は、被写体の画像を解析して被写体の色を検出する。解析部102により解析された被写体の画像の解析結果は、照射部104および生成部106に提供される。
照射部104は、解析部102により解析された被写体の画像の解析結果に応じて投影イメージを、照射装置13を用いて照射する機能を有する。記憶部108には、被写体の画像の解析結果に対応する投影イメージが記憶されている。照射部104は、解析部102により提供された画像の解析結果に対応する投影イメージを記憶部108から取得して、該投影イメージを、照射装置13を用いて被写体に照射する。
例えば、図5に示したように、被写体401を撮像装置12により撮像して、被写体の画像402を認識する。そして、認識された被写体の画像402に応じた投影イメージ403を選択して、照射装置13により被写体に照射する。図5では、被写体に含まれる顔が認識され、顔部分を明るくする投影イメージが選択されている。そして、投影イメージ403が投影された被写体405が撮像装置12により撮像されて、表示装置11に表示画像404が表示される。
図4に戻り説明を続ける。例えば、解析部102により被写体に含まれる物体の画像が認識された場合には、当該物体の画像に応じた投影イメージを記憶部108から取得して被写体に照射させる。また、被写体に含まれる人の画像を検出したり、顔の画像を検出したりした場合には、人の画像や顔の画像に応じた投影イメージを記憶部108から取得して被写体に照射させる。また、被写体の画像を解析して被写体に含まれる特定の色を検出した場合には、当該特定の色に応じた投影イメージを記憶部108から取得して被写体に照射する。
生成部106は、記憶部108に、投影イメージが照射された場合の画像を予め予測した予測画像が記憶されている場合に、当該予測画像と、照射部104により投影イメージが照射された照射画像との比較結果に応じて、投影イメージを生成する機能を有する。生成部106により生成された投影イメージは照射部104により照射され、照射部104により生成された投影イメージが被写体に照射される。
記憶部108には、上記したように、被写体の画像の解析結果と投影イメージとが対応付けて記憶されている。また、記憶部108には、記憶されている投影イメージを照射した場合の画像を予め予測した予測画像が記憶されている。
以下、図6〜図16を参照して、照射装置13により照射される投影イメージの例について説明する。図6は、特定の色を有する物体に対して、特定の色とは異なる色を付与する投影イメージを照射する場合の例である。図6では、例えば、被写体に複数の白い花が含まれている。まず、解析部102により、被写体405に含まれる特定の色を有する物体406が検出される。説明図406に示したように、白い領域を一定以上有する複数の「白い花」が検出される。そして、物体406の位置と物体の形状に応じた投影イメージが生成され、生成された投影イメージが被写体に照射される。説明図408に示したように、「白い花」の領域にピンクなどの白とは異なる色の投影イメージが生成されて照射される。これにより、被写体に、元の色とは異なる色を照射して、照射された被写体を撮像することが可能となる。
また、図7に示したように、表示画面がタッチパネルの場合には、被写体の照射対象となる物体をユーザ入力に応じて選択するようにしてもよい。説明図412に示したように、ユーザ入力により「白い花」が選択された場合には、一定以上の白い領域を有する物体が選択されたこととなる。また、ユーザ入力により選択された物体と同形状の物体や同色の物体も同時に選択されるようにしてもよい。そして、物体412の位置と物体の形状に応じた投影イメージが生成され、生成された投影イメージが被写体に照射される。説明図413に示したように、ユーザにより選択された「白い花」の領域にピンクなどの白とは異なる色の投影イメージが生成されて照射される。
図8は、図6および図7に示した投影イメージを投影する際の内部的な処理について説明する説明図である。図8に示したように、まず、撮像装置12により被写体が撮像されて、撮像された画像に含まれる物体や色などの領域が解析される。そして、解析結果をもとに、投影イメージが生成される。図8に示した例では、撮像された画像のうち、一定領域以上の白色の領域を有する物体を検出し、当該物体を構成するピクセルにのみ効果が表れる投影色を配置し、当該物体以外を構成するピクセルには黒色ピクセルを配置した投影イメージが生成される。そして、生成された投影イメージが照射された結果、被写体におけるある一定領域以上の白色の領域を有する部分に投影色が照射される。
また、図9は、特定の領域を検出して、検出した領域に柄やテクスチャの投影イメージを照射する例である。図9に示したように、撮像装置12により撮像された画像417を解析して、被写体に含まれる顔を検出する。そして、説明図417に示したように、顔の大きさと被写体の大きさとの位置関係から、胴体や服の位置を検出する。そして、説明図418に示したように、胴体や服の位置の領域に照射する投影イメージが生成される。説明図418では、服の領域に花の模様が照射される投影イメージが生成される。そして、説明図420に示したように、被写体の服の領域に花の模様が照射される。
ここで、図10を参照して、図9に示した投影イメージを照射する際の内部的な処理について説明する。図10の説明図421に示したように、まず、撮像装置12により撮像された画像から、被写体に含まれる顔を認識する。そして、説明図422に示したように、顔の認識結果から、胴体を推定する。さらに、説明図423に示したように、推定した胴体の領域から、投影可能領域を推定する。ここでは、胴体のうち、白色の領域を投影可能領域としている。そして、説明図423において推定された投影可能領域に所定の柄が投影されるように投影イメージを生成する。そして、説明図425に示したように、被写体に生成された投影イメージが照射される。
次に、図11を参照して、特定の物体を検出し、検出した物体を避けて投影イメージを照射する例について説明する。図11の説明図426に示したように、まず、撮像装置12により撮像された画像から、被写体に含まれる顔を認識する。そして、認識した顔の領域以外の領域に所定の柄が投影されるように、説明図427に示した投影イメージを生成する。そして、説明図428に示したように、被写体に生成された投影イメージが照射される。
次に、図12を参照して、予測画像を用いて投影イメージを生成する場合について説明する。上記したように、記憶部108に予測画像が記憶されている場合には、予測画像と投影イメージが照射された照射画像との比較結果に応じて、投影イメージ生成することができる。図12の説明図430に示したように、まず、撮像装置12により被写体を撮像して被写体の画像を解析する。そして、説明図431に示したように、所定の色が設定された投影イメージを被写体に照射する。
そして、記憶部108に記憶されている予測画像と、説明図431に示した照射画像とを比較して差分を検出し、差分に応じて説明図432に示した投影イメージを生成する。例えば、説明図431では黄色の色効果を出力可能な投影イメージが被写体に照射されたとする。予測画像の黄色の色効果と照射画像の黄色の色効果とを比較して、照射画像に対する黄色の色効果が濃い場合には、より薄い黄色の色効果となる投影イメージを生成する。そして、説明図433に示したように、生成された投影イメージが被写体に照射される。
次に、図13を参照して、被写体が顔の場合の投影イメージの照射について説明する。図13に示したように、まず、撮像装置12により撮像された画像(説明図435)を解析して、説明図436に示したように、顔の口や目の位置を検出する。そして、顔に照射するための投影イメージを記憶部108から取得して、説明図437に示した投影イメージを生成する。説明図437では、顔の口や目の位置から顔の頬の位置を特定して、顔の頬の位置にピンクなどの頬紅のカラーが照射される投影イメージを生成する。そして、説明図438に示したように、生成された投影イメージが被写体に照射される。
次に、図14を参照して、撮像画像の輝度に応じた投影イメージの照射について説明する。図14に示したように、撮像装置12により撮像された画像(説明図440)を解析して、説明図441に示したように、輝度の高い領域を検出する。そして、一定以上の輝度の高い領域が検出された場合には、輝度の高さに応じた投影イメージを生成する。説明図441では、ケーキのろうそくの周囲の領域が他の領域よりも輝度が高い領域として検出されている。そして、説明図442に示したように、生成された投影イメージが被写体に照射される。説明図442ででは、輝度が高い領域として検出されたケーキのろうそくの周囲に星型の模様が照射されている。
次に、図15を参照して、撮影対象の動きに応じた投影イメージの照射について説明する。図15に示したように、撮像装置12により撮像された動画から取得される被写体の動きを検出する。被写体の動きは、例えば画素値の変化を検出することにより物体の動きを検出してもよい。そして、検出された物体の動きに応じた投影イメージを生成する。説明図445に示したように、被写体が左方向に走っていることが検出されて、走っている方向に星型の模様が照射されている。物体の動きに応じた投影イメージは、被写体の走る方向とともに移動しながら照射される。
また、図16に示したように、撮像装置12により撮像された画像が解析部102により解析された結果、被写体に投影可能な領域が存在しない場合には、投影可能領域がない旨の情報を提示してもよい。被写体に投影可能な領域が存在しない場合とは、例えば、背景が黒色等であり、投影イメージを照射しても投影イメージを被写体に反映することができない場合である。例えば、説明図450に示したように、撮像された画像の背景が黒色である場合には、説明図451に示したように「投影可能領域がありません」のダイアログが表示される。
<2−3.情報処理装置の動作の詳細>
以上、情報処理装置10の制御部の機能について説明した。次に、図17および図18を参照して、情報処理装置10の動作の詳細について説明する。図17および図18は、情報処理装置10の動作の詳細を示すフローチャートである。
図17に示したように、まず、情報処理装置10において、撮影モードが投影イメージを照射可能な投影撮影モードか否かを判定する(S102)。ステップS102において、撮影モードが投影撮影モードであると判定された場合には、撮像装置12により撮像された画像を取得する(S104)。
そして、解析部102は、ステップS104において取得した画像に含まれる物体を認識する(S106)。そして、ステップS106において認識した物体のうち、投影イメージを照射可能な対象物があるか否かを判定する(S108)。ステップS108においては、ステップS106において認識された物体に対応する投影イメージが記憶部108に記憶されているか否かにより判定可能である。また、画像の背景色を検出して、投影イメージを照射できるか否かを判定してもよい。
ステップS108において、投影イメージを照射可能な対象物があると判定された場合には、対象物に応じた投影イメージを記憶部108から取得して、投影用グラフィックを生成する(S110)。そして、ステップS110において生成された投影用のグラフィックを被写体に照射する(S112)。ステップS108において、投影イメージを照射可能な対象物がないと判定された場合には、表示画面に投影対象がないことを示すダイアログを表示する(S114)。
そして、撮影が行われたか否かを判定する(S116)。ステップS116において、撮影が行われたと判定された場合には、撮影された画像を保存する(S118)。ステップS116において、撮影が行われていないと判定された場合には、ステップS102以降の処理を繰り返す。以上、図17のフローチャートに示した処理について説明した。次に、図18のフローチャートに示した処理について説明する。
図18は、記憶部108に予測画像が記憶されている場合の情報処理装置10の動作の詳細を示すフローチャートである。図18に示したように、まず、情報処理装置10において、撮影モードが投影イメージを照射可能な投影撮影モードか否かを判定する(S122)。ステップS122において、撮影モードが投影撮影モードであると判定された場合には、撮像装置12により撮像された画像を取得する(S124)。
そして、解析部102は、ステップS104において取得した画像に含まれる物体を認識する(S126)。そして、ステップS126において認識した物体のうち、投影イメージを照射可能な対象物があるか否かを判定する(S128)。ステップS128において、投影イメージを照射可能な対象物があると判定された場合には、対象物に応じた投影イメージを記憶部108から取得して、投影用グラフィックを生成する(S130)。そして、ステップS130において生成された投影用のグラフィックを被写体に照射する(S132)。ここで、ステップS136においては、ステップS126において認識された物体に対して、所望の投影イメージが照射された場合の画像が予測画像として記憶部108に記憶されているものとする。
そして、ステップS132において、グラフィックが照射された被写体の画像を取得する(S134)。そして、ステップS134において取得された照射画像が、記憶部108に記憶されている予測画像に近づいたか否かを判定する(S136)。ステップS136において、照射画像と予測画像とが近づいたと判定された場合には、ステップS140の処理を実行する。ステップS136において、照射画像と予測画像とが近づいていないと判定された場合には、ステップS130以降の処理を繰り返す。
また、ステップS128において、投影イメージを照射可能な対象物がないと判定された場合には、表示画面に投影対象がないことを示すダイアログを表示する(S138)。
そして、撮影が行われたか否かを判定する(S140)。ステップS140において、撮影が行われたと判定された場合には、撮影された画像を保存する(S142)。ステップS140において、撮影が行われていないと判定された場合には、ステップS122以降の処理を繰り返す。以上、図18のフローチャートに示した処理について説明した。
上記したように、第1実施形態によれば、撮像装置12により撮像された被写体の画像を解析して、画像の解析結果に応じた投影イメージを照射装置13により被写体に照射することができる。これにより、撮影された画像に適したグラフィックの投影を行うことが可能となる。以上、第1実施形態について説明した。
<3.第2実施形態>
次に、第2実施形態について説明する。上記したように、従来の技術では、マーカ等により予め認識された位置にグラフィックが投影される。このため、撮影画像が表示されている表示画面上でユーザが直接指定した位置にグラフィックを投影することができないという問題があった。そこで、上記のような事情を一着眼点として、本実施形態にかかる情報処理装置20が創作されるに至った。本実施形態にかかる情報処理装置20によれば、ユーザによる直感的な操作で所望のグラフィック投影を行うことが可能となる。
<3−1.情報処理装置のハードウェア構成>
図19を参照して、情報処理装置20のハードウェア構成について説明する。図19は、情報処理装置20のハードウェア構成を示すブロック図である。図10に示したように、情報処理装置20は、表示装置(ディスプレイ)11と、撮像装置(カメラ)12と、照射装置(プロジェクタ)13と、CPU21と、入力装置15と、RAM(Random Access Memory)16と、不揮発性メモリ17と、タッチパネル22とモーションセンサ23などを備える。本実施形態においても、カメラ12とプロジェクタ13は情報処理装置20の筐体の固定の位置に備えられている。
以下では、第1実施形態と同様の構成についての詳細な説明は省略し、第1実施形態と異なる構成について特に詳細に説明する。タッチパネル22は、表示と入力の2つの機能を備えている。本実施形態にかかるタッチパネル22は、タッチパネル上のユーザの指等による入力を検出して、指定された位置などを取得することができる。検出方法としては、透明電極を構成する金属薄膜を利用した抵抗膜方式、指先と導電膜との間での静電容量の変化を捉えて位置を検出する静電容量方式や、赤外線遮光方式、電磁誘導方式など、ディスプレイにおける操作体の位置情報を検出できる方法であればよい。
以下では、特に、例えば、静電式タッチパネルを用いて操作体の操作を検出する方法について説明する。静電式タッチパネルは、格子状に配置された静電センサを備えており、静電容量の変化によってその値を常時変化させる。静電センサに操作体である指が近付いたり触れたりした場合に、静電センサにより検知される静電容量が増加する。各静電センサの静電容量は同時に取得することが可能である。すべての静電センサの静電容量の変化を同時に検出し、補間することによって近接または接触している指による操作などを検出することが可能である。タッチパネル22は、検出した静電容量の値を、CPU21へ出力する。
CPU21は、タッチパネル22から入力された各種情報と表示装置11に表示された表示内容の表示位置との対応付けを行い、操作体の動きを解析する。そして、CPU21は、解析された操作体の動きから、情報処理装置10へ入力された入力情報を認識して、入力情報に対応する処理を実行する。このように、ユーザは、表示画面に表示された内容を操作して、入力情報を入力することができる。
モーションセンサ23は、情報処理装置20本体の回転角度や傾きなどを検出する機能を有し、例えば、加速度センサやジャイロセンサなどを例示できる。モーションセンサ23により検出された情報処理装置20の回転角度や傾きに関する情報はCPU21に出力される。CPU21は、モーションセンサ23から出力された回転角度や傾きを基に、情報処理装置20本体の動きを検出する。
<3−2.情報処理装置の機能構成>
以上、情報処理装置20のハードウェア構成について説明した。次に、図20を参照して、情報処理装置20の制御部(CPU21)の機能構成について説明する。図20の機能構成を説明するに際し、適宜図21〜図31を参照する。図20は、情報処理装置20の制御部の機能構成を示すブロック図である。
図20に示したように、情報処理装置20の制御部は、撮像部202、検出部204、照射部206、解析部208、記憶部210、取得部212などを備える。撮像部202は、撮像装置12により被写体を撮像する機能を有する。また、照射部206により投影イメージが照射された被写体を撮像する機能を有する。撮像部202により撮像された画像は、照射部206および解析部208に提供される。
照射部206は、ユーザ入力に基づく投影イメージを照射装置13により被写体に照射する機能を有する。ユーザ入力に基づく投影イメージとは、ユーザによりタッチパネル22などを介して指定されたり選択されたりした投影イメージである。投影イメージは、ユーザ入力に基づいて記憶部108に記憶されている投影イメージを取得して被写体に照射されてもよい。
本実施形態では、上記したように、撮像装置12により撮像可能な撮像領域と照射装置13により照射可能な照射領域とが同期しているとしている。また、図21に示したように、撮像領域53と照射領域54とが同期していない場合には、情報処理装置20のディスプレイ11に照射領域を示す表示をしてもよい。例えば、図21に示したように、ディスプレイ11に照射領域を示す枠を表示して、ユーザに照射可能領域を提示してもよい。図21では、撮影可能領域は領域53であり、照射可能領域は領域54であるため、表示画面に照射可能領域を示す枠を表示している。
図20に戻り、取得部212は、被写体が表示されている表示画面上でユーザ入力に応じて指定された指定位置を取得する機能を有する。上記したように、タッチパネル22を介してユーザ入力がなされ、表示画面上におけるユーザ入力が取得部212により取得される。また、取得部212は、被写体が表示されている表示画面上でユーザ操作により描写された投影イメージを取得したり、表示画面に表示された投影イメージから所望の投影イメージを選択したりしてもよい。
例えば、図22に示したように、被写体501が撮像部202により撮像されて、表示画像502が表示画面に表示される。ユーザは、表示画面(タッチパネル22)に接触することにより、表示画像502内の所望の位置を指定する。本実施形態では、タッチパネル22により表示画像502内の所望の位置を指定するようにしたが、かかる例に限定されず、表示画像502内の所望の位置を指定可能なボタンやレバーなどの入力装置により指定してもよい。
そして、取得部212によりユーザにより指定された指定位置が取得されて、説明図503に示したように、指定位置に照射するための投影イメージが生成される。説明図503に示したように、ユーザにより指定された位置に所定の色を照射する投影イメージを生成してもよい。そして、説明図505に示したように被写体に投影イメージが照射される。また、説明図504に示したように、投影イメージが照射された被写体が撮像装置12により撮像される。上記したように、照射される投影イメージが記憶部108に記憶されている場合には、ユーザ指示に基づいて記憶部108から取得される。
また、図23に示したように、ユーザにより指定された指定位置に照明効果が表れる投影イメージを照射してもよい。例えば、説明図516に示したように、被写体515が撮像装置12により撮像されて、表示画面に表示される。そして、ユーザにより被写体の顔部分が指定されると、説明図517に示したように、指定された部分に照明効果が表れる投影イメージが生成される。そして、説明図519に示したように、被写体に投影イメージが照射されて、説明図518に示したように、投影イメージが照射された被写体が撮像装置12により撮像される。説明図518では、被写体の顔が明るくなる投影イメージが照射される。
また、図24に示したように、被写体が表示されている表示画面上でユーザ操作により描写された投影イメージを被写体に照射してもよい。例えば、説明図521に示したように、ユーザが、表示画面上(タッチパネル)に「ともだち」の文字を描写すると、被写体に「ともだち」と照射される投影イメージが生成される。そして、説明図522に示したように、ユーザにより描写された「ともだち」の文字の投影イメージが被写体に照射される。
また、図25に示したように、表示画面に表示された複数の投影イメージからユーザ入力に応じて所望の投影イメージを選択してもよい。例えば、説明図525に示したように、表示画面に複数種類の投影イメージのグラフィックを表示する。ユーザは、表示画面上(タッチパネル)で所望のグラフィックを選択する。ここで、ユーザは、表示画面を接触することにより所望のグラフィックを選択してもよいし、ボタンやレバーなどの入力装置により所望のグラフィックを選択してもよい。
さらに、説明図526に示したように、ユーザ入力により、選択されたグラフィックを照射する位置が指定される。そして、説明図527に示したように、指定された位置に選択されたグラフィックを照射するための投影イメージが生成されて、被写体に照射される。このように、ユーザは、表示画面上で直接グラフィックを描写したり選択したりという直感的な操作で被写体に投影イメージを照射させることが可能となる。
図20に戻り、情報処理装置20の機能構成の説明を続ける。解析部208は、撮像部202により撮像された被写体の画像を解析する機能を有する。解析部208は、撮像された被写体の画像の特徴点を抽出して、抽出した画像の特徴点に関する情報を照射部206に提供する。照射部206は、解析部208により抽出された被写体の特徴点に応じて投影イメージを被写体に照射する。
ここで、図26を参照して、被写体の特徴点の抽出について説明する。例えば、図26の説明図505では、被写体に含まれる人物が動く前に画像の特徴点が抽出されて、人物の位置に応じて投影イメージが照射されている。説明図505では、例えば、人物の頭付近に投影イメージが照射される。このとき、説明図507に示したように、特徴点と投影イメージの相対位置が記録される。そして、説明図506に示したように、被写体に含まれる人物が動いた後の画像の特徴点を抽出して、当該画像の特徴点に応じて投影イメージが照射される。すなわち、画像内の人物が動いても、人物の特徴点と投影イメージとの相対位置から、人物の頭付近に投影イメージが照射されるように、照射位置が補正される。
図20に戻り、情報処理装置20の機能構成の説明を続ける。検出部204は、モーションセンサ23を介して、情報処理装置20本体の動きを検出する機能を有する。上記したように、モーションセンサ23により、情報処理装置20本体の回転速度や傾きなどを検出することができる。したがって、検出部204は、モーションセンサ23から出力された回転角度や傾きを基に、情報処理装置20本体の動きを検出する。そして、照射部206は、検出部204により検出された情報処理装置20本体の動きに応じて投影イメージを被写体に照射する。
ここで、図27を参照して、情報処理装置20の動きに応じて照射される投影イメージについて説明する。図27の説明図510は、情報処理装置20が動く前に撮像された画像である。例えば、説明図510に示した画像が撮像された後に、説明図511に示したように、情報処理装置20が左方向に移動したとする。検出部204は、モーションセンサ23により情報処理装置20本体が左方向に移動したことを検出し、検出結果を照射部206に提供する。
照射部206は、説明図512に示したように、情報処理装置20本体の動きに応じて照射するグラフィックの位置を補正する。すなわち、左方向に移動する情報処理装置20の移動距離に合わせて、照射するグラフィックの位置を左方向にずらした投影イメージを生成する。そして、説明図513に示したように、情報処理装置20が左右のいずれに移動しても、画像の特定の位置にグラフィックが照射される。
また、図28に示したように、複数台の情報処理装置20により一つの被写体に対して異なる投影イメージを照射してもよい。例えば、図28に示したように、ユーザAが所持する情報処理装置20AとユーザBが所持する情報処理装置20Bにより、被写体527にそれぞれ投影イメージが照射される。まず、情報処理装置20Aにより説明図531に示した投影イメージが照射され、次に、情報処理装置20Bにより説明図532に示した投影イメージが照射されたとする。この場合、被写体には情報処理装置20Aにより照射された投影イメージと、情報処理装置20Bにより照射された投影イメージのいずれもが照射されて、両装置で説明図530に示した投影イメージが撮像される。
ここで、一つの被写体に対して異なる投影イメージを次々に照射して撮像するためには、各装置における撮像領域と照射領域とが同期(一致)している必要がある。そこで、図26に示した画像処理により被写体の特徴点を抽出したり、装置本体の動きを検出したりして、撮像領域と照射領域とが同期するように照射領域の位置補正を行う。また、異なる装置で投影イメージを照射する場合には、照射装置から投影イメージを照射する照射周期を一致させておく必要がある。例えば、両装置を、ネットワークを介して接続して、照射周期の情報を共有させてもよい。また、投影イメージに照射周期に関する情報を埋め込み、当該投影イメージを撮像することにより、照射周期の情報を取得するようにしてもよい。
また、複数の装置間で照射周期を異なる周期とすることにより、周期ごとに異なる投影イメージを撮像させるようにしてもよい。例えば、情報処理装置20Aと情報処理装置20Bの照射周期を異なる周期とする。情報処理装置20Aにより投影イメージが照射された照射周期と同じ周期で撮像したり、情報処理装置20Bにより投影イメージが照射された照射周期と同じ周期で撮像したりすることにより、周期毎に異なる投影イメージを撮像することが可能となる。
また、このように周期を変えることにより、どの装置により照射された投影イメージかを識別することが可能となる。また、投影イメージに所定のパターンを埋め込み、当該投影イメージを撮像して所定のパターンを画像処理により解析することによりどの装置により照射された投影イメージかを識別してもよい。また、投影イメージに時系列の情報を含むパターンを埋め込み、当該イメージを撮像することにより、複数の投影イメージの投影順序などの時系列情報を解析するようにしてもよい。
また、図29に示したように、時間に応じて変化する投影イメージを被写体に照射してもよい。例えば、説明図536に示したように、ユーザの指などによりタッチパネル上で投影イメージを照射する位置が指定される。そして、説明図535に示したように、被写体に円形状の投影イメージが照射される。投影イメージは、説明図537に示したように、時間に応じて円形状の投影イメージが変化する。例えば、円形状の投影イメージを説明図537に示したように変化させることにより、シャッタがオンされるまでの時間を被写体に示すことができる。
また、図30に示したように、情報処理装置30をテレビ受像機とリモコンに適応して、リモコンのタッチパネル上で指定された投影イメージをテレビ受像機の表示画面に表示させてもよい。例えば、説明図541に示したように、テレビ受像機に撮像装置と照射装置とを備えて、テレビ受像機を視聴しているユーザを撮像したり照射したりする。ユーザはリモコンを所持し、説明図540に示したように、リモコンの表示画面にテレビ受像機の撮像装置により撮像された画像が表示される。そして、説明図542に示したように、ユーザがリモコンのタッチパネル上に所定の文字等が描写されると、説明図543に示したように、ユーザにより描写された投影イメージが被写体に照射される。そして、投影イメージが照射された被写体がテレビ受像機に備わる撮像装置により撮像されて、テレビ受像機の表示画面に表示される。
また、図31に示したように、被写体に投影イメージを照射して撮像した後に、画像処理により照射された投影イメージを補正したり再合成したりするようにしてもよい。例えば、説明図545に示したように、被写体に投影イメージが照射され、投影イメージが照射された被写体が撮像される。そして、説明図546に示したように、投影イメージが照射された被写体の画像を加工して、投影イメージの色補正を行う。これにより、被写体のどこにどのようなグラフィックが出力されるかを撮影者だけでなく被写体も確認することができ、所望のグラフィック合成を行うことが可能となる。
<3−3.情報処理装置の動作の詳細>
以上、情報処理装置20の制御部の機能について説明した。次に、図32〜図34を参照して、情報処理装置20の動作の詳細について説明する。図32〜図34は、情報処理装置20の動作の詳細を示すフローチャートである。
図32に示したように、まず、情報処理装置10において、プロジェクタ(照射装置13)がONか否かを判定する(S202)。ステップS202において、プロジェクタがONになっていると判定された場合には、撮像装置12により撮像された画像を取得する(S204)。ステップS204において取得された画像をタッチパネル上に表示する(S206)。そして、画像が表示されたタッチパネル上においてユーザからの位置指定行為があるか否かを判定する(S208)。ステップS208において、タッチパネル上においてユーザからの位置指定行為があるか否かを判定しているが、かかる例に限定されない。例えば、情報処理装置20に備わる操作ボタンや操作レバーからの入力に応じて、位置指定行為があるか否かを判定してもよい。
ステップS208において、位置指定行為があったと判定された場合には、ユーザにより指定された位置に応じたグラフィックを生成する(S210)。また、ステップS208において、ユーザからの位置指定行為がないと判定された場合には、位置指定行為以外のグラフィックに関する操作があるか否かを判定する(S212)。位置指定行為以外の操作とは、例えば、複数のグラフィックから所望のグラフィックを選択する行為などである。ステップS212において、グラフィックに関するその他の操作があると判定された場合には、該操作に応じてグラフィックを生成する(S214)。
そして、ステップS210またはステップS214において生成されたグラフィックを含む投影イメージを被写体に照射する(S216)。そして、投影イメージが照射された被写体が撮像されたか否かを判定する(S218)。ステップS218において、撮影が行われたと判定された場合には、撮影された画像を保存する(S220)。
次に、図33を参照して、照射された投影イメージの位置を画像処理により固定化する処理について説明する、以下では、図32の処理に従って、既にグラフィックが生成されて被写体に投影イメージが照射されているものとして説明する。図33に示したように、まず。プロジェクタがONか否かを判定する(S302)。ステップS302において、プロジェクタがONになっていると判定された場合には、撮像装置12により撮像された画像を取得する(S304)。ステップ3204において取得された画像は、投影イメージが照射された被写体の画像である。
次に、ステップS304において取得した画像の特徴点を検出する(S306)。そして、ステップS306において検出した特徴点と投影されているグラフィック位置との相対関係を記録する(S308)。そして、前フレームにおける特徴点とのマッチングを行う(S310)。そして、ステップS310においてマッチングされた特徴点を用いて、すでに描画されているグラフィクの描画位置を補正する(S312)。ステップS306以降の処理は、被写体に含まれる物体や人が移動する都度繰り返してもよい。これにより、被写体に含まれる物体や人に対して、常に固定された位置に投影イメージを照射することが可能となる。
次に、図34を参照して、照射された投影イメージの位置を装置の動きを検出することにより固定化する処理について説明する。以下では、図32の処理に従って、既にグラフィックが生成されて被写体に投影イメージが照射されているものとして説明する。図34に示したように、まず、プロジェクタがONか否かを判定する(S322)。ステップS322において、プロジェクタがONになっていると判定された場合には、撮像装置12により撮像された画像を取得する(S324)。そして、モーションセンサ(ジャイロセンサ)により出力された出力値を取得する(S326)。
そして、ステップS326において取得された出力値から、情報処理装置20本体の動きを推定する(S328)。そして、ステップS308において推定された情報処理装置20本体の動きから、被写体に照射された投影イメージの位置を補正する(S320)。たとえば、ステップS328において、情報処理装置20本体が左右に動いたと判定された場合には、投影イメージの照射位置を左右に移動する。また、情報処理装置20本体が回転した場合には、装置本体の回転に合わせて照射される投影イメージを回転させる。これにより、被写体に含まれる物体や人の固定された位置に投影イメージを照射することが可能となる。以上、情報処理装置20の動作の詳細について説明した。
上記したように、第2実施形態によれば、ユーザ入力に基づく投影イメージが被写体に照射されて、撮像装置12により投影イメージが照射された被写体が撮像される。ユーザは、例えば、タッチパネル22を操作することにより、投影イメージを照射する位置を指定したり、照射する投影イメージを選択したりする。これにより、ユーザによる直観的な操作で撮影対象となる被写体に所望のグラフィック投影を行うことが可能となる。以上、第2実施形態について説明した。
<4.第3実施形態>
次に、第3実施形態について説明する。上記しように、従来から、撮影対象となる被写体に、プロジェクタを用いてグラフィックを投影する技術が開示されている。また、机などにグラフィックを投影し、指の方向や手の形状を検出して情報処理装置に所定の処理をさせる技術も開示されている。しかし、指の方向や手の形状に応じた処理だけでなく、投影されたグラフィックに対する被写体の何らかの動きを検出して、その動きに連動した処理を実行させることが望まれていた。
そこで、上記のような事情を一着眼点として、本実施形態にかかる情報処理装置30が創作されるに至った。本実施形態にかかる情報処理装置30によれば、投影イメージに対する被写体のインタラクションに応じた処理を実行することが可能となる。
図35および図36を参照して、本実施形態の概要を説明する。例えば、図35および図36は、本実施形態の概要を説明する説明図である。第1実施形態と同様に、情報処理装置30の照射装置13により被写体に投影イメージが照射されて、撮像装置12により投影イメージが照射された被写体が撮像される。図35に示したように、本実施形態においても、撮像領域55と照射領域56とは同期している。照射領域56に被写体に所定の操作をさせるためのグラフィックを含む投影イメージ60が照射される。そして、投影イメージ60が照射された撮像領域55が撮像される。
また、図36の説明図62に示したように、照射領域に「Yes」「No」のグラフィックを含む投影イメージ61が照射される。そして、被写体に含まれる人が、照射された投影イメージの「Yes」を指さすジェスチャを行う。そして、「Yes」を指さすジェスチャを行っている被写体の画像が認識されて、「Yes」を指さしたことが検出される。図36では、撮像装置12のフラッシュをオンにするか否かを選択させるための投影イメージであるため、「Yes」を指さしたことが検出されて、フラッシュがオンされて撮像処理が実行される。
このように、本実施形態にかかる情報処理装置30によれば、照射装置(プロジェクタ)13により照射された投影イメージに対しての被写体のインタラクションによって、情報処理装置30本体の操作を実行させることが可能となる。
<4−1.情報処理装置のハードウェア構成>
本実施形態にかかるハードウェア構成は、図3に示した第1実施形態と同様のハードウェア構成であるため、詳細な説明は省略する。
<4−2.情報処理装置の機能構成>
次に、図37を参照して、情報処理装置30の機能構成について説明する。図37では、特に、情報処理装置30の制御部(CPU34)の機能構成について説明する。図37の機能構成を説明するに際し、適宜図38〜図49を参照する。図37に示したように、情報処理装置30の制御部は、認識部302、照射部304、実行部306、記憶部308などを備える。認識部302は、撮像対象となる被写体の操作を認識する機能を有する。
認識部302は、撮像装置12により撮像された被写体の画像を基に、被写体の操作を認識する。以下では、撮像装置12により撮像された被写体の画像を解析して、被写体のジェスチャによる操作を認識する場合について説明するが、かかる例に限定されない。例えば、被写体に赤外線を照射して、赤外線の反射結果を用いて被写体のジェスチャなどを認識してもよい。
照射部304は、撮像対象となる被写体に所定の操作をさせるための投影イメージを被写体に照射する機能を有する。また、照射部304は、被写体に何らかの選択操作をさせるための投影イメージを照射してもよい。また、認識部302により認識された被写体の操作に応じた投影イメージを照射してもよい。照射部304は、記憶部308から投影イメージを取得して被写体に照射する。照射部304は、ユーザ操作に応じて記憶部308から投影イメージを取得してもよいし、被写体に含まれる物体や人に応じた投影イメージを記憶部308から取得してもよい。
また、認識部302により被写体に含まれる物体や人が認識された場合には、照射部304は、被写体に含まれる物体や人の領域に投影イメージを照射したり、物体や人の領域以外に投影イメージを照射したりしてもよい。さらに、認識部302により被写体に含まれる特定の人の顔が認識された場合には、特定の人の付近の領域に投影イメージを照射してもよい。
例えば、図38の説明図601に示したように、被写体に含まれる人物の顔が検出された場合には、人物の顔の領域以外の領域に投影イメージを照射するようにしてもよい。また、説明図602に示したように、人物の顔のうち、情報処理装置30を所有する所有者の顔を検出可能な場合には、所有者の顔付近に投影イメージを照射してもよい。これにより、被写体に含まれる人が投影イメージに対して容易に操作することが可能となる。
図37に戻り、実行部306は、認識部302により認識された被写体の操作に応じて所定の処理を実行する機能を有する。実行部306は、認識部302により認識された被写体のジェスチャに応じた処理を実行する。例えば、上記したように、フラッシュをオンするジェスチャが認識された場合には、情報処理装置30に備わるフラッシュをオンにして撮像処理を実行する。また、認識部302が、照射部304により照射された範囲内の被写体の動きを認識する場合には、照射された範囲内の被写体の動きに対応する処理を実行するようにしてもよい。
例えば、図39に示したように、説明図606の投影イメージを被写体に照射するとする。この場合、説明図605に示したように、被写体に説明図606の投影イメージが照射される。そして、説明図607に示したように、撮像装置12により、投影イメージが照射された被写体が撮像される。このとき、認識部302は、投影イメージが照射された領域のみを認識することにより、被写体によるジェスチャの認識を堅牢にすることが可能となる。すなわち、認識部302は、撮像された画像のすべてから所定の操作を認識する必要はなく、領域608に含まれる所定の操作のみを認識すればよい。これにより、処理負荷を軽減することが可能となる。
次に、図39〜図48を参照して、照射された投影イメージに対する被写体の操作(インタラクション)の例について説明する。例えば、図40に示したように、認識部302により一定の動きが検知された場合に、投影イメージに対する操作があったと認識するようにしてもよい。例えば、説明図610では、カメラのグラフィックのアイコンが照射され、アイコンの投影イメージ上での手の動きを検出した場合に、投影イメージに対して操作があったと認識する。アイコンの投影イメージ上で手の動きが検出された場合には、説明図611に示したように、アイコンの投影イメージの色を濃くしたり、色を変えたりする。
また、図41に示したように、アイコンが照射されている照射領域内に手が入ったことが検出された場合に、投影イメージに対する操作があったと認識するようにしてもよい。照射領域内に手が入った否かは、例えば、領域内に肌色近傍の物体が入ったか否かにより判定することができる。例えば、説明図615では、カメラのグラフィックのアイコンが被写体に照射され、アイコンの投影イメージの照射領域内に手が入り、一定期間が経過したか否かを判定する。例えば、説明図616に示したように、アイコンの投影イメージの照射領域内に手が入ったことを認識した後、経過時間に応じて投影イメージの色を段階的に濃くしたり、色を変えたりする。
また、図42に、被写体に二択操作をさせるための投影イメージを照射する場合を示した。例えば、説明図620に示したように、アイコンが照射されている照射領域内に手が入ったことが検出された場合に、被写体に二択操作をさせるための投影イメージを照射する。例えば、説明図621に示したように、アイコンの左側に「YES」、右側に「No」の投影イメージを照射する。そして、説明図622に示したように、手がアイコンが投影されている領域から右側に動いたことが検出された場合には、「Yes」が選択されたと認識することができる。実行部306は、当該選択に応じた処理を実行する。例えば、フラッシュをオンにするか否かを選択させる場合には、フラッシュをオンにして撮像処理を実行する。
また、図43に、被写体に複数選択操作をさせるための投影イメージを照射する場合を示した。例えば、説明図625に示したように、円形状のアイコンが照射されている照射領域内に手が入ったことが検出された場合に、被写体に複数選択操作をさせるための投影イメージを照射する。例えば、説明図626に示したように、円形状のアイコンの周囲に放射状に選択肢を示す投影イメージを照射する。そして、説明図627に示したように、手がアイコンが投影されている領域から選択肢のいずれかの領域に動いたことが検出された場合には、手が位置する領域の選択肢を選択されたと認識することができる。実行部306は、当該選択に応じた処理を実行する。例えば、撮影時のホワイトバランスやシャッタースピードなどの撮影モードを段階的に選択させる場合には、選択された撮影モードで撮像処理を実行する。
また、図44に、被写体の動きに応じて投影イメージを変化させる場合を示した。例えば、説明図630に示したように、四角形状のアイコンが照射されている照射領域内に手が入ったことが検出された後に、説明図631に示したように手を握った状態が検出されたとする。認識部302は、手を広げた状態から手を握った状態の動きが検出された場合には、「つかむ」動作がなされたと認識する。そして、説明図632に示したように、「つかむ」動作がなされたまま手が動かされた場合には、投影イメージを追従させる。そして、説明図634に示したように、手を握った状態から手を広げた状態に戻ったことが検出された場合に投影イメージの追従を終了させる。
また、図45に、被写体の手を検出して、検出された手に投影イメージを照射する場合を示した。例えば、説明図640に示したように、被写体の手のひらを検出する。そして、説明図641に示したように、検出された手のひらの領域に円形状の投影イメージを照射する。ここで、認識部302は、手のひらの領域を常に検出して、照射部304は投影イメージを手のひらの動きに追従するように照射する。
そして、説明図642に示したように、手のひらが早く動いて、円形状の投影イメージが照射されている領域から大きく外れた場合には、投影イメージに対して何らかの処理をキャンセルする操作であると認識してもよい。また、説明図643に示したように、手のひらを握る動きを検出した場合には、投影イメージに対して何らかの処理を決定する操作であると認識してもよい。
また、図46に二つの手のひらを検出して、検出された二つの手に投影イメージを照射する場合を示した。例えば、説明図645に示したように、被写体の二つの手のひらを検出する。そして、説明図646に示したように、二つの手のひらにそれぞれ異なる選択肢を示す投影イメージを照射する。そして、説明図647に示したように、いずれかの手を握る動きを検出した場合には、選択肢のいずれかを選択する操作であると認識する。
また、図47に被写体の大局的な動きに応じて投影イメージを変更する場合を示した。例えば、説明図650に示したように、被写体の両手の位置や体の向きなどを検出して、被写体の大局的な動きを検出する。説明図650では、左側の手を伸ばし、右側の手を曲げていることが検出される。例えば、被写体の動きに応じて照明光を変更する処理を実行する場合には、説明図651に示したように、検出された手の位置に応じて照明光を表現するフィルタを移動させてもよい。
また、図48に被写体の対極的な動きに応じて撮影画角を変更する場合を示した。例えば、説明図655に示したように、被写体の両手の位置および手の動きを検出して、撮影画角を表現する投影イメージを照射する。そして、上記したように、手のひらの動きを検出して、照射された撮影画角を「つまむ」動作や撮影画角を「離す」操作を検出する。そして、説明図656に示したように、投影イメージの撮影画角をつかんで動かす操作を行った場合には、撮影される範囲を移動させる。
これにより、撮像する際のズームインやズームアウトを被写体の操作に応じて実行することが可能となる。また、図48に示したような大局的な被写体の操作だけでなく、手を前後させる操作により撮像時のズームインやズームアウトの処理を実行してもよい。また、ズームインやズームアウトした結果の画像を被写体が位置する領域とは別の領域に投影してもよい。
また、図49に撮影者による操作に応じて、被写体に所定の操作をさせるための投影イメージを照射する場合を示した。例えば、情報処理装置30に第2実施形態と同様にタッチパネルが備えられている場合には、撮影者によるタッチパネル上の入力に応じて投影イメージを照射してもよい。図49の説明図670に示したように、撮影者が情報処理装置30のタッチパネルを接触して投影イメージを照射する位置を指定する。そして、説明図671に示したように、撮影者に指定された位置に投影イメージが照射される。
<4−3.情報処理装置の動作の詳細>
以上、情報処理装置30の制御部の機能について説明した。次に、図50を参照して、情報処理装置30の動作の詳細について説明する。図50は、情報処理装置30の動作の詳細を示すフローチャートである。
図50に示したように、まず、プロジェクタ(照射装置13)がONか否かを判定する(S402)。ステップS302において、プロジェクタがONになっていると判定された場合には、プロジェクタからGUIが照射されているか否かを判定する(S404)。ステップS304において、照射されるGUIは、撮像対象となる被写体に所定の操作をさせるための投影イメージである。
ステップS404において、プロジェクタからGUIが照射されていると判定された場合にはカメラ(撮像装置12)により撮像された画像を取得する(S406)。そして、ステップS404において照射されているGUIが表示されている領域のみ、ジェスチャ認識を行う(S408)。上記したように、プロジェクタから被写体に所定の操作をさせるための投影イメージであるGUIが照射されている場合には、照射されたGUIに対して何らかの操作が行われる。したがって、GUIが照射されている領域での被写体の操作を認識すればよいこととなる。
ステップS404において、プロジェクタからGUIが照射されていないと判定された場合には、カメラ(撮像装置12)により撮像された画像を取得する(S410)。そして、ジェスチャ認識を行う(S412)。ステップS412においては、ステップS410において取得された画像全体における被写体の操作を認識する。
そして、ステップS408またはステップS412においてジェスチャが認識されたか否かを判定する(S414)。ステップS414において、ジェスチャ認識が行われたと判定された場合には、認識されたジェスチャの内容と、ジェスチャが行われた位置に応じた操作を実行する(S416)。ジェスチャの内容とは、例えば、開いた手のひらを閉じたり、手の指を一定の方向に向けたりすることである。例えば、「Yes」「No」の文字を含む投影イメージが照射され、被写体の手が「Yes」の領域に動いた場合には、フラッシュをオンにするなどの「Yes」に応じた操作を実行する。
そして、ステップS416において実行された操作の結果を反映して、GUIを変更したり、新たなGUIを投影したりする(S418)。そして、撮影が行われるか否かを判定する(S420)。ステップS420において、撮影が行われると判定された場合には、撮影が実行される前に、被写体に操作させるための投影イメージ(GUI)を消す(S422)。ステップS422において、GUIを消すとは、照射装置13から投影イメージを照射しない状態であることを示す。そして、ステップS422においてGUIが消された後に撮影を実行する(S424)。以上、情報処理装置30の動作の詳細について説明した。
上記したように、第3実施形態によれば、撮像対象となる被写体に所定の操作をさせるための投影イメージが照射されて、照射された投影イメージに対する被写体の操作が認識される。そして、認識された被写体の操作に応じた所定の処理が実行される。これにより、投影イメージに対する被写体のインタラクションに応じて、撮像処理等の情報処理装置30本体の操作を実行させることが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の情報処理装置10、20、30の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、情報処理装置10、20、30の情報処理装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置10、20、30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
10、20、30 情報処理装置
11 表示装置
12 撮像装置
13 照射装置
14、21、31 CPU
15 入力装置
16 RAM
17 不揮発性メモリ
102 解析部
104 照射部
106 生成部
108 記憶部
202 撮像部
204 検出部
206 照射部
208 解析部
210 記憶部
212 取得部
302 認識部
304 照射部
306 実行部
308 記憶部

Claims (9)

  1. 撮像対象となる被写体に投影イメージを照射する照射部と、
    前記投影イメージが照射された照射範囲内における前記被写体の操作および動きを認識する認識部と、
    前記認識部により認識された前記被写体の操作に応じて所定の処理を実行する実行部と、
    を備え、
    前記照射部は、前記照射範囲内の前記被写体の撮像装置の撮影画角を表す投影イメージを移動させる動きに追従して前記撮影画角を表す投影イメージを移動させ
    前記実行部は、前記認識部により認識された前記照射範囲内の前記被写体の前記撮影画角を表す投影イメージを移動させる動きに応じて前記撮影画角の変更処理を実行する、
    情報処理装置。
  2. 前記認識部は、撮像装置により撮像された前記被写体の画像を基に前記被写体の操作を認識する、請求項1に記載の情報処理装置。
  3. 照射装置により前記被写体に前記投影イメージが照射され、
    前記撮像装置と前記照射装置は前記情報処理装置の固定位置に備えられている、請求項2に記載の情報処理装置。
  4. 前記照射部は、前記被写体に選択操作をさせるための投影イメージを照射し、
    前記認識部は、前記被写体による前記選択操作を認識し、
    前記実行部は、前記被写体により選択された操作を実行する、請求項1に記載の情報処理装置。
  5. 前記照射部は、ユーザ操作により選択された前記投影イメージを前記被写体に照射する、請求項1に記載の情報処理装置。
  6. 前記認識部は、前記被写体に含まれる物体や人を認識し、
    前記照射部は、前記認識部により認識された前記被写体に含まれる物体や人の領域に前記投影イメージを照射する、請求項1に記載の情報処理装置。
  7. 前記認識部は、前記被写体の操作を認識し、
    前記実行部は、前記照射部に、前記認識部により認識された前記被写体の操作に応じた投影イメージを照射させる、請求項1に記載の情報処理装置。
  8. 撮像対象となる被写体に投影イメージを照射するステップと、
    前記投影イメージが照射された照射範囲内における前記被写体の操作および動きを認識するステップと、
    前記照射範囲内の前記被写体の撮像装置の撮影画角を表す投影イメージを移動させる動きに追従して前記撮影画角を表す投影イメージを移動させるステップと、
    認識された前記被写体の操作に応じて所定の処理を実行するステップと、
    認識された前記照射範囲内の前記被写体の前記撮影画角を表す投影イメージを移動させる動きに応じて前記撮影画角の変更処理を実行するステップと、
    を含む、情報処理方法。
  9. コンピュータを、
    撮像対象となる被写体に投影イメージを照射する照射部と、
    前記投影イメージが照射された照射範囲内における前記被写体の操作および動きを認識する認識部と、
    前記認識部により認識された前記被写体の操作に応じて所定の処理を実行する実行部と、
    を備え、
    前記照射部は、前記照射範囲内の前記被写体の撮像装置の撮影画角を表す投影イメージを移動させる動きに追従して前記撮影画角を表す投影イメージを移動させ
    前記実行部は、前記認識部により認識された前記照射範囲内の前記被写体の前記撮影画角を表す投影イメージを移動させる動きに応じて前記撮影画角の変更処理を実行する、情報処理装置として機能させるためのプログラム。
JP2010048098A 2010-03-04 2010-03-04 情報処理装置、情報処理方法およびプログラム Expired - Fee Related JP5740822B2 (ja)

Priority Applications (14)

Application Number Priority Date Filing Date Title
JP2010048098A JP5740822B2 (ja) 2010-03-04 2010-03-04 情報処理装置、情報処理方法およびプログラム
EP11153331.1A EP2364013B1 (en) 2010-03-04 2011-02-04 Information processing apparatus, method and program for imaging device
EP21214242.6A EP3996361A1 (en) 2010-03-04 2011-02-04 Information processing apparatus, information processing method, and program
TW100104165A TW201205182A (en) 2010-03-04 2011-02-08 Information processing apparatus, information processing method, and program
US13/023,639 US9049376B2 (en) 2010-03-04 2011-02-09 Information processing apparatus, information processing method, and program
RU2011106920/07A RU2011106920A (ru) 2010-03-04 2011-02-24 Устройство обработки информации, способ обработки информации и программа
KR1020110016688A KR20110100582A (ko) 2010-03-04 2011-02-24 정보 처리 장치, 정보 처리 방법 및 프로그램
BRPI1100158-5A BRPI1100158A2 (pt) 2010-03-04 2011-02-25 aparelho e mÉtodo de processamento de informaÇço, e, programa para fazer com que um computador funcione como um aparelho de processamento de informaÇço
CN201110049117.5A CN102196220B (zh) 2010-03-04 2011-02-25 信息处理设备和信息处理方法
US14/711,092 US9516206B2 (en) 2010-03-04 2015-05-13 Information processing apparatus, information processing method, and program
US15/340,382 US10015392B2 (en) 2010-03-04 2016-11-01 Information processing apparatus, information processing method, and program
US15/993,902 US10306136B2 (en) 2010-03-04 2018-05-31 Information processing apparatus, information processing method, and program
US16/389,140 US10659681B2 (en) 2010-03-04 2019-04-19 Information processing apparatus, information processing method, and program
US16/865,816 US11190678B2 (en) 2010-03-04 2020-05-04 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010048098A JP5740822B2 (ja) 2010-03-04 2010-03-04 情報処理装置、情報処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015085030A Division JP6032319B2 (ja) 2015-04-17 2015-04-17 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011188024A JP2011188024A (ja) 2011-09-22
JP5740822B2 true JP5740822B2 (ja) 2015-07-01

Family

ID=44225983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010048098A Expired - Fee Related JP5740822B2 (ja) 2010-03-04 2010-03-04 情報処理装置、情報処理方法およびプログラム

Country Status (8)

Country Link
US (6) US9049376B2 (ja)
EP (2) EP3996361A1 (ja)
JP (1) JP5740822B2 (ja)
KR (1) KR20110100582A (ja)
CN (1) CN102196220B (ja)
BR (1) BRPI1100158A2 (ja)
RU (1) RU2011106920A (ja)
TW (1) TW201205182A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013138148A1 (en) * 2012-03-13 2013-09-19 Dolby Laboratories Licensing Corporation Lighting system and method for image and object enhancement
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
KR101899816B1 (ko) * 2012-07-26 2018-09-20 엘지전자 주식회사 단말 장치 및 이의 필기 공유 방법
JP6167511B2 (ja) * 2012-12-04 2017-07-26 セイコーエプソン株式会社 書画カメラ、書画カメラの制御方法
US20160238833A1 (en) * 2013-10-02 2016-08-18 Nec Corporation Interface apparatus, module, control component, control method, and program storage medium
KR101491378B1 (ko) * 2013-12-20 2015-02-06 현대자동차주식회사 휴대장치의 무선충전을 수행하는 멀티미디어 장치의 조작 장치 및 방법
US10593113B2 (en) 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
JP6589216B2 (ja) * 2014-09-08 2019-10-16 任天堂株式会社 電子機器
JP6609098B2 (ja) 2014-10-30 2019-11-20 キヤノン株式会社 表示制御装置、表示制御方法、及びコンピュータプログラム
US10157192B2 (en) * 2015-03-20 2018-12-18 Oath Inc. System and method for photo scene searching
DE102015219538A1 (de) * 2015-10-08 2017-04-13 Robert Bosch Gmbh Verfahren zur Aufnahme eines Bildes mit einem Mobilgerät
WO2018154954A1 (ja) * 2017-02-24 2018-08-30 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法、及びプログラム
JP6822209B2 (ja) * 2017-02-24 2021-01-27 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
IT201700094994A1 (it) * 2017-08-22 2019-02-22 Milano Politecnico Apparato e metodo per illuminare oggetti
CN111095096B (zh) * 2017-09-12 2022-04-15 索尼公司 信息处理设备、信息处理方法、程序和照明系统

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
JP3491990B2 (ja) * 1994-10-26 2004-02-03 キヤノン株式会社 書画カメラ装置
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
JP3997566B2 (ja) * 1997-07-15 2007-10-24 ソニー株式会社 描画装置、及び描画方法
TW464800B (en) * 1998-10-07 2001-11-21 Intel Corp A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system
JP3863327B2 (ja) * 1999-03-15 2006-12-27 富士フイルムホールディングス株式会社 構図アドバイス機能付きディジタル・スチル・カメラおよびその動作制御方法
JP4521071B2 (ja) * 1999-03-15 2010-08-11 富士フイルム株式会社 構図補助機能付きディジタル・スチル・カメラおよびその動作制御方法
JP2001211372A (ja) * 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
JP2004334590A (ja) 2003-05-08 2004-11-25 Denso Corp 操作入力装置
JP2005141151A (ja) * 2003-11-10 2005-06-02 Seiko Epson Corp プロジェクタおよびプロジェクタの機能設定方法
US7164462B2 (en) * 2004-03-03 2007-01-16 Louise Lamarre Filming using rear-projection screen and image projector
JP2005301668A (ja) 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
US8159594B2 (en) * 2004-09-21 2012-04-17 Nikon Corporation Electronic device
JP4581924B2 (ja) * 2004-09-29 2010-11-17 株式会社ニコン 画像再生装置、および画像再生プログラム
CN101006415B (zh) 2004-10-05 2010-08-18 株式会社尼康 具有投影仪装置的电子设备
JP2006252036A (ja) 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> 投影画像作成装置、プログラム、投影画像作成方法及び画像投影システム
JP4408845B2 (ja) * 2005-07-27 2010-02-03 シャープ株式会社 映像合成装置及びプログラム
FR2891239B1 (fr) * 2005-09-28 2009-04-17 Airbus France Sas Panneau de plancher et installation pour la fixation d'elements d'amenagement comportant de tels panneaux
KR100744523B1 (ko) * 2006-03-29 2007-08-01 엘지전자 주식회사 영상 촬영 기능을 갖는 프로젝터 및 그의 영상 촬영 방법
US20070229650A1 (en) 2006-03-30 2007-10-04 Nokia Corporation Mobile communications terminal and method therefor
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
JP5157136B2 (ja) * 2006-11-17 2013-03-06 株式会社ニコン カメラ
JP2008152622A (ja) 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置
WO2008120217A2 (en) * 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
JP5186801B2 (ja) * 2007-05-07 2013-04-24 株式会社ニコン 投射機能付きカメラ、投射機能付き携帯電話および投射機能付き携帯電子機器
JP2009020564A (ja) 2007-07-10 2009-01-29 Brother Ind Ltd プロジェクタ
JP5014002B2 (ja) * 2007-07-12 2012-08-29 キヤノン株式会社 現像装置及び画像形成装置
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP4933389B2 (ja) 2007-09-14 2012-05-16 株式会社リコー 画像投影表示装置、画像投影表示方法、画像投影表示プログラム及び記録媒体
JP2009076983A (ja) 2007-09-18 2009-04-09 Fuji Xerox Co Ltd 情報処理システム及び情報処理装置
JP4904243B2 (ja) * 2007-10-17 2012-03-28 富士フイルム株式会社 撮像装置及び撮像制御方法
US20090144139A1 (en) * 2007-11-29 2009-06-04 Dewey Gaedcke System and method of facilitating commercial transactions using content added to web sites
KR101362167B1 (ko) * 2007-12-31 2014-02-13 엘지디스플레이 주식회사 선호색 보정방법 및 장치와, 그를 이용한 액정 표시장치
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9241143B2 (en) * 2008-01-29 2016-01-19 At&T Intellectual Property I, L.P. Output correction for visual projection devices
JP2009188685A (ja) 2008-02-05 2009-08-20 Fuji Xerox Co Ltd 制御装置及び制御プログラム、指示装置及び指示プログラム、並びに投影システム
JP2009251702A (ja) 2008-04-02 2009-10-29 Hiroyuki Hosoda 情報処理装置、情報処理方法及び情報処理プログラム
KR101203426B1 (ko) * 2008-04-23 2012-11-21 삼성전자주식회사 영상 기록재생기기 및 그 페이드 처리방법
CN201194061Y (zh) * 2008-05-09 2009-02-11 深圳斯坦达科技有限公司 互动投影系统
US20090295712A1 (en) * 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
JP2010033272A (ja) 2008-07-28 2010-02-12 Fujitsu Ltd 文字入力装置、文字入力方法及び文字入力プログラム
JP4935777B2 (ja) 2008-08-19 2012-05-23 トヨタ自動車株式会社 内燃機関の制御装置
JP5200800B2 (ja) * 2008-09-16 2013-06-05 富士ゼロックス株式会社 撮影装置及び撮影システム
JP2010191402A (ja) * 2009-01-26 2010-09-02 Toshiba Corp プロジェクタ装置及び映像表示方法ならびに携帯電話装置
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking

Also Published As

Publication number Publication date
JP2011188024A (ja) 2011-09-22
US20180278838A1 (en) 2018-09-27
TW201205182A (en) 2012-02-01
CN102196220B (zh) 2016-05-18
US20190253612A1 (en) 2019-08-15
US10015392B2 (en) 2018-07-03
US20150244909A1 (en) 2015-08-27
EP2364013B1 (en) 2021-12-15
EP2364013A2 (en) 2011-09-07
RU2011106920A (ru) 2012-08-27
US9049376B2 (en) 2015-06-02
EP3996361A1 (en) 2022-05-11
BRPI1100158A2 (pt) 2012-08-14
US9516206B2 (en) 2016-12-06
KR20110100582A (ko) 2011-09-14
US20110216236A1 (en) 2011-09-08
CN102196220A (zh) 2011-09-21
US11190678B2 (en) 2021-11-30
EP2364013A3 (en) 2014-01-29
US10659681B2 (en) 2020-05-19
US20200267312A1 (en) 2020-08-20
US10306136B2 (en) 2019-05-28
US20170048453A1 (en) 2017-02-16

Similar Documents

Publication Publication Date Title
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5648298B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN105593786B (zh) 对象位置确定
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JPH0844490A (ja) インターフェイス装置
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
JP2011188023A (ja) 情報処理装置、情報処理方法およびプログラム
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2011095985A (ja) 画像表示装置
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2011186537A (ja) 情報処理装置、情報処理方法およびプログラム
JP6260673B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6032319B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR100849532B1 (ko) 무접점 마우스 기능을 가지는 장치 및 방법
JP6068741B2 (ja) 表示システム
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP5118663B2 (ja) 情報端末装置
TW201520887A (zh) 電子裝置及顯示內容更新方法
JP2023064499A (ja) 情報処理装置、撮像システム、方法及びプログラム
JP5550670B2 (ja) 情報処理装置
JP2015106390A (ja) 情報入力装置、情報入力システム、情報入力方法及びプログラム
WO2014065697A1 (ru) Способ и устройство жестового управления для мультимедийного дисплея
JP2008262272A (ja) 肌色モデル生成装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R151 Written notification of patent or utility model registration

Ref document number: 5740822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees