Nothing Special   »   [go: up one dir, main page]

JP5862143B2 - ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体 - Google Patents

ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体 Download PDF

Info

Publication number
JP5862143B2
JP5862143B2 JP2011202433A JP2011202433A JP5862143B2 JP 5862143 B2 JP5862143 B2 JP 5862143B2 JP 2011202433 A JP2011202433 A JP 2011202433A JP 2011202433 A JP2011202433 A JP 2011202433A JP 5862143 B2 JP5862143 B2 JP 5862143B2
Authority
JP
Japan
Prior art keywords
person
gesture
gesture recognition
operation target
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011202433A
Other languages
English (en)
Other versions
JP2013065111A (ja
Inventor
基夫 山本
基夫 山本
阿部 祐一
祐一 阿部
雄希 半澤
雄希 半澤
貴宏 高山
貴宏 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2011202433A priority Critical patent/JP5862143B2/ja
Priority to KR1020147001097A priority patent/KR101597922B1/ko
Priority to CN201280035734.2A priority patent/CN103688232B/zh
Priority to US14/235,424 priority patent/US9304600B2/en
Priority to PCT/JP2012/056517 priority patent/WO2013038733A1/ja
Priority to EP12832280.7A priority patent/EP2746898A4/en
Publication of JP2013065111A publication Critical patent/JP2013065111A/ja
Application granted granted Critical
Publication of JP5862143B2 publication Critical patent/JP5862143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、カメラでユーザの動作を撮像し、撮像した画像からユーザのジェスチャを認識するジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体に関するものである。
近年、ユーザのジェスチャを認識することにより、機器を制御する制御信号を生成する様々な情報入力装置が開発されている。このような情報入力装置として、例えば、特許文献1および2に記載の情報入力装置がある。具体的には、ポインティングデバイス、ペン型デバイス、タッチパッド等の入力デバイスをユーザが操作し、入力デバイスがその動きを検知して、ユーザのジェスチャを認識する情報入力装置がある。
一方、入力デバイスを用いるのではなく、カメラでユーザの動作を撮像し、撮像した画像からユーザのジェスチャを認識する情報入力装置がある。以下では、画像からユーザのジェスチャを認識する情報入力装置をジェスチャ認識装置と称する。このジェスチャ認識装置は、ユーザが入力デバイス等を操作する必要がなく、直感的に装置に操作指示を入力することができるため、次世代インターフェースとして期待されている。
特開2004−303207号公報(2004年10月28日公開) 特開2009−301301号公報(2009年12月24日公開) 特開2007−166187号公報(2007年6月28日公開) 特開2008−244804号公報(2008年10月9日公開)
しかしながら、従来のジェスチャ認識装置では、ユーザは、ジェスチャ認識装置が自身のジェスチャを認識可能な状態であるか否かを知ることができない。換言すると、ユーザは、自身のジェスチャがカメラの画角の範囲内に収まっているかどうかを正確に判断することができない。そのため、ジェスチャ認識装置がユーザのジェスチャを認識可能な状態ではないにもかかわらず、ユーザは、ジェスチャが認識されることを期待して、何度も同じ動作をしたり、無駄に動きを工夫したりすることがあった。
ここで、カメラの撮影時に、人間の全身や顔等が画角に収まっているか否かを判定し、収まっていない場合に警告を発する技術がある(特許文献3および4)。しかしながら、特許文献3および4に記載の技術は、一般的なカメラに関する技術であり、ジェスチャ認識装置に関する技術ではない。また、従来、ジェスチャ認識装置において、ジェスチャが画角に収まっているか否かを通知することは行われていない。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザのジェスチャが画角内に収まっていない場合に通知するジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体を実現することにある。
本発明に係るジェスチャ認識装置は、上記課題を解決するために、カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置であって、上記画像に人が含まれているか否かを判定する人判定手段と、上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段とを備えることを特徴としている。
本発明に係るジェスチャ認識装置の制御方法は、上記課題を解決するために、カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置の制御方法であって、上記画像に人が含まれているか否かを判定する人判定ステップと、上記人判定ステップにおいて上記画像に人が含まれていないと判定された場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力ステップとを含むことを特徴としている。
上記の構成によれば、出力手段は、カメラが撮像した画像に人が含まれていない場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を電子機器に出力する。電子機器は、人画角外通知指示情報に基づいて、人が撮像されていないことを、電子機器を操作する人に通知する。
そのため、電子機器を操作する人は、電子機器からの通知に基づいて、カメラが撮像した画像に自身が含まれているか否か、つまり、カメラの画角から自身が外れているか否かを判断することができる。よって、電子機器を操作する人自身が撮像されていないにもかかわらず、当該人がジェスチャを認識させようとして何度も同じジェスチャをするという、電子機器を操作する人の無駄な動作を防止することができるという効果を奏する。
また、本発明に係るジェスチャ認識装置は、上記電子機器または上記ジェスチャ認識装置の現在または過去の処理に基づいて、人がジェスチャによる操作を所望する操作タイミングか否かを判定する時期判定手段と、上記出力手段は、上記人判定手段が上記画像に人が含まれていないと判定し、かつ、上記時期判定手段が操作タイミングであると判定した場合、上記人画角外通知指示情報を出力することが好ましい。
上記の構成によれば、出力手段は、カメラが撮像した画像に人が含まれておらず、かつ、人がジェスチャによる操作を所望する操作タイミングである場合に、人が撮像されていないことの通知を指示する人画角外通知指示情報を電子機器に出力する。
電子機器を操作する人が画角内にない場合には、電子機器を操作する人がジェスチャによる操作を所望しながらも当該人が画角内にない場合があるが、人がジェスチャによる操作を所望しないために当該人が画角内にない場合もある。そのため、電子機器を操作する人が画角から外れており、かつ、当該人がジェスチャによる操作を所望する場合にのみ、電子機器を操作する人に画角から外れていることを通知することによって、電子機器を操作する人の電子機器の使用を妨害することなく、当該人の無駄な動作を防止することができる。
また、本発明に係るジェスチャ認識装置は、上記時期判定手段は、現時点が、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間以内である場合、操作タイミングであると判定することが好ましい。
人がジェスチャによる操作を行った後の所定期間以内は、再度人がジェスチャによる操作を行う可能性が高いと考えられる。そのため、上記の構成のように、上記時期判定手段は、現時点が、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間以内である場合、操作タイミングであると判定することにより、ジェスチャ認識装置の処理に基づいて、操作タイミングを精度良く特定することができる。
また、本発明に係るジェスチャ認識装置は、上記時期判定手段は、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間経過している場合、操作タイミングであると判定することが好ましい。
人がジェスチャによる操作を行ってから所定期間経過した状態は、再度人がジェスチャによる操作を行う可能性が高いと考えられる。例えば、電子機器がテレビである場合、番組は1時間単位で構成されていることが多く、また、番組終了時には他のチャンネルに変える可能性がある。そのため、テレビにおいては、操作してから1時間経過すると、再度チェンネル切替等の操作が行われる可能性が高いと考えられる。
そのため、上記の構成のように、上記時期判定手段は、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間経過している場合、操作タイミングであると判定することにより、ジェスチャ認識装置の処理に基づいて、操作タイミングを精度良く特定することができる。
また、本発明に係るジェスチャ認識装置は、上記時期判定手段は、所定期間以内に、上記電子機器が所定の処理を実行した場合、操作タイミングであると判定することが好ましい。
電子機器が所定の処理を実行した後の所定期間以内は、再度人がジェスチャによる操作を行う可能性が高いと考えられる。例えば、電子機器の電源ON直後は人が電子機器を操作する可能性が高いと考えられる。
そのため、上記の構成のように、上記時期判定手段は、所定期間以内に、上記電子機器が所定の処理を実行した場合、操作タイミングであると判定することにより、ジェスチャ認識装置の処理に基づいて、操作タイミングを精度良く特定することができる。
また、本発明に係るジェスチャ認識装置は、上記電子機器がテレビであり、上記時期判定手段は、上記テレビにCMが表示されている場合、操作タイミングであると判定することが好ましい。
テレビでは、CMが表示されている場合、人がチャンネル切替等の操作を行う可能性が高いと考えられる。そのため、上記の構成のように、上記時期判定手段は、上記テレビにCMが表示されている場合、操作タイミングであると判定することにより、ジェスチャ認識装置の処理に基づいて、操作タイミングを精度良く特定することができる。
また、本発明に係るジェスチャ認識装置は、上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャにより上記電子機器の操作を実行可能な操作対象者であるか否かを判定する操作対象者判定手段をさらに備え、上記出力手段は、上記操作対象者判定手段が操作対象者ではないと判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力することが好ましい。
上記出力手段は、電子機器を操作する人が操作対象者ではない場合、つまり、当該人がジェスチャにより上記電子機器の操作を実行することができない場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力する。
そのため、電子機器を操作する人は、電子機器からの通知に基づいて、自身が操作対象者であるか否かを判断することができる。よって、ジェスチャによる操作が実行できないにもかかわらず、電子機器を操作する人がジェスチャを認識させようとして何度も同じジェスチャをするという、当該人の無駄な動作を防止することができる。
また、本発明に係るジェスチャ認識装置は、上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャによる上記電子機器の操作を禁止されている操作禁止者であるか否かを判定する操作禁止者判定手段とをさらに備え、上記出力手段は、上記操作禁止者判定手段が操作禁止者であると判定した場合、上記非操作対象者通知指示情報を出力しないことが好ましい。
上記出力手段は、電子機器を操作しようとする人が操作禁止者の場合、つまり、電子機器を操作しようとする人がジェスチャによる上記電子機器の操作を禁止されている場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力しない。操作禁止者は、ジェスチャによる上記電子機器の操作を実行することができないため、ジェスチャ認識を容易に行うための情報等を通知する必要が無い。
そのため、電子機器を操作しようとする人が操作禁止者の場合、上記情報を通知しないことにより、操作禁止者以外の人の電子機器の使用の妨害を低減すると共に、操作禁止者に対して、余分な情報を与えることを防止することができる。
また、本発明に係るジェスチャ認識装置は、上記操作対象者判定手段は、予め、ジェスチャにより上記電子機器の操作を実行可能な者として設定されている人を操作対象者であると判定することが好ましい。
また、本発明に係るジェスチャ認識装置は、上記操作対象者判定手段は、ジェスチャにより上記電子機器の操作を所定回数実行した人を操作対象者であると判定することが好ましい。
また、本発明に係るジェスチャ認識装置は、上記操作対象者判定手段は、所定期間内にジェスチャにより上記電子機器の操作を実行した人を操作対象者であると判定することが好ましい。
また、本発明に係る電子機器は、上記ジェスチャ認識装置と、上記出力手段が出力する情報に従って、人に通知する通知手段とを備えたことを特徴としている。
上記の構成によれば、電子機器は、上記ジェスチャ認識装置と同様の効果を奏する。
なお、上記ジェスチャ認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ジェスチャ認識装置の各手段として動作させることにより、上記ジェスチャ認識装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
以上のように、本発明に係るジェスチャ認識装置は、上記画像に人が含まれているか否かを判定する人判定手段と、上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段とを備えている構成である。
また、本発明に係るジェスチャ認識装置の制御方法は、上記画像に人が含まれているか否かを判定する人判定ステップと、上記人判定ステップにおいて上記画像に人が含まれていないと判定された場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力ステップとを含む。
したがって、人自身が撮像されていないにもかかわらず、人がジェスチャを認識させようとして何度も同じジェスチャをするという、人の無駄な動作を防止することができるという効果を奏する。
本発明の実施形態を示すものであり、ジェスチャ認識装置およびジェスチャ認識装置を搭載したテレビの要部構成を示すブロック図である。 上記ジェスチャ認識装置を搭載したテレビの使用態様の一例を示す図である。 上記テレビのテレビ記憶部に格納されているテレビ処理履歴情報の一例を示す図である。 上記ジェスチャ認識装置のジェスチャ認識装置記憶部に格納されている人物特定情報の一例を示す図である。 上記ジェスチャ認識装置のジェスチャ認識装置記憶部に格納されているユーザ情報の一例を示す図である。 上記ジェスチャ認識装置のジェスチャ認識装置記憶部に格納されている操作タイミング情報の一例を示す図である。 上記ジェスチャ認識装置のジェスチャ認識装置記憶部に格納されているジェスチャ情報の一例を示す図である。 上記ジェスチャ認識装置のジェスチャ認識装置記憶部に格納されているジェスチャ認識装置処理履歴情報の一例を示す図である。 上記ジェスチャ認識装置が実行する処理の一例を示すフローチャートである。 カメラが撮像した画像を示す図である。 カメラが撮像した画像を示す図である。 カメラが撮像した画像を示す図である。 カメラが撮像した画像を示す図である。
<本発明の概要>
本発明は、ユーザ(操作者)が電子機器をジェスチャにより操作する際に、ユーザがカメラの画角から外れている場合、ユーザに対してその旨を通知するものである。本発明に係るジェスチャ認識装置を搭載した電子機器の使用態様の一例を図2に示す。図2は、本発明に係るジェスチャ認識装置を搭載した電子機器の使用態様の一例を示す図である。
図2では、電子機器がテレビ2の場合であり、テレビ2がジェスチャ認識装置を内蔵している場合を示す。図2に示すように、ユーザ4がカメラ3の画角θから外れている場合、テレビ2に「写っていません」等を表示して、ユーザ4にユーザ自身またはジェスチャが撮像されていないことを通知する。
このような通知をすることにより、ユーザは、自身のジェスチャが撮像されているか否かを知ることができる。そのため、ジェスチャが撮像されていないにもかかわらず、ユーザがジェスチャを認識させようとして何度も同じジェスチャをするという、ユーザの無駄な動作を防止することができる。
以下では、図2に示す本発明の実施形態を図1〜図13に基づいてより詳細に説明する。なお、本実施形態では、電子機器がテレビの例を示しているが、これに限るものではない。例えば、電子機器として、携帯電話機、ゲーム機、デジタルカメラ、セキュリティゲート(ドア)等であってもよい。
また、本実施形態では、ジェスチャ認識装置を搭載したテレビ2が家庭内に設置されており、「父」、「母」、「子供」の3者がユーザとして存在するものとする。本実施形態では、このように特定のユーザが使用するものとするがこれに限るものではない。本発明に係る電子機器は、不特定多数のユーザが使用してもよい。例えば、病院等では、不特定多数のユーザがいるが、直接機器に触れて操作することが好ましくない場合がある。そのため、病院等の環境下では、電子機器の操作手段としてジェスチャ認識装置を好適に利用することができる。
なお、ここでは、ユーザとは、電子機器を操作する人(電子機器の操作を試みる人)を意味する。
<テレビおよびジェスチャ認識装置の構成>
まず、テレビ2およびテレビ2に搭載されるジェスチャ認識装置の具体的な構成および機能を説明する。図1は、テレビ2およびテレビ2に搭載されるジェスチャ認識装置1の要部構成の一例を示すブロック図である。まずは、テレビ2の構成について説明する。
〔テレビの構成〕
図1に示すように、テレビ2は、テレビ制御部51、テレビ記憶部52、テレビ通信部53、操作部54、表示部(通知手段)55、音声出力部(通知手段)56およびジェスチャ認識装置1を備えている。なお、テレビ2は、音声入力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
テレビ通信部53は、無線通信手段または有線通信手段によって、他の装置と通信を行い、テレビ制御部51の指示に従って、データのやりとりを行うものである。具体的には、テレビ通信部53は、放送波を受信するアンテナであり、放送波を受信して映像データ、音声データおよび番組データ等を受信するものである。
操作部54は、ユーザがテレビ2に操作信号を入力し、テレビ2を操作するためのものである。操作部54は、操作ボタンなどの入力機器等で構成されているものであってもよい。また、操作部54と表示部55とが一体となっているタッチパネルであってもよい。また、操作部54は、テレビ2と別体のリモートコントローラ等の遠隔制御装置であってもよい。なお、テレビ2はジェスチャ認識装置1を備えているため、テレビ2が操作部54を備えていなくてもよい。
表示部55は、テレビ制御部51の指示に従って画像を表示するものである。表示部55は、テレビ制御部51の指示に従って画像を表示するものであればよく、例えば、LCD(液晶ディスプレイ)、有機ELディスプレイ、プラズマディスプレイなどを適用することが可能である。
音声出力部56は、テレビ制御部51の指示に従って音声を出力するものであり、例えば、スピーカである。
テレビ制御部51は、テレビ記憶部52から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、テレビ2が備える各部を統括的に制御するものである。
具体的には。テレビ制御部51は、テレビ通信部53を介して取得した映像データ、音声データおよび番組データ等に基づいて、表示部55に映像や番組情報を表示させたり、音声出力部56から音声を出力させたりするものである。また、テレビ制御部51は、操作部54またはジェスチャ認識装置1からの操作信号に基づいて、電源のON/OFF、チャンネルの切替、音量の変更、番組表の表示等の所定の処理を実行する。また、テレビ制御部51は、所定の処理を実行すると、実行した処理の処理内容と処理日時とを対応付けて、テレビ処理履歴情報61としてテレビ記憶部52に格納する。
また、テレビ制御部51は、ジェスチャ認識装置1からの指示信号に基づいて、指示信号が示す情報を表示部55に表示および/または音声出力部56から音声を出力して、当該情報をユーザに通知する。また、テレビ制御部51は、LED等の通知ランプ(不図示)を発光させて、上記指示信号が示す情報をユーザに通知してもよい。
詳細は後述するが、テレビ制御部51は、ジェスチャ認識装置1から、ジェスチャもしくは操作対象者が撮像されていないことの通知の指示または操作対象者ではないことの通知の指示を受ける。テレビ制御部51は、このような指示に基づいて、上述の内容をテキストとして表示部55に表示してもよいし、音声として音声出力部56から出力してもよい。また、テレビ制御部51は、ジェスチャまたは操作対象者が撮像されていないことを通知するために、カメラ3が撮像した画像を表示部55の画面の全体または一部に表示してもよい。
テレビ記憶部52は、テレビ制御部51が参照するプログラムやデータ等を格納するものであり、例えば、上記のテレビ処理履歴情報61等を格納している。
テレビ記憶部52に格納されているテレビ処理履歴情報61について図3に基づいて説明する。図3は、テレビ記憶部52に格納されているテレビ処理履歴情報61の一例を示す図である。図3に示すように、テレビ処理履歴情報61は、テレビ制御部51が実行した処理の処理内容と、テレビ制御部51が処理を実行した処理日時とが対応付けられている情報である。
ジェスチャ認識装置1は、カメラ3が撮像した画像からユーザのジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための信号(情報)を当該電子機器に出力するものである。図1に示す例では、ジェスチャ認識装置1がテレビ2に搭載されているが、これに限るものではなく、テレビ2とジェスチャ認識装置1が別体であってもよい。ジェスチャ認識装置1の具体的な構成および機能は次に説明する。
〔ジェスチャ認識装置の構成〕
図1に示すように、ジェスチャ認識装置1は、ジェスチャ認識装置制御部11、ジェスチャ認識装置記憶部12およびジェスチャ認識装置通信部13を備えている。
ジェスチャ認識装置通信部13は、無線通信手段または有線通信手段によって、カメラ3等の他の装置と通信を行い、ジェスチャ認識装置制御部11の指示に従って、データのやりとりを行うものである。具体的には、ジェスチャ認識装置通信部13は、ジェスチャ認識装置制御部11の指示に従って、カメラ3から、カメラ3が撮像した画像を取得する。
ジェスチャ認識装置制御部11は、ジェスチャ認識装置記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ認識装置1が備える各部を統括的に制御するものである。
本実施形態では、ジェスチャ認識装置制御部11は、機能ブロックとして、画像取得部21、人物判定部(人判定手段)22、人物特定部23、ユーザ判定部(操作対象者判定手段、操作禁止者判定手段)24、時期判定部(時期判定手段)26、出力部(出力手段)27、ジェスチャ認識実行部28および情報設定部29を備える構成である。これらのジェスチャ認識装置制御部11の各機能ブロック(21〜24、26〜29)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。
画像取得部21は、ジェスチャ認識装置通信部13を介して、カメラ3から、カメラ3が撮像した画像を取得するものである。
人物判定部22は、画像取得部21が取得した画像に人物が撮像されているか否かを判定するものである。例えば、人物判定部22は、画像に対して人体検出または顔検出等を実行し、その結果として全身または人体の一部である顔(頭)、手、足等の部位を検出した場合、人物が撮像されていると判定する。また、人物判定部22は、画像に対して人体検出または顔検出等を実行し、その検出結果として全身または部位の検出信頼度を特定し、検出信頼度が所定値以上である場合に人物が撮像されていると判定する。
換言すると、人物判定部22は、画像取得部21が取得した画像に人の全身または人の部位が撮像されている場合、人物が撮像されていると判定する。なお、人物判定部22は、1つの画像から1または複数の人を検出してもよい。また、人物判定部22は、取得した画像に人物が撮像されているか否かを判定するものであればよく、その手法を限定するものではない。
例えば、人物判定部22は、全身または人体の一部である顔(頭)、手、足等の部位を検出するために、特開2005−115932号公報、特開2008−158790号公報および特開2008−15641号公報に記載の技術や、学習型の人体検出技術等を用いてもよい。
人物特定部23は、ジェスチャ認識装置記憶部12から人物特定情報41を読み出し、人物特定情報41に基づいて、人物判定部22が検出した人を特定するものである。
具体的には、人物特定部23は、人物特定情報41として「父」、「母」、「子供」の3者をそれぞれ個別に特定する情報が含まれている場合、人物判定部22が検出した全身画像、顔画像等に対して認証を行い、検出した人が何れに該当するかを特定してもよい。例えば、人物特定部23は、人物判定部22が検出した顔画像の特徴量を算出し、算出した特徴量と、「父」、「母」、「子供」の顔画像の特徴量とを比較して、最も近似している人物を人物判定部22が検出した顔画像の人物として特定してもよい。
また、人物特定部23は、人物判定部22が検出した全身画像、顔画像、手画像等から、性別、年齢、人種等を特定し、その特定した結果に基づいて、人物判定部22が検出した人が誰であるかを特定してもよい。また、人物判定部22が検出した全身画像、顔画像、手画像等から装飾品等を検出し、人物が身に付けている装飾品に基づいて、人物判定部22が検出した人が誰であるかを特定してもよい。
また、人物特定部23は、人物判定部22が全身または顔等の一部が写っている画像(例えば、半身画像または顔、手もしくは足の一部のみが写っている画像)を検出した場合、写っていない部分を補完した後に人物を特定する処理を行ってもよい。例えば、半身、半顔の画像の場合、ミラーリングした後に人物を特定する処理を行ってもよい。
なお、人物特定部23は、人物判定部22が検出した人を、個人として特定するだけではなく、性別、年齢、人種等の人物の属性を特定するものであってもよい。また、人物特定部23は、個人や属性を特定すればよく、その手法を限定するものではない。人物特定部23は、上記以外の公知の技術を用いて個人や属性を特定してもよい。
ユーザ判定部24は、ジェスチャ認識装置記憶部12からユーザ情報42を読み出し、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作対象者か否かを判定するものである。また、ユーザ判定部24は、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作禁止者か否かを判定するものである。
ここで、操作対象者とは、ジェスチャによりテレビ2の操作を実行可能な人物である。換言すると、操作対象者として設定されているユーザのみがジェスチャによりテレビ2の操作を実行することができる。また、操作禁止者とは、ジェスチャによるテレビ2の操作を禁止されている人物である。
時期判定部26は、テレビ2またはジェスチャ認識装置1の現在または過去の処理に基づいて、ユーザがジェスチャによる操作を所望する操作タイミングか否かを判定する。具体的には、時期判定部26は、ジェスチャ認識装置記憶部12から操作タイミング情報43を読み出す。そして、時期判定部26は、ジェスチャ認識装置記憶部12からジェスチャ認識装置処理履歴情報45を読み出し、テレビ制御部51からテレビ2の現在の処理内容を示す情報、および、過去の処理内容を示すテレビ処理履歴情報61を取得し、現時点が操作タイミング情報43の示す操作タイミングに該当するか否かを判定する。
出力部27は、人物判定部22、ユーザ判定部24および時期判定部26の判定結果に基づいて、所定の情報の通知を指示する指示信号または当該通知の消去を指示する指示信号をテレビ制御部51に出力するものである。
具体的には、出力部27は、人物判定部22が人物が撮像されていないと判定し、かつ、時期判定部26が操作タイミングであると判定した場合、操作対象者(ユーザ)が撮像されていないことの通知を指示する人物画角外通知指示信号(人画角外通知指示情報)をテレビ制御部51に出力する。また、出力部27は、人物判定部22が人物が撮像されていないと判定し、かつ、時期判定部26が操作タイミングであると判定した場合、人物画角外通知指示信号に代えて、ジェスチャが撮像されていないことの通知を指示するジェスチャ画角外通知指示信号をテレビ制御部51に出力してもよい。また、出力部27は、ユーザ判定部24が操作対象者ではないと判定し、さらに、操作禁止者ではないと判定し、かつ、時期判定部26が操作タイミングであると判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示信号(非操作対象者通知指示情報)をテレビ制御部51に出力する。また、出力部27は、ユーザ判定部24が操作対象者であると判定し、かつ、テレビ2がジェスチャが撮像されていないことの通知または操作対象者ではないことの通知を行っている場合、当該通知の消去を指示する通知消去指示信号をテレビ制御部51に出力する。
なお、出力部27は、人物判定部22が人物が撮像されていないと判定した場合、操作対象者(ユーザ)が撮像されていないことの通知を指示する人物画角外通知指示信号をテレビ制御部51に出力してもよい。
また、出力部27は、ジェスチャ認識実行部28が生成した操作信号をテレビ制御部51に出力する。また、出力部27は、ジェスチャ認識実行部28が生成したジェスチャ認識エラー信号をテレビ制御部51に出力する。
ジェスチャ認識実行部28は、ユーザ判定部24が操作対象者であると判定した場合、ジェスチャ認識処理を実行する。具体的には、ジェスチャ認識実行部28は、ジェスチャ認識処理を開始すると、画像取得部21から時系列に並べられた複数の画像を取得すると共に、ジェスチャ認識装置記憶部12からジェスチャ情報44を読み出す。そして、ジェスチャ認識実行部28は、取得した複数の画像からジェスチャ情報44の示すジェスチャを検出する。
ジェスチャ認識実行部28は、所定のジェスチャを検出すると、ジェスチャ情報44において、検出したジェスチャに対応付けられている操作信号を生成する。一方、ジェスチャ認識実行部28は、ジェスチャが検出できなかった場合、ジェスチャ認識エラー信号を生成してもよい。
また、ジェスチャ認識実行部28は、ジェスチャ認識処理を実行した日時と、生成した操作信号またはジェスチャ認識エラー信号と、操作対象者とを対応付けて、ジェスチャ認識装置処理履歴情報45を生成し、ジェスチャ認識装置記憶部12に格納する。
情報設定部29は、人物特定情報41、ユーザ情報42、操作タイミング情報43およびジェスチャ情報44を設定するものである。具体的には、情報設定部29は、ユーザからの指示に基づいて、すなわち、操作部54に入力された操作信号をテレビ制御部51から取得またはジェスチャ認識実行部28から操作信号を取得し、取得した操作信号に基づいて各情報を生成または更新する。
また、情報設定部29は、ジェスチャ認識装置処理履歴情報45として所定数の処理履歴がジェスチャ認識装置記憶部12に格納されると、ジェスチャ認識装置処理履歴情報45を参照して、ジェスチャによる操作を所定回数実行した人物を操作対象者として設定し、ユーザ情報42を更新してもよい。
また、情報設定部29は、ジェスチャ認識装置処理履歴情報45として新たな処理履歴がジェスチャ認識装置記憶部12に格納されると、最新の処理履歴を参照して、直前にジェスチャによる操作した人物のみを操作対象者として所定期間に限って設定し、ユーザ情報42を更新してもよい。
また、情報設定部29は、ジェスチャ認識装置処理履歴情報45を参照して、所定期間内にジェスチャによる操作を実行した1または複数の人物を操作対象者として所定期間に限って設定し、ユーザ情報42を更新してもよい。例えば、ユーザXがジェスチャによる操作を実行すると、それから5分間を操作待ち受け時間とする。この操作待ち受け時間内にユーザYがジェスチャによる操作を実行したとする。この場合、情報設定部29は、ユーザXおよびユーザYを操作待ち受け時間終了後、所定の操作対象者有効期間(例えば、15分間)操作対象者として設定する。
なお、情報設定部29は、操作対象者または操作禁止者を設定してから、所定期間経過した後、操作対象者または操作禁止者の設定を解除してもよい。つまり、情報設定部29は、操作対象者または操作禁止者の設定が有効な期間を定めておき、設定有効期間内は、所定のユーザを操作対象者または操作禁止者として設定し、設定有効期間終了後、当該設定を解除してもよい。また、情報設定部29は、ユーザからの指示に基づいて、すなわち、操作部54に入力された操作信号をテレビ制御部51から取得またはジェスチャ認識実行部28から操作信号を取得し、取得した操作信号に基づいて操作対象者または操作禁止者の設定を解除してもよい。
また、情報設定部29は、テレビ制御部51からテレビ処理履歴情報61を取得すると共に、ジェスチャ認識装置記憶部12からジェスチャ認識装置処理履歴情報45を読み出し、テレビ処理履歴情報61およびジェスチャ認識装置処理履歴情報45に基づいて、ユーザがジェスチャによる操作を所望する操作タイミングを学習し、操作タイミング情報43を更新してもよい。
ジェスチャ認識装置記憶部12は、ジェスチャ認識装置制御部11が参照するプログラムやデータ等を格納するものであり、例えば、上記の人物特定情報41、ユーザ情報42、操作タイミング情報43、ジェスチャ情報44、ジェスチャ認識装置処理履歴情報45等を格納している。
ジェスチャ認識装置記憶部12に格納されている人物特定情報41、ユーザ情報42、操作タイミング情報43、ジェスチャ情報44、ジェスチャ認識装置処理履歴情報45についてそれぞれ図4〜図8に基づいて説明する。図4は、ジェスチャ認識装置記憶部12に格納されている人物特定情報41の一例を示す図である。図5は、ジェスチャ認識装置記憶部12に格納されているユーザ情報42の一例を示す図である。図6は、ジェスチャ認識装置記憶部12に格納されている操作タイミング情報43の一例を示す図である。図7は、ジェスチャ認識装置記憶部12に格納されているジェスチャ情報44の一例を示す図である。図8は、ジェスチャ認識装置記憶部12に格納されているジェスチャ認識装置処理履歴情報45の一例を示す図である。
(人物特定情報)
図4に示すように、人物特定情報41は、ユーザ名と、当該ユーザを個別に特定するための個別特定情報および当該ユーザの属性を示す個人属性情報とが対応付けられた情報である。図示の例では、個別特定情報として「特徴量」がある。「特徴量」は、例えば、ユーザの人体画像および/または顔画像から抽出されるものである。人物特定部23は、この「特徴量」を参照して、人物判定部22が検出した人体画像または顔画像から特徴量を抽出し、人物特定情報41に含まれる何れの特徴量と一致または近似しているかを特定して、ユーザを個別に特定する。
また、図示の例では、個人属性情報として、「性別」、「身長」、「年齢」、「人種」、「装飾品」がある。「性別」は、ユーザの性別を示すものである。人物特定部23は、人物判定部22が検出した人体画像または顔画像から、唇の色、肌の色、眉毛の形状や色に基づく化粧の有無、ネイルの有無、髭の有無、爪の形状(長い場合は女性、深爪の場合は男性など)、服装、履物等に基づいてユーザの性別を特定する。人物特定部23は、特定した性別から、何れのユーザに該当するかを判断する。例えば、図示の例では、女性と判断できれば、女性のユーザは「母」のみであるため、ユーザを「母」として特定することができる。
また、「身長」は、ユーザの身長を示すものである。人物特定部23は、人物判定部22が検出した人体画像または顔画像から写っている人の身長を特定し、特定した身長から何れのユーザに該当するかを判断する。
また、「年齢」は、ユーザの年齢を示すものである。人物特定部23は、人物判定部22が検出した人体画像または顔画像から写っている人の年齢を特定し、特定した年齢から何れのユーザに該当するかを判断する。
また、「人種」は、ユーザの人種を示すものである。人物特定部23は、人物判定部22が検出した人体画像または顔画像から、瞳の色、肌の色、髪の色等に基づいて、写っている人の人種を特定し、特定した人種から何れのユーザに該当するかを判断する。
また、「装飾品」は、ユーザが身につけている装飾品を示すものである。人物特定部23は、人物判定部22が検出した人体画像または顔画像から、眼鏡、指輪、時計等の装飾品を検出し、検出した装飾品を身に付けている人物が何れのユーザに該当するかを判断する。
なお、個人属性情報として「体型」や「髪型」等の情報が人物特定情報41に含まれていてもよい。また、図示の例では、人物特定情報41が6種の情報を含んでいるが、人物特定情報41は、個別特定情報または個人属性情報の少なくとも1種類の情報を含んでいればよい。
(ユーザ情報)
図5に示すように、ユーザ情報42は、どのユーザが操作対象者または操作禁止者として設定されているかを示す情報である。図5に示す例では、「父」が操作対象者として設定されており、「子供」が操作禁止者として設定されている。図5に示す例では、操作対象者および操作禁止者は、ユーザ個人として設定されているがこれに限るものではない。例えば、「女性」を操作対象者として設定したり、「未成年」を操作禁止者として設定したり、ユーザの属性で操作対象者または操作禁止者を設定してもよい。
なお、本実施形態では、操作対象者として設定されているユーザのみがジェスチャによる操作を実行できるがこれに限るものではない。例えば、誰でも自由にテレビをジェスチャによって操作可能な状態にしてもよい。この場合、例えば、操作対象者を「全てのユーザ」として設定してもよい。
また、上述のように、操作対象者および操作禁止者は、予め、ユーザの指示またはデフォルトで設定されていてもよい。
(操作タイミング情報)
図6に示すように、操作タイミング情報43は、ユーザがジェスチャによる操作を所望する操作タイミングに該当するか否かを判断するための条件(操作タイミングであるとみなす条件)を示す情報である。
電子機器が所定の処理を行った後、電子機器が所定の処理を行っている期間中、電子機器が所定の処理を行ってから所定期間経過後、ジェスチャによる操作を行った後、ジェスチャによる操作を行ってから所定期間経過後等は、ユーザがジェスチャによる操作を所望する操作タイミングに該当する可能性が高いと考えられる。そこで、操作タイミングに該当するか否かを判断するための条件として、図6に示す条件を設定する。
図6に示す例では、時期判定部26は、ジェスチャ認識装置記憶部12からジェスチャ認識装置処理履歴情報45を読み出して、現時点がジェスチャによる操作から5分以内であるか、または、ジェスチャによる操作から20分経過後5分以内であるかをそれぞれ判断し、いずれかに該当する場合に操作タイミングであると判定する。また、時期判定部26は、テレビ制御部51からテレビ処理履歴情報61を取得し、現時点がテレビの電源ONの操作から5分以内であるか、または、音量の変更の操作から1分以内であるか、または、チャンネルの変更の操作から1時間経過後5分以内であるかをそれぞれ判断し、いずれかに該当する場合に操作タイミングであると判定する。また、時期判定部26は、テレビ制御部51からテレビ2の現在の処理内容を示す情報を取得し、現在テレビ2がCMを表示中であれば、操作タイミングであると判定する。
このように、本実施形態では、時期判定部26は、操作タイミング情報43に含まれる何れかの条件に該当すれば、操作タイミングであると判定するが、これに限るものではない。例えば、時期判定部26は、操作タイミング情報43に含まれる所定数以上の条件に該当すれば、操作タイミングであると判定してもよい。また、時期判定部26は、各条件に信頼度を設定しておき、信頼度の合計値が所定値以上の場合に操作タイミングであると判定してもよい。また、操作タイミング情報43に含まれる各条件をユーザごとに対応付けておいてもよい。これにより、各ユーザの使用態様に合わせて、時期判定部26は操作タイミングを判定することができる。
また、操作タイミング情報43の各条件として、特定の時間帯や曜日等を更なる条件に加えてもよい。また、電子機器の特性や個人の使用態様により、周期的に電子機器が操作される場合、周期的な条件を操作タイミングとして設定してもよい。このように、操作タイミングは、操作タイミングは電子機器の特性(属性)、操作者の使用態様に応じて様々である。そのため、操作タイミングは、電子機器の特性(属性)、操作者の使用態様に応じて適宜設定したり、学習したりすることが望ましい。
(ジェスチャ情報)
図7に示すように、ジェスチャ情報44は、ジェスチャと操作信号とが対応付けられている情報である。例えば、ジェスチャ認識実行部28は、取得した画像から操作対象者が「右手の人差指のみを立てている」ジェスチャを検出した場合、操作信号「S01」を生成する。なお、操作信号「S01」は、テレビ2の電源ON/OFFを制御する信号であり、操作信号「S02」は、テレビ2のチャンネル変更を制御する信号であり、操作信号「S03」は、テレビ2の音量変更を制御する信号であるとする。
(ジェスチャ認識装置処理履歴情報)
図8に示すように、ジェスチャ認識装置処理履歴情報45は、ジェスチャ認識実行部28が生成した操作信号と、ジェスチャ認識実行部28がジェスチャ認識処理を実行した処理日時と、ジェスチャ認識実行部28が認識したジェスチャを行った操作対象者とが対応付けられている情報である。
なお、図1に示す例では、テレビ2がジェスチャ認識装置1を搭載しているが、これに限るものではなく、テレビ2がジェスチャ認識装置1の機能を全て有していてもよい。具体的には、テレビ制御部51がジェスチャ認識装置制御部11の機能を有し、テレビ記憶部52がジェスチャ認識装置記憶部12が格納している情報を有し、テレビ通信部53がジェスチャ認識装置通信部13の機能を有していてもよい。
<ジェスチャ認識装置の処理>
次に、ジェスチャ認識装置1が実行する処理について、図9〜図13に基づいて説明する。図9は、ジェスチャ認識装置1が実行する処理の一例を示すフローチャートである。また、図10〜図13は、カメラ3が撮像した画像を示す図である。ここでは、ユーザ情報42として図5に示す情報がジェスチャ認識装置記憶部12に格納されているものとする。つまり、操作対象者は「父」であり、操作禁止者は「子供」であり、「母」は、操作対象者でも操作禁止者でもない人物であるとする。
〔カメラが撮像した画像に誰も写っていない場合〕
まず、図10に示すように、カメラ3が撮像した画像に誰も写っていない場合の処理について説明する。
図9に示すように、画像取得部21がカメラ3からジェスチャ認識装置通信部13を介して、カメラ3が撮像した画像を取得する(S1)。人物判定部22は、画像取得部21が取得した画像に人物が撮像されているか否かを判定する(S2)。ここでは図10に示す画像には誰も写っていないため、人物判定部22は、画像から何も検出せず、人物が撮像されていないと判定する。
人物判定部22が人物が撮像されていないと判定した場合(S2でNO)、時期判定部26は、テレビ2またはジェスチャ認識装置1の現在または過去の処理に基づいて、ユーザがジェスチャによる操作を所望する操作タイミングか否かを判定する(S3)。時期判定部26が操作タイミングであると判定した場合(S3でYES)、出力部27は、ジェスチャもしくは操作対象者が撮像されていないことの通知を指示する人物画角外通知指示信号をテレビ制御部51に出力する(S4)。一方、時期判定部26が操作タイミングではないと判定した場合(S3でNO)、出力部27は何も出力せず、S1に戻る。
〔カメラが撮像した画像に「母」が写っている場合〕
次に、図11に示すように、カメラ3が撮像した画像に「母」が写っている場合の処理について説明する。
図9に示すように、画像取得部21がカメラ3からジェスチャ認識装置通信部13を介して、カメラ3が撮像した画像を取得する(S1)。人物判定部22は、画像取得部21が取得した画像に人物が撮像されているか否かを判定する(S2)。ここでは図11に示す画像に「母」の顔等が写っているため、人物判定部22は、画像から人物を検出し、人物が撮像されていると判定する。
人物判定部22が人物が撮像されていると判定した場合(S2でYES)、人物特定部23は、ジェスチャ認識装置記憶部12から人物特定情報41を読み出し、人物特定情報41に基づいて、人物判定部22が検出した人を特定する(S5)。ここでは、人物特定部23は、人物判定部22が検出した人物を「母」として特定する。
次に、ユーザ判定部24は、ジェスチャ認識装置記憶部12からユーザ情報42を読み出し、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作対象者か否かを判定する(S6)。ここでは、「母」は操作対象者ではないため、ユーザ判定部24は、操作対象者ではないと判定する(S6でNO)。続いて、ユーザ判定部24は、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作禁止者か否かを判定する(S7)。ここでも、「母」は操作禁止者ではないため、ユーザ判定部24は、操作禁止者ではないと判定する(S7でNO)。
次に、時期判定部26は、テレビ2またはジェスチャ認識装置1の現在または過去の処理に基づいて、ユーザがジェスチャによる操作を所望する操作タイミングか否かを判定する(S8)。時期判定部26が操作タイミングであると判定した場合(S8でYES)、出力部27は、操作対象者ではないことの通知を指示する非操作対象者通知指示信号をテレビ制御部51に出力する(S9)。一方、時期判定部26が操作タイミングではないと判定した場合(S8でNO)、出力部27は何も出力せず、S1に戻る。
〔カメラが撮像した画像に「子供」が写っている場合〕
次に、図12に示すように、カメラ3が撮像した画像に「子供」が写っている場合の処理について説明する。
図9に示すように、画像取得部21がカメラ3からジェスチャ認識装置通信部13を介して、カメラ3が撮像した画像を取得する(S1)。人物判定部22は、画像取得部21が取得した画像に人物が撮像されているか否かを判定する(S2)。ここでは図12に示す画像に「子供」の顔等が写っているため、人物判定部22は、画像から人物を検出し、人物が撮像されていると判定する。
人物判定部22が人物が撮像されていると判定した場合(S2でYES)、人物特定部23は、ジェスチャ認識装置記憶部12から人物特定情報41を読み出し、人物特定情報41に基づいて、人物判定部22が検出した人を特定する(S5)。ここでは、人物特定部23は、人物判定部22が検出した人物を「子供」として特定する。
次に、ユーザ判定部24は、ジェスチャ認識装置記憶部12からユーザ情報42を読み出し、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作対象者か否かを判定する(S6)。ここでは、「子供」は操作対象者ではないため、ユーザ判定部24は、操作対象者ではないと判定する(S6でNO)。続いて、ユーザ判定部24は、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作禁止者か否かを判定する(S7)。ここでは、「子供」は操作禁止者であるため、ユーザ判定部24は、操作禁止者であると判定する(S7でYES)。ユーザ判定部24が操作禁止者であると判定した場合は、出力部27は何も出力せず、S1に戻る。
〔カメラが撮像した画像に「父」が写っている場合〕
次に、図13に示すように、カメラ3が撮像した画像に「父」が写っている場合の処理について説明する。
図9に示すように、画像取得部21がカメラ3からジェスチャ認識装置通信部13を介して、カメラ3が撮像した画像を取得する(S1)。人物判定部22は、画像取得部21が取得した画像に人物が撮像されているか否かを判定する(S2)。ここでは図12に示す画像に「父」の顔等が写っているため、人物判定部22は、画像から人物を検出し、人物が撮像されていると判定する。
人物判定部22が人物が撮像されていると判定した場合(S2でYES)、人物特定部23は、ジェスチャ認識装置記憶部12から人物特定情報41を読み出し、人物特定情報41に基づいて、人物判定部22が検出した人を特定する(S5)。ここでは、人物特定部23は、人物判定部22が検出した人物を「父」として特定する。
次に、ユーザ判定部24は、ジェスチャ認識装置記憶部12からユーザ情報42を読み出し、ユーザ情報42に基づいて、人物特定部23が特定した人物が操作対象者か否かを判定する(S6)。ここでは、「父」は操作対象者であるため、ユーザ判定部24は、操作対象者であると判定する(S6でYES)。
ここで、テレビ制御部51が指示信号に基づいて通知処理を実行している場合(S10でYES)、出力部27は、当該通知の消去を指示する通知消去指示信号をテレビ制御部51に出力する(S11)。そして、ジェスチャ認識実行部28が、ジェスチャ認識処理を実行する(S12)。一方、テレビ制御部51が通知処理を実行していない場合(S10でNO)、出力部27は何も出力せず、ジェスチャ認識実行部28が、ジェスチャ認識処理を実行する(S12)。
なお、図9に示す処理例では、操作対象者か否かを判断した後に、ジェスチャ認識処理を実行しているが、これに限るものではない。例えば、画像取得部21が取得した画像に対して、まず、ジェスチャ認識実行部28がジェスチャ認識処理を実行し、ジェスチャ認識が正常にできなかった場合に、上記のS2〜S9の処理を行ってもよい。
<変形例>
変形例として、電子機器がセキュリティゲートである場合を説明する。このセキュリティゲートは、会員の女性のみが入室可能な部屋の入口に設置されているものとする。そして、ここでは、操作対象者として、女性の予め登録されたユーザであり、操作禁止者として男性が設定されているものとする。
この場合、会員の女性がジェスチャを行ったが、カメラに写っていない場合、セキュリティゲートは、会員の女性に対してジェスチャが写っていないことを通知する。また、会員ではない女性がジェスチャを行った場合は、セキュリティゲートは、会員ではない女性に対して、操作対象者ではない、つまり、未会員であることを通知する。このとき、セキュリティゲートは、会員ではない女性に対して、会員になるために必要な情報を通知してもよい。また、男性がジェスチャを行った場合、セキュリティゲートは、何も通知しない。セキュリティゲート等においては、許可者(操作対象者)および許可者になり得る人物以外の人物(つまりこの場合は男性)に対して、ジェスチャによる操作にエラーが発生したことを通知することは、セキュリティの観点から望ましくない。
なお、セキュリティとユーザの便益とのバランスによるが、性別判定処理において誤った判定処理を実行する頻度が少なく無い場合、セキュリティゲートは、男性と判断した場合であっても、何回かに1度は未会員であることを通知してもよい。
<補足>
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、ジェスチャ認識装置1の各ブロック、特にジェスチャ認識装置制御部11は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、ジェスチャ認識装置1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ認識装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ認識装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
また、ジェスチャ認識装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、カメラが撮像した画像からユーザのジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するジェスチャ認識装置に利用することができる。
1 ジェスチャ認識装置
2 テレビ(電子機器)
3 カメラ
4 ユーザ
22 人物判定部(人判定手段)
24 ユーザ判定部(操作対象者判定手段、操作禁止者判定手段)
26 時期判定部(時期判定手段)
27 出力部(出力手段)
55 表示部(通知手段)
56 音声出力部(通知手段)

Claims (14)

  1. カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置であって、
    上記画像に人が含まれているか否かを判定する人判定手段と、
    上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段と
    上記電子機器または上記ジェスチャ認識装置の現在または過去の処理に基づいて、人がジェスチャによる操作を所望する操作タイミングか否かを判定する時期判定手段とを備え、
    上記出力手段は、上記人判定手段が上記画像に人が含まれていないと判定し、かつ、上記時期判定手段が操作タイミングであると判定した場合、上記人画角外通知指示情報を出力することを特徴とするジェスチャ認識装置。
  2. 上記時期判定手段は、現時点が、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間以内である場合、操作タイミングであると判定することを特徴とする請求項1に記載のジェスチャ認識装置。
  3. 上記時期判定手段は、上記ジェスチャ認識装置がジェスチャ認識に基づく上記情報を上記電子機器に出力してから所定期間経過している場合、操作タイミングであると判定することを特徴とする請求項1に記載のジェスチャ認識装置。
  4. 上記時期判定手段は、所定期間以内に、上記電子機器が所定の処理を実行した場合、操作タイミングであると判定することを特徴とする請求項1に記載のジェスチャ認識装置。
  5. 上記電子機器がテレビであり、
    上記時期判定手段は、上記テレビにCMが表示されている場合、操作タイミングであると判定することを特徴とする請求項1に記載のジェスチャ認識装置。
  6. 上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャにより上記電子機器の操作を実行可能な操作対象者であるか否かを判定する操作対象者判定手段をさらに備え、
    上記出力手段は、上記操作対象者判定手段が操作対象者ではないと判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力することを特徴とする請求項1〜5の何れか1項に記載のジェスチャ認識装置。
  7. 上記操作対象者判定手段は、予め、ジェスチャにより上記電子機器の操作を実行可能な者として設定されている人を操作対象者であると判定することを特徴とする請求項6に記載のジェスチャ認識装置。
  8. カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置であって、
    上記画像に人が含まれているか否かを判定する人判定手段と、
    上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段と、
    上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャにより上記電子機器の操作を実行可能な操作対象者であるか否かを判定する操作対象者判定手段とを備え、
    上記出力手段は、上記操作対象者判定手段が操作対象者ではないと判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力し、
    上記ジェスチャ認識装置は、上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャによる上記電子機器の操作を禁止されている操作禁止者であるか否かを判定する操作禁止者判定手段をさらに備え、
    上記出力手段は、上記操作禁止者判定手段が操作禁止者であると判定した場合、上記非操作対象者通知指示情報を出力しないことを特徴とするジェスチャ認識装置。
  9. カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置であって、
    上記画像に人が含まれているか否かを判定する人判定手段と、
    上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段と、
    上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャにより上記電子機器の操作を実行可能な操作対象者であるか否かを判定する操作対象者判定手段とを備え、
    上記出力手段は、上記操作対象者判定手段が操作対象者ではないと判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力し、
    上記操作対象者判定手段は、ジェスチャにより上記電子機器の操作を所定回数実行した人を操作対象者であると判定することを特徴とするジェスチャ認識装置。
  10. カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置であって、
    上記画像に人が含まれているか否かを判定する人判定手段と、
    上記人判定手段が上記画像に人が含まれていないと判定した場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力手段と、
    上記人判定手段が上記画像に含まれていると判定した人が、ジェスチャにより上記電子機器の操作を実行可能な操作対象者であるか否かを判定する操作対象者判定手段とを備え、
    上記出力手段は、上記操作対象者判定手段が操作対象者ではないと判定した場合、操作対象者ではないことの通知を指示する非操作対象者通知指示情報を出力し、
    上記操作対象者判定手段は、所定期間内にジェスチャにより上記電子機器の操作を実行した人を操作対象者であると判定することを特徴とするジェスチャ認識装置。
  11. 請求項1〜10の何れか1項に記載のジェスチャ認識装置と、
    上記出力手段が出力する情報に従って、人に通知する通知手段とを備えたことを特徴とする電子機器。
  12. カメラが撮像した画像から人のジェスチャを認識し、認識したジェスチャに基づいて電子機器を制御するための情報を当該電子機器に出力するジェスチャ認識装置の制御方法であって、
    上記画像に人が含まれているか否かを判定する人判定ステップと、
    上記電子機器または上記ジェスチャ認識装置の現在または過去の処理に基づいて、人がジェスチャによる操作を所望する操作タイミングか否かを判定する時期判定ステップと、
    上記人判定ステップにおいて上記画像に人が含まれていないと判定された場合、かつ、上記時期判定ステップにおいて操作タイミングであると判定された場合、人が撮像されていないことの通知を指示する人画角外通知指示情報を出力する出力ステップと、を含むことを特徴とするジェスチャ認識装置の制御方法。
  13. 請求項1〜10の何れか1項に記載のジェスチャ認識装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。
  14. 請求項13に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2011202433A 2011-09-15 2011-09-15 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体 Active JP5862143B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011202433A JP5862143B2 (ja) 2011-09-15 2011-09-15 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
KR1020147001097A KR101597922B1 (ko) 2011-09-15 2012-03-14 제스처 인식 장치, 전자 기기, 제스처 인식 장치의 제어 방법, 제어 프로그램 및 기록 매체
CN201280035734.2A CN103688232B (zh) 2011-09-15 2012-03-14 姿势识别装置及其控制方法、电子设备
US14/235,424 US9304600B2 (en) 2011-09-15 2012-03-14 Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
PCT/JP2012/056517 WO2013038733A1 (ja) 2011-09-15 2012-03-14 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
EP12832280.7A EP2746898A4 (en) 2011-09-15 2012-03-14 GESTURAL RECOGNITION DEVICE, ELECTRONIC APPARATUS, GESTUALLY RECOGNIZING DEVICE CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011202433A JP5862143B2 (ja) 2011-09-15 2011-09-15 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2013065111A JP2013065111A (ja) 2013-04-11
JP5862143B2 true JP5862143B2 (ja) 2016-02-16

Family

ID=47882979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011202433A Active JP5862143B2 (ja) 2011-09-15 2011-09-15 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体

Country Status (6)

Country Link
US (1) US9304600B2 (ja)
EP (1) EP2746898A4 (ja)
JP (1) JP5862143B2 (ja)
KR (1) KR101597922B1 (ja)
CN (1) CN103688232B (ja)
WO (1) WO2013038733A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3182299A1 (en) * 2013-10-07 2015-04-16 Google Llc Visual and auditory user notification methods for smart-home hazard detector
JP6268526B2 (ja) 2014-03-17 2018-01-31 オムロン株式会社 マルチメディア装置、マルチメディア装置の制御方法、及びマルチメディア装置の制御プログラム
JP6187354B2 (ja) * 2014-03-28 2017-08-30 マツダ株式会社 携帯機器用カバー
CN104076704A (zh) * 2014-06-27 2014-10-01 广东美的制冷设备有限公司 终端及其控制方法
KR101685138B1 (ko) 2015-10-14 2016-12-09 연세대학교 산학협력단 실공간 사용자 인터페이스 장치 및 그 방법
US11087775B2 (en) 2015-12-11 2021-08-10 Sony Corporation Device and method of noise suppression based on noise source positions
KR102497299B1 (ko) 2016-06-29 2023-02-08 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN107358888A (zh) * 2017-09-12 2017-11-17 王秀珍 户外显示系统和户外显示主系统
EP3681678A4 (en) * 2017-09-18 2020-11-18 Samsung Electronics Co., Ltd. METHOD OF DYNAMIC INTERACTION AND ELECTRONIC DEVICE THEREFORE
JP6943294B2 (ja) * 2017-12-14 2021-09-29 富士通株式会社 技認識プログラム、技認識方法および技認識システム
CN109635691A (zh) * 2018-11-30 2019-04-16 泸州与德科技有限公司 一种控制方法、装置、设备及存储介质
CN111176594B (zh) * 2019-09-23 2023-02-28 广东小天才科技有限公司 一种智能音箱的屏幕显示方法及智能音箱、存储介质
JP7339604B2 (ja) * 2019-11-12 2023-09-06 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
CN114615429A (zh) * 2022-03-03 2022-06-10 深圳市明日实业有限责任公司 手势识别方法、系统、拍摄终端、拍摄系统和存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4275304B2 (ja) * 2000-11-09 2009-06-10 シャープ株式会社 インターフェース装置およびインターフェース処理プログラムを記録した記録媒体
JP4053903B2 (ja) * 2003-03-07 2008-02-27 日本電信電話株式会社 ポインティング方法、装置、およびプログラム
US7886236B2 (en) 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
JP4613558B2 (ja) 2003-09-16 2011-01-19 パナソニック電工株式会社 画像を用いた人体検知装置
JP4623299B2 (ja) 2005-12-13 2011-02-02 富士フイルム株式会社 撮像装置および撮像方法
JP4905931B2 (ja) 2006-07-04 2012-03-28 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
JP4737073B2 (ja) 2006-12-22 2011-07-27 パナソニック電工株式会社 人体検出装置
JP2008244804A (ja) 2007-03-27 2008-10-09 Fujifilm Corp 撮像装置及び撮像方法並びに制御プログラム
EP2201761B1 (en) * 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
US20090292958A1 (en) * 2008-05-21 2009-11-26 Kabushiki Kaisha Toshiba Electronic apparatus and state notification method
JP2009301301A (ja) 2008-06-12 2009-12-24 Tokai Rika Co Ltd 入力装置及び入力方法
US20100066689A1 (en) * 2008-06-17 2010-03-18 Jung Edward K Y Devices related to projection input surfaces
JP5432260B2 (ja) * 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド ウェーブエンゲージメントジェスチャの改良された検出
EP2394235A2 (en) * 2009-02-06 2011-12-14 Oculis Labs, Inc. Video-based privacy supporting system
US8305188B2 (en) * 2009-10-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US20120042288A1 (en) * 2010-08-16 2012-02-16 Fuji Xerox Co., Ltd. Systems and methods for interactions with documents across paper and computers

Also Published As

Publication number Publication date
EP2746898A1 (en) 2014-06-25
KR20140027469A (ko) 2014-03-06
CN103688232B (zh) 2016-08-17
JP2013065111A (ja) 2013-04-11
US9304600B2 (en) 2016-04-05
US20140225825A1 (en) 2014-08-14
EP2746898A4 (en) 2015-04-08
WO2013038733A1 (ja) 2013-03-21
CN103688232A (zh) 2014-03-26
KR101597922B1 (ko) 2016-02-25

Similar Documents

Publication Publication Date Title
JP5862143B2 (ja) ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
WO2013038734A1 (ja) ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
US11150738B2 (en) Wearable glasses and method of providing content using the same
US20220253759A1 (en) Systems and methods for altering display of virtual content based on mobility status change
CN112230770B (zh) 呼吸序列用户界面
TWI598076B (zh) 體能活動及健身監控器
US10206573B2 (en) Method of obtaining biometric information in electronic device and electronic device for the same
KR102302439B1 (ko) 전자 장치
KR102322034B1 (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
KR20200130382A (ko) 전자 디바이스의 제한된 동작
TWI564709B (zh) 用於可穿戴式設備之電力管理技術
WO2016117755A1 (ko) 디스플레이 정보를 이용한 홍채 인증 방법 및 장치
US9848796B2 (en) Method and apparatus for controlling media play device
KR20150116897A (ko) Nui 관여의 검출
KR102584353B1 (ko) 알람 출력 방법 및 이를 지원하는 전자 장치
JP6572629B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102386299B1 (ko) 도움 가이드 제공 방법 및 장치
US20110176025A1 (en) Video information processing apparatus, video information processing method, and computer-readable storage medium
US11521424B2 (en) Electronic device and control method therefor
CN110022948A (zh) 用于提供锻炼内容的移动装置和与其连接的可佩戴装置
CN117590934A (zh) 一种使用多阶段手势来激活用户界面交互的方法及系统
CN117043709A (zh) 用于生产力的扩展现实

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150629

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04