Nothing Special   »   [go: up one dir, main page]

JP5921981B2 - 映像表示装置および映像表示方法 - Google Patents

映像表示装置および映像表示方法 Download PDF

Info

Publication number
JP5921981B2
JP5921981B2 JP2012164311A JP2012164311A JP5921981B2 JP 5921981 B2 JP5921981 B2 JP 5921981B2 JP 2012164311 A JP2012164311 A JP 2012164311A JP 2012164311 A JP2012164311 A JP 2012164311A JP 5921981 B2 JP5921981 B2 JP 5921981B2
Authority
JP
Japan
Prior art keywords
hand
user
operation area
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012164311A
Other languages
English (en)
Other versions
JP2014026355A (ja
Inventor
スティアワン ボンダン
スティアワン ボンダン
孝志 松原
孝志 松原
松本 和己
和己 松本
竜也 徳永
竜也 徳永
中島 一州
一州 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2012164311A priority Critical patent/JP5921981B2/ja
Publication of JP2014026355A publication Critical patent/JP2014026355A/ja
Application granted granted Critical
Publication of JP5921981B2 publication Critical patent/JP5921981B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザのジェスチャー操作を画像認識して、操作に対する応答を表示させる映像表示装置および映像表示方法に関する。
従来、TVやレコーダといった映像装置、あるいは、PCなどの情報処理機器に対して、ユーザは、キーボードやマウスなどのポインティングデバイスを使ってデータ入力や指示入力をしたり、リモコンによりチャンネル操作・表示操作をするのが一般的であった。
ところが、近年では、画像認識技術の向上により、特に、ゲーム機や操作ガイド機器の分野において、ユーザのジェスチャーを画像認識し、ユーザの操作を判断して、機器を動作させる手法が提案されている。
例えば、特許文献1には、手指の形状、動作を認識して、操作を判定する画像認識装置が開示されている。また、特許文献2には、ユーザの手を認識して、ユーザが操作を行うための操作領域を設定し、ユーザの手の位置が操作領域の周囲に近づいたときには、ユーザの手の位置が動く方向に追随して、操作領域を移動させる映像表示装置、および、その表示制御方法が開示されている。
特許第4318056号公報 特開2011‐81506号公報
特許文献1および特許文献2では、ユーザの手の周囲に設定された所定の空間(以降、操作領域と記す)内の手の動きのパターンを、ジェスチャーの操作として認識する機能を提供する仕組みが開示されている。
しかしながら、これらの特許文献で開示される仕組みでは、ユーザが手のジェスチャーで、画面に対して操作をおこなう際に、ユーザが操作する位置と、例えばプロジェクタやテレビで表示される操作対象の画面の位置が、ある程度遠く離れている場合に、ユーザは自分の手の周囲にある前記操作領域と、操作対象の画面との、位置の対応関係を理解するのが難しいという課題がある。
さらに、特許文献1および特許文献2では、前記操作領域における手の位置に対応して、画面上にポインタを表示することが記載されている。しかし、ユーザが操作する際に、ユーザの手が前記操作領域の外側に外れたときに、手が前記操作領域に対してどの方向や、どの程度の距離で離れたかを、ユーザが直感的に把握することができないという課題がある。特にジェスチャーによる操作は、空中での手の動きによる操作であり、触覚等によるユーザへの物理的なフィードバックが存在しない。従って、上記の課題が、ユーザの円滑な操作を妨げる問題として顕著となる。
本発明は、上記課題を解決するためになされたもので、その目的は、ユーザが手のジェスチャーで映像表示装置を操作する際に、ユーザの手が、前記操作領域の外側に外れた場合に、映像表示装置が、手が前記操作領域に対してどの方向や、どの程度の距離で離れたかの状況をユーザが理解できるように提示し、ユーザが直感的に操作の状況を把握しながら円滑に操作できるようにすることにある。
上記目的を達成するために、例えば特許請求の範囲に記載の構成を採用する。
本発明によれば、ユーザの手を認識して、手が前記操作領域から外れた際の前記フィードバック表示を提示することによって、ユーザに操作が有効な操作領域の範囲を認知させることが可能となり、円滑な操作が可能となる。
本発明の第一の実施形態の映像表示装置の構成図である。 本発明の第一の実施形態に係る映像表示装置100に対してユーザが操作する概観を説明する図である。 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の一例について説明する図である。 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の第二の例について説明する図である。 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の提示方法の第三および第四の例について説明する図である。 本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の設定処理の手順を示すフローチャートである。 本発明の第一の実施形態に係る映像表示装置100による操作領域が3次元であるときのフィードバック表示の提示方法について説明する図である。 本発明の第二の実施形態の映像表示装置の構成図である。 本発明の第二の実施形態に係る映像表示装置100による操作領域の外側におけるジェスチャー操作の検出方法について説明する図である。 本発明の第二の実施形態に係る映像表示装置100による操作領域の外側でジェスチャー操作の検出処理の手順を示すフローチャートである。 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の提示方法の一例について説明する図である。 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の設定処理の手順を示すフローチャートである。 本発明の第三の実施形態に係る映像表示装置100による操作領域およびフィードバック表示の第二の例提示方法について説明する図である。
以下、本発明に係る各実施形態を、図1ないし図13を用いて説明する。
以下、本発明に係る第一の実施形態を、図1ないし図6を用いて説明する。
本実施形態の映像表示装置は、ユーザの手が操作を行える操作領域内にある状態から、操作領域から外れた状態に変化したときに、手が操作領域に対してどの方向へ、どの程度の距離で離れたかをユーザに伝えるための前記フィードバック表示を提示する機能を提供するものである。
図1は、本発明の第一の実施形態の映像表示装置の構成図である。
本実施形態の映像表示装置100は、例えばテレビやプロジェクタなどであり、図1に示されるように、入力部110、システム制御部120、映像信号処理部130、表示部140からなる。
入力部110は、ユーザの手の位置情報が含まれるデータを取得する装置であり、例えば、TOF(Time of flight)センサ機能を有する赤外線カメラ、ステレオカメラ、RGBカメラなどである。入力部110に用いるカメラは、特に、限定されず、ユーザに対して画像認識し、手の位置を検出するために最終的に、得た画像をセンシングデータに変換するための撮像画像を得る機能を有すればよい。また入力部110は、カメラではなく、ユーザが手で持って操作をおこなう空中マウスや空中コントローラなどの、ユーザの手の位置が検出できるセンシングデータを取得するポインティングデバイスなどでもよい。
システム制御部120は、ユーザの手の位置を検出し、適切な位置に操作領域を設定するためのデータ処理をおこなう部分である。システム制御部120は、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
システム制御部120は、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125の機能を実現する部分を有する。
手の位置検出部121は、入力部110で取得したセンシングデータから手の位置を検出する部分である。位置判定処理部122は、手の位置と操作領域の位置関係を判定する部分である。操作領域設定部123は、操作領域を設定する部分である。フィードバック表示設定部125は、前記フィードバック表示を設定する部分である。
映像信号処理部130は、システム制御部120から指示とデータを受け取り、表示部140に表示するための映像信号を作成する部分である。
表示部140は、映像信号に基づき、ユーザに映像信号を表示する部分であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、プロジェクタ、などの静止画像や動画像を表示可能な表示装置である。
次に、図2を用いて本発明の第一の実施形態に係る映像表示装置100による前記フィードバック表示の設定処理について説明する。
図2は、本発明の第一の実施形態に係る映像表示装置100をユーザが操作する際の概観について説明する図である。
本発明の第一の実施形態に係る映像表示装置100の表示部140は、例えばテレビのディスプレイ10や、プロジェクタの投射面17となる。
本発明の第一の実施形態に係る映像表示装置100の操作イメージは、図2(a)に示されるように、ユーザ30が操作対象の画面である表示部140で表示される操作画面18を見ながら仮想的な操作領域20内でジェスチャーにより操作し、当該操作を映像表示装置100が画像認識をし、その認識結果に基づいて操作に対応する表示を行う
本実施形態で、特に、キーポイントとなるのは、手の位置を検出することである。本実施形態の映像表示装置100の入力部110は、例えば赤外線カメラ12であり、赤外線を用いた測距機能を有することにより、画面から手までの距離を測定できるものとする。手32は、出っ張っており、ユーザ30の体の中で、赤外線カメラ12により認識しやすい部分であるといえる。
図2(b)に、本実施形態における赤外線カメラ12と、撮像領域面22と、操作領域20と、操作画面18の関係が示されている。
撮像領域面22は、ユーザの手の位置において、赤外線カメラ12が撮像可能な範囲を表す面である。操作画面18は、ユーザに提示するための動画像のコンテンツ、操作メニューや、前記フィードバック表示などを表示する領域である。本実施形態の映像表示装置100の操作画面18上に、静止画像19と、フィードバック表示設定部125で設定された、操作領域20におけるユーザの手の位置を表すポインタ26が表示される。ここで静止画像19の大きさは、操作画面18の大きさと同じとし、操作画面18に静止画像19の全体が見える。なお、操作画面18上に表示されるものは、静止画像の他に、動画、アニメーション、CG(Computer Graphics)映像などでもよい。また、ポインタ26は、図2(b)では、矢印のアイコンで示されているが、手の形をしたアイコン、丸、四角などの基本図形のアイコン、その他アニメのキャラクタのアイコンなどで示されてもよい。
映像表示装置100が、画像認識をして、ユーザの手32を検出すると、次に、手を認識した位置に応じて、操作画面18に対応する操作領域20を決定する。操作領域20は、ユーザ30に操作をおこなわせるための仮想的な領域であり、ユーザ30が立っている位置の赤外線カメラ12の撮像領域面22の中に作られるものとする。また、操作領域20は、操作画面18を、ユーザの手前の撮像領域面22上に、拡大・縮小したものであり、最初に、操作領域20を決定されたときには、ユーザ30の手32が、中心にくるようにする。そして、操作領域20は、手32の位置から操作画面18までの距離に応じて、手を伸ばした方向の延長線上が画面を指示するような領域として決定され、ちょうど、ハンズフリーのレーザポインタを使うようなイメージで、ユーザ30は、映像表示装置100に対して指示を与えることができる。
なお、図2(b)に示されるように、操作領域20が決定された際に、ユーザ30に映像表示装置100に対する指示が可能であることを示すために、ポインタ26を表示するが、ポインタ26を表示せずに、操作画面18内の映像の明るさを変えることなどにより、操作が無効な状態から操作が可能となったことを提示するようにしてもよい。
また、図2(c)に示されるように、本発明の映像表示装置では、操作を行わせるための操作領域は、2次元の面ではなく、操作領域20aのような3次元操作領域であってもよい。
ここで、ユーザは操作領域20または操作領域20a内で、手の回転、手振り、押込みなどの所定のジェスチャー操作を行うことで映像表示装置100に対する指示を与え、操作画面18には、その指示の実行結果や前記フィードバック表示が表示される。 次に、図3ないし図6を用いて本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理と、前記フィードバック表示の設定方法について説明する。
図3は、映像表示装置100が認識するユーザの手32の位置と前記フィードバック表示の対応関係を示しており、ユーザの手の位置が操作領域20から外れたときに、操作領域20に対する手の位置や方向、距離に応じて操作画面18に表示する前記フィードバック表示について説明する図である。
本実施形態の映像表示装置100では、ユーザが映像表示装置100に対して手32を出し、最初に操作領域20が設定されたときに、図3(a)に示されるようにポインタ26が操作画面18の中央に表示される。図3(b)に示されるように、ユーザが操作領域20の右の方向に手32を動かすと、ポインタ26はそれに応じて操作画面18の右方向に移動して、表示される。
ここで、図3(c)に示されるように、図3(b)の状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19およびポインタ26を、操作画面18に対して右下方向へずらして表示させる。このとき、ポインタ26は操作画面18の外側にあるため、操作画面18には表示されない。また、静止画像19の左上の枠が見えるようになる。
同様に、図3(d)に示されるように、図3(b)の状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19およびポインタ26を、操作画面18に対して右上方向へずれて表示する。このとき、ポインタ26は操作画面18の外側にあるため、操作が面18には表示されない。また、静止画像19の左下の枠が見えるようになる。
図3(c)および(d)では、ユーザの手32が操作領域20から外れたときに、静止画像19の位置は手に追従して動く。すなわち、操作領域20と同じ大きさを持つ仮想面200の位置と操作画面18の位置とが対応している。つまり、ユーザの手32が操作領域20から出たときに、操作画面18に対する静止画像19のずれ方向およびずれる距離は、操作領域20に対する仮想面200のずれ方向および距離に対応する。
ここで、ユーザの手32が操作領域20から外れた際に、ユーザが見た静止画像19のずれる方向が、ユーザの手32の動く方向の逆であってもよい。すなわち、図4に示されるように、ユーザの手32が操作領域20から外れたときに、静止画像19の位置は操作領域20の位置と対応し、操作画面18の位置は仮想面200の位置と対応させてもよい。
図4(a)に示されるように、図3(b)の状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19を、操作画面18に対して左上方向へずらして表示させる。このとき、ポインタ26は操作画面18の内側に表示され、静止画像19の右下の枠が見えるようになる。
また同様に、図4(b)に表示されるように、図3(b)の状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、映像表示装置100は、静止画像19を、操作画面18に対して左下方向へずらして表示させる。このとき、ポインタ26は操作画面18の内側に表示され、静止画像19の表示がずれて、右上の枠が見えるようになる。
なお、図3(c)、図3(d)、図4(a)と図4(b)に図示しないが、操作領域20および仮想面200は撮像領域面22の中にある。
なお、上記ではユーザの手32が操作領域20の外側に外れた際に、ポインタ26を操作画面18内に表示しないことによって、ユーザに操作が無効であることを提示しているが、手32が操作領域20の外側に外れた場合に、例えば操作画面18の全体明るさを低くすることなどで、ユーザに操作が無効であることを提示してもよい。
このように、本実施形態の映像表示装置100は、ユーザの手32が操作領域20の内側から外側に出て、且つユーザの手32が撮像領域22の内側にある場合に、ユーザの手32が操作領域20に対して外れている位置や方向、距離に応じて、操作画面18のフィードバック表示によりユーザに伝える。
次に、図5を用いて、ユーザの手32が操作領域20から外れたときのフィードバック表示の別の例について説明する。
図5(a)および図5(b)には、ユーザの手32が操作領域20から外れたときの、操作画面18における別のフィードバック表示の一例が示される。
図5(a)に示されるように、図3(b)に示された状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、ポインタ26が操作画面18の右下の端に消え、操作領域20に対するユーザの手32が外れた方向や距離に応じて、画面の右下の端に点滅するフィードバックアイコン27が表示される。
同様に、図5(b)に示されるように、図3(b)に示された状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、操作領域20に対するユーザの手32の外れた方向や距離に応じて、操作画面18の右上の端に点滅するフィードバックアイコン27が表示される。ここで、ユーザの手32が操作領域20からどの程度の距離で離れているかをユーザが理解できるように、フィードバックアイコン27の点滅間隔およびアイコンの大きさを操作領域20から手32の離れた距離に応じて変更する。フィードバックアイコン27の点滅間隔およびアイコンの大きさと、ユーザの手32と操作領域20の距離の対応関係の一例を図5(c)に示す。
図5(d)および図5(e)にはユーザの手32が操作領域20から外れたときの、操作画面18における別のフィードバック表示の一例が示される。
図5(d)に示されるように、図3(b)に示された状態から、ユーザが手32を右下方向に動かし、操作領域20の外側に移動させると、ポインタ26が操作画面18の右下の端に消え、操作領域20に対するユーザの手32の外れた方向や距離に応じて、操作画面18に表示されている静止画像19の右下辺りにあたかも画面の一部が右下方向に引っ張られ、歪んでいるような表示効果28が表示される。
同様に、図5(e)に示されるように、図3(b)に示された状態から、ユーザが手32を右上方向に動かし、操作領域20の外側に移動させると、操作画面18に表示されている静止画像19の右上辺りにあたかも画面の一部が右上方向に引っ張られ歪んでいるような表示効果28が表示される。なお、表示効果28の歪みの大きさおよび歪みの方向は、操作領域20に対して手32が外れた方向や距離に対応する。
次に、図6を用いて、映像表示装置100のフィードバック表示の設定処理の手順について説明する。
図6は、本発明の第一の実施形態に係る映像表示装置100によるフィードバック表示の設定処理の手順を示すフローチャートである。
操作画面18上でのフィードバック表示設定処理は、図1に示したシステム制御部120が行う処理である。
まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。
そして、手32を認識したときには(S600)、手32の位置に合わせて操作領域20を設定する(S601)。このとき、操作画面18上にポインタ26が表示される。
次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S602)。
さらに、再び、手32が認識できているかを判定し(S603)、手32が認識できないときには、操作領域20を削除する(S606)。このとき、操作画面18上のポインタ26も消去され、処理はS600に戻る。
手32が認識できており、手32の位置が操作領域20の内側から、操作領域20の外側に出た場合には(S604:Yes)、手32と操作領域20との相対位置を計算し(S607)、手32と操作領域20との相対位置を用いて、フィードバック表示設定部は操作画面18に対して、図3(c)、図3(d)、図4(a)、図4(b)、図5(a)、図5(b)、図5(d)および図5(e)に示したようにポインタ26が操作領域20から外れていることを表現する前記フィードバック表示を設定する(S608)。さらに、操作領域20に対する手32の距離が所定の閾値よりも大きいかを判定する(S609)。操作領域20に対する手32の距離がある閾値よりも大きい場合は(S609:Yes)、手32が操作領域から外れている前記フィードバック表示を終了し(S610)、操作領域20を削除する(S606)。このとき、操作画面18上のポインタ26も消去され、処理はS600に戻る。このとき、例えば操作画面18は、図3(c)、図3(d)、図4(a)、図4(b)、図5(a)、図5(b)、図5(d)および図5(e)に示される前記フィードバック表示を提示する状態から、元の状態(ポインタ26が無い図3(a))にすぐ戻してもよいが、操作領域22から手の外れた位置や方向をユーザにより分かりやすく伝えるために、アニメーションなどで少しずつ表示を変化させて操作画面18の元の状態までに、戻してもよい。
一方、操作領域20に対する手32の距離が所定の閾値よりも小さい場合は(S609:No)、処理はS602に戻る。なお、手32が認識できており、手32の位置が操作領域20の内側にあり(S604:No)、ユーザ32が所定の操作で操作終了を指示したときには(S605)、処理を終了し、そうでないときには処理はS602に戻る。
なお、上述の所定の閾値は、撮像領域の範囲であることが望ましい。すなわち、撮像領域外に手が移動した場合には、処理ができずに終了する。
以上より、本発明の第三の実施形態では、映像表示装置100は、手32が操作領域20の内側から、操作領域20の外側に移動した際に、操作領域20に対する手32の位置や方向、距離を前記フィードバック表示によりユーザに提示する機能を提供するものである。
以上より、ユーザの手が操作領域から外れたことを意味する前記フィードバック表示を行うことにより、ユーザは操作が有効な操作領域に対する自分の手の位置を把握することができ、操作を円滑に行うことができる。
次に図7を用いて、操作領域が3次元空間である場合について説明する。
図7(a)に示されるように、ユーザの手32の位置が操作領域20aの内側にある場合には、映像表示装置100の操作画面18上にポインタ26が表示さる。この状態から、図7(b)に示されるように、ユーザが手を奥行方向に動かして、操作領域20aから出たときに、操作画面18上では、あたかも静止画像19が奥行方向に遠のいたように表示される。また、図7(c)に示されるように、ユーザが手32をユーザの手前方向に動かして、操作領域20aから出たときに、操作画面18上では、あたかも静止画像19が手前に近づいたように表示される。このとき、操作が無効(ユーザによる手32の操作は反映されない)であることを表現するために、例えば操作画面18は暗く表示される。
このように、本発明の映像表示装置の映像表示装置100は、ユーザの手が、操作が有効である所定の空間領域から外れた際に、画面上にその状態を示すフィードバック表示を行うため、ユーザは円滑に操作を行うことができる。
以下、本発明に係る第二の実施形態を、図8ないし図10を用いて説明する。
第一の実施形態の映像表示装置100の表示制御方法は、手が操作領域内にある状態から、操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示する機能を提供するものであった。本実施形態では第一の実施形態の表示制御方法に加えて、手が操作領域に対して離れている状態を利用してジェスチャー操作を検出する機能を提供するものである。
図8は、本発明の第二の実施形態の映像表示装置の構成図である。
本実施形態の映像表示装置100でも、図8に示されるように、入力部110、システム制御部120、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125、映像信号処理部130、表示部140からなることは、第一の実施形態と同様であるが、システム制御部120にジェスチャー検出部126を有することが異なっている。
ジェスチャー検出部126は、カメラ12の撮像範囲内において、ユーザの手32の所定の動きパターンである、いわゆるジェスチャーが行われたか否かを検出する部分である。
図9は、本発明の第二の実施形態に係る映像表示装置100による操作領域の外側におけるジェスチャー操作の検出方法について説明する図である。
図5(a)および図5(b)に示されたようにユーザの手32が、操作領域20内にある状態から、操作領域20の外側に出たときに、ユーザの手32が操作領域20に対して離れた位置や方向、距離に応じて、画面の右下の端に点滅するフィードバックアイコン27が表示される。このとき、ジェスチャー検出部126は、ユーザの手32が操作領域20の外側、且つ撮像領域22内側にあるときに、ユーザの手32の動きが、映像表示装置100への指示に当たる所定の動きパターンであるか否かを判定する。ここで、前記所定の動きパターンは例えば図9(a)に示される上下に手振りをする動きや、図9(b)に示される操作領域20の外側を手32が一周回る動きや、ユーザが手を押込む動きや、ユーザが手を回転する動きなどの動きのパターンである。前記所定の動きパターンが検出されたら、映像表示100はそれを指示として解釈し、所定の操作を実行する。本発明の第二の実施形態の映像表示装置100は、ユーザの手32が操作領域20から外れており、且つ前記所定の手の動きパターンが検出された際に、画面18上にポップアップメッセージ29を表示する。映像表示装置100が実行する操作として、ポップアップメッセージ29を表示する他に、例えばプレゼンテーションのページめくり操作、ディスプレイの電源を切る操作などでもよい。
以上より、手32は操作領域20から外れたことを認識したうえで、あえてその状態である所定の動きパターンを認識することにより、映像表示装置100に対してより多様な操作が可能となる。
図10は、本発明の第二の実施形態に係る映像表示装置100によるフィードバック表示の設定処理と、操作領域の外側でのジェスチャー操作の検出処理の手順を示すフローチャートである。
まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。
そして、手32を認識したときには(S800)、手32の位置に合わせて操作領域20を設定する(S801)。このとき、操作画面18上にポインタ26が表示される。
次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S802)。
さらに、再び、手32が認識できているかを判定し(S803)、手32が認識できないときには、操作領域20を削除する(S808)。このとき、操作画面18上のポインタ26も消去され、処理はS800に戻る。
手32が認識できており、手32の位置が操作領域20の内側から、操作領域20の外側に出た場合には(S804:Yes)、手32と操作領域20との相対位置を計算し(S808)、手32と操作領域20との相対位置を用いて、フィードバック表示設定部は操作画面18に対して、ポインタ26が操作領域20から外れていることを表現する前記フィードバック表示を設定する(S808)。さらに、操作領域20に対する手32の距離が所定の閾値よりも大きいかを判定する(S809)。操作領域20に対する手32の距離が所定の閾値よりも大きい場合は(S809:Yes)、手32が操作領域から外れている前記フィードバック表示を終了し(S812)、操作領域20を削除する(S806)。このとき、操作画面18上のポインタ26も消去され、処理はS800に戻る。一方、操作領域20に対する手32の距離が所定の閾値よりも小さい場合は(S809:No)、手振りや手の回転のどの所定の動きパターンがユーザによって行われたかを判定し(S810)、そのときは、例えば図9に示されたように画面上のポップアップメッセージを提示するなどの該所定の動きパターンに対応させた所定の動作を実行する(S811)。そしてS802に戻る。なお、手32が認識できており、手32の位置が操作領域20の内側にあり(S804:No)、ユーザ32が所定の操作で操作終了を指示したときには(S805)、処理を終了し、そうでないときには処理はS803に戻る。
このように、本発明の第二の実施形態の表示制御方法によれば、手が操作領域から外れたときに、ユーザにその状況を提示して、さらにその状況を利用して、所定の手の動きパターンを操作として検出し、映像表示装置のより多様な入力操作が可能となる。
以下、本発明に係る第三の実施形態を、図11ないし図13を用いて説明する。
第一の実施形態の映像表示装置100の表示制御方法は、手が操作領域内にある状態から、操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示する機能を提供するものであった。本実施形態では、第一の実施形態の表示制御方式に加え、2つ目の操作領域を設けて、手が操作領域内にある状態から、第一の操作領域から外れた状態に変化したときに、ユーザに手が操作領域に対してどの方向にどの程度の距離で離れたかを提示し、第二の操作領域から手が外れたときに、手の移動に応じて操作領域を追従させるインタフェースを提供するものである。
まず、本発明の第三の映像表示装置100の構成について説明する。
本発明の第三の映像表示装置100の構成は、図1に示される第一の実施形態の映像表示装置と同様であり、入力部110、システム制御部120、手の位置検出部121、位置判定処理部122、操作領域設定部123、フィードバック表示設定部125、映像信号処理部130、表示部140からなる。本実施形態の映像表示装置100は、ユーザの手32を検出したときに、操作領域設定部123を用いて2つの操作領域を設定する。
次に、図11を用いて、本発明の第三の実施形態の映像表示装置100の操作領域について説明する。
図11の第一の操作領域20は、第一実施形態ないし第二の実施形態の操作領域と同様に、赤外線カメラ12の撮像領域面22の中において、ユーザの手32を認識した位置に応じて決定される、ユーザ30の操作が有効となる仮想的な領域であり、操作画面18に対応する領域である。ここで、ユーザの手32が第一の操作領域20内に検出されれば、操作画面18上にポインタ26が表示される。
第二の操作領域1501は、第一の操作領域20と同様に、赤外線カメラ12の撮像領域22の中に作られる仮想的な領域であり、第二の操作領域1501の大きさは、第一の操作領域20より大きく、第二の操作領域1501の位置は、例えば第一の操作領域20と同じ中心位置で設定される。
本発明の第三の実施形態の映像表示装置100は、ユーザの手32が最初に認識されたときに、図11(a)に示されるようにユーザの手32の周囲に第一の操作領域20および第二の操作領域1501を設定する。このとき、第一の操作領域20の中心は、ユーザの手32であり、操作画面18の中心にポインタ26が表示される。図11(b)に示されるように、ユーザの手32が第一の操作領域20の外側へ出て、尚且つ、第二の操作領域1501の内側にある場合、映像表示装置100は、ポインタを右下方向に消し、第一の操作領域20に対する手32の位置や方向、距離に応じて、操作画面18に表示されている静止画像19を右下方向にずらして表示させる。このとき、ユーザの手32が第一操作領域20から出たときの操作画面18に対する静止画像19のずれ方向は、第一の操作領域20に対する仮想面200のずれ方向と対応する。また、静止画像19のずれ幅は、第一の操作領域20に対して手32が外れた距離に対応する。
ここで、図11(c)に示されるように、ユーザが手32をさらに右下方向に動かして、第二操作領域1501の右下辺を越えたと認識されたとき、映像表示装置100は、第二の操作領域1501に対する手32の位置や方向、距離に追従して、第一操作領域20および第二の操作領域1501を右下方向に移動させる。
ここで、操作画面18に、操作領域が移動可能な領域範囲を表す図形1502と、その移動可能な領域範囲に対する現在の操作領域の位置を表す図形1503が表示される。本実施形態では、図形1502は例えば撮像領域面22と対応し、図形1503は第二の操作領域1501と対応する。図11(c)に示されるように、ユーザの手32が第二の操作領域1501の外側に出たとき、第一の操作領域20と第二の操作領域1501がその手の動きにより移動されるが、それに従って図形1502における図形1503の表示位置が変化する。
なお、第一の操作領域20は、第二の操作領域1501と常に同時に移動するため、図形1502と図形1503の表示は、第一の操作領域20が移動可能な範囲をも表すこととなる。つまり、図形1502と図形1503による前記フィードバック表示を提示することにより、ユーザは自分の手32の周囲にある操作領域が移動可能な範囲を理解することができる。
このように、第二の操作領域1501を設けることにより、ユーザは、自分の手32が操作領域から外れたことを、前記フィードバック表示で確認ができ、さらにその操作領域を任意の位置に移動させることができる。
次に、図12を用いて本発明の第三の実施形態に係る映像表示装置100による操作領域の設定およびフィードバック表示の設定処理の手順について説明する。
図12は、本発明の第三の実施形態に係る映像表示装置100による操作領域の設定およびフィードバック表示の設定処理の手順を示すフローチャートである。
第一の操作領域20および第二操作領域1501の設定処理は、図1に示されたシステム制御部120が行う処理である。
まず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理を行う。
そして、手32を認識したときには(S700)、手32の位置に合わせて操作領域20を設定する(S701)。このとき、操作画面18上にポインタ26が表示される。
次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26の位置を動かす(S702)。
さらに、再び、手32が認識できているかを判定し(S703)、手32が認識できないときには、操作領域20を削除する(S706)。このとき、操作画面18上のポインタ26も消去され、処理はS700に戻る。
手32が認識できており、手32の位置が第一の操作領域20の内側から、第一の操作領域20の外側に出た場合には(S704:Yes)、手32と第一の操作領域20との相対位置を計算し(S707)、手32と第一の操作領域20との相対位置を用いて、図10(b)に示されたような前記フィードバック表示を設定し(S708)、操作画面18に表示する。さらに、手32が認識できており、手32の位置が第二の操作領域1501の外側に外れたかを判定し(S709)、そのときには、手32の移動に応じて、第二の操作領域1501および第一の操作領域20を移動させる。すなわち、第二の操作領域1501および第一の操作領域20を手32の動きに追従して移動させる(S710)。次に、図11(c)に示されたように第一の操作領域の移動可能な範囲の位置を表現する前記フィードバック表示を更新し(S711)、そして、S702に戻る。手32が認識できており、手32の位置が操作領域20の外側に移動しない場合(S704:No)に、ユーザ32が所定の操作で操作終了を指示したときには(S705)、処理を終了する。
なお、ユーザの手32が第一の操作領域20から外れて、まだ第二の操作領域1501の内側となったときには、2つの操作領域を手の動きと追従して移動させ、そして、ユーザの手32が第二の操作領域1501から外れたときには、第二の操作領域1501に対して手32が外れた方向や距離に応じて、操作画面18上に、手が操作領域から外れていることを示す前記フィードバック表示を設定するようにしてもよい。
つまり、本発明の第三の実施形態の映像表示装置100は、ある手の位置を検出するタイミングにおいて、図13(a)に示されるように、手が第一の操作領域20の中にあり、次の手の位置を検出するタイミングにおいて、図13(b)に示されるように、手32が第一の操作領域20の外側に出て、かつ、まだ第二の操作領域1501の内側にあるときには、第一の操作領域20に対する手32の位置や方向、距離に追従して、第一の操作領域20および第二の操作領域1501を移動させる。そして、図13(c)に示されるように、図13(a)に示される状態から、次の手の位置を検出するタイミングで、手32が第二の操作領域1501の外側に出た(つまり、ユーザの手32は図13(b)に示される状態になったときよりも速く移動された)ときは、第二の操作領域1501に対して、手32が外れた方向や距離に応じて、操作画面18上に、手32が操作領域から外れていることを示すフィードバック画面を提示する。この仕組みにより、ユーザは手を動かし、操作領域から小さく外した場合には操作領域を手の動きに追従して移動させることができ、操作領域から大きく外した場合に、操作画面上の前記フィードバック表示により、手が操作領域から外れていることを認識することができる。
このように、本発明の映像表示装置の表示制御方法によれば、操作中にユーザの手が設定された仮想の操作領域から外れた際に、画面上でその状況を前記フィードバック表示で分かりやすく伝えられ、さらに一度設定した操作領域が、ユーザが手の動きに応じて動的に変更されるため、キャリブレーションのタイミングを途中で決める必用がなく、操作性を向上させることができる。
以上、第一の実施形態ないし第三の実施形態で説明してきたように、操作中にユーザの手が設定された仮想の操作領域から外れた際に、画面上でその状況をフィードバック表示で分かりやすく伝えられるため、ユーザが操作を円滑に行える。
100…映像表示装置、110…入力部、130…映像信号処理部、140…表示部、121…手の位置検出部、122…位置判定処理部、123…操作領域設定部、124…手振り動作検出部、10…ディスプレイ、12…赤外線カメラ、14…LED、16…レンズ、18…操作画面、19…静止画像、20…操作領域、22…撮像領域面、26…ポインタ、30…ユーザ、32…手

Claims (6)

  1. ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、当該画像認識の結果に基づいて、当該ユーザの操作の状況を提示する映像表示装置であって、
    前記ユーザに提示する映像を表示する表示部と、前記画像認識の結果に基づいて撮像領域面上で前記ユーザの手の位置の周囲に当該ユーザが操作可能な操作領域を設定すると共に、撮像領域内の当該ユーザの手の位置を検出した結果に基づいて当該ユーザの手の位置が当該操作領域の範囲外にある場合にその操作状況を前記表示部に表示させる制御部と、を備え、
    前記制御部は、前記操作領域とは別の第二の操作領域を設定し、前記ユーザの手の位置が当該第二の操作領域の範囲外に移動した場合に、当該操作領域及び当該第二の操作領域を当該ユーザの手の位置が移動した方向にその距離だけ移動して各操作領域を再設定すると共に、当該再設定された当該第二の操作領域の撮像領域面内の位置を前記表示部に表示させることを特徴とする映像表示装置。
  2. 請求項1記載の映像表示装置において、
    前記制御部は、前記ユーザの手の位置が前記操作領域の範囲外にある場合に、当該操作領域から当該ユーザの手の位置までの距離と方向が分かるように前記表示部に表示させることを特徴とする映像表示装置。
  3. 請求項1記載の映像表示装置において、
    前記制御部は、前記ユーザの手の位置が前記操作領域の範囲外にある場合であって、当該ユーザの手が所定の動きをした場合には、当該所定の動きを所定の操作として検出し、当該所定の操作に対する表示を前記表示部に行わせることを特徴とする映像表示装置。
  4. ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、当該画像認識の結果に基づいて、当該ユーザの操作の状況を提示する映像表示方法であって、
    映像表示装置に備えられる表示部により、前記ユーザに提示する映像を表示する表示ステップと、映像表示装置に備えられる制御部により、前記画像認識の結果に基づいて撮像領域面上で前記ユーザの手の位置の周囲に当該ユーザが操作可能な操作領域を設定すると共に、撮像領域内の当該ユーザの手の位置を検出した結果に基づいて当該ユーザの手の位置が当該操作領域の範囲外にある場合にその操作状況を前記表示ステップでの前記表示部に表示させる制御ステップと、を有し、
    前記制御ステップでは、前記制御部により、前記操作領域とは別の第二の操作領域を設定し、前記ユーザの手の位置が当該第二の操作領域の範囲外に移動した場合に、当該操作領域及び当該第二の操作領域を当該ユーザの手の位置が移動した方向にその距離だけ移動して各操作領域を再設定すると共に、当該再設定された当該第二の操作領域の撮像領域面内の位置を前記表示ステップでの前記表示部に表示させることを特徴とする映像表示方法
  5. 請求項4記載の映像表示方法において、
    前記制御ステップでは、前記制御部により、前記ユーザの手の位置が前記操作領域の範囲外にある場合に、当該操作領域から当該ユーザの手の位置までの距離と方向が分かるように前記表示ステップでの前記表示部に表示させることを特徴とする映像表示方法。
  6. 請求項4記載の映像表示方法において、
    前記制御ステップでは、前記制御部により、前記ユーザの手の位置が前記操作領域の範囲外にある場合であって、当該ユーザの手が所定の動きをした場合には、当該所定の動きを所定の操作として検出し、当該所定の操作に対する表示を前記表示ステップでの前記表示部に行わせることを特徴とする映像表示方法。
JP2012164311A 2012-07-25 2012-07-25 映像表示装置および映像表示方法 Active JP5921981B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012164311A JP5921981B2 (ja) 2012-07-25 2012-07-25 映像表示装置および映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012164311A JP5921981B2 (ja) 2012-07-25 2012-07-25 映像表示装置および映像表示方法

Publications (2)

Publication Number Publication Date
JP2014026355A JP2014026355A (ja) 2014-02-06
JP5921981B2 true JP5921981B2 (ja) 2016-05-24

Family

ID=50199965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012164311A Active JP5921981B2 (ja) 2012-07-25 2012-07-25 映像表示装置および映像表示方法

Country Status (1)

Country Link
JP (1) JP5921981B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150268728A1 (en) * 2014-03-18 2015-09-24 Fuji Xerox Co., Ltd. Systems and methods for notifying users of mismatches between intended and actual captured content during heads-up recording of video
JP6322029B2 (ja) * 2014-03-31 2018-05-09 株式会社メガチップス ジェスチャー検出装置、ジェスチャー検出装置の動作方法および制御プログラム
JP6528193B2 (ja) * 2015-02-10 2019-06-12 任天堂株式会社 電子機器
JP6632298B2 (ja) * 2015-09-29 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
EP3267289B1 (en) 2016-07-05 2019-02-27 Ricoh Company, Ltd. Information processing apparatus, position information generation method, and information processing system
JP6834197B2 (ja) * 2016-07-05 2021-02-24 株式会社リコー 情報処理装置、表示システム、プログラム
JP6328304B1 (ja) * 2017-07-25 2018-05-23 株式会社ネットアプリ 入出力システム
JP6730552B2 (ja) * 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム
JP6658809B2 (ja) * 2018-07-04 2020-03-04 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム
WO2021001894A1 (ja) * 2019-07-01 2021-01-07 三菱電機株式会社 表示制御装置及び表示制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5427385B2 (ja) * 2008-09-29 2014-02-26 日立コンシューマエレクトロニクス株式会社 操作制御装置及び操作表示方法
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
JP2011175405A (ja) * 2010-02-24 2011-09-08 Panasonic Corp 表示装置および表示装置における操作可能範囲表示方法
JP5935529B2 (ja) * 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2014026355A (ja) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP7574208B2 (ja) 摘まんで引くジェスチャーに基づいた人工現実システムにおける入力の検出
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
US9454837B2 (en) Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP5921835B2 (ja) 入力装置
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5808712B2 (ja) 映像表示装置
WO2012039140A1 (ja) 操作入力装置および方法ならびにプログラム
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
CN113099115A (zh) 相机的可移动用户界面快门按钮
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
US9544556B2 (en) Projection control apparatus and projection control method
CN108536273A (zh) 基于手势的人机菜单交互方法与系统
US20120019460A1 (en) Input method and input apparatus
JP2010205223A (ja) 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP6270495B2 (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
WO2014181587A1 (ja) 携帯端末装置
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140311

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160413

R150 Certificate of patent or registration of utility model

Ref document number: 5921981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250