Nothing Special   »   [go: up one dir, main page]

JP5148004B1 - 情報処理装置、電子機器およびプログラム - Google Patents

情報処理装置、電子機器およびプログラム Download PDF

Info

Publication number
JP5148004B1
JP5148004B1 JP2012114530A JP2012114530A JP5148004B1 JP 5148004 B1 JP5148004 B1 JP 5148004B1 JP 2012114530 A JP2012114530 A JP 2012114530A JP 2012114530 A JP2012114530 A JP 2012114530A JP 5148004 B1 JP5148004 B1 JP 5148004B1
Authority
JP
Japan
Prior art keywords
coordinates
calculated
collation
trajectory
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012114530A
Other languages
English (en)
Other versions
JP2013242652A (ja
Inventor
隆 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MUFG Bank Ltd
Original Assignee
Bank of Tokyo Mitsubishi UFJ Trust Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of Tokyo Mitsubishi UFJ Trust Co filed Critical Bank of Tokyo Mitsubishi UFJ Trust Co
Priority to JP2012114530A priority Critical patent/JP5148004B1/ja
Application granted granted Critical
Publication of JP5148004B1 publication Critical patent/JP5148004B1/ja
Publication of JP2013242652A publication Critical patent/JP2013242652A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】所定の特徴で動作する物体を用いることによる、装置に対する入力指示を精度よく認識すること。
【解決手段】本発明の情報処理装置は、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、検知データに基づいて、物体の少なくとも1箇所の座標を算出する座標算出手段と、座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段とを備える。
【選択図】図10

Description

本発明は、物体を認識する認識空間を設定する技術に関する。
コンピュータに対してユーザの指示を入力するときには、ユーザは、キーボードやマウスなどの入力インターフェースを用いる。近年ではユーザの指示の入力を容易にするため、ナチュラルインターフェイス(ナチュラルユーザインタフェースといわれることもある)に関する技術が開発されている。例えば、特許文献1に記載されているように、ジェスチャによってユーザの指示を入力する技術が開発されている。また、特許文献2に記載されているように、ジェスチャにユーザの視線を組み合わせて、ユーザの指示を入力するときの精度を向上させる技術が開発されている。
米国特許出願公開第2011/0193939号明細書 米国特許出願公開第2011/0029918号明細書
ところで、動作を行う各部の動きにはそれぞれ特徴があるため、検出すべきジェスチャを行う部分によって、精度よくジェスチャを検出する方法が異なってくる。そのため、各ジェスチャの検出精度のさらなる改善が望まれている。
本発明は、所定の特徴で動作する物体を用いることによる、装置に対する入力指示を精度よく認識することを目的とする。
本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段とを備え、前記決定手段は、前記算出された座標を内部に含む所定形状の空間を設定し、前記算出された座標に基づいて決められる領域は、当該座標の時間変化により移動した前記所定形状の空間が通過した領域である情報処理装置が提供される。
また、本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段とを備え、前記許容範囲は、前記軌跡の第1の位置から当該許容範囲の外縁までの距離が前記軌跡の第2の位置からの前記距離とは異なるように定められている情報処理装置が提供される。
また、本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段とを備え、前記座標算出手段は、前記物体の複数箇所の座標を算出し、前記照合パターンは、前記座標が算出される物体の複数の箇所のそれぞれに対応して前記軌跡を定めている情報処理装置が提供される。
また、本発明の一実施形態によると、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と、認証領域を含む確認画面を表示装置に表示させる表示制御手段と、前記確認画面を視認するユーザの視線方向を測定する視線測定手段と、前記測定された結果と前記表示されている確認画面とに基づいて、前記ユーザの視線が前記認証領域に向いたことを検出すると、前記表示されている確認画面が前記ユーザによって確認されたことを判定する判定手段とを備え、前記許容範囲は、前記判定手段による判定結果に基づいて変更される情報処理装置が提供される。
本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ、前記決定手段は、前記算出された座標を内部に含む所定形状の空間を設定し、前記算出された座標に基づいて決められる領域は、当該座標の時間変化により移動した前記所定形状の空間が通過した領域であるプログラムが提供される。
また、本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ、前記許容範囲は、前記軌跡の第1の位置から当該許容範囲の外縁までの距離が前記軌跡の第2の位置からの前記距離とは異なるように定められているプログラムが提供される。
また、本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ、前記座標算出手段は、前記物体の複数箇所の座標を算出し、前記照合パターンは、前記座標が算出される物体の複数の箇所のそれぞれに対応して前記軌跡を定めているプログラムが提供される。
また、本発明の一実施形態によると、コンピュータを、所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と、認証領域を含む確認画面を表示装置に表示させる表示制御手段と、前記確認画面を視認するユーザの視線方向を測定する視線測定手段と、前記測定された結果と前記表示されている確認画面とに基づいて、前記ユーザの視線が前記認証領域に向いたことを検出すると、前記表示されている確認画面が前記ユーザによって確認されたことを判定する判定手段として機能させ、前記座標算出手段は、前記物体の複数箇所の座標を算出し、前記許容範囲は、前記判定手段による判定結果に基づいて変更されるプログラムが提供される。
本発明によれば、所定の特徴で動作する物体を用いることによる、装置に対する入力指示を精度よく認識することができる。
本発明の第1実施形態に係る電子機器1の構成を示す概略図である。 本発明の第1実施形態に係る情報処理装置10の機能構成を示すブロック図である。 本発明の第1実施形態に係る認識空間設定機能100の構成を示すブロック図である。 本発明の第1実施形態に係る走査部130における基準点Cを設定する方法の一例を説明する図である。 本発明の第1実施形態に係る認識空間設定部140において認識空間を設定する処理を示すフローチャートである。 本発明の第1実施形態に係る認識空間設定部140における走査線形状の特定方法の一例を説明する図である。 本発明の第1実施形態に係る認識空間設定部140における特徴位置の特定方法の一例を説明する図である。 本発明の第1実施形態に係る認識空間設定部140における特定形状の調整方法の一例を説明する図である。 本発明の第1実施形態に係る認識空間設定部140における認識空間の設定方法の一例を説明する図である。 本発明の第1実施形態に係るジェスチャ入力機能200の構成を示すブロック図である。 本発明の第1実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。 本発明の第1実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。 本発明の第1実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。 本発明の第1実施形態に係る決定部220における処理を示すフローチャートである。 本発明の第1実施形態に係る視線認証機能300の構成を示すブロック図である。 本発明の第1実施形態に係る表示装置14に表示される確認画面の例を説明する図である。 本発明第1の実施形態に係る判定部330における処理を示すフローチャートである。 本発明の第2実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3000の使用方法とを説明する図である。 本発明の第2実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。 本発明の第2実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。 本発明の第3実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3010の使用方法とを説明する図である。 本発明の第3実施形態に係る伸縮装置3010の図21とは異なる使用方法を説明する図である。 本発明の第3実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。 本発明の第4実施形態に係る発光装置3050の使用方法を説明する図である。 本発明の第4実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。 本発明の第4実施形態に係る発光装置3060の使用方法を説明する図である。 本発明の第5実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。 本発明の第5実施形態に係る挙動測定部210により算出される座標の位置に基づいて決められる登録領域を説明する図である。 本発明の第5実施形態に係る登録領域の詳細を説明する図である。 本発明の第5実施形態に係る照合パターンの例を説明する図である。 本発明の第5実施形態に係る登録領域と検出領域との比較を説明する図である。 本発明の第5実施形態に係る検出領域と照合パターンとの照合について説明する図である。 本発明の第5実施形態に係る検出領域と照合パターンとが一致しない場合の例について説明する図である。 本発明の第5実施形態に係る検出領域と照合パターンとが一致した場合の例について説明する図である。 本発明の第5実施形態に係る照合パターンの別の例を説明する図である。
以下、本発明の一実施形態に係る電子機器について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定されるものではない。
<第1実施形態>
本発明の第1実施形態に係る電子機器について、図面を参照しながら詳細に説明する。
[全体構成]
図1は、本発明の第1実施形態に係る電子機器1の構成を示す概略図である。電子機器1は、この例では、パーソナルコンピュータである。この電子機器1は、ユーザからの電子機器1に対する指示の入力を、キーボード13aまたはマウス13bによって受け付けるだけでなく、ユーザのジェスチャ(主に手を用いたジェスチャ)または視線により受け付けることができるナチュラルインターフェイスを有する装置である。なお、電子機器1は、スマートフォン、携帯電話、テレビ、ゲーム機、セキュリティ装置など、ユーザの指示の入力を受け付けて、指示に応じた処理を実行する装置であればよい。
電子機器1は、情報処理装置10を有する。また、電子機器1は、操作部13(この例では、キーボード13aおよびマウス13b)、表示装置14、物体検知装置20および視線測定装置30を有する。これらの各構成は、情報処理装置10に有線または無線で接続されている。なお、物体検知装置20と視線測定装置30とが一体の装置として構成されるなど、一部の構成が一体の装置として構成されていてもよいし、全体の構成が一体の装置として構成されていてもよい。
情報処理装置10は、CPU(Central Processing Unit)11およびメモリ12を有する。CPU11は、メモリ12に記憶されているプログラムを実行することにより、後述する認識空間設定機能100、ジェスチャ入力機能200、視線認証機能300(図2参照)など、様々な機能を実現する。CPU11によって実現される様々な機能により、電子機器1の各構成が制御される。
操作部13は、ユーザによる操作を受け付けて、受け付けられた操作に応じた信号をCPU11に出力する。表示装置14は、CPU11の制御により画面の表示態様が制御される。
物体検知装置20は、パターン投影方式により、物体を検知して、その物体の形状を3次元で測定し、測定した結果を示す測定信号を出力する。物体検知装置20は、所定の検知範囲に存在する物体を検知する検知センサ21を有する。この例では、検知センサ21は、所定のパターン(ドットパターン、メッシュパターン等)で赤外光を照射する発光素子と、物体で反射することにより歪んだパターンの赤外光を受光して受光信号を出力する赤外光用イメージセンサとを有する深度センサである。物体検知装置20は、赤外光用イメージセンサから出力される受光信号を用いて、測定信号を出力する。したがって、測定信号は、検知センサ21から見た場合の物体の形状を反映している。
この例では、物体検知装置20における物体の検知にはパターン投影方式を用いていたが、レーザ干渉計等で用いられるTOF(Time of Flight)方式を用いてもよいし、可視光用イメージセンサ等で撮影した結果得られる画像データを解析して検出する方式を用いてもよい。また、複数の方式を組み合わせて用いてもよい。いずれの方式であっても、物体検知装置20は、検知範囲に存在する物体の形状を3次元座標で測定した結果を示す測定信号を出力する。
なお、この例では、物体検知装置20は、図1に示すように、電子機器1を使用するユーザからみて表示装置14の左側に設置され、矢印A1方向に検出センサ21が向けられている。そのため、ユーザの左手側から右手側に向けて赤外光が照射されて、電子機器1を使用するユーザと表示装置14との間の空間およびその周辺の空間が検知範囲となる。そのため、物体検知装置20の位置および検知センサ21の向きは、ユーザの右手を物体として検知するのに適した配置となっている。なお、この物体検知装置20の配置は一例であって、この配置に限定されるものではなく、検知すべき物体に応じて決められればよい。
視線測定装置30は、ユーザの視線方向を測定するための撮影をする装置である。視線測定装置30は、プルキニエ像を取得するためにユーザの眼に向けて赤外光を照射する発光素子と、ユーザの眼を含む領域を撮影するイメージセンサとを有する視線センサ31を有し、イメージセンサによる撮影結果を示す撮影信号を情報処理装置10に出力する。この撮影信号は、情報処理装置10において、ユーザの視線方向を測定するために用いられる。この例では、視線測定装置30は、図1に示すように表示装置14の上部に取り付けられている。
なお、視線方向の測定には、この例では、プルキニエ像を用いる角膜反射法により視線方向を測定する公知の方法を用いるが、強膜トラッカー法、EOG(Electro-oculography)法、サーチコイル法など他の公知の方法を用いてもよい。他の方法を用いる場合、視線測定装置30においては、視線方向の測定に用いる方法に応じた構成で、ユーザの視線の情報を取得するようにすればよい。
[情報処理装置10の機能構成]
図2は、本発明の第1実施形態に係る情報処理装置10の機能構成を示すブロック図である。情報処理装置10は、認識空間設定機能100、ジェスチャ入力機能200、視線認証判定機能300、検知部500、および実行部700を有する。
検知部500は、物体検知装置20から出力される測定信号に基づいて、検知した物体に応じた検知データを出力する。検知データは、測定信号から検知範囲において検知された物体の形状(例えば輪郭)を認識可能なデータであれば、どのようなデータであってもよい。また、検知データは、物体の形状の概略(例えば、物体の軸など)を示すデータが含まれていてもよい。なお、検知部500は、物体検知装置20に含まれていてもよい。
認識空間設定機能100は、検知部500からの検知データに基づいて、上述した検知範囲に存在する物体の一端部の位置を認識して、その周囲に認識空間を設定する機能を有する。この例では、物体は、ユーザの手および腕であり、物体の一端部とは手(指を含む)の部分を意味する。以下の説明では、物体は、ユーザの手および腕であるものとする。認識空間とは、検知範囲における手の周囲に設定され、この手の動きに注目してジェスチャを認識するために設定される。
ジェスチャ入力機能200は、検知部500からの検知データに基づいて、認識空間における手(特に指)の動きまたは形状をジェスチャとして認識し、ジェスチャに対応する指示を装置に対して入力された指示として決定する機能を有する。また、この例では、操作部13への操作に基づいて装置に対して入力された指示を決定する機能も有している。
視線認証判定機能300は、視線測定装置30からの測定信号に基づいて、ユーザの視線方向を測定し、その視線が表示装置14に表示された所定の領域を向いているかどうかを判定する機能を有している。なお、認識空間設定機能100、ジェスチャ入力機能200および視線認証判定機能300の詳細については後述する。
実行部700は、ジェスチャ入力機能200および視線認証判定機能300の処理により決定された指示に基づく処理を実行して、電子機器1の動作を制御する。このとき、ジェスチャ入力機能200および視線認証判定機能300における処理の結果に応じて、指示に基づく処理が実行されなかったり、処理内容が変更されたりする場合もある。
[認識空間設定機能100]
図3は、本発明の第1実施形態に係る認識空間設定機能100の構成を示すブロック図である。認識空間設定機能100は、領域特定部110、基準点設定部120、操作部130および認識空間設定部140の各機能を用いて実現される。以下に詳述する認識空間設定機能100を用いた処理については、この例では、ユーザによる操作部13への開始指示が入力されると実行される。なお、この処理は、一定間隔で実行されてもよいし、予め決められたスケジュールにしたがって実行されてもよいし、検知範囲において手などの予め決められた物体が検知されると実行されてもよい。
領域特定部110は、検知部500から出力される検知データに基づいて、検知範囲において検知された物体の輪郭から、手および腕の領域(以下、物体領域という)を特定する。この例では、腕の伸びる方向に沿った軸線L(図4参照)についても特定する。
基準点設定部120は、特定された物体領域に基づいて、後述する走査の開始点となる基準点Cを、図4に示すようにして設定する。
図4は、本発明の第1実施形態に係る走査部130における基準点Cを設定する方法の一例を説明する図である。図4に示す中心点Pは、検知範囲全体における中心の位置を示している。基準点設定部120は、中心点Pから鉛直方向に線を伸ばし、軸線Lとの交点を基準点Cとして設定する。なお、基準点Cは、軸線L上の中心点Pから最も近い点としてもよいし、また、軸線Lまたは中心点Pを用いない方法を含めて他の方法で設定されてもよいが、物体領域(手1000および腕2000)に設定されることが望ましく、物体領域から指を除いた領域に設定されることがさらに望ましい。
図3に戻って説明を続ける。走査部130は、基準点Cを囲む走査線SLを設定し、走査線SLが基準点Cから拡がるようにして、検知範囲を走査する(図6参照)。走査線SLの形状は、この例では円形であるが、楕円形、矩形など、基準点Cを囲む形状であれば、どのような形状であってもよい。
認識空間設定部140は、走査線SLと物体領域とが重なる部分が、走査線SLの一部かつ1つの連続した線となる条件(以下、特定条件という)を満たすときの走査線SLの形状に基づいて、認識空間を設定する。この認識空間を設定するための方法について、以下、図5から図10を用いて具体的に説明する。
図5は、本発明の第1実施形態に係る認識空間設定部140において認識空間を設定する処理を示すフローチャートである。まず、認識空間設定部140は、走査線SLと物体領域(手1000および腕2000)との重なる部分(以下、重畳部分という)が特定条件を満たすか否かを判定する(ステップS110)。特定条件を満たさない場合(ステップS110;No)には、この判定が続いて行われる。そのため、この判定は、特定条件を満たすと判定される(ステップS110;Yes)まで、走査部130による走査線SLの拡大に伴って、一定間隔で実行されることになる。頂上部分が特定条件を満たす場合(ステップS110;Yes)には、認識空間設定部140は、特定条件を満たす走査線SLの形状を特定する(ステップS120)。以下、特定された走査線SLの形状を特定形状という。ステップS110、S120の処理について、図6を用いて具体的に説明する。
図6は、本発明の第1実施形態に係る認識空間設定部140における走査線形状の特定方法の一例を説明する図である。走査線SL(1)、SL(2)、SL(3)は、基準点Cから拡がる走査線SLを示している。図6においては、走査線SL(1)、SL(2)、SL(3)は破線で示され、そのうち重畳部分は太い実線で示されている。走査線SL(3)まで拡がると、走査線SL(3)は物体領域のうち腕2000の部分だけ重畳することになる。すなわち、重畳部分LO(3)は特定条件を満たすことになり、認識空間設定部140は、走査線SL(3)の形状を特定形状として特定する。
なお、特定条件を満たすかどうかについては、この方法に限らず、他の方法を用いてもよい。例えば、走査線SLと物体領域の輪郭部分との交点の数を抽出し、交点が2点になった場合になど、間接的に特定条件を満たすかどうか判定してもよい。このように、特定条件を満たすかどうかを判定するための方法は、重畳部分の状態を直接的に判定するだけでなく間接的に判定する方法も含む。
図5に戻って説明を続ける。続いて、認識空間設定部140は、特徴位置を特定する(ステップS130)。この例では、特徴位置は手1000と腕2000との間の手首の位置である。特徴位置の特定方法の一例について、図7を用いて説明する。
図7は、本発明の第1実施形態に係る認識空間設定部140における特徴位置の特定方法の一例を説明する図である。認識空間設定部140は、特定形状(走査線)SL(3)を軸線Lに沿って平行移動させる。この例では、SL(3)、SL(4)、SL(5)の順に変化させる。この平行移動に伴い、重畳部分LOがLO(3)、LO(4)、LO(5)の順で変化し、重畳部分LOの長さが変化する。認識空間設定部140は、重畳部分LOの長さの変化を算出し、その長さが急激に変化する(例えば、長さの変化量が予め決められた閾値を超えた場合など)部分を手首(特徴位置)として特定する。図7に示す例では、重畳部分LO(4)に相当する位置を特徴位置として特定する。
なお、上述したように、重畳部分LOを、走査線SLと物体領域の輪郭部分との2つの交点により認識する場合には、重畳部分LOの長さに対応して2つの交点間の距離を用いればよい。
図5に戻って説明を続ける。続いて、認識空間設定部140は、特徴位置を特定すると、特定条件を満たす範囲で、特徴位置を基準とした特定形状の調整を行う(ステップS140)。特定形状の調整方法の一例について、図8を用いて説明する。
図8は、本発明の第1実施形態に係る認識空間設定部140における特定形状の調整方法の一例を説明する図である。この例では、特定形状(走査線)SL(4)と軸線Lとの交点のうち、特徴位置側の交点D1を固定して、特定形状の直径Rを調整する。このとき、特定形状は、特定条件を満たす範囲(所定のマージンを設けてもよい)において、直径Rが最小になるように調整される。図8に示す例では、特定形状SL(4)は、軸線Lとの交点D1、D2を結ぶ直径Rの特定形状SL(6)に調整される。
直径Rが最小になるように調整するときには、例えば、以下の方法で行えばよい。まず、交点D1を固定して、特定条件を満たさなくなる(例えば、特定形状が手1000の指の部分と重なる状態)まで特定形状を小さくする。そして、特定条件を満たさなくなる直前の大きさ(例えば、特定形状が手1000の指の部分と重ならない状態)に特定形状大きさを調整すればよい。なお、この調整の方法は一例であって、特定条件を満たす範囲で、特徴位置を基準とした調整がなされれば、別の方法であってもよい。
図5に戻って説明を続ける。続いて、認識空間設定部140は、調整後の特定形状に基づいて、認識空間を設定する(ステップS150)。認識空間の設定方法の一例について、図9を用いて説明する。
図9は、本発明の第1実施形態に係る認識空間設定部140における認識空間の設定方法の一例を説明する図である。この例では、認識空間は、交点D1を中心とし、調整後の特定形状SL(6)の直径Rを半径とする球RAとして設定される。なお、マージンを考慮して、この半径はRでなくR×(1+α)(ここでαは誤差許容割合を表す正の値)にしてもよい。また、認識空間は球でなくてもよく、例えば、楕円体、直方体、半球など、様々な形状にしてもよい。いずれの場合であっても、調整後の特定形状SL(6)(例えば、直径)に基づいて決められればよく、特徴位置(手首)を固定した状態で物体の一端部側(手1000)が可動する範囲を含むようになっていることが望ましい。
ここで、手1000を動かしてジェスチャをする場合、手1000は、手首を中心にして動く。そのため、手首を特徴位置として、その近傍に認識空間の中心を設定することにより、手1000がどのように動いても、手1000の挙動を測定することができる。また、手1000以外の周囲の動きの影響により誤認識を少なくすることができる。このようにして設定された認識空間は、ジェスチャ入力機能200(挙動測定部210)において用いられる。
なお、手1000は腕側に曲げられる限界が存在する。そのため、認識空間の球RAの中心は、D1とするのではなく、D1より指先側(D2側)に移動させた点としてもよい。この中心は、調整後の特定形状SL(6)と物体領域の輪郭との2つの交点の中点としてもよい。このように中心がD1でないときの半径は、この中心からD2までの距離としてもよい。
[ジェスチャ入力機能200]
図10は、本発明の第1実施形態に係るジェスチャ入力機能200の構成を示すブロック図である。ジェスチャ入力機能200は、挙動測定部210および決定部220の各機能を用いて実現される。
挙動測定部210は、検知部500から出力される検知データに基づいて、認識空間における物体の少なくとも一部の挙動を測定する。この例では、挙動測定部210は、物体の少なくとも一部(この例では5本の指の先端部)の座標を算出する座標算出手段として機能する。なお、座標が算出される指は、この例では5本の指全てであるが、一部の指であってもよいし、1本の指のみであってもよい。
このとき、挙動測定部210は、検知データに含まれる情報のうち、認識空間における情報を抽出して座標の算出をすればよい。そのため、情報処理の負荷を少なくすることができ、また、座標の算出における分解能を向上させることもできる。より精度を向上させるため、検知範囲を認識空間近傍に絞り込むように物体検知装置20の光学系(レンズ倍率など)を調整してもよいし、認識空間近傍において検知センサ21が照射するパターンの密度(ドットパターンの密度など)を高めてもよい。
図11は、本発明の第1実施形態に係る挙動測定部210により算出される座標の位置を説明する図である。挙動測定部210は、手1000の親指1001の先端の座標A、人差し指1002の先端の座標B、中指1003の先端の座標C、薬指1004の先端の座標D、小指1005の先端の座標Eを算出する。挙動測定部210は、各指の位置の変化に追従して、所定間隔で座標を算出し続ける。なお、座標の原点については、検知範囲の特定の位置としてもよいし、認識空間の特定の位置(球RAの中心など)としてもよいし、手1000のいずれかの位置(例えばいずれかの指の先端)の座標を原点としてもよい。例えば、親指の先端の座標を原点とする場合には、他の指の座標は、親指を基準とした相対的な座標として算出されることになる。
図10に戻って説明を続ける。決定部220は、挙動測定部210において算出された座標(以下、算出座標という)に基づいて、ユーザの装置に対する指示を決定する。この例では、決定部220は、ジェスチャの種類と指示の種類とを対応付けた照合用テーブル、および算出座標に基づいて、ユーザからの装置に対する指示を決定する。指示には、例えば、OK、NGなどの判断を入力する指示の他、特定の処理(メニュー画面の呼び出し、プログラムの実行、ページ切り替えなど)を行うための指示などがある。なお、後述するように、決定部220は、視線認証判定機能300における判定結果などにより、決定する指示が変更されたり、指示の決定が行われなかったりする場合もある。また、決定部220は、操作部13への操作に基づいて指示を決定する場合もある。
図12は、本発明の第1実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。図12に示すように照合用テーブルは、ジェスチャの種類と指示の種類とが対応付けられている。図12に示す例では、ジェスチャAと指示aとが対応付けられ、ジェスチャBと指示bが対応付けられ、ジェスチャAからジェスチャBに変化する場合として指示cが対応付けられている。
図13は、本発明の第1実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。この例では、ジェスチャAについては、図13(a)に示すジェスチャであり、そのジェスチャAの定義のため各指の算出座標の相対関係が図示のとおり決められている。すなわち、ジェスチャAは、座標AからEが縦に並んだような形状として定義されている。
一方、ジェスチャBについては、図13(b)に示すジェスチャであり、そのジェスチャBの定義のため各指の算出座標の相対関係が図示のとおり決められている。すなわち、ジェスチャBは、座標B、Cが情報に分離して横に並び、座標A、D、Eが座標B、Cの下方で集まった形状として定義されている。ジェスチャAからジェスチャBに変化する場合とは、図13(a)に示すジェスチャから図13(b)に示すジェスチャに変化させる動作をする場合を示している。
なお、ここでは、右手用のジェスチャを示して説明したが、左手用のジェスチャについても定義されていてもよい。いずれの手のジェスチャが適用されるかについては、上述した認識空間設定部140において特定された特徴位置と物体の一端部との位置関係(いずれが相対的に左側に存在するかなど)から決定してもよい。
図14は、本発明の第1実施形態に係る決定部220における処理を示すフローチャートである。決定部220は、各指に対応する算出座標の位置の変化から、各指に対応する算出座標の変化速度を算出し、最も動きの速い指の速度を変化速度Vfとする。なお、変化速度Vfは、各指の算出座標の変化速度に基づいて決められていればよく、各指の算出座標の変化速度の平均値などであってもよいし、特定の指の算出座標の変化速度であってもよい。
決定部220は、変化速度Vfは第1の速度V1(この例では30cm/秒)以上であるかを判定する(ステップS210)。変化速度Vfが第1の速度V1未満である場合(ステップS210;No)には、この判定が続いて行われる。変化速度Vfが第1の速度V1以上となる(ステップS210;Yes)と、決定部220は、変化速度Vfが第2の速度V2以上の状態で第1の時間T1を経過したかどうかを判定し(ステップS221)、経過していない場合(ステップS221;No)には、変化速度Vfが第2の速度V2未満まで減速したかを判定する(ステップS222)。なお、第2の速度V2は、第1の速度V1よりも遅い速度(この例では0.5cm/秒)である。具体的には、第2の速度V2は、静止状態とみなせる速度であることが望ましい。
変化速度Vfが第2の速度V2未満まで減速せず(ステップS222;No)に、第1の時間T1(この例では0.5秒)を経過した場合(ステップS221;Yes)には、ステップS210に戻る。
第1の時間T1を経過する前(ステップS221;No)に、変化速度Vfが第2の速度V2未満まで減速した場合(ステップS222;Yes)には、決定部220は、変化速度Vfが第2の速度V2未満の状態で第2の時間T2(この例では1秒)を経過したかどうかを判定する(ステップS223)。第2の時間T2を経過していない場合には、ステップS222に戻る。
変化速度Vfが第2の速度V2未満で第2の時間T2を経過した場合(ステップS223;Yes)には、各指の算出座標(第1座標)を記憶する(ステップS230)。その後、決定部220は、変化速度Vfが第1の速度V1以上であるかを判定する(ステップS240)。第1の速度V1未満(ステップS240;No)で第3の時間T3が経過した場合(ステップS250;Yes)には、決定部220は、ステップS230で記憶した第1座標と照合用テーブルのジェスチャの種類とを照合して、第1座標に対応する指示の種類を決定する(ステップS280)。そして、ステップS210に戻る。
一方、第3の時間T3(この例では1秒)が経過する前(ステップS250;No)に、変化速度Vfが第1の速度V1以上になった場合(ステップS240;Yes)には、ステップS261に進む。ステップS261からステップS263については、ステップS221からステップS223までの処理と同様であるため説明を省略する。
変化速度Vfが第2の速度V2未満で第2の時間T2を経過した場合(ステップS263;Yes)には、各指の算出座標(第2座標)を記憶する(ステップS270)。そして、決定部220は、ステップS230で記憶した第1座標からステップS270で記憶した第2座標への変化と、照合用テーブルのジェスチャの種類とを照合して、この変化に対応する指示の種類を決定する(ステップS280)。そして、ステップS210に戻る。このように決定された指示により実行部700が実行される。なお、ステップS280において決定された指示が、ジェスチャ入力を終了する指示である場合には、ステップS210に戻らずに終了してもよい。また、ジェスチャ入力を終了する指示は、ユーザによる操作部13への操作によって行われてもよいし、検知範囲に一定期間にわたって手が検知されなくなった時に行われてもよい。
決定部220は、上述のフローで処理をすることにより、ユーザの指の動きが一定速度以上で動いてから、一定期間にわたってほぼ静止した状態で場合に、ジェスチャとして認識する。本発明者は、ユーザがジェスチャ入力をしようとする意図があるときには、指を早く動かして意図するジェスチャに応じた状態で指をしばらく止めるという動作を行う一方、ジェスチャ入力の意図がない場合または入力の開始をするまでは、指の動きが遅いことに着目した。
例えば、手を広げた状態をジェスチャとして認識させる場合を想定すると、一般に、ユーザは、手をゆっくりとつぼめた後、急激に広げる動作をすることが多い。例えば、以下の(1)から(3)に示す流れになる。
(1)ジェスチャ入力を意図するまでは、手(指)の動きが遅い。したがって、ジェスチャ認識の対象外となる。
(2)ジェスチャを開始する準備として、手をつぼめるまでの動きは、手(指)の動きが遅い、または、手をつぼめた後の静止時間がほとんどない。したがって、ジェスチャ認識の対象外となる。
(3)ジェスチャとして認識させるために、手を広げる動きは、手(指)の動きが速く、手を広げた後の静止時間が存在する。したがって、ジェスチャ認識の対象となる。
[視線認証判定機能300]
図15は、本発明の第1実施形態に係る視線認証機能300の構成を示すブロック図である。視線認証判定機能300は、視線測定部310、表示制御部320および判定部330の各機能を用いて実現される。
視線測定部310は、視線測定装置30から出力される撮影信号を用いて、ユーザの視線方向を測定し、ユーザの視線が表示装置14のどの部分に向いているかを算出する。視線方向の測定には、上述したとおり、プルキニエ像を用いる角膜反射法により視線方向を測定する公知の方法を用いるが、他の公知の方法を用いてもよい。
表示制御部320は、表示装置14の表示を制御する機能を有し、認証領域を含む確認画面を表示装置14に表示させる。
図16は、本発明の第1実施形態に係る表示装置14に表示される確認画面の例を説明する図である。確認画面には、少なくとも1つの認証領域が設けられ、図16に示す例では、認証領域W1、W2、W3が設けられている。また、VPは、視線測定部310の算出結果に基づいて得られるユーザの視線が向いている表示装置14上の位置(以下、視線位置VPという)を示している。この視線位置VPは表示装置14に表示されてもよいし、表示されなくてもよい。
確認画面とは、銀行などにおいて行われる業務上確認が必要な画面、ソフトウエアの利用規約を表示する画面など、ユーザが確認すべき内容として表示装置14に表示される画面である。確認すべき項目、特に重要な項目など、ユーザが視認するべき項目については、予め設定された認証領域に表示される。図16に示すように認証領域が複数存在する場合には、ユーザが視認すべき順番(認証順)が決められている。これは、認証領域に対応付けて予め決められていてもよいし、表示装置14における認証領域の位置関係(画面の上であるほど早い順番など)に基づいて決められてもよい。
この例では、認証領域W1、W2、W3の順に認証順が1番目、2番目、3番目として決められている。図16に示す例では、認証領域W1には、2行の横書きの文字列が表示され、認証領域W2には、認証領域W1よりは文字数が少ないものの2行の横書きの文字列が表示され、認証領域W3には、1行の横書きの文字列が表示されている。なお、認証領域は、表示装置14の画面全体として1つの領域であってもよい。
図15に戻って説明を続ける。判定部330は、視線位置VPと認証領域との関係に基づいて、ユーザが確認画面を確認したかどうかを判定する。
図17は、本発明の第1実施形態に係る判定部330における処理を示すフローチャートである。まず、判定部330は、視線位置VPが最初の認証領域(図16の例では認証領域W1)に存在(所定のマージンを許容してもよい)するかどうかの判定を続ける(ステップS310;No)。視線位置VPが最初の認証領域に存在することを検出する(ステップS310;Yes)と、判定部330は、次の認証順になっている認証領域が存在するかどうかを判定する(ステップS320)。
次の認証順になっている認証領域が存在する場合(ステップS320;Yes)には、判定部330は、視線位置VPが次の認証領域に存在するかどうかの判定を続ける(ステップS30;No)。なお、所定時間経過しても視線位置VPが次の認証領域に存在することを検出できない場合には、認証領域を視認する一連の処理が中断されたものとみなし、これまでの処理をリセットし、ステップS310から再び処理を開始するようにしてもよい。
視線位置VPが次の認証領域に存在することを検出する(ステップS30;Yes)と、再びステップS320の処理に戻る。次の認証順になっている認証領域が存在しない場合(ステップS320;No)には、判定部330は、ユーザによって確認画面が確認されたことを判定(ステップS340)して、処理を終了する。以下、この判定をユーザ確認判定という。
ここで、判定部330は、視線位置VPが移動するときに認証領域の一部を通過することを条件に、視線位置VPが認証領域に存在することを判定すればよいが、他の条件により判定してもよい。以下、判定を行うために取り得る様々な条件について、以下の(a)から(c)として例示する。
(a)視線位置VPが所定時間連続して認証領域に留まっていること。なお、所定時間は、認証領域に表示されている文字の量に応じて、認証領域ごとに決められていてもよい。
(b)視線位置VPが認証領域で所定時間静止していること。なお、所定時間は、認証領域に表示されている文字の量に応じて、認証領域ごとに決められていてもよい。
(c)視線位置VPが認証領域に表示されている文字列の向き(予め決められた範囲でずれてもよい)に沿って移動したと検出されたこと。すなわち、横書きであれば概ね水平方向に沿って視線位置VPが移動し、縦書きであれば概ね鉛直方向に沿って視線位置VPが移動すること。なお、複数行にわたって文字列が表示されている場合には、視線位置VPが文字列に沿って移動したことが認証領域において、少なくとも文字列の行数分の回数、検出されたことを条件としてもよい。また、文字列の向きにそって移動する量は文字列の長さに応じて決められていてもよい。
図15に戻って説明を続ける。上述の判定部330における判定結果は、決定部220および実行部700における処理に反映される。例えば、実行部700における処理に反映される場合には、実行部700は、ユーザ確認判定がされると、確認画面に対応して決められた処理(次の確認画面への遷移など)を実行するようにしてもよい。また、ユーザ確認判定がなされるまで、決定部220によって決定された指示に基づく処理を実行しないようにしてもよい。
決定部220における処理に反映される場合には、決定部220は、ユーザ確認判定を条件として、装置に対する指示を決定してもよい。これにより、ユーザ確認判定がされない状態では、ユーザによる指示の入力が拒否される。また、ユーザ確認判定の有無に応じて、決定する指示の種類を変更してもよい。例えば、エラー画面に遷移したり、エラーを示すポップアップ表示をしたり、ユーザがどの認証領域を見ていないかの表示をしたりする指示に変更されてもよい。
このように、ユーザが確認画面における認証領域を視認したかどうかを判定して、その判定結果を反映した処理を実行することにより、ユーザが確認すべき文章等の内容を読まずに、内容を確認したことを示す操作をして先に進んでしまうことがないようにすることができる。このとき、確認を要する認証領域が複数ある場合には、所定の順序でユーザが視認する必要がある場合が多い。しかしながら、ユーザがその順序とは異なる順序で視認した場合には、単に視線が認証領域に向いているだけで、内容を確認していない場合が考えられる。このような場合には、ユーザ確認判定をしないようにすることができるため、ユーザが内容を確認せずに先に進んでしまわないようにすることができる。
[判定部330における別の処理例]
判定部330は、上述のように視線位置VPが認証領域に所定の順番で存在したことでユーザ確認判定をしていたが、視線位置VPが認証領域に存在している間のみユーザ確認判定をするようにしてもよい。すなわち、判定部330は、ユーザの視線が認証領域を向いていることを検出している(ユーザが認証領域を視認している)ときに、ユーザ確認判定をする。
このような場合には、決定部220は、ユーザ確認判定がされている間(ユーザが認証領域を視認している間)にのみ、装置に対する指示を決定し、それ以外は決定をしないようにしてもよい。これにより、ユーザは、認証領域を視認しているときにのみ、ユーザはジェスチャまたは操作部13への操作により、装置に対する指示を入力することができるようになる。なお、一部のジェスチャまたは操作部13への操作については、ユーザ確認判定にかかわらず、装置に対する指示の決定がされるようにしてもよい。
また、ユーザが認証領域を視認して一定時間においては、装置に対する指示を入力することができるようになっていてもよい。この場合には、判定部330は、視線位置VPが認証領域に存在している間に加えて、認証領域に存在しなくなった後の一定時間についてもユーザ確認判定をするようにすればよい。このようにすると、ユーザが認証領域を視認した後、操作部13を見ながら操作しても、装置に対する指示の入力をすることができる。
認証領域が一画面において複数存在する場合には、決定部220は、ユーザがそれぞれの認証領域を視認してユーザ確認判定がされているときに、入力されたジェスチャまたは操作部13への操作に基づいて、装置に対する指示を決定するようにすればよい。ここで、ユーザから操作の入力を受け付ける操作部13と、ジェスチャの入力を受け付ける挙動測定部210とは、ユーザからの指示の入力を受け付ける入力受付手段として考えることもできる。
なお、視認されている認証領域と、入力されたジェスチャまたは操作部13への操作との関係が、予め決められたものと対応する場合に、装置に対する指示が決定されるようにしてもよい。例えば、ユーザが認証領域W1を視認しながらジェスチャAを行い、認証領域W2を視認しながらジェスチャBを行い、認証領域W3を視認しながらジェスチャAを行うという流れであった場合に、この流れに応じて装置に対する指示が決定されるようにしてもよい。
このように、ユーザの視線が認証領域を向いているときに、決定部200による装置に対する指示が決定されることで、ユーザがよそ見をした状態で装置に対する指示を入力することを防ぐことができる。
<第2実施形態>
本発明の第2実施形態においては、ジェスチャ入力機能200における処理が第1実施形態とは異なっている。第2実施形態においては、ユーザの手1000の指には長さを調整可能な伸縮装置が取り付けられた状態で、ジェスチャが入力される。
図18は、本発明の第2実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3000の使用方法とを説明する図である。伸縮装置3000は、手1000の指先に取り付けられる。図18に示す例では、人差し指に取り付けられている。この伸縮装置3000は伸縮部3100が設けられ、伸縮装置3000に対する所定の操作により伸縮部3100の長さが変化する。
例えば、伸縮部3100の長さを伸縮させて多段階に変化させるときには、伸縮部3100を縮める方向に押される操作、スイッチ等を操作、手1000を振るなどして振動を与えて操作など、様々な操作が適用できる。このとき、振動を与えて伸縮させる構成である場合には、振動の強さにより伸縮部3100の長さが変化するようにしてもよいし、一度の振動で一段階の伸縮をして振動を与えるたびに伸縮部3100の長さが変化するようにしてもよい。この例では、伸縮部3100は、5段階に長さが変化する。
図18(a)は伸縮部3100が最も縮んだ状態を示し、図18(b)は伸縮部3100が最も伸びた状態を示している。人差し指には伸縮装置3000が取り付けられているため、挙動測定部210は、物体における突起先端部を認識して座標を算出するようにすれば、伸縮部3100の先端部を人差し指の先端部として認識して、座標Bとして算出する。したがって、ユーザが同じジェスチャをした場合であっても、図18(a)に示すように伸縮部3100が最も縮んだ状態の場合と、図18(b)に示すように伸縮部3100が最も伸びた状態の場合とでは、座標A、C、D、Eが同じであっても、座標Bについては異なることになる。
図19は、本発明の第2実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。第2実施形態における照合用テーブルは、図12に示す第1実施形態における照合用テーブルと概ね同じであるが、一部が異なっている。例えば、第2実施形態では、ジェスチャBにおいては、伸縮部3100の伸縮の段階(この例では5段階)に応じて、B1〜B5までジェスチャ種類が設定され、それぞれ異なる指示b1〜b5が対応付けられている。
図20は、本発明の第2実施形態に係る照合用テーブルに定義されるジェスチャの例を説明する図である。この例では、図20(a)はジェスチャB1(伸縮部3100を最も縮めた状態)を示し、図20(b)はジェスチャB5(伸縮部3100を最も伸ばした状態)を示す。いずれのジェスチャにおいてもユーザにとっては同じジェスチャである。したがって、図20に示すように、各座標のうち、座標A、C、D、Eのそれぞれについては、いずれのジェスチャでも共通の座標であるが、伸縮装置3000を取り付けられている人差し指の座標Bについては、それぞれのジェスチャで異なる座標になる。
このようにすると、ユーザにとっては同じジェスチャであっても、伸縮部3100の伸縮の段階に応じた数で異なるジェスチャとして認識させることができる。この例で示した5段階の伸縮が可能な場合には、ユーザにとって1つの同じジェスチャであっても、5通りの指示が可能である。また、各指に、5段階の伸縮が可能な伸縮装置3000を取り付ければ、決定部200は、ユーザが同じジェスチャをしたとしても、5本の指×5段階で25通りの種類の指示を決定することができる。
<第3実施形態>
本発明の第3実施形態においては、第2実施形態で用いた伸縮装置3000を座標の算出対象である指に取り付けるのではなく、座標の算出対象ではない部分に取り付ける伸縮装置3010について説明する。
図21は、本発明の第3実施形態に係る挙動測定部210により算出される座標の位置と伸縮装置3010の使用方法とを説明する図である。図21に示すように、伸縮部3110を有する伸縮装置3010は、支持部材3300を介してリストバンド3200に支持されている。リストバンド3200がユーザの手首に取り付けられると、図21に示すように、伸縮部3110が手のひら部分に位置した状態となる。
この例においては、伸縮部3110が最も縮んだ状態(図21(a))から、手のひらから外側(図21においては下方)に向けて伸びる。図21(b)は、最も伸びた状態である。図21に示すように、挙動測定部210は、各指の先端部の座標を算出するとともに、この例では伸縮装置3010の伸縮部3110の先端部の座標Zについてもさらに算出する。この座標Zは、手1000における特定の位置(例えば、上述した交点D1など)を基準として算出して、手1000全体の動きにかかわらず同じ座標が得られることが望ましい。なお、挙動測定部210は、指の先端部の座標を算出するときのアルゴリズムとは別に、伸縮装置3010の形状のような特定の形状を検出するアルゴリズムを用いて伸縮部3110の先端部の座標を算出してもよい。
なお、伸縮装置3010は、図21のように伸縮部3110が伸びるように取り付けられるだけではなく、別の方向に伸びるように取り付けられてもよい。
図22は、本発明の第3実施形態に係る伸縮装置3010の図21とは異なる使用方法を説明する図である。図21に示す例とは異なる場合として、例えば、図22に示すように、伸縮部3110が手のひらに対して垂直方向に伸びるようにしてもよい。この場合には、座標Zは、手のひらからの距離を示す値として算出されてもよい。
図23は、本発明の第3実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。第3実施形態における照合用テーブルは、図12に示す第1実施形態における照合用テーブルに加えて、座標Zが対応付けられている。照合用テーブルに規定された座標ZにおけるZ1、Z2、・・・は、伸縮部3110の伸縮の段階に対応している。すなわち、この例における照合用テーブルにおいては、ジェスチャの座標A〜Eおよび座標Zの組み合わせに対して、各指示が対応付けられている。
図23の照合用テーブルは、ジェスチャAが同じ(座標A〜Eが同じ)であっても伸縮部3110の伸縮の段階(座標Z)によって異なる指示となる。そのため、決定部200は、ユーザが同じジェスチャをしたとしても、伸縮部3110の伸縮の段階の数に応じた種類の指示を決定することができる。なお、第1実施形態のような照合用テーブルを複数用い、それぞれに座標Zの値を対応付けておいてもよい。この場合、決定部200は、座標Zの値に応じて、照合用テーブルを切り替えて用いるようにすればよい。例えば、銀行業務等においてジェスチャによる入力を用いるときに、複数の照合用テーブルの各々を業務の種類毎に対応させるとよい。このように、伸縮部3110の伸縮により業務の種類を切り替えることもできる。これに連動して表示装置14の表示を、切り替えられた業務の種類に対応した表示に切り替えてもよい。
<第4実施形態>
本発明の第4実施形態においては、第3実施形態のように伸縮する部分を有する伸縮装置3010を手1000に取り付けるのではなく、発光素子が設けられた発光装置を取り付ける場合について説明する。なお、この場合には、物体検知装置20において、発光素子からの発光を認識可能なイメージセンサを用い、挙動測定部210は、このイメージセンサからの出力に基づいて、発光素子からの発光色を特定する。
図24は、本発明の第4実施形態に係る発光装置3050の使用方法を説明する図である。第4実施形態においては、第3実施形態における伸縮装置3010に代えて、発光装置3050が取り付けられている。発光装置3050は、発光部3150が設けられている。発光部3150は、LEDなどの発光素子を有し、周囲に光を放射する。この例では、発光部3150は、ユーザの操作に応じて、赤色、緑色、青色をそれぞれ切り替えて発光する。ユーザの操作とは、伸縮装置3000、3010の場合と同様に、スイッチ等を操作、手1000を振るなどして振動を与えて操作など、様々な操作が適用できる。なお、発光部3150は、各色を組み合わせて中間色も発光されるようにしてもよいし、可視光以外が発光されるようにしてもよい。可視光以外の場合には、物体検知装置20において、その光を検出可能なイメージセンサを用いればよい。
図25は、本発明の第4実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。図12に示す第1実施形態における照合用テーブルに加えて、発光色が対応付けられている。照合用テーブルに規定された発光色における赤、緑、・・・は、発光部3150の発光色に対応している。すなわち、この例における照合用テーブルにおいては、ジェスチャの座標A〜Eおよび発光色の組み合わせに対して、各指示が対応付けられている。図25の照合用テーブルは、ジェスチャAが同じ(座標A〜Eが同じ)であっても発光部3110の発光色によって異なる指示となる。なお、第3実施形態でも記載したとおり、照合用テーブルを複数用い、それぞれに発光色を対応付けておいてもよい。
図26は、本発明の第4実施形態に係る発光装置3060の使用方法を説明する図である。上述の例では、リストバンド3200を用いて発光装置3050を手1000に取り付けていたが、図26に示すように、指に取り付けられるようにしたリング状の発光装置3060を用いてもよい。発光装置3060は、指の周囲方向に光を放射する発光部3160を有する。このとき、複数の指に発光装置3060を設けて、それぞれの色の組み合わせにより発光色を定義してもよい。
なお、発光部3150、3160は、発光強度の時間変化(発光パターン)を変化させてもよい。このようにすれば、挙動測定部210は、発光部3150、3160からの発光と他の光とを区別しやすくなり、発光色の誤認識を減らすことができる。また、発光パターンが変更できるようになっていれば、発光パターンが異なることでジェスチャが同じでも指示を異ならせることもできる。発光パターンによる変化を用いるときには、発光部3150、3160から放射される光は単色でもよい。このように、第4実施形態では、挙動測定部210は発光部3150、3160における発光状態を測定する発光状態測定手段としても機能し、この発光状態が異なることでジェスチャが同じでも指示を異ならせることができる。
<第5実施形態>
第5実施形態においては、上述した決定部200において、ジェスチャの変化、例えば、ユーザのジェスチャがジェスチャAからBに変化することの照合を行うときの照合の方法の一例について説明する。
図27は、本発明の第5実施形態に係る決定部220で用いられる照合用テーブルを説明する図である。この例では、ジェスチャの種類としては、ジェスチャA→Bといったように、特定のジェスチャから別のジェスチャに変化する場合(以下、照合パターンという)として決められて、装置に対する指示が対応付けられている。照合パターンは、理想的なジェスチャの変化における各指の軌跡、およびその軌跡からの許容範囲が定められている。まず、照合パターンにおける軌跡と許容範囲とが、登録されるときの一例を説明する。以下に説明する照合パターンを登録する処理については、CPU11により実行される。このため、CPU11は、照合パターンを登録する処理を実行する登録手段としても機能する。
図28は、本発明の第5実施形態に係る挙動測定部210により算出される座標の位置に基づいて決められる登録領域を説明する図である。まず、CPU11は、挙動測定部210により算出される手1000の各指の先端部の座標の位置に基づいて登録領域SA、SB、・・・SEを設定する。
図29は、本発明の第5実施形態に係る登録領域の詳細を説明する図である。この例では、人差し指の先端部に設定される登録領域SBを例として説明する。登録領域SBは、挙動測定部210により算出される人差し指の先端部の座標Bを中心LCBとし、許容長ARを半径とした球(球でなくてもよい)で定義される。許容長ARは、予め決められている。許容長ARは、各指に対応して決められていてもよいし、各指全てに対して共通に決められていてもよい。
図30は、本発明の第5実施形態に係る照合パターンの例を説明する図である。照合パターンは、特定のジェスチャから別のジェスチャ(例えば、ジェスチャAからジェスチャB)へ変化するときの軌跡TC及び許容長ARで定められる。図30においては、照合用テーブルに定められた各指に対応する照合パターンのうち、人差し指に対応して定められた照合パターンについて、軌跡TCと許容長ARとを模式的に表している。したがって、照合用テーブルに登録されている照合パターンについては、図30に示す照合パターンが各指に対応して決められている。なお、照合用テーブルには、全ての指に対応した照合パターンが登録されていなくてもよく、1つの指だけに対応した照合パターンが登録されていていもよい。
開始点TCsは、軌跡TCの開始位置であり、最初のジェスチャのときの中心LCBの位置を表している。終了点TCeは、軌跡TCの終了位置であり、別のジェスチャに変わったときの中心LCBの位置を表している。軌跡TCは、ジェスチャが変化するときの開始点TCsから終了点TCeに至る中心LCBの経路を表している。なお、ジェスチャA→B→Aと変化する場合など、一度別のジェスチャに変化してから元に戻るという場合など、開始点TCsから終了点TCeとがほぼ同じ場所になることもある。
図30に示すように、照合パターンは、指の先端部から一定範囲の登録領域が、ジェスチャの変化により移動して形成されたチューブ状の空間となる。この空間が許容範囲となる。軌跡TCの各位置から、許容範囲の外縁AEまでの距離は、許容長ARの長さに対応する。例えば、軌跡TCが直線であれば、外縁AEは半径ARの円柱の側面形状になる。
この例では、照合用テーブルにおける照合パターンについては、上述のようにしてユーザによる実際のジェスチャを用いて登録されるが、このように登録される場合に限らず、各パラメータが数値として入力されるなどして、別の方法で登録されてもよい。ユーザによる実際のジェスチャを用いて登録する場合には、ユーザごとに異なる照合用テーブルを用いるようにしてもよい。この場合には、電子機器1を操作するユーザを識別する手段を電子機器1に設けるようにすればよい。そして決定部200は、識別されたユーザに対応する照合用テーブルを用いるようにすればよい。
続いて、決定部200が照合用テーブルを用いて、ユーザによるジェスチャの入力と照合パターンとを照合する場合の例について説明する。決定部200が照合を行う場合には、上述した各指の先端部に対応した登録領域を用いるのではなく、登録領域より狭い範囲の検出領域を用いる。
図31は、本発明の第5実施形態に係る登録領域と検出領域との比較を説明する図である。この例では、人差し指の先端部に設定される検出領域CBを例として説明する。検出領域CBは、挙動測定部210により算出される人差し指の先端部の座標Bを中心LCBとし、検出長CRを半径とした球で定義される。検出長CRは、許容長ARより短い長さとして、予め決められている。検出長CRが許容長ARの半分程度であることが望ましい。検出長CRは、各指に対応して決められていてもよいし、各指全てに対して共通に決められていてもよい。決定部200は、このようにして決められた検出領域を用いて照合パターンとの照合を行う。
図32は、本発明の第5実施形態に係る検出領域と照合パターンとの照合について説明する図である。決定部200は、各指について、照合用テーブルに登録されている照合パターンと検出領域の時間変化とを比較して照合を行う。この検出領域は、各指の先端部に対応して算出された座標に基づいて決められているため、指が動いて算出された座標が時間変化すると、検出領域についても時間変化する。この照合は、以下のように行われる。なお、図32では、人差し指の先端部における検出領域CBを例として説明している。後述する図33および図34についても同様である。
まず、検出領域CBの時間変化により検出領域CBの通過した領域が、軌跡TC(開始点TCsから終了点TCeまで)をすべて含むこと、および許容長ARから定まる外縁AEより内部(許容範囲)に収まっていることの2条件を満たす照合パターンを、照合用テーブルから検索する。以下の説明において、この条件を満たす照合パターンを、検出領域と一致する照合パターンという。
図33は、本発明の第5実施形態に係る検出領域と照合パターンとが一致しない場合の例について説明する図である。図33に示すように、検出領域CBが軌跡TCを含まない状態になった場合であったり、検出領域CBの一部が許容範囲外(外縁AEよりも外側)に出てしまったりした場合には、検出領域CBは、照合パターンと一致しないものとなる。なお、図33に示すように、軌跡TCのうち検出領域CBが通過した部分については、通過部分TCDとして、破線で示している。図34についても同様である。
図34は、本発明の第5実施形態に係る検出領域と照合パターンとが一致した場合の例について説明する図である。図34に示すように、検出領域CBが、許容範囲内(外縁AEよりも内側)に収まった状態で、開始点TCsから終了点TCeまでの軌跡TCを通過した場合(軌跡TCがすべて通過部分TCDとなった場合)には、検出領域CBは、照合パターンと一致していることになる。決定部200は、全ての指についての検出領域が各指に対応する照合パターンと一致した場合には、その照合パターンに対応付けられている指示を、装置に対する指示として決定する。
なお、全ての指についての検出領域が照合パターンと一致していなくてもよく、例えば、予め決められた一部の指について照合パターンと一致をしているだけでもよい。また、検出領域と照合パターンとの一致は、必ずしも上記の2つの条件を満たした場合に限られない。例えば、検出領域が軌跡TCを通過しなかった部分があったとしても、その長さが予め決められた閾値以下であれば、通過したものとみなしてもよい。また、検出領域が許容範囲内に収まっている状態が全体の予め決められた割合以上であれば、許容範囲内に収まっていたものとみなしてもよい。このように、決定部200は、マージンを含んで照合を行うようにしてもよい。
なお、上述した照合パターンにおいては、許容長ARについては軌跡TCのどの位置でも同じ長さとして決められていたが、位置によって異なる長さとして決められていてもよい。
図35は、本発明の第5実施形態に係る照合パターンの別の例を説明する図である。図35に示す例では、開始点TCsから終了点TCeまでの中央近傍の位置では、軌跡TCから外縁AEまでの距離が許容長AR1となる一方、軌跡TCの開始点TCsまたは終了点TCeに近い位置では、軌跡TCから外縁AEまでの距離が許容長AR1より長い許容長AR2となっている。このように、軌跡TCにおける位置によって、許容長ARが異なるように定められた照合パターンが照合用テーブルに登録されていてもよい。また、軌跡TCが許容範囲の中心を通らないように定められた照合パターンが照合用テーブルに登録されていてもよい。
また、視線認証判定機能300におけるユーザ確認判定がされている場合とされていない場合とで許容長ARが異なるようにしてもよい。すなわち、判定部330における判定結果に応じて許容長ARが変更されるようにしてもよい。例えば、ユーザ確認判定がされている場合には、されていない場合に比べて許容長ARを長くするようにしてもよい。これとは逆に、判定部330における判定結果に応じて検出長CRが変更されるようにしてもよい。例えば、ユーザ確認判定がされている場合には、されていない場合に比べて検出長CRを短くするようにしてもよい。このようにすると、ユーザが認証領域を視認しているときには、許容長ARが長くなることで、検出領域と照合パターンとが一致しやすくなる。すなわち、ユーザによるジェスチャを認識するマージンが増加する。
<変形例>
以上、本発明の実施形態およびその実施例について説明したが、本発明は以下のように、様々な態様で実施可能である。
[変形例1]
上述した視線測定部310は、ユーザの視線方向を測定していたが、ユーザの両眼の視線方向を測定するなどして、さらに、ユーザの注視点(方向だけでなく距離を含む概念)を測定してもよい。この場合には、判定部330は、視線位置VPが認証領域に存在することの判定には、さらに注視点が表示装置14の画面平面上(所定のマージンを許容してもよい)に存在することを条件としてもよい。これは、例えば左眼の視線方向と右眼の視線方向との交点を空間上で求めて注視点として扱い、その交点が表示装置14の画面平面上に存在するか否かを判定すればよい。求めた交点がその画面平面上に存在しない場合として、例えばユーザから見て画面の奥側の位置にある場合(所定のマージンを許容するときには画面の奥側に予め決められた距離以上ずれている場合)には、判定部330は、視線方向が認証領域に存在したとしてもユーザ確認判定をしないようにすればよい。
[変形例2]
上述した認識空間設定機能100、ジェスチャ入力機能200および視線認証判定機能300は、情報処理装置10において同時に実現されている場合について説明したが、それぞれ独立して機能してもよい。
例えば、認識空間設定機能100において設定された認識空間は、ジェスチャ入力のために使われるだけでなく、画像認識の範囲を特定の範囲に限定したい場合など、他の用途にも用いることができる。また、ジェスチャ入力機能200については、認識空間が設定されていない状態においても、検知範囲全体または検知範囲のうち予め決められた範囲において、物体の挙動を測定するようにすればよい。例えば、腕全体の挙動を測定して、この挙動に基づいてユーザの装置に対する指示(腕の振りに応じた画面のスクロール指示など)を決定してもよい。
[変形例3]
第4実施形態においては、決定部200は、発光部3150の発光色に応じて、ユーザが同じジェスチャをしたとしても、異なる種類の指示を決定していたが、ユーザの操作部13への操作に応じて、異なる種類の指示を決定するようにしてもよい。例えば、キーボード13aのキーのいくつかに対応して照合用テーブルを設ける。そして、ユーザのキーボード13aへの第1のキーの入力があった後に次のキーが入力されるまでは、決定部200は、第1のキーに対応した照合用テーブルを用いて、装置に対する指示を決定するようにすればよい。なお、認識空間設定機能100を用いた処理の操作部13への開始指示の入力と上記キーの入力を兼ねてもよい。
1…電子機器、10…情報処理装置、11…CPU、12…メモリ、13…操作部、13a…キーボード、13b…マウス、14…表示装置、20…物体検知装置、21検知センサ、30…視線測定装置、31…視線センサ、100…認識空間設定機能、110…領域特定部、120…基準点設定部、130…走査部、140…認識空間設定部、200…ジェスチャ入力機能、210…挙動測定部、220…決定部、300…視線認証判定機能、310…視線測定部、320…表示制御部、330…判定部、500…検知部、700…実行部、1000…手、2000…腕、3000,3010…伸縮装置、3050,3060…発光装置、3100,3110…伸縮部、3150,3160…発光部、3200…リストバンド、3300…支持部材

Claims (15)

  1. 所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、
    前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と
    を備え
    前記決定手段は、前記算出された座標を内部に含む所定形状の空間を設定し、
    前記算出された座標に基づいて決められる領域は、当該座標の時間変化により移動した前記所定形状の空間が通過した領域である情報処理装置。
  2. 前記許容範囲は、前記軌跡の第1の位置から当該許容範囲の外縁までの距離が前記軌跡の第2の位置からの前記距離とは異なるように定められている請求項1に記載の情報処理装置。
  3. 所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、
    前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と
    を備え
    前記許容範囲は、前記軌跡の第1の位置から当該許容範囲の外縁までの距離が前記軌跡の第2の位置からの前記距離とは異なるように定められている情報処理装置。
  4. 前記座標算出手段は、前記物体の複数箇所の座標を算出し、
    前記照合パターンは、前記座標が算出される物体の複数の箇所のそれぞれに対応して前記軌跡を定めている請求項1乃至請求項3のいずれかに記載の情報処理装置。
  5. 所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、
    前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と
    を備え
    前記座標算出手段は、前記物体の複数箇所の座標を算出し、
    前記照合パターンは、前記座標が算出される物体の複数の箇所のそれぞれに対応して前記軌跡を定めている情報処理装置。
  6. 認証領域を含む確認画面を表示装置に表示させる表示制御手段と、
    前記確認画面を視認するユーザの視線方向を測定する視線測定手段と、
    前記測定された結果と前記表示されている確認画面とに基づいて、前記ユーザの視線が前記認証領域に向いたことを検出すると、前記表示されている確認画面が前記ユーザによって確認されたことを判定する判定手段とをさらに備え、
    前記許容範囲は、前記判定手段による判定結果に基づいて変更される請求項1乃至請求項5のいずれかに記載の情報処理装置。
  7. 所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段と、
    前記検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と
    認証領域を含む確認画面を表示装置に表示させる表示制御手段と、
    前記確認画面を視認するユーザの視線方向を測定する視線測定手段と、
    前記測定された結果と前記表示されている確認画面とに基づいて、前記ユーザの視線が前記認証領域に向いたことを検出すると、前記表示されている確認画面が前記ユーザによって確認されたことを判定する判定手段と
    を備え、
    前記許容範囲は、前記判定手段による判定結果に基づいて変更される情報処理装置。
  8. 前記決定手段は、前記照合パターンと前記装置に対する指示との対応関係を表す照合テーブルを用いて、前記算出された座標の時間変化に基づいて決められる領域が、前記照合パターンの前記軌跡を含み、かつ前記許容範囲に含まれる条件を満たす前記照合パターンを特定し、特定した照合パターンに対応する前記装置に対する指示を決定する請求項1乃至請求項8のいずれかに記載の情報処理装置。
  9. 前記算出された座標に基づいて、前記照合パターンを照合用テーブルに登録する登録手段をさらに備え、
    前記決定手段は、前記照合用テーブルに登録された照合パターンと、当該照合パターンの登録後に前記算出された座標の時間変化に基づいて決められる領域とを照合する請求項1乃至請求項8のいずれかに記載の情報処理装置。
  10. 前記検知データが示す検知範囲の一部を、認証空間として設定する認識空間設定手段をさらに備え、
    前記座標算出手段は、前記認証空間における前記物体の少なくとも1箇所の座標を算出し、
    前記軌跡は前記認証空間に含まれている請求項1乃至請求項9のいずれかに記載の情報処理装置。
  11. 請求項1乃至請求項10のいずれかに記載の情報処理装置と、
    前記決定された指示に基づく処理を実行する実行手段と
    を備える電子機器。
  12. コンピュータを、
    所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ
    前記決定手段は、前記算出された座標を内部に含む所定形状の空間を設定し、
    前記算出された座標に基づいて決められる領域は、当該座標の時間変化により移動した前記所定形状の空間が通過した領域であるプログラム。
  13. コンピュータを、
    所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ
    前記許容範囲は、前記軌跡の第1の位置から当該許容範囲の外縁までの距離が前記軌跡の第2の位置からの前記距離とは異なるように定められているプログラム。
  14. コンピュータを、
    所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段として機能させ
    前記座標算出手段は、前記物体の複数箇所の座標を算出し、
    前記照合パターンは、前記座標が算出される物体の複数の箇所のそれぞれに対応して前記軌跡を定めているプログラム。
  15. コンピュータを、
    所定の検知範囲に存在する物体を検知し、検知した物体に応じた検知データを出力する検知手段から出力される検知データに基づいて、前記物体の少なくとも1箇所の座標を算出する座標算出手段と、
    前記座標が算出される物体の箇所に対応して設定された軌跡および当該軌跡からの許容範囲を定めた照合パターンと前記算出された座標の時間変化に基づいて決められる領域とを照合し、照合結果に基づいて装置に対する指示を決定する決定手段と
    認証領域を含む確認画面を表示装置に表示させる表示制御手段と、
    前記確認画面を視認するユーザの視線方向を測定する視線測定手段と、
    前記測定された結果と前記表示されている確認画面とに基づいて、前記ユーザの視線が前記認証領域に向いたことを検出すると、前記表示されている確認画面が前記ユーザによって確認されたことを判定する判定手段として機能させ
    前記座標算出手段は、前記物体の複数箇所の座標を算出し、
    前記許容範囲は、前記判定手段による判定結果に基づいて変更されるプログラム。
JP2012114530A 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム Expired - Fee Related JP5148004B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012114530A JP5148004B1 (ja) 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012101258 2012-04-26
JP2012101258 2012-04-26
JP2012114530A JP5148004B1 (ja) 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012229326A Division JP5364194B2 (ja) 2012-04-26 2012-10-16 情報処理装置、電子機器およびプログラム

Publications (2)

Publication Number Publication Date
JP5148004B1 true JP5148004B1 (ja) 2013-02-20
JP2013242652A JP2013242652A (ja) 2013-12-05

Family

ID=47890549

Family Applications (10)

Application Number Title Priority Date Filing Date
JP2012114530A Expired - Fee Related JP5148004B1 (ja) 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム
JP2012114529A Expired - Fee Related JP5174978B1 (ja) 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム
JP2012128125A Expired - Fee Related JP5174979B1 (ja) 2012-04-26 2012-06-05 情報処理装置、電子機器およびプログラム
JP2012229205A Active JP5232930B1 (ja) 2012-04-26 2012-10-16 情報処理装置、電子機器およびプログラム
JP2012229326A Expired - Fee Related JP5364194B2 (ja) 2012-04-26 2012-10-16 情報処理装置、電子機器およびプログラム
JP2012233272A Expired - Fee Related JP5315450B1 (ja) 2012-04-26 2012-10-22 情報処理装置、電子機器およびプログラム
JP2012233271A Expired - Fee Related JP5314795B1 (ja) 2012-04-26 2012-10-22 情報処理装置、電子機器およびプログラム
JP2013018351A Expired - Fee Related JP5444482B2 (ja) 2012-04-26 2013-02-01 情報処理装置、電子機器およびプログラム
JP2013141551A Expired - Fee Related JP5993354B2 (ja) 2012-04-26 2013-07-05 情報処理装置
JP2016004171A Withdrawn JP2016048588A (ja) 2012-04-26 2016-01-13 情報処理装置

Family Applications After (9)

Application Number Title Priority Date Filing Date
JP2012114529A Expired - Fee Related JP5174978B1 (ja) 2012-04-26 2012-05-18 情報処理装置、電子機器およびプログラム
JP2012128125A Expired - Fee Related JP5174979B1 (ja) 2012-04-26 2012-06-05 情報処理装置、電子機器およびプログラム
JP2012229205A Active JP5232930B1 (ja) 2012-04-26 2012-10-16 情報処理装置、電子機器およびプログラム
JP2012229326A Expired - Fee Related JP5364194B2 (ja) 2012-04-26 2012-10-16 情報処理装置、電子機器およびプログラム
JP2012233272A Expired - Fee Related JP5315450B1 (ja) 2012-04-26 2012-10-22 情報処理装置、電子機器およびプログラム
JP2012233271A Expired - Fee Related JP5314795B1 (ja) 2012-04-26 2012-10-22 情報処理装置、電子機器およびプログラム
JP2013018351A Expired - Fee Related JP5444482B2 (ja) 2012-04-26 2013-02-01 情報処理装置、電子機器およびプログラム
JP2013141551A Expired - Fee Related JP5993354B2 (ja) 2012-04-26 2013-07-05 情報処理装置
JP2016004171A Withdrawn JP2016048588A (ja) 2012-04-26 2016-01-13 情報処理装置

Country Status (1)

Country Link
JP (10) JP5148004B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128773A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
JP2014219712A (ja) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 操作表示装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6011579B2 (ja) 2014-05-21 2016-10-19 株式会社デンソー ジェスチャ入力装置
JP6494926B2 (ja) * 2014-05-28 2019-04-03 京セラ株式会社 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法
JP6376886B2 (ja) * 2014-08-05 2018-08-22 アルパイン株式会社 入力システムおよび入力方法
EP3106343A1 (en) * 2015-06-19 2016-12-21 Continental Automotive GmbH Gesture based user input device for car electronics
JP6540809B2 (ja) * 2015-08-06 2019-07-10 株式会社ニコン 電子制御装置、及び電子制御プログラム
WO2017057106A1 (ja) * 2015-09-28 2017-04-06 日本電気株式会社 入力装置、入力方法、及びプログラム
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US10534432B2 (en) 2016-03-04 2020-01-14 Sony Interactive Entertainment Inc. Control apparatus
JP6444345B2 (ja) * 2016-08-23 2018-12-26 株式会社コロプラ 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム
US11501552B2 (en) 2017-04-27 2022-11-15 Sony Interactive Entertainment Inc. Control apparatus, information processing system, control method, and program
JP6831475B2 (ja) 2017-10-16 2021-02-17 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラデバイス、及び情報処理装置
JP7291886B2 (ja) 2018-01-29 2023-06-16 パナソニックIpマネジメント株式会社 スイッチ装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186120A (ja) * 2007-01-29 2008-08-14 Seiko Epson Corp ユーザの指示に従って処理を実行するための処理装置、処理方法、および、プログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105371A (ja) * 1993-10-04 1995-04-21 Hitachi Ltd 手形状認識方法
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP3487494B2 (ja) * 1998-04-17 2004-01-19 日本電信電話株式会社 メニュー選択方法及び装置
JP3444200B2 (ja) * 1998-07-07 2003-09-08 ソニー株式会社 画像データ処理装置および方法、並びに提供媒体
JP3792907B2 (ja) * 1998-08-06 2006-07-05 株式会社竹中工務店 ハンドポインティング装置
JP2000098871A (ja) * 1998-09-28 2000-04-07 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲーム装置及び記録媒体
JP2000242394A (ja) * 1999-02-24 2000-09-08 Nec Corp 仮想キーボードシステム
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2003044203A (ja) * 2001-08-02 2003-02-14 Canon I-Tech Inc 情報処理装置
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4053903B2 (ja) * 2003-03-07 2008-02-27 日本電信電話株式会社 ポインティング方法、装置、およびプログラム
JP4153818B2 (ja) * 2003-03-31 2008-09-24 本田技研工業株式会社 ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP2005332229A (ja) * 2004-05-20 2005-12-02 Nippon Telegr & Teleph Corp <Ntt> 姿勢検出装置、姿勢検出方法、この方法のプログラム
JP2006276928A (ja) * 2005-03-28 2006-10-12 Canon Inc 圧電式動作検出装置
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
EP2347320B1 (en) * 2008-10-27 2021-03-31 Sony Interactive Entertainment Inc. Control device for communicating visual information
JP2010134629A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および情報処理方法
JP5263833B2 (ja) * 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
JP5201096B2 (ja) * 2009-07-17 2013-06-05 大日本印刷株式会社 対話操作装置
JP2011095985A (ja) * 2009-10-29 2011-05-12 Nikon Corp 画像表示装置
JP2011100396A (ja) * 2009-11-09 2011-05-19 Hitachi Ltd 映像表示装置
JP2011118523A (ja) * 2009-12-01 2011-06-16 Sekisui House Ltd 描画表示装置
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
JP2011215968A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び物体認識システム
US9069386B2 (en) * 2010-05-11 2015-06-30 Nippon Systemware Co., Ltd. Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP2012073658A (ja) * 2010-09-01 2012-04-12 Shinsedai Kk コンピュータシステム
JP2012073659A (ja) * 2010-09-01 2012-04-12 Shinsedai Kk 操作判定装置、指先検出装置、操作判定方法、指先検出方法、操作判定プログラム、及び、指先検出プログラム
JP5264844B2 (ja) * 2010-09-06 2013-08-14 日本電信電話株式会社 ジェスチャ認識装置及び方法
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP4918171B1 (ja) * 2011-07-21 2012-04-18 パナソニック株式会社 画像処理装置およびこれを備えた原稿読取システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008186120A (ja) * 2007-01-29 2008-08-14 Seiko Epson Corp ユーザの指示に従って処理を実行するための処理装置、処理方法、および、プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128773A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
JPWO2014128773A1 (ja) * 2013-02-19 2017-02-02 株式会社ブリリアントサービス ジェスチャ登録装置、ジェスチャ登録プログラムおよびジェスチャ登録方法
US9857589B2 (en) 2013-02-19 2018-01-02 Mirama Service Inc. Gesture registration device, gesture registration program, and gesture registration method
JP2014219712A (ja) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 操作表示装置

Also Published As

Publication number Publication date
JP5232930B1 (ja) 2013-07-10
JP5315450B1 (ja) 2013-10-16
JP2013242651A (ja) 2013-12-05
JP2013242652A (ja) 2013-12-05
JP2014032646A (ja) 2014-02-20
JP2013242843A (ja) 2013-12-05
JP2013242844A (ja) 2013-12-05
JP2013242845A (ja) 2013-12-05
JP5444482B2 (ja) 2014-03-19
JP5174979B1 (ja) 2013-04-03
JP5314795B1 (ja) 2013-10-16
JP5174978B1 (ja) 2013-04-03
JP5364194B2 (ja) 2013-12-11
JP2013242889A (ja) 2013-12-05
JP2013242842A (ja) 2013-12-05
JP2013242834A (ja) 2013-12-05
JP2016048588A (ja) 2016-04-07
JP5993354B2 (ja) 2016-09-14

Similar Documents

Publication Publication Date Title
JP5148004B1 (ja) 情報処理装置、電子機器およびプログラム
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
JP6207659B2 (ja) コンピュータ装置の遠隔制御
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
WO2012120958A1 (ja) 投影装置
US20180232106A1 (en) Virtual input systems and related methods
JP5817149B2 (ja) 投影装置
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
JP5368618B2 (ja) 情報処理装置、電子機器、情報処理方法およびプログラム
JP5156874B1 (ja) 情報処理装置、電子機器、情報処理方法およびプログラム
JP5124694B1 (ja) 情報処理装置、電子機器、情報処理方法およびプログラム
JP5148002B1 (ja) 情報処理装置、電子機器、情報処理方法およびプログラム
JP2013134549A (ja) データ入力装置およびデータ入力方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Ref document number: 5148004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees