JP2013197737A - 機器操作装置 - Google Patents
機器操作装置 Download PDFInfo
- Publication number
- JP2013197737A JP2013197737A JP2012061125A JP2012061125A JP2013197737A JP 2013197737 A JP2013197737 A JP 2013197737A JP 2012061125 A JP2012061125 A JP 2012061125A JP 2012061125 A JP2012061125 A JP 2012061125A JP 2013197737 A JP2013197737 A JP 2013197737A
- Authority
- JP
- Japan
- Prior art keywords
- operation target
- target device
- control signal
- operator
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Selective Calling Equipment (AREA)
Abstract
【課題】距離検出手段を用いずに機器操作を行う。
【解決手段】操作対象機器を撮像する撮像手段と、姿勢情報を取得する姿勢情報取得手段と、前記操作対象機器に制御信号を送信する制御信号送信手段と、操作者の向いている第1の方向と、操作者の位置を基準として前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択手段と、
前記操作対象機器選択手段により選択された前記操作対象機器に対する操作者の操作を認識する操作認識手段と、前記操作認識手段により認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信手段により制御信号を送信して機器操作を行うことを特徴とする機器操作装置。
【選択図】図11
【解決手段】操作対象機器を撮像する撮像手段と、姿勢情報を取得する姿勢情報取得手段と、前記操作対象機器に制御信号を送信する制御信号送信手段と、操作者の向いている第1の方向と、操作者の位置を基準として前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択手段と、
前記操作対象機器選択手段により選択された前記操作対象機器に対する操作者の操作を認識する操作認識手段と、前記操作認識手段により認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信手段により制御信号を送信して機器操作を行うことを特徴とする機器操作装置。
【選択図】図11
Description
本発明は、機器操作技術に関する。
一般的な機器操作装置としては、赤外線などを用いたリモコン装置がある。昨今の家電機器等の多機能化や、携帯端末の多機能化に伴い、新しい機器操作技術が提案されつつある。
例えば、特許文献1は、複数の機器の中から、操作対象となる機器を指し示すことにより操作対象機器を操作できる機器操作装置に関する文献である。特許文献1に開示の装置は、その装置を身につけることで、指し示した方向と、指し示した方向にある操作対象機器と機器操作装置との距離情報を取得し、取得した距離情報を用いて操作対象機器を選択するものである。
上記特許文献1に記載の装置では、操作対象機器の位置を特定して操作対象機器を選択したり、操作対象機器を登録したりするには、機器操作装置に具備された距離検出手段が必要となる。
しかしながら、上記特許文献1において、距離検出手段として挙げられている赤外線距離センサ、超音波センサ、レーザー距離センサは、距離計測のために光線や音波を出すための送信部と反射波を受信するための受信部とが必要であり、機器操作装置への実装面積が大きくなるという問題がある。
また、距離検出手段として、被写体までの距離を検出可能なステレオカメラを使った場合など、その他の距離検出手段の場合も同様の問題がある。
本発明は、距離検出手段を用いずに機器操作を行うことを目的とする。
本発明は、距離検出手段を用いずに機器操作を行うことを目的とする。
本発明の一観点によれば、操作対象機器を撮像する撮像手段と、姿勢情報を取得する姿勢情報取得手段と、前記操作対象機器に制御信号を送信する制御信号送信手段と、操作者の向いている第1の方向と、操作者の位置を基準として前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択手段と、前記操作対象機器選択手段により選択された前記操作対象機器に対する操作者の操作を認識する操作認識手段と、前記操作認識手段により認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信手段により制御信号を送信して機器操作を行うことを特徴とする機器操作装置が提供される。
前記撮像手段により撮像され、タッチパネル機能を有する表示部に表示された画像から、前記操作対象機器の表示位置を取得する機器表示位置取得手段を備え、前記姿勢情報より前記撮像手段の向いている方向Vcamを求め、前記タッチパネルの座標系における、前記撮像手段の画角の中心点を基準とした、前記操作対象機器の方向のずれの大きさVdiff1を求め、前記Vdiff1を、前記姿勢情報を用いて、水平面の座標系における前記Vcamと操作対象機器の方向のずれVdiff2に変換し、前記Vcamと前記Vdiff2とを加算して、前記操作対象機器の存在する前記第2の方向を求める座標変換部を有することが好ましい。
前記姿勢情報取得手段は、加速度センサと地磁気センサであることが好ましい。
前記操作対象機器の存在を検出する範囲を、測定誤差に基づいて広げる第1のマージンを有することが好ましい。
前記操作対象機器の存在を検出する範囲を、測定誤差に基づいて広げる第1のマージンを有することが好ましい。
前記第1の方向に向いていると判断する第2のマージンを、第1のマージンと、認識した顔の画像中心からのずれと、に基づいて求めることが好ましい。
本発明の他の観点によれば、操作対象機器を撮像する撮像ステップと、姿勢情報を取得する姿勢情報取得ステップと、前記操作対象機器に制御信号を送信する制御信号送信ステップと、操作者の向いている第1の方向と、前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択ステップと、前記操作対象機器選択ステップにより選択された前記操作対象機器に対する操作者の操作を認識する操作認識ステップと、を有し、前記操作認識ステップにより認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信ステップにより制御信号を送信して機器操作を行うことを特徴とする機器操作方法が提供される。
本発明は、コンピュータに、上記に記載の機器操作方法を実行させるためのプログラムであっても良く、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であっても良い。
本発明によれば、機器操作装置の実装面積を小さくすることができる。
以下、本発明の実施の形態による機器操作技術について、図面を参照しながら説明を行う。以下では、機器操作装置として、スマートフォンを例にして説明するが、その他の携帯端末や専用の端末装置を用いても良い。
図1は、本実施の形態による機器操作システムの一構成例を示す図であり、操作対象機器の登録に用いられる構成を示す図である。本実施の形態による機器操作システムAは、スマートフォンなどの機器操作装置1と、操作対象機器群3と、を有している。
機器操作装置1は、制御部(CPU)5と、機器情報DB7と、カメラ(動画、静止画を含む画像の撮像部)11と、表示部(表示画面)15と、タッチパネル17と、地磁気センサ21と、加速度センサ23と、を有している。機器情報DB7は、機器操作装置1内に設けられていない場合でも、外部から通信により取得できる形態でも良い。
CPU5は、機器情報DB7に機器情報を格納する機器情報格納手段5−1と、操作対象機器の種別を選択する機器種別選択手段5−2と、操作対象機器群3の位置を取得する機器位置取得手段5−3と、操作対象機器3を撮像する際の姿勢情報を取得する姿勢情報取得手段5−4と、を有している。その他、スマートフォンにおいては、通信部、記憶部、操作ボタン(タッチパネルを含む)などを有しているのが一般的である。
操作対象機器群3は、少なくとも1以上の機器、操作対象機器A3a、操作対象機器B3b、操作対象機器C3c、…を有している。
図2は、図1と同じ本実施の形態による機器操作システムの一構成例を示す図であり、後述するジェスチャリモコン操作に用いられる構成を示す図である。図1と重複する部分については、説明を省略する。
カメラ11は、ユーザ(などの顔、ここでは簡易化して記載する)画像を撮像する。CPU5は、ジェスチャ認識手段5−5と、操作対象機器選択手段5−6と、機器操作手段5−7と、を有している。
さらに、機器操作装置1は、機器情報DB7と、機器制御信号出力デバイス33と、機器制御情報DB35と、を有しており(又は、関連付けされて通信により取得できるように構成されており)、機器制御手段5−7は、機器制御情報DB35を参照しながら、機器制御信号出力デバイス33を介して、操作対象機器3を制御する。機器制御信号出力デバイス33は、一般的な赤外線による制御信号でも良いし、無線LANなどに用いられる信号でも良い。
図3は、機器登録時の登録者(ユーザ)の操作位置と機器との位置関係の例を示す図である。ユーザが通常ジェスチャ操作を行うであろう場所を位置P1と決めることができる。また、ユーザはP1の位置で360度回転しながら機器登録を行うことができるため、全ての操作対象機器が一度に視野角内に入ることを意識して位置を決めなくても良い。ただし、ユーザからみて同じ方向に機器が複数あるとどちらを選択しているかがわからないため、そのようにならないような位置が好ましい。操作対象機器としては、テレビTV3a−1、レコーダRec3a−2、エアコンAC3b、照明3c、CDプレーヤCD3dが存在する。
図4は、図3に示した機器登録のための撮像時における、カメラ11による入力画像の例を示す図であり、カメラの入力画像R1には、操作対象機器(TV)3a−1、操作対象機器(Rec)3a−2、操作対象機器(AC)3b、操作対象機器(照明)3cが映っている。
以下に、図5から図9までの図と、図10から図15までのフローチャート図とを参照して、機器の登録処理、機器の選択処理及び機器の操作処理について説明する。
(機器登録処理)
図10は、機器登録処理の概要を示すフローチャート図である。まず、機器登録処理のボタンを押すなどして処理が開始されると(開始:ステップS1)、カメラ画像のプレビューが開始される(ステップS2)。ついで、ステップS3において、登録者による操作待ち状態に遷移する。希望する全ての操作対象機器3の登録が完了するまで(ステップS4でN)、機器登録処理(ステップS5)を行いステップS3に戻る。全操作対象機器3の登録が完了すると(ステップS4でY)、ステップS6で処理を終了する。
図10は、機器登録処理の概要を示すフローチャート図である。まず、機器登録処理のボタンを押すなどして処理が開始されると(開始:ステップS1)、カメラ画像のプレビューが開始される(ステップS2)。ついで、ステップS3において、登録者による操作待ち状態に遷移する。希望する全ての操作対象機器3の登録が完了するまで(ステップS4でN)、機器登録処理(ステップS5)を行いステップS3に戻る。全操作対象機器3の登録が完了すると(ステップS4でY)、ステップS6で処理を終了する。
図11は、ステップS5の機器登録処理の流れを示すフローチャート図である。図11に示すように、図10のステップS4からステップS5の処理に入ると(開始:ステップS11)、ステップS12において、表示画面15のタッチパネル17上で操作対象機器3を指示するようにタップされた位置のX−Y座標を取得する。次いで、ステップS13において、姿勢情報取得手段5−4の地磁気センサの計測情報を取得する。ステップS14において、姿勢情報取得手段5−4の加速度センサの計測情報を取得する。これにより、機器操作装置の姿勢情報を算出することができる。次いで、ステップS15において、図6に示すような機器選択画面15を表示画面15に表示させる。ステップS16で、登録者による機器選択(タッチ)を行うことで、機器が選択される。ステップS17において、機器位置取得手段5−3が後述する2次元から3次元への座標変換処理を行い、ステップS18において、3次元的な位置を操作対象機器の種別情報とともに、機器情報DB7に登録し、機器登録処理を終了する(ステップS19)。
図5は、機器を登録する機器登録における、操作対象機器の存在方向Vobjと、機器操作装置が向いている方向Vcamと、の関係を、画角の中心点の方向とタッチパネルのタッチ座標位置との方向のずれVdiff2で示す図である。図5(b)は、タッチパネルを含む表示画面例である。
尚、サフィックスcamはカメラ11を示し、サフィックスobjは操作対象機器3を示し、サフィックスdiffは、タッチパネルの座標系と3次元座標系との差異を示すものである。図5のように定義することで、操作対象機器の存在方向Vobjと、機器操作装置が向いている方向Vcamとを対応付けすることができる。
図12は、図11の座標変換処理(ステップS17)の流れを示すフローチャート図である。図12に示すように、ステップS21で座標変換処理は開始されると、ステップS22で、タッチパネルの水平方向の解像度をRhとし、タッチパネルの垂直方向の解像度をRvとする。ステップS23において、タッチパネル上のタッチされた座標をPobj(Xobj, Yobj)とする。
ステップS24において、カメラ11の水平方向の画角をαとし、カメラ11の垂直方向の画角をβとする。ステップS25において、地磁気センサから取得した情報を用いて、カメラ11が向いている方位角θcamを計算する。ステップS26において、加速度センサから取得した情報を用いて、カメラ11が向いている仰角φcamを計算し、カメラ11が向いている方向をVcam(θcam, φcam)とする。
ステップS27において、RhとαとXobjとを用いて、タッチパネルの座標系における、画角の中心点の方向とタッチ座標の方向のずれのうちの水平方向のずれθdiff1を計算する。ステップS28において、RvとβとYobjを用いて、タッチパネルの座標系における、画角の中心点の方向とタッチ座標の方向のずれのうちの垂直方向のずれφdiff1を計算する。ステップS29において、タッチパネルの座標系における画角の中心点の座標とタッチ座標の方向のずれVdiff1(θdiff1, φdiff1)を、地磁気センサと加速度センサから取得した機器操作装置3の姿勢情報を用いて、水平面の座標系に対するずれVdiff2(θdiff2, φdiff2)に変換する。ステップS30において、VcamとVdiff2を加算し、操作対象機器3が存在する方向Vobj(θobj, φobj)とし、これを出力し、ステップS31で処理を終了する。
これにより、操作対象機器3が存在する方向Vobj(θobj, φobj)を求めることができる。
図12に示す座標変換処理について、以下に、より詳細に説明する。
1)ステップS22〜S24
これらのステップでは、各変数の定義を行っている。変数Rh, Rv, α, βはデバイス毎にあらかじめ決められた値である。Pobj(Xobj, Yobj)は、タッチパネルから取得する。
1)ステップS22〜S24
これらのステップでは、各変数の定義を行っている。変数Rh, Rv, α, βはデバイス毎にあらかじめ決められた値である。Pobj(Xobj, Yobj)は、タッチパネルから取得する。
2)ステップS25
以下のように座標を定義する(図17参照)。
X軸はディスプレイ平面に対して横方向に取り、Y軸はディスプレイ平面に対して縦方向に取り、Z軸はカメラの光軸方向及びディスプレイ面に垂直な方向と一致する右手系の座標系である。
以下のように座標を定義する(図17参照)。
X軸はディスプレイ平面に対して横方向に取り、Y軸はディスプレイ平面に対して縦方向に取り、Z軸はカメラの光軸方向及びディスプレイ面に垂直な方向と一致する右手系の座標系である。
求める方位角は、図18に示す角度θcamを指す。
3軸地磁気センサからの出力情報を用いて方位角を計算する方法は、使用するセンサに依存するが、一般的には以下の計算式で算出できる。
3軸地磁気センサからの出力情報を用いて方位角を計算する方法は、使用するセンサに依存するが、一般的には以下の計算式で算出できる。
3)ステップS26
求める仰角は、図19に示す角度φcamを指す。
ステップS25と同じ座標系上における各軸方向の重力加速度を、Xg,Yg,Zgとすると、φcamは以下のように計算できる。
求める仰角は、図19に示す角度φcamを指す。
ステップS25と同じ座標系上における各軸方向の重力加速度を、Xg,Yg,Zgとすると、φcamは以下のように計算できる。
4)ステップS27、S28
図20は、タッチパネルの座標系とタップ座標の関係を示す図である。
カメラの水平及び垂直方向の画角α、βを用いて、以下のように計算することができる。
図20は、タッチパネルの座標系とタップ座標の関係を示す図である。
カメラの水平及び垂直方向の画角α、βを用いて、以下のように計算することができる。
5)ステップS29
ディスプレイの上辺が水平面に対して並行な面上にあるときは、以下のようになる。
ディスプレイの上辺が水平面に対して並行な面上にあるときは、以下のようになる。
ディスプレイの上辺が水平面に対して並行な面上にないときは、上記の状態を0度とするZ軸周りの回転角θZを用いて、以下のように計算できる。
6)ステップS30
ステップS25、S26で算出したVcamと、ステップS29で算出したVdiff2を用いて、操作対象機器がある方向Vobjを以下のように計算する。
ステップS25、S26で算出したVcamと、ステップS29で算出したVdiff2を用いて、操作対象機器がある方向Vobjを以下のように計算する。
(機器操作処理:機器選択処理)
次に、登録された機器のうち制御対象機器として選択する処理例について説明する。
図8は、操作対象機器3を選択した後に、機器操作装置1を部屋R内に設置してユーザのジェスチャによる操作(ジェスチャ操作)を撮像することでそのジェスチャを認識して機器操作を行える状態とする処理を示す図であり、機器操作装置1の設置位置とジェスチャなどによるジェスチャ操作位置との関係を示す図である。図3に示す機器登録をした位置P1でユーザ操作を行い、一方、この位置P1を、カメラ11の画角中央に入るようにカメラ11の方向と機器操作装置1の設置位置とを決める。
次に、登録された機器のうち制御対象機器として選択する処理例について説明する。
図8は、操作対象機器3を選択した後に、機器操作装置1を部屋R内に設置してユーザのジェスチャによる操作(ジェスチャ操作)を撮像することでそのジェスチャを認識して機器操作を行える状態とする処理を示す図であり、機器操作装置1の設置位置とジェスチャなどによるジェスチャ操作位置との関係を示す図である。図3に示す機器登録をした位置P1でユーザ操作を行い、一方、この位置P1を、カメラ11の画角中央に入るようにカメラ11の方向と機器操作装置1の設置位置とを決める。
図13は、機器操作処理の流れを示すフローチャート図である。図13に示すように、ステップS41において処理が開始され、ステップS42において顔認識処理が行われ、ステップS43において機器選択処理が行われ、ステップS44においてジェスチャ入力の有無を検出する。ジェスチャ入力があれば(Y)、ステップS45に進み、ジェスチャ認識処理を行う。そして、ステップS46で機器操作実行処理を行い、ステップS47で処理を終了する。
図14は、顔認識処理(ステップS42)を示すフローチャート図である。処理が開始されると(ステップS51)、ステップS52において、カメラ画像を取得する。ステップS53でユーザの顔を認識し、ステップS54で、タッチパネルの座標系における認識した顔の座標を計算する。ステップS55において、顔の座標が画面中央付近であるか否かを判定し、Yであれば、ステップS56に進み、タッチパネルの座標系における、認識した顔の向きを計算する。ステップS57において、地磁気センサと加速度センサから情報を取得し、その情報を用いて顔の向きを水平面の座標系に変換し、処理を終了する(ステップS58)。
以下に、顔認識処理の詳細について説明する。
1)ステップS55
以下2つの式を満たす時、画面中央に顔があると判断する。
ここで、(Xface, Yface)は顔の座標、Xmargin, Ymarginは顔の画像が画面中央付近にあるかどうかを判断するための閾値であり、あらかじめ決めておくべき定数である。
1)ステップS55
以下2つの式を満たす時、画面中央に顔があると判断する。
ここで、(Xface, Yface)は顔の座標、Xmargin, Ymarginは顔の画像が画面中央付近にあるかどうかを判断するための閾値であり、あらかじめ決めておくべき定数である。
2)ステップS57
タッチパネル座標系における顔の向きは、タッチパネルから手前に垂直な方向を0度とし、操作者が左を向く方向を正とする方位角と、上を向く方向を正とする仰角を定義する。
タッチパネル座標系における顔の向きは、タッチパネルから手前に垂直な方向を0度とし、操作者が左を向く方向を正とする方位角と、上を向く方向を正とする仰角を定義する。
図9は、図8のような状態において、ユーザがジェスチャにより機器選択を行う場合における誤差を考慮した水平面に対するマップの概念図である。図8の操作対象機器3の選択の際には、操作対象機器3の方向に顔を向けるなどのジェスチャを行うが、この場合には、完全に正確な方向に顔を向けるようにすることは難しい。そこで、図9に示すように、誤差を考慮した、水平面に対する機器のマップを考慮する。すなわち、機器を選択していると判断する方向には誤差を考慮したマージンの範囲を操作対象機器3が存在する方向を示す点に対する円として示す。例えば、機器Cを選択していると判断する視線の範囲は、機器Cが存在する方向の中心点からある円の範囲内であると指定することができる。このようにすることで、機器を選択しているとされる顔の向きに関して、マージンを設けることができる。また、マージンを考慮しても、機器を選択している範囲とされない場合には、操作者の顔の向きの例2のように、機器は選択されてないと判定することができる。また、機器Aと機器Bとが近くにある場合でも、操作者の顔の向きの例1では、機器Bを選択していると判定される視線の範囲内ではなく、機器Aを選択していると判定される視線の範囲内であることから、機器Aを選択していることがわかる。機器Aを選択していると判断する円の範囲と、機器Bを選択していると判断する円の範囲が重なっているなどして、どちらの機器を選択しているかを判定できない場合には、その旨をユーザに通知して、顔の向きを調整してもらうようにすると良い。
次に、機器選択処理(ステップS43)について、図15を参照しながら説明する。ステップS61で処理を開始し、ステップS62で、誤差を考慮した機器のマップを作る。ステップS63で、顔の向きと、機器のマップをマッチングさせる。ステップS64で、マッチする機器の有無を判定し、YであればステップS65で、マッチした機器を選択した操作対象機器として出力する。NであればステップS66で、操作対象機器は選択されていないと判断し、ステップS67で処理を終了する。 また、マージンの計算方法について、以下に説明する。
機器を選択していると判断する範囲の定義は、円形に定義する方法、方形に定義する方法、楕円形に定義する方法等を用いることができるが、ここでは楕円形で定義する方法を例示する。
ある操作対象機器が存在する方向をVobj(θobj, φobj)とすると、機器を選択していると判断する範囲の境界線を表すθborder、φborderは以下のように定義できる。
a,bはそれぞれ、方位角のマージンと仰角のマージンを表し、例えば以下のように決めることができる。
磁気センサの誤差係数をEmag, 加速度センサの誤差係数をEacc, タッチパネルの誤差係数をEtouch, 顔認識による方向検出の誤差係数をEfaceとし、さらに重み係数k1〜k8を決めておく。
磁気センサの誤差係数をEmag, 加速度センサの誤差係数をEacc, タッチパネルの誤差係数をEtouch, 顔認識による方向検出の誤差係数をEfaceとし、さらに重み係数k1〜k8を決めておく。
このようにして決めた境界線情報を用いて、以下の式を満たす時にその機器を選択しているとの判断できる。
a,bの計算においては、あらかじめ最大値を決めておき、それを超えないようにすることで、あまりに大きい誤差がある場合には機器を選択させず、誤った機器を選択することを防ぐこともできる。
また、他の機器とマージンエリアが重複していて、複数の機器が候補となる場合は、左辺の計算結果がより小さい方を選択することにしたり、複数の候補があることをユーザに提示し、さらに絞り込みを行わせることなどもできる。
(機器操作処理)
次に、選択された機器の操作について説明する。例えば、機器毎にあらかじめ決められた(あるいは登録された)ハンドジェスチャとそれに対応するコマンドを、赤外線、その他の無線通信手段で操作対象機器に送信する。ここで、ハンドジェスチャでなく、音声による操作指示、その他、体の何らかの部位の動作を認識させて、同様にコマンドを送信するようにしてもよい。
次に、選択された機器の操作について説明する。例えば、機器毎にあらかじめ決められた(あるいは登録された)ハンドジェスチャとそれに対応するコマンドを、赤外線、その他の無線通信手段で操作対象機器に送信する。ここで、ハンドジェスチャでなく、音声による操作指示、その他、体の何らかの部位の動作を認識させて、同様にコマンドを送信するようにしてもよい。
次に、本発明の第2の実施の形態について、説明を行う。本実施の形態は、操作者が、機器登録を行った位置からずれた位置にいる場合に対応できる技術を示すものである。基本的な構成は、第1の実施の形態と同様である。
図21は、機器操作装置の設置位置とユーザ操作位置との関係を示す図であり、図8に対応する図である。図21に示す例では、機器登録を行った位置P1と、操作者が操作を行う位置P2とが、2次元的にずれている場合が多い。
図22は、誤差を考慮した、画面中央からのずれを考慮して、マージンをさらに広げた例を示す図である。破線の円は、画面中央からのずれを考慮しないマージンであり、それを矢印方向に広げた楕円形は、画面中央からのずれを考慮したマージンを示すものである。このように、認識した顔の画面中央からのずれを考慮して、第1の実施の形態のマージンをさらに広げている。
上記で求めたマージンa,bを、認識した顔の画面中心からのずれ(Xdiff, Ydiff)と重み係数k9,k10を用いて以下のように拡張する。
図23は、本実施の形態による顔認識処理の流れを示すフローチャート図である。図23に示すように、ステップS81で処理が開始し、ステップS82でカメラ画像を取得する。ステップS83で顔を認識し、ステップS84でタッチパネルの座標系における、認識した顔の座標を計算する。ステップS85で、タッチパネルの座標系における、認識した顔の向きを計算する。ステップS86で、地磁気センサと加速度センサとから情報を取得し、その情報を用いて顔の向きを水平面の座標系に変換し、ステップS87で処理を終了する。
図24は、機器選択処理(ステップS43)の流れを示すフローチャート図である。機器選択処理においては、ステップS91で、処理を開始し、ステップS92において、誤差を考慮した機器のマップを作る。ステップS93において、顔を認識した座標情報を用いて、機器マップの各機器のマージンを広げる。ステップS94において、顔の向きと、機器のマップをマッチングさせる。ステップS95において、マッチする機器が有るか否かを判定し、Yの場合には、ステップS96において、マッチした機器を選択した操作対象機器として出力する。Nの場合には、ステップS97において、操作対象機器は選択されていないと判断する。そして、処理を終了する(ステップS98)。
以上に説明したように、本実施の形態においては、認識した顔の画面中央からのずれを考慮して、第1の実施の形態のマージンをさらに広げており、認識率が向上する。
上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。
本発明は、機器操作装置に利用することができる。
A…機器操作システム、1…機器操作装置、3…操作対象機器群、5…制御部(CPU)、5−1…機器情報格納手段、5−2…機器種別選択手段、5−3…機器位置取得手段、5−4…姿勢情報取得手段、7…機器情報DB7、11…カメラ(撮像部)15…表示部(表示画面)、17…タッチパネル、21…地磁気センサ、23…加速度センサ。
Claims (6)
- 操作対象機器を撮像する撮像手段と、
姿勢情報を取得する姿勢情報取得手段と、
前記操作対象機器に制御信号を送信する制御信号送信手段と、
操作者の向いている第1の方向と、操作者の位置を基準として前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択手段と、
前記操作対象機器選択手段により選択された前記操作対象機器に対する操作者の操作を認識する操作認識手段と、
前記操作認識手段により認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信手段により制御信号を送信して機器操作を行うことを特徴とする機器操作装置。 - 前記撮像手段により撮像され、タッチパネル機能を有する表示部に表示された画像から、前記操作対象機器の表示位置を取得する機器表示位置取得手段を備え、
前記姿勢情報より前記撮像手段の向いている方向Vcamを求め、
前記タッチパネルの座標系における、前記撮像手段の画角の中心点を基準とした、前記操作対象機器の方向のずれの大きさVdiff1を求め、
前記Vdiff1を、前記姿勢情報を用いて、水平面の座標系における前記Vcamと操作対象機器の方向のずれVdiff2に変換し、
前記Vcamと前記Vdiff2とを加算して、前記操作対象機器の存在する前記第2の方向を求める座標変換部を有することを特徴とする請求項1に記載の機器操作装置。 - 前記操作対象機器の存在を検出する範囲を、測定誤差に基づいて広げる第1のマージンを有することを特徴とする請求項1又は2に記載の機器操作装置。
- 前記第1の方向に向いていると判断する第2のマージンを、前記第1のマージンと、認識した顔の画像中心からのずれと、に基づいて求めることを特徴とする請求項3に記載の機器操作装置。
- 操作対象機器を撮像する撮像ステップと、
姿勢情報を取得する姿勢情報取得ステップと、
前記操作対象機器に制御信号を送信する制御信号送信ステップと、
操作者の向いている第1の方向と、前記姿勢情報に基づいて求めた前記操作対象機器の第2の方向と、を一致させて前記操作対象機器を選択する操作対象機器選択ステップと、
前記操作対象機器選択ステップにより選択された前記操作対象機器に対する操作者の操作を認識する操作認識ステップと、を有し、
前記操作認識ステップにより認識された前記操作に対応する機器操作の内容に基づいて、前記制御信号送信ステップにより制御信号を送信して機器操作を行うことを特徴とする機器操作方法。 - コンピュータに、請求項5に記載の機器操作方法を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012061125A JP2013197737A (ja) | 2012-03-16 | 2012-03-16 | 機器操作装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012061125A JP2013197737A (ja) | 2012-03-16 | 2012-03-16 | 機器操作装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013197737A true JP2013197737A (ja) | 2013-09-30 |
Family
ID=49396208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012061125A Pending JP2013197737A (ja) | 2012-03-16 | 2012-03-16 | 機器操作装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013197737A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184813A (ja) * | 2014-03-20 | 2015-10-22 | 富士通株式会社 | 連携機器選択装置、連携機器選択方法および連携機器選択プログラム |
JP2019003228A (ja) * | 2017-06-09 | 2019-01-10 | 富士通株式会社 | 機器連携システム、機器連携装置、機器連携方法及び機器連携プログラム |
JP2019532543A (ja) * | 2016-08-11 | 2019-11-07 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 制御システムならびに制御処理方法および装置 |
JP2021149527A (ja) * | 2020-03-19 | 2021-09-27 | 日本電信電話株式会社 | 操作システム、操作方法、及びプログラム |
-
2012
- 2012-03-16 JP JP2012061125A patent/JP2013197737A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184813A (ja) * | 2014-03-20 | 2015-10-22 | 富士通株式会社 | 連携機器選択装置、連携機器選択方法および連携機器選択プログラム |
JP2019532543A (ja) * | 2016-08-11 | 2019-11-07 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 制御システムならびに制御処理方法および装置 |
JP2019003228A (ja) * | 2017-06-09 | 2019-01-10 | 富士通株式会社 | 機器連携システム、機器連携装置、機器連携方法及び機器連携プログラム |
JP2021149527A (ja) * | 2020-03-19 | 2021-09-27 | 日本電信電話株式会社 | 操作システム、操作方法、及びプログラム |
JP7321459B2 (ja) | 2020-03-19 | 2023-08-07 | 日本電信電話株式会社 | 携帯端末、操作方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9661214B2 (en) | Depth determination using camera focus | |
JP5881136B2 (ja) | 情報処理装置及び方法、並びにプログラム | |
EP2509070B1 (en) | Apparatus and method for determining relevance of input speech | |
CN111163906B (zh) | 能够移动的电子设备及其操作方法 | |
JP2012040655A (ja) | ロボット制御方法、プログラム、及びロボット | |
JP6439806B2 (ja) | ロボット装置及びプログラム | |
JP2017102085A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2016103621A1 (ja) | 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法 | |
TWI489326B (zh) | 操作區的決定方法與系統 | |
JP2013197737A (ja) | 機器操作装置 | |
JPWO2019215778A1 (ja) | データ提供システムおよびデータ収集システム | |
JP2017090420A (ja) | 3次元情報復元装置及び3次元情報復元方法 | |
JP6575518B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP5233768B2 (ja) | コミュニケーション支援システム、表示制御装置および表示制御方法 | |
JP2021027584A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2010224872A (ja) | 表示端末装置、表示制御装置、ポインタ表示制御方法、ポインタ表示制御プログラム | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
WO2018185830A1 (ja) | 情報処理システム、情報処理方法、情報処理装置、及びプログラム | |
US20220030206A1 (en) | Information processing apparatus, information processing method, program, and projection system | |
CN114071003B (zh) | 一种基于光通信装置的拍摄方法和系统 | |
US11689702B2 (en) | Information processing apparatus and information processing method | |
WO2019037517A1 (zh) | 一种用于处理任务区域的任务的移动电子设备以及方法 | |
US20220150398A1 (en) | Information processing apparatus and information processing system | |
WO2019216000A1 (ja) | 情報処理装置、情報処理方法、及びプログラム |