JP2010015360A - Control system and control method - Google Patents
Control system and control method Download PDFInfo
- Publication number
- JP2010015360A JP2010015360A JP2008174402A JP2008174402A JP2010015360A JP 2010015360 A JP2010015360 A JP 2010015360A JP 2008174402 A JP2008174402 A JP 2008174402A JP 2008174402 A JP2008174402 A JP 2008174402A JP 2010015360 A JP2010015360 A JP 2010015360A
- Authority
- JP
- Japan
- Prior art keywords
- icon
- image
- information
- operation image
- switch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、生活環境にある任意の機器・装置を制御する制御システムと制御方法に関する。 The present invention relates to a control system and a control method for controlling an arbitrary device / device in a living environment.
生活環境にある各種機器・装置を制御・操作する手法として、操作スイッチを直接的に操作する方法と、リモコンやネットワークを介した通信機等による遠隔操作がある。四肢が不自由でこれらの操作が行えない場合に、表示盤に記号、文字、絵(アイコン)を表示し、表示されたアイコンを選択することにより、スイッチの操作を可能とする技術が知られている。 As a method for controlling and operating various devices and apparatuses in the living environment, there are a method of directly operating an operation switch and a remote operation using a remote controller or a communication device via a network. A technology is known that enables the switch to be operated by displaying symbols, characters, pictures (icons) on the display panel and selecting the displayed icons when the limbs are inconvenient and cannot be operated. ing.
例えば、特許文献1には、表示されたアイコンを、利用者が注視することにより、スイッチの操作を可能とする技術が開示されている。 For example, Patent Literature 1 discloses a technology that enables a switch to be operated by a user gazing at a displayed icon.
また、特許文献2には、脳波・筋電・眼電などを検出することにより、スイッチの操作を可能とする技術が開示されている。
従来のスイッチ制御装置は、操作のスイッチが固定されている。このため、
利用者が移動する場合のように、利用環境(利用者の生活環境)が変化して、操作対象となるスイッチが変化する場合には、対応できない。
In the conventional switch control device, the operation switch is fixed. For this reason,
As in the case where the user moves, when the use environment (the user's living environment) changes and the switch to be operated changes, this cannot be handled.
同様の問題は、利用者が四肢不自由である場合に限らず、アイコン等を用いて生活環境にあるスイッチを操作する場合全般に存在する。 The same problem exists not only when the user is incapable of limbs, but generally when the switch in the living environment is operated using an icon or the like.
本発明は、斯かる事情に鑑みてなされたものであり、生活環境が変化する場合でも、状況に応じて必要なスイッチ操作を可能とする技術を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique that enables a necessary switch operation depending on the situation even when the living environment changes.
上記目的を達成するため、この発明の制御システムは、
操作対象の存在を示す情報を検出する検出手段と、
前記操作手段が制御対象の存在を示す情報を検出したことに応答し、アイコンを含む操作画像を特定する情報を記憶手段から読み出す読出手段と、
前記読出手段により読み出された情報に従って、アイコンを含む操作画像を生成し、生成した操作画像を表示装置に表示する表示制御手段と、
前記表示装置に表示されている操作画像に含まれるアイコンのうち、利用者が注目しているアイコンを判別する注目アイコン判別手段と、
前記注目アイコン判別手段により判別されたアイコンに対応する制御信号を出力する制御出力手段と、
を備えることを特徴とする。
In order to achieve the above object, the control system of the present invention provides:
Detection means for detecting information indicating the presence of the operation target;
In response to detection of information indicating the presence of the control target by the operation means, reading means for reading out information specifying an operation image including an icon from the storage means;
Display control means for generating an operation image including an icon according to the information read by the reading means, and displaying the generated operation image on a display device;
Of the icons included in the operation image displayed on the display device, attention icon determination means for determining the icon that the user is paying attention to,
Control output means for outputting a control signal corresponding to the icon determined by the attention icon determination means;
It is characterized by providing.
例えば、前記検出手段は、画像信号を入力し、該画像信号が表す画像中の特定の図形を検出する特定図形検出手段から構成され、特定の図形と操作画像特定情報とを対応付けて記憶し、前記読出手段は、前記特定画像検出手段により検出された特定の図形に対応する操作画像特定情報を読み出し、前記表示制御手段は、読出手段により読み出された操作画像特定情報により特定される操作画像を前記表示装置に表示する。 For example, the detecting means is constituted by specific figure detecting means for inputting an image signal and detecting a specific figure in the image represented by the image signal, and stores the specific figure and the operation image specifying information in association with each other. The reading means reads operation image specifying information corresponding to the specific graphic detected by the specific image detecting means, and the display control means is an operation specified by the operation image specifying information read by the reading means. An image is displayed on the display device.
例えば、前記検出手段は、操作対象の存在を指示する無線信号を検出する手段を備える。 For example, the detection means includes means for detecting a radio signal indicating the presence of the operation target.
例えば、前記検出手段は、操作対象の近傍に配置された非接触情報記憶媒体を検出する手段を備え、前記読出手段は、前記検出手段により検出された非接触情報記憶媒体に記憶されている操作画像を特定する情報を読み出す。 For example, the detecting means includes means for detecting a non-contact information storage medium arranged in the vicinity of the operation target, and the reading means is an operation stored in the non-contact information storage medium detected by the detection means. Read information identifying the image.
例えば、前記表示制御手段は、撮像装置からの画像信号を受信し、受信した画像信号が定義する画像と操作画像特定情報により特定される操作画像とを合成して前記表示装置に表示する。 For example, the display control unit receives an image signal from the imaging device, combines the image defined by the received image signal and the operation image specified by the operation image specifying information, and displays the synthesized image on the display device.
例えば、前記表示装置は、透過型の表示装置から構成され、前記表示制御手段は、前記表示装置に操作画像を表示する。 For example, the display device includes a transmissive display device, and the display control unit displays an operation image on the display device.
例えば、前記注目アイコン判別手段は、利用者の生体情報を取得し、取得した生体情報に基づいて、前記表示手段に表示されている操作画像に含まれるアイコンのうち、いずれのアイコンに注目しているかを判別する手段を含む。 For example, the attention icon discriminating unit acquires the user's biological information, and based on the acquired biological information, pays attention to any icon among the icons included in the operation image displayed on the display unit. Means for determining whether or not.
例えば、前記表示制御手段は、前記操作画像に含まれるアイコンを順次強調表示し、前記注目アイコン判別手段は、利用者の生体情報を取得し、取得した生体情報の変化を検出する手段と、変化時点において強調状態にあるアイコンを注目アイコンとして判別する手段と、を備える。 For example, the display control unit sequentially highlights icons included in the operation image, the attention icon determination unit acquires a user's biological information, and detects a change in the acquired biological information. Means for discriminating an icon that is in an emphasized state at the time as an attention icon.
前記注目アイコン判別手段は、例えば、利用者の脳波信号を取得し、取得した脳波信号に基づいて、利用者が注目しているアイコン判別する手段と、利用者の視線を判別し、視線上のアイコンを判別する手段と、の少なくとも一方を備える。 The attention icon determination means acquires, for example, a user's brain wave signal, determines a user's line of sight based on the acquired brain wave signal, and determines the user's line of sight, And at least one of means for discriminating an icon.
また、この発明の制御方法は、操作対象の存在を検出し、検出に応答し、操作画像を特定する情報を読み出し、読み出した情報に従って、アイコンを含む操作画像を生成して表示し、利用者が注目しているアイコンを判別し、判別されたアイコンに対応する制御信号を操作対象に出力する、ことを特徴とする。 Further, the control method of the present invention detects the presence of an operation target, responds to the detection, reads information specifying an operation image, generates and displays an operation image including an icon according to the read information, and Is identified, and a control signal corresponding to the identified icon is output to the operation target.
本発明によれば、操作対象であるスイッチ等の存在を検出し、検出した操作対象を操作するためにアイコンを含む操作画像を生成して表示する。従って、環境が変化して操作対象が変化しても、任意の操作対象を操作することが可能となる。 According to the present invention, the presence of an operation target switch or the like is detected, and an operation image including an icon is generated and displayed in order to operate the detected operation target. Therefore, even if the operating object changes due to the environment change, it is possible to operate an arbitrary operating object.
以下、本発明の実施の形態に係る制御システムを図面を参照して説明する。この制御システムは、環境機器全般の操作を可能とするものである。環境機器の操作とは、例えば、生活環境に存在する映像・音響機器、空調装置、照明装置のオン・オフ・調整、窓やカーテン等の開閉、パソコンのオン・オフ・入力などを広く意味する。 Hereinafter, a control system according to an embodiment of the present invention will be described with reference to the drawings. This control system is capable of operating all environmental equipment. The operation of environmental equipment broadly means, for example, video / audio equipment, air conditioning equipment, lighting equipment on / off / adjustment, opening / closing of windows and curtains, personal computer on / off / input, etc. present in the living environment .
(第1の実施の形態)
本実施の形態のスイッチ制御システム100は、利用者の手近な位置に設置された表示盤(モニター)に表示されるアイコン(選択指標)により生活環境に存在する機器を操作可能とするものである。
(First embodiment)
The switch control system 100 according to the present embodiment can operate a device existing in a living environment by using an icon (selection index) displayed on a display panel (monitor) installed at a position close to the user. .
図1に示すように、スイッチ制御システム100は、脳波測定装置11と、表示装置12と、情報処理装置13と、機器制御装置14と、撮像装置15と、無線通信機16と、スイッチ17と、識別タグ18と、データベース(DB)サーバ20と、ネットワークNWと、から構成される。 As shown in FIG. 1, the switch control system 100 includes an electroencephalogram measurement device 11, a display device 12, an information processing device 13, a device control device 14, an imaging device 15, a wireless communication device 16, and a switch 17. , An identification tag 18, a database (DB) server 20, and a network NW.
脳波測定装置11は、図2に示すように、複数のプローブ111と、信号処理回路112と、出力部113と、を備える。 As shown in FIG. 2, the electroencephalogram measurement apparatus 11 includes a plurality of probes 111, a signal processing circuit 112, and an output unit 113.
複数のプローブ111は、利用者19の頭部に装着され、検出した電圧信号を出力する。
信号処理回路112は、アナログ信号処理回路、A/Dコンバータ、ディジタル信号処理回路等から構成され、プローブ111で検出された電圧信号を整形し、ノイズを除去して、脳波を示す検出信号を出力する。
The plurality of probes 111 are mounted on the head of the user 19 and output detected voltage signals.
The signal processing circuit 112 includes an analog signal processing circuit, an A / D converter, a digital signal processing circuit, etc., shapes the voltage signal detected by the probe 111, removes noise, and outputs a detection signal indicating an electroencephalogram. To do.
出力部113は、信号処理回路112から出力された検出信号を情報処理装置13に順次供給する。 The output unit 113 sequentially supplies the detection signal output from the signal processing circuit 112 to the information processing device 13.
図1に示す表示装置12は、利用者19の視界内に配置され、環境機器を操作するためのユーザインタフェースとして機能し、図3(a)、(b)に例示するような操作用画面121を表示する。 The display device 12 shown in FIG. 1 is arranged in the field of view of the user 19, functions as a user interface for operating the environmental equipment, and has an operation screen 121 as exemplified in FIGS. 3 (a) and 3 (b). Is displayed.
操作用画面121は、撮像画像122と定常操作パネル画像123とから構成されている。 The operation screen 121 includes a captured image 122 and a steady operation panel image 123.
撮像画像122は、撮像装置15で撮影された画像であり、撮像装置15の移動、向きの変更、倍率の変動などに伴って変化する。撮像画像中に識別タグ18の画像が含まれている場合、識別タグ18に重畳して、隣接するスイッチ17を操作するための操作画像124が表示される。図の例では、スイッチをオンするためのアイコンとオフするためのアイコンを2組備える操作画像124が2つ、スペードが描かれた識別タグ18と星印が描かれた識別タグ18に重畳して表示されている。 The captured image 122 is an image captured by the imaging device 15 and changes with movement of the imaging device 15, change of orientation, change in magnification, and the like. When an image of the identification tag 18 is included in the captured image, an operation image 124 for operating the adjacent switch 17 is displayed superimposed on the identification tag 18. In the example of the figure, two operation images 124 having two sets of icons for turning on and off are superimposed on an identification tag 18 on which a spade is drawn and an identification tag 18 on which a star is drawn. Is displayed.
定常操作パネル画像123は、撮像装置15と、その他の特定の機器・装置を操作するための画面であり、複数の操作用アイコンを備える。 The steady operation panel image 123 is a screen for operating the imaging device 15 and other specific devices / devices, and includes a plurality of operation icons.
図3(a)は、アイコン「撮像装置」126を選択した場合の、定常操作パネル画像123を例示し、撮像装置15の向きを変更するための矢印アイコン125と、他の機器を指定するアイコン126とを含む。図3(b)は、アイコン「空調」126を選択した場合の、定常操作パネル画像123を例示し、空調機をオン・オフするアイコン127、設定温度を上げ・下げするためのアイコン128、他の機器を指定するアイコン126を備える。 FIG. 3A illustrates a steady operation panel image 123 when the icon “imaging device” 126 is selected, and an arrow icon 125 for changing the orientation of the imaging device 15 and an icon for designating another device. 126. FIG. 3B illustrates a steady operation panel image 123 when the icon “air conditioning” 126 is selected, an icon 127 for turning on / off the air conditioner, an icon 128 for raising / lowering the set temperature, and the like. An icon 126 for designating the device is provided.
これらのアイコンは、所定の順番(ランダムを含む)で複数同時に又は個別に強調表示される。所望のアイコンが強調表示されたタイミングで、利用者19が、そのアイコンを選択することを意識することにより、脳波測定装置11で脳波の変化が検出され、強調表示中のアイコンが選択・指定される。詳細は後述する。 A plurality of these icons are highlighted at the same time or individually in a predetermined order (including random). When the user 19 is conscious of selecting the icon at the timing when the desired icon is highlighted, a change in the electroencephalogram is detected by the electroencephalogram measuring apparatus 11 and the highlighted icon is selected and designated. The Details will be described later.
図1に示す情報処理装置13は、図4に示すように、入力部131と、タグ情報記憶部132と、通信部133と、制御部134と、脳波記憶部135とを備える。 As illustrated in FIG. 4, the information processing apparatus 13 illustrated in FIG. 1 includes an input unit 131, a tag information storage unit 132, a communication unit 133, a control unit 134, and an electroencephalogram storage unit 135.
入力部131は、脳波測定装置11から出力された検出信号を取り込み、制御部134に供給する。 The input unit 131 takes in the detection signal output from the electroencephalogram measurement apparatus 11 and supplies it to the control unit 134.
タグ情報記憶部132は、表示装置12に表示させる操作画像124を構成する画像(素材)のライブラリを格納する。操作画像124は、例えば、図5(a)、(b)に例示するような画像であり、このライブラリは、図6(a)、(b)に例示する枠の画像、図7(a)〜(f)に例示するアイコン(選択要素:ボタン)の画像等を含む。各画像(素材)には、識別情報が付与されている。 The tag information storage unit 132 stores a library of images (materials) constituting the operation image 124 to be displayed on the display device 12. The operation image 124 is, for example, an image illustrated in FIGS. 5A and 5B, and this library includes a frame image illustrated in FIGS. 6A and 6B, and FIG. 7A. The image of the icon (selection element: button) illustrated in (f) is included. Identification information is assigned to each image (material).
さらに、タグ情報記憶部132は、図8(a)に示すように、識別タグ18に表示されている識別図形と、該識別図形に対応して表示する操作画像124を定義する操作画像定義情報と、操作対象のスイッチ17を特定する情報(アドレス)を対応付けるスイッチ制御情報を格納する。 Further, the tag information storage unit 132, as shown in FIG. 8A, is the operation image definition information that defines the identification graphic displayed on the identification tag 18 and the operation image 124 displayed corresponding to the identification graphic. And switch control information for associating information (address) for specifying the switch 17 to be operated.
操作画像定義情報は、図8(b)、(c)に例示するように、図6に示した枠の画像の識別情報、図7に示したアイコンの識別情報と枠内の位置を特定する情報とその機能と解説、枠内に記載するテキスト(文字列)とその位置を特定する情報を有する。 As illustrated in FIGS. 8B and 8C, the operation image definition information specifies the identification information of the frame image shown in FIG. 6, the identification information of the icon shown in FIG. 7, and the position in the frame. Information, its function and explanation, text (character string) described in the frame, and information for specifying its position.
タグ情報記憶部132は、さらに、予め設計された定常操作パネル画像123を複数記憶する。各定常操作パネル画像123とそれを呼び出すためのアイコン126とは予めリンク付けられている。 The tag information storage unit 132 further stores a plurality of pre-designed steady operation panel images 123. Each steady operation panel image 123 and an icon 126 for calling it are linked in advance.
図3に示す通信部133は、ネットワークNWを介して、撮像装置15が撮像した画像を受信し、撮像装置15と無線通信機16とに、制御信号(コマンド)を送信する。 The communication unit 133 illustrated in FIG. 3 receives an image captured by the imaging device 15 via the network NW, and transmits a control signal (command) to the imaging device 15 and the wireless communication device 16.
制御部134は、マイクロプロセッサ、メモリ等を備え、機能的に、タグ検出部1341,判別処理部1342,表示出力制御部1343を備える。制御部134は、例えば、(1)表示出力制御部1343により、撮像装置15の撮像画像を受信し、表示装置12に表示する、(2)タグ検出部1341により、撮像装置15の撮像画像中に、識別タグ18に表示されている識別図形が含まれているか否かを判別し、含まれていると判別した場合には、表示出力制御部1343により、スイッチ制御情報に基づいて、操作画像124を生成し、これを撮像装置15の撮像画像に重畳して撮像画像122を合成する。さらに、撮像画像122と予め用意されている定常操作パネル画像123のうちの1つを合成し、1画面分の画像を形成する、(3)表示出力制御部1343により、合成した1画面分の画像中のアイコン(ボタン)の画像を周期的又はランダムに強調し、(4)表示出力制御部1343により、これを表示装置12に表示する。(5)脳波測定装置11から送信される検出信号(脳波信号)を脳波記憶部135に順次格納する、(6)判別処理部1342により、脳波記憶部135に格納されている検出信号を解析し、脳波信号が変化したときに強調表示されていたアイコンがいずれであるかを判別し、(7)判別処理部1342により、判別したアイコンに対応する制御を指示する制御信号を通信部133を介して機器制御装置14に送信する。 The control unit 134 includes a microprocessor, a memory, and the like, and functionally includes a tag detection unit 1341, a discrimination processing unit 1342, and a display output control unit 1343. For example, the control unit 134 receives (1) the captured image of the imaging device 15 by the display output control unit 1343 and displays the captured image on the display device 12. (2) In the captured image of the imaging device 15 by the tag detection unit 1341 Whether or not the identification graphic displayed on the identification tag 18 is included. If it is determined that the identification graphic is included, the display output control unit 1343 controls the operation image based on the switch control information. 124 is generated, and this is superimposed on the captured image of the imaging device 15 to synthesize the captured image 122. Further, the captured image 122 and one of the prepared steady operation panel images 123 are combined to form an image for one screen. (3) The display output control unit 1343 combines the images for one screen. The image of the icon (button) in the image is emphasized periodically or randomly, and (4) is displayed on the display device 12 by the display output control unit 1343. (5) Detection signals (electroencephalogram signals) transmitted from the electroencephalogram measurement apparatus 11 are sequentially stored in the electroencephalogram storage unit 135. (6) The detection signal stored in the electroencephalogram storage unit 135 is analyzed by the discrimination processing unit 1342. Then, it is determined which icon is highlighted when the electroencephalogram signal is changed, and (7) a control signal instructing control corresponding to the determined icon is transmitted via the communication unit 133 by the determination processing unit 1342. To the device control device 14.
脳波記憶部135は、脳波測定装置11から供給された検出信号(脳波信号)を数秒から数十秒の間、記憶する。 The electroencephalogram storage unit 135 stores the detection signal (electroencephalogram signal) supplied from the electroencephalogram measurement apparatus 11 for several seconds to several tens of seconds.
図1に示す機器制御装置14は、図9に示すように、通信部141と、出力部142と、制御部143とを備える。 As illustrated in FIG. 9, the device control device 14 illustrated in FIG. 1 includes a communication unit 141, an output unit 142, and a control unit 143.
通信部141は、撮像装置15からの映像をネットワークNWを介して情報処理装置13に供給し、また、情報処理装置13からの制御信号をネットワークNWを介して受信し、制御部143に供給する。 The communication unit 141 supplies the image from the imaging device 15 to the information processing device 13 via the network NW, receives the control signal from the information processing device 13 via the network NW, and supplies the control signal to the control unit 143. .
入出力部142は、撮像装置15からの映像データを受信して制御部143に供給し、制御部143からの制御データ(方向制御信号、ズーム制御信号等)を撮像装置15に供給する。また、制御部143からの制御データを無線通信機16に供給する。 The input / output unit 142 receives video data from the imaging device 15 and supplies the video data to the control unit 143, and supplies control data (direction control signal, zoom control signal, etc.) from the control unit 143 to the imaging device 15. Further, the control data from the control unit 143 is supplied to the wireless communication device 16.
制御部143は、プロセッサを備え、撮像装置15からの映像データを入出力部142を介して取り込み、通信部141を介して情報処理装置13に供給する。また、制御部143は、情報処理装置13からの制御データを通信部141を介して取り込み、入出力部142を介して撮像装置15又は無線通信機16に供給する。 The control unit 143 includes a processor, captures video data from the imaging device 15 via the input / output unit 142, and supplies the video data to the information processing device 13 via the communication unit 141. Further, the control unit 143 takes in control data from the information processing device 13 via the communication unit 141 and supplies the control data to the imaging device 15 or the wireless communication device 16 via the input / output unit 142.
図1に示す撮像装置15は、CCD(Charge Coupled Device)、CMOS(Complimentary MOS)センサ等を備え、画像を撮像し、画像信号を機器制御装置14に供給し、また、機器制御装置14からの制御信号に従って、向きを制御し、また、絞りやズームを制御する。 An imaging device 15 shown in FIG. 1 includes a CCD (Charge Coupled Device), a CMOS (Complementary MOS) sensor, and the like, captures an image, supplies an image signal to the device control device 14, and receives an image signal from the device control device 14. The direction is controlled according to the control signal, and the aperture and zoom are controlled.
無線通信機16は、無線通信機等をから構成され、電波、光、超音波等の無線信号を用いて、機器制御装置14からの制御データをスイッチ17に送信する。 The wireless communication device 16 includes a wireless communication device and the like, and transmits control data from the device control device 14 to the switch 17 using wireless signals such as radio waves, light, and ultrasonic waves.
DBサーバ20は、識別タグ18の図形情報や、操作画面124を構成する情報、操作対象(スイッチ17)を制御するためのスイッチ制御情報等を記憶したデータベース(DB)を備えており、制御装置13からの要求に応答し、これらの情報を提供する。 The DB server 20 includes a database (DB) storing graphic information of the identification tag 18, information constituting the operation screen 124, switch control information for controlling an operation target (switch 17), and the like, and a control device. In response to the request from 13, the information is provided.
スイッチ17は、手動操作が可能であると共に無線通信機16からの制御データによりリモート制御可能である。スイッチ17は、図10(a)に示すように、受信機171と、コントローラ172と、アクチュエータ173とを備える。 The switch 17 can be manually operated and can be remotely controlled by control data from the wireless communication device 16. As shown in FIG. 10A, the switch 17 includes a receiver 171, a controller 172, and an actuator 173.
受信機171は、無線通信機16からの制御データを受信し、コントローラ172に提供する。 The receiver 171 receives control data from the wireless communication device 16 and provides it to the controller 172.
コントローラ172は操作データに従って、アクチュエータ173に駆動信号を供給する。 The controller 172 supplies a drive signal to the actuator 173 according to the operation data.
アクチュエータ173は、ソレノイド、モータなどから構成され、スイッチの可動切片174を制御して、スイッチ17をオン・オフする。 The actuator 173 includes a solenoid, a motor, and the like, and controls the movable piece 174 of the switch to turn the switch 17 on and off.
なお、電球の明るさや、機器のボリューム等を調節するような場合には、図10(b)に示すように、コントローラ172により、電源回路(又は変圧器、増幅器)175の出力電圧を制御して、制御対象の機器に供給するように構成してもよい。 When adjusting the brightness of the light bulb or the volume of the device, the controller 172 controls the output voltage of the power circuit (or transformer, amplifier) 175 as shown in FIG. In addition, it may be configured to be supplied to the device to be controlled.
図1に示す識別タグ18は、枠内に予め識別可能な図形(識別図形)が表示されたカードであり、スイッチ17に隣接して配置されている。 The identification tag 18 shown in FIG. 1 is a card on which a graphic (identification graphic) that can be identified in advance is displayed in a frame, and is arranged adjacent to the switch 17.
(動作説明)
次に、上記構成のスイッチ制御装置100の動作を説明する。
まず、設備の施工段階で、操作対象機器の種類に応じて、図10(a)、(b)に示すような構成のスイッチ(ボリュームを含む)17を設置する。
(Description of operation)
Next, the operation of the switch control device 100 configured as described above will be described.
First, at a facility construction stage, a switch (including a volume) 17 having a configuration as shown in FIGS. 10A and 10B is installed in accordance with the type of operation target device.
続いて、スイッチ17に隣接して、識別タグ18を設置する。この際、識別タグ18に表示されている識別図形を互いに異なるもの(識別可能なもの)とする。図1の例では、スペードの図形が識別図形となる。 Subsequently, an identification tag 18 is installed adjacent to the switch 17. At this time, the identification figures displayed on the identification tag 18 are different from each other (identifiable). In the example of FIG. 1, the spade graphic is the identification graphic.
次に、操作対象のスイッチ(ボリュームを含む)17を操作するために必要となる操作画像を、図5(a)、(b)に例示するように設計し、図8(b)、(c)に例示するように、操作画像定義情報を作成する。即ち、操作画像124を構成する枠の識別情報と、枠内に配置するアイコンの識別情報及び位置と解説(ヘルプ)、表示するテキストとその位置と、を指定する情報を作成する。 Next, an operation image necessary for operating the operation target switch (including the volume) 17 is designed as illustrated in FIGS. 5A and 5B, and FIGS. The operation image definition information is created as illustrated in FIG. That is, information for specifying the identification information of the frame constituting the operation image 124, the identification information and position of the icon arranged in the frame, the explanation (help), the text to be displayed and the position thereof are created.
また、操作対象の各スイッチ17について、隣接して配置されている識別タグ18の識別図形と、操作画像定義情報と、そのスイッチ17の受信機171のアドレスを、図8(a)に示すように対応付けて、情報処理装置13のタグ情報記憶部132に格納する。 Further, for each switch 17 to be operated, the identification graphic of the identification tag 18 arranged adjacent thereto, the operation image definition information, and the address of the receiver 171 of the switch 17 are as shown in FIG. And stored in the tag information storage unit 132 of the information processing device 13.
利用者19の頭部には、脳波測定装置11のプローブ111がセットされる。 The probe 111 of the electroencephalogram measurement apparatus 11 is set on the head of the user 19.
スイッチ制御システム100が起動されると、信号処理回路112は、各プローブ111が検出した電圧信号に波形整形、ノイズ除去等の信号処理を行い、さらに、これをA/D変換して出力する。出力部113は、信号処理回路112が出力した検出信号を信号処理装置13に送信する。 When the switch control system 100 is activated, the signal processing circuit 112 performs signal processing such as waveform shaping and noise removal on the voltage signal detected by each probe 111, and further performs A / D conversion on the signal. The output unit 113 transmits the detection signal output from the signal processing circuit 112 to the signal processing device 13.
信号処理装置13の制御部134は、供給された検出信号を、入力部131を介して取り込み、脳波記憶部135にFIFO形式で順次格納する。これにより、脳波記憶部135には、常時、過去数秒分の検出信号が格納されている状態となる。 The control unit 134 of the signal processing device 13 takes in the supplied detection signals via the input unit 131 and sequentially stores them in the electroencephalogram storage unit 135 in the FIFO format. As a result, the electroencephalogram storage unit 135 is always in a state where detection signals for the past several seconds are stored.
また、機器制御装置14は、撮像装置15の撮像画像を情報処理装置13に送信する。 In addition, the device control device 14 transmits the captured image of the imaging device 15 to the information processing device 13.
一方、情報処理装置13の制御部134は、図11のフローチャートに示す処理を開始し、表示装置12に表示する画像を生成する。
まず、情報処理装置13の制御部134は、機器制御装置14を介して供給された撮像画像を取り込む(ステップS11)。
On the other hand, the control unit 134 of the information processing device 13 starts the process illustrated in the flowchart of FIG. 11 and generates an image to be displayed on the display device 12.
First, the control unit 134 of the information processing device 13 captures a captured image supplied via the device control device 14 (step S11).
次に、制御部134は、表示制御情報を参照し、取り込んだ撮像画像内に、識別タグ18の識別図形が存在するか否かを判別する(ステップS12)。即ち、撮像画像内に、表示制御情報に登録されている識別図形が存在するか否かを、パターンマッチング技術を用いて判別する。例えば、図8(a)に示す表示制御情報を参照する場合、枠とスペードの画像、枠とハートの画像等の有無を判別する。 Next, the control unit 134 refers to the display control information, and determines whether or not the identification graphic of the identification tag 18 exists in the captured image that has been captured (step S12). That is, it is determined using a pattern matching technique whether or not an identification figure registered in the display control information exists in the captured image. For example, when the display control information shown in FIG. 8A is referred to, the presence / absence of a frame and spade image, a frame and heart image, or the like is determined.
制御部134は、識別図形が検出された場合、検出された識別図形の1つを特定する(ステップS13)。次に、制御部134は、特定した識別図形に対応する操作画像124を合成する(ステップS14)。即ち、特定した識別図形に対応する操作画像定義情報に従って、枠の図形を特定し、その枠内の指定された位置に各アイコンとテキストを配置して、操作画像124を形成する。なお、タグ情報記憶部132に格納しきれない情報、或いは、関連情報をDBサーバ20のDBに格納し、適宜読み出して、操作画像124の生成に利用してもよい。 When the identification graphic is detected, the control unit 134 identifies one of the detected identification graphic (step S13). Next, the control unit 134 synthesizes the operation image 124 corresponding to the identified identification graphic (step S14). That is, a frame graphic is specified in accordance with the operation image definition information corresponding to the specified identification graphic, and each icon and text are arranged at a designated position in the frame to form the operation image 124. Note that information that cannot be stored in the tag information storage unit 132 or related information may be stored in the DB of the DB server 20, read as appropriate, and used to generate the operation image 124.
次に、操作画像124の形成が終了したか否かを判別する(ステップS15)。即ち、撮像画像に含まれている全ての識別図形について、対応する操作画像124が形成されたか否かを判別する(ステップS15)。未処理の識別図形が存在する場合(ステップS15;No)には、ステップS13にリターンし、次の識別図形を特定して、同様の処理を行う。 Next, it is determined whether or not the operation image 124 has been formed (step S15). That is, it is determined whether or not the corresponding operation image 124 is formed for all the identification figures included in the captured image (step S15). If there is an unprocessed identification figure (step S15; No), the process returns to step S13, the next identification figure is specified, and the same processing is performed.
ステップS12で検出された全ての識別図形について操作画像124が形成されたと判別されると(ステップS15;Yes)、撮像画像の識別図形の上に形成した操作画像124を重畳し、表示用の撮像画像122を形成する(ステップS16)。この際、操作画像124を半透明化して、下の識別図形が視認できる状態とすることが望ましい。 If it is determined that the operation image 124 has been formed for all of the identification figures detected in step S12 (step S15; Yes), the operation image 124 formed on the identification figure of the captured image is superimposed and imaging for display is performed. An image 122 is formed (step S16). At this time, it is desirable to make the operation image 124 translucent so that the lower identification figure can be visually recognized.
さらに、形成された撮像画像122と、選択状態にある(初期状態では、デフォルトの)定常操作パネル画像123とを合成して、1フレーム分の画像を合成する(ステップS17)。 Further, the formed captured image 122 and the selected steady operation panel image 123 in the selected state (default in the initial state) are synthesized to synthesize an image for one frame (step S17).
一方、ステップS12で、撮像画像中に識別図形が存在しないと判別された場合(ステップS12;No)、撮像画像と定常操作パネル画像123を合成し、1フレーム分の画像を合成する(ステップS18)。 On the other hand, when it is determined in step S12 that the identification figure does not exist in the captured image (step S12; No), the captured image and the steady operation panel image 123 are combined, and an image for one frame is combined (step S18). ).
次に、ステップS17又はS18で合成した1フレーム分の画像上に、現在強調表示しているアイコンがあるか否かを判別する(ステップS19)。即ち、今回のフレーム画像と直前のフレーム画像の両方に含まれているアイコンであって、直前のフレームで強調表示されていたアイコンがあるか否かを判別する。 Next, it is determined whether or not there is an icon that is currently highlighted on the image for one frame synthesized in step S17 or S18 (step S19). That is, it is determined whether or not there is an icon that is included in both the current frame image and the previous frame image and is highlighted in the previous frame.
強調表示中のアイコンがあれば、そのアイコンを強調表示している継続時間を更新し(例えば、1フレーム期間を加算し)、さらに、継続時間が、所定時間以上であるか否かを判別する(ステップS20)。継続時間が所定時間未満であると判別された場合(ステップS20;No)、そのアイコンの強調表示を維持する(ステップS21)。例えば、そのアイコンを他のアイコンより大きくし、時間の経過に伴ってサイズを変化させ、他のアイコンよりも明るくし、時間の経過に伴って明るさを変化させ、点滅させ(濃度(階調)を変化させ)、他のアイコンと異なる色に着色し、時間の経過に伴って色を変化させ、時間の経過に伴って移動させる、等する。 If there is an icon that is highlighted, the duration for which the icon is highlighted is updated (for example, one frame period is added), and it is further determined whether or not the duration is equal to or longer than a predetermined time. (Step S20). If it is determined that the duration is less than the predetermined time (step S20; No), the highlighted display of the icon is maintained (step S21). For example, make the icon larger than the other icons, change the size over time, make it brighter than other icons, change the brightness over time, and blink (density (gradation) ), And a different color from the other icons, changing the color with the passage of time, moving with the passage of time, and the like.
続いて、このようにして生成した1フレーム分の表示画像を、表示装置12に供給し、表示させる(ステップS21)。その後、処理は、ステップS1にリターンする。 Subsequently, the display image for one frame generated in this way is supplied to the display device 12 to be displayed (step S21). Thereafter, the process returns to step S1.
一方、ステップS20で、強調表示の継続時間が所定時間以上であると判別すると、他アイコンを特定し、継続時間を0にリセットする(ステップS22)。その後、処理は、ステップS21に進む。なお、他のアイコンを選択する順番は任意である。例えば、ランダム(完全なランダム、全アイコンが選択されるまで、未選択のアイコンのなかからランダムに選択、操作画像単位でランダム・操作画像内では順番、等)、配列順(例えば、画面上の配列が左から右、上から下に配列されている順番)、これらの組み合わせ等である。 On the other hand, if it is determined in step S20 that the duration of highlighting is equal to or longer than the predetermined time, another icon is specified and the duration is reset to 0 (step S22). Thereafter, the processing proceeds to step S21. The order of selecting other icons is arbitrary. For example, random (completely random, until all icons are selected, randomly selected from unselected icons, random for each operation image, order within the operation image, etc.), arrangement order (for example, on the screen The order of arrangement from left to right and from top to bottom), combinations thereof, and the like.
また、ステップS19で、強調アイコンが無いと判別された場合(ステップS19;No)、強調対象のアイコンを特定し、継続時間を0にリセットする(ステップS23)。その後、処理は、ステップS21に進む。なお、強調対象のアイコンを選択する順番は任意である。 If it is determined in step S19 that there is no emphasized icon (step S19; No), the emphasized icon is specified and the duration is reset to 0 (step S23). Thereafter, the processing proceeds to step S21. The order of selecting the icons to be emphasized is arbitrary.
このような処理を行う結果、図3(a)に示す表示画面を例にとると、例えば、図13(a)に示すように、操作画像124a内のアイコンI11が強調された状態が一定時間継続し、続いて、図13(b)に示すように、アイコンI12が強調された状態が一定時間継続し、・・・、操作画像124a内のアイコンの強調が終了すると、図13(c)に示すように、操作画像124b内のアイコンI21〜I24が一定時間ずつ強調される。撮像画像122内のアイコンの強調が終了すると、図13(d)に示すように、定常操作パネル画像123内の矢印アイコンI31〜I34が一定時間ずつ強調され、続いて、アイコンI41〜I43が順次強調される。
こうした表示が繰り返されることになる。
As a result of performing such processing, taking the display screen shown in FIG. 3A as an example, for example, as shown in FIG. 13A, the state where the icon I11 in the operation image 124a is emphasized for a certain period of time. Then, as shown in FIG. 13B, the state in which the icon I12 is emphasized continues for a certain period of time,..., When the enhancement of the icon in the operation image 124a is completed, FIG. As shown in FIG. 5, the icons I21 to I24 in the operation image 124b are emphasized by a certain time. When the emphasis of the icon in the captured image 122 is completed, as shown in FIG. 13D, the arrow icons I31 to I34 in the steady operation panel image 123 are emphasized for a certain period of time, and then the icons I41 to I43 are sequentially displayed. To be emphasized.
Such a display is repeated.
一方、制御部134は、図12に示す注目アイコン検出処理を、周期的に実行する。注目アイコン検出処理を開始すると、制御部134は、まず、脳波記憶部135に格納されている過去数秒(例えば、5秒程度)分の検出信号を解析し、利用者19が注視しているアイコンが強調表示される際に現れる特定の信号を探索する(ステップS31)。特定の信号が検出されると(ステップS32;Yes)、制御部134は、特定信号が生成されたタイミングで強調表示されていたアイコンを特定する(ステップS33)。アイコンが特定されると、スイッチ制御情報を参照して、そのアイコンに対応する処理を特定する(ステップS34)。続いて、制御部134は、特定された処理を実行する(ステップS35)。即ち、対応するアドレスで特定される受信機171宛に、設定されている動作を指示する制御データを送信する。 On the other hand, the control unit 134 periodically executes the attention icon detection process shown in FIG. When the attention icon detection processing is started, the control unit 134 first analyzes detection signals for the past several seconds (for example, about 5 seconds) stored in the electroencephalogram storage unit 135, and the icon that the user 19 is gazing at. A specific signal that appears when is highlighted is searched (step S31). When the specific signal is detected (step S32; Yes), the control unit 134 specifies the icon that is highlighted at the timing when the specific signal is generated (step S33). When the icon is specified, the process corresponding to the icon is specified with reference to the switch control information (step S34). Subsequently, the control unit 134 executes the specified process (step S35). That is, the control data instructing the set operation is transmitted to the receiver 171 specified by the corresponding address.
一方、ステップS31の解析処理で、特定の信号が検出されなかった場合(ステップS32;No)、制御部134は、今回の処理を終了する。 On the other hand, when a specific signal is not detected in the analysis process in step S31 (step S32; No), the control unit 134 ends the current process.
例えば、利用者19が玄関灯を点灯したいと欲したとする。
この場合、利用者19は、図13(a)に示すようにアイコンI11が強調表示されているタイミングで、アイコンの選択指定を思考する。
For example, it is assumed that the user 19 wants to turn on the entrance lamp.
In this case, the user 19 thinks about selecting and selecting an icon at the timing when the icon I11 is highlighted as shown in FIG.
制御部134は、脳波記憶部135に格納されている検出信号を解析し、アイコンI11が強調表示されているタイミングで、アイコンを注視するときに発生する特定の信号が出力されていたことを判別する(ステップS31〜S33)。続いて、制御部134は、スイッチ制御情報を参照し、対応する処理がスイッチ1のオンすることであると判別し(ステップS34)、対応する制御データを機器制御装置14を介して無線通信機16に指示する(ステップS35)。無線通信機16は、制御データを対応するアドレスに無線送信する。対応するスイッチ17(スペードの識別図形が描かれた識別タグ18に隣接すスイッチ17)の受信部171はこの制御データを受信し、コントローラ172は、受信した制御データに従ってアクチュエータ173を駆動してスイッチをオンする。これにより玄関照明が点灯する。 The control unit 134 analyzes the detection signal stored in the electroencephalogram storage unit 135, and determines that a specific signal generated when the icon is watched is output at the timing when the icon I11 is highlighted. (Steps S31 to S33). Subsequently, the control unit 134 refers to the switch control information, determines that the corresponding process is to turn on the switch 1 (step S34), and transmits the corresponding control data to the wireless communication device via the device control device 14. 16 is instructed (step S35). The wireless communication device 16 wirelessly transmits control data to a corresponding address. The receiving unit 171 of the corresponding switch 17 (the switch 17 adjacent to the identification tag 18 on which the spade identification figure is drawn) receives this control data, and the controller 172 drives the actuator 173 according to the received control data to switch Turn on. As a result, the entrance lighting is turned on.
例えば、撮像装置15を左方向に向けたい場合、利用者19は、図13(d)に示すようにアイコンI31が強調表示されているタイミングで、アイコンの選択指定を思考する。 For example, when it is desired to turn the imaging device 15 to the left, the user 19 thinks about selecting and selecting an icon at the timing when the icon I31 is highlighted as shown in FIG.
制御部134は、検出信号を解析し、アイコンI31が強調表示中に特定の信号が出力されていたことを判別する(ステップS31〜S33)。続いて、スイッチ制御情報を参照し、対応する処理が撮像装置15の左方向への回動制御であると判別し(ステップS34)、対応する制御データを機器制御装置14を介して撮像装置15に指示する(ステップS35)。撮像装置15は、制御データに従って、左方向に回動する。 The control unit 134 analyzes the detection signal and determines that the specific signal is output while the icon I31 is highlighted (steps S31 to S33). Subsequently, referring to the switch control information, it is determined that the corresponding process is the leftward rotation control of the imaging device 15 (step S34), and the corresponding control data is obtained via the device control device 14. (Step S35). The imaging device 15 rotates to the left according to the control data.
また、例えば、利用者19が空調機器を制御したいと欲したとする。
この場合、利用者19は、13(e)に示すようにアイコンI41が強調表示されているタイミングで、アイコンの選択指定を思考する。
Further, for example, it is assumed that the user 19 wants to control the air conditioner.
In this case, the user 19 thinks of selecting and selecting an icon at the timing when the icon I41 is highlighted as shown in 13 (e).
制御部134は、検出信号を解析し、アイコンI41が強調表示中に特定の信号が出力されていたことを判別し(ステップS31)、続いて、スイッチ制御情報を参照し、対応する処理がリンクされた定常操作画像の表示であると判別し(ステップS32)、ステップS22で合成する対象の操作画像を、指示されたアイコンに対応するものに切り替える(ステップS33)。 The control unit 134 analyzes the detection signal, determines that the specific signal is output while the icon I41 is highlighted (step S31), and then refers to the switch control information to link the corresponding process. It is determined that the displayed steady operation image is displayed (step S32), and the operation image to be synthesized in step S22 is switched to one corresponding to the instructed icon (step S33).
以上説明したように、この実施の形態に係る環境操作システム100によれば、任意のスイッチを、直接操作することなく、操作することが可能となる。 As described above, according to the environmental operation system 100 according to this embodiment, any switch can be operated without directly operating it.
また、利用者19の生活環境内のスイッチ17を制御するためのスイッチ制御情報を予めタグ情報記憶部132に格納し、かつ、各スイッチ17に隣接して識別タグ18を配置しておけば、利用者19がこのスイッチ制御装置100と共に移動する限り、任意のスイッチ17を制御可能となる。 In addition, if switch control information for controlling the switch 17 in the living environment of the user 19 is stored in the tag information storage unit 132 in advance and the identification tag 18 is arranged adjacent to each switch 17, As long as the user 19 moves with the switch control device 100, the arbitrary switch 17 can be controlled.
(変形例)
上記実施の形態においては、操作画像124を対応する識別タグ18に重ねて(半透明状態)で表示したが、操作画像124の表示位置は任意である。例えば、図14に示すように画面の端部に配置してもよい。
(Modification)
In the above embodiment, the operation image 124 is displayed on the corresponding identification tag 18 so as to overlap (semi-transparent state), but the display position of the operation image 124 is arbitrary. For example, as shown in FIG. 14, you may arrange | position at the edge part of a screen.
上記実施の形態においては、図3(a)、(b)に示すように、操作画像124を、正面を向いて表示した。ただし、表示態様は任意である。例えば、識別タグ18に表示されている枠の画像の傾きから、撮像装置15に対する識別タグ18の傾き及び/又は距離を求め、操作画像124を、この傾きと同一の傾きとなるように、また、距離に応じたサイズに加工し、これを表示してもよい。 In the above embodiment, as shown in FIGS. 3A and 3B, the operation image 124 is displayed facing the front. However, the display mode is arbitrary. For example, the inclination and / or distance of the identification tag 18 with respect to the imaging device 15 is obtained from the inclination of the image of the frame displayed on the identification tag 18, and the operation image 124 is set to have the same inclination as this inclination. , It may be processed into a size corresponding to the distance and displayed.
例えば、撮像画像中の識別図形の枠(本来矩形)が図15(a)に示すものであった場合に、枠の頂点P1〜p4の座標(x1,y1)〜(x4,y4)を求め、図15(b)に示されるように、4つの頂点P1〜P4の座標と枠の既知の一辺の距離Lに基づいて、タグの傾き角θ1(撮像装置15の光軸に直角な面上の回転角)、θ2(撮像装置15の光軸と成す角)、タグまでの距離Dを求め、図15(c)に例示するように相似形となるように操作画像124を変形して表示すればよい。 For example, when the frame (originally rectangular) of the identification figure in the captured image is as shown in FIG. 15A, the coordinates (x1, y1) to (x4, y4) of the vertices P1 to p4 of the frame are obtained. 15B, based on the coordinates of the four vertices P1 to P4 and the distance L of one known side of the frame, the tag inclination angle θ1 (on the plane perpendicular to the optical axis of the imaging device 15). Rotation angle), θ2 (angle formed with the optical axis of the imaging device 15), and the distance D to the tag, and the operation image 124 is deformed and displayed so as to have a similar shape as illustrated in FIG. do it.
(第2の実施の形態)
上記第1の実施の形態においては、操作対象の各スイッチ17について、スイッチ制御情報をタグ情報記憶部132に予め登録させておく必要がある。しかし、利用者19の生活環境にある(移動可能範囲にある)全てのスイッチ17のスイッチ制御情報をタグ情報記憶部132に予め登録するのは容易ではない。そこで、このような問題を解決できる第2の実施の形態を以下に説明する。
(Second Embodiment)
In the first embodiment, it is necessary to register switch control information in advance in the tag information storage unit 132 for each switch 17 to be operated. However, it is not easy to register the switch control information of all the switches 17 in the living environment of the user 19 (within the movable range) in the tag information storage unit 132 in advance. Therefore, a second embodiment that can solve such a problem will be described below.
本実施の形態においては、図16に模式的に示すように、部屋、建物、エリア211の入口212や内壁213等に、RFID等の非接触情報記憶媒体221を配置する。 In this embodiment, as schematically shown in FIG. 16, a non-contact information storage medium 221 such as an RFID is disposed in a room, a building, the entrance 212 of the area 211, the inner wall 213, or the like.
各非接触情報記憶媒体221は、図17に示すように、メモリ231と無線通信部232と制御部233とを備える。メモリ231には、非接触情報記憶媒体221が設置されている部屋、建物、或いはエリア211内に配置されている各スイッチ17についてのスイッチ制御情報が予め格納されている。制御部233は、無線通信部232を介して、リーダ・ライタからの問い合わせを受けると、メモリ231からスイッチ制御情報を読み出し、無線通信部232を介してリーダ・ライタに送信する。 As shown in FIG. 17, each non-contact information storage medium 221 includes a memory 231, a wireless communication unit 232, and a control unit 233. In the memory 231, switch control information for each switch 17 arranged in the room, building, or area 211 where the non-contact information storage medium 221 is installed is stored in advance. Upon receiving an inquiry from the reader / writer via the wireless communication unit 232, the control unit 233 reads the switch control information from the memory 231 and transmits the switch control information to the reader / writer via the wireless communication unit 232.
また、スイッチ制御システム100の情報処理装置13は、図18に示すように、非接触情報記憶媒体221と交信するための無線通信部136を備える。なお、情報処理装置13が無線通信機16を介して非接触情報記憶媒体221と通信を行うように構成してもよい。 Moreover, the information processing apparatus 13 of the switch control system 100 includes a wireless communication unit 136 for communicating with the non-contact information storage medium 221 as shown in FIG. Note that the information processing apparatus 13 may be configured to communicate with the non-contact information storage medium 221 via the wireless communication device 16.
情報処理装置13の制御部134は、利用者の指示により或いは周期的に、入力部131を介して周囲の非接触情報記憶媒体221と交信し、スイッチ制御情報を読み出し、タグ情報記憶部132に格納する。また、追加情報・関連情報をDBサーバ20から読み出す等してもよい。 The control unit 134 of the information processing apparatus 13 communicates with the surrounding non-contact information storage medium 221 via the input unit 131 according to a user instruction or periodically, reads the switch control information, and stores it in the tag information storage unit 132. Store. Further, additional information / related information may be read from the DB server 20.
以後の動作は、上述の第1の実施の形態における各装置の動作と同一である。 The subsequent operation is the same as the operation of each device in the first embodiment described above.
このような構成とすれば、スイッチ制御システム100は、移動先で、非接触情報記憶媒体221と交信して、移動先のスイッチ制御情報を自動的に、図11に示す処理に反映する。従って、撮像装置15の視野内の各スイッチ17について操作画像が形成・表示され、その操作が可能となる。 With such a configuration, the switch control system 100 communicates with the non-contact information storage medium 221 at the movement destination, and automatically reflects the switch control information at the movement destination in the processing shown in FIG. Therefore, an operation image is formed and displayed for each switch 17 in the field of view of the imaging device 15, and the operation can be performed.
(第2の実施の形態の変形例)
各識別タグ18をRFID等の非接触情報記憶媒体から構成し、対応するスイッチ17を制御するためのスイッチ制御情報を格納するようにしてもよい。
この場合、識別タグ18は、例えば、図17に示す構成を有し、メモリ231に隣接するスイッチ17を操作するためのスイッチ制御情報を格納しており、識別タグ18の表面には、識別図形が描かれている。
また、情報処理装置13は、識別タグ18と交信するための通信機能を備える。
(Modification of the second embodiment)
Each identification tag 18 may be composed of a non-contact information storage medium such as an RFID and store switch control information for controlling the corresponding switch 17.
In this case, the identification tag 18 has, for example, the configuration shown in FIG. 17 and stores switch control information for operating the switch 17 adjacent to the memory 231. Is drawn.
In addition, the information processing apparatus 13 includes a communication function for communicating with the identification tag 18.
情報処理装置13は、利用者の指示により或いは周期的に周囲の非接触情報記憶媒体221と交信し、スイッチ制御情報を読み出し、タグ情報記憶部132に格納する。また、追加情報・関連情報があれば、必要に応じて、DBサーバ20から読み出す。
以後の、情報処理装置13の動作は上述の第1の実施の形態における動作と同一である。
このような構成とすれば、情報処理装置13は、周囲の識別タグ18と交信することにより、周囲のスイッチ17を制御するためのスイッチ制御情報を自動的に取得して、操作可能とすることができ、利用者が移動する場合にも対応できる。
The information processing device 13 communicates with the surrounding non-contact information storage medium 221 according to a user instruction or periodically, reads the switch control information, and stores it in the tag information storage unit 132. If there is additional information / related information, it is read from the DB server 20 as necessary.
The subsequent operation of the information processing apparatus 13 is the same as the operation in the first embodiment described above.
With such a configuration, the information processing device 13 communicates with the surrounding identification tag 18 to automatically acquire switch control information for controlling the surrounding switch 17 and make it operable. It is possible to cope with the case where the user moves.
なお、隣接する識別タグ18は、互いに異なる通信チャネル(周波数、タイムスロット等)を利用するように予め調整しておくことが望ましい。 The adjacent identification tags 18 are preferably adjusted in advance so as to use different communication channels (frequency, time slot, etc.).
(第3の実施の形態)
上記実施の形態においては、表示装置12として、設置型のものを例示したが、例えば、装着型のヘッドマウントディスプレイ等を利用することも可能である。
この場合、図19に示すように、ヘッドマウントディスプレイ(表示装置)125と撮像装置15とを一体化し、利用者が向いている方向の画像を撮像装置15で取得するようにしてもよい。また、取得した画像をヘッドマウントディスプレイ125に表示しても、或いは、ヘッドマウントディスプレイ125を半透過状態として、外部が見えるようにしてもよい。
(Third embodiment)
In the above-described embodiment, the display device 12 is an installation type, but for example, a wearable head mounted display or the like can be used.
In this case, as shown in FIG. 19, the head mounted display (display device) 125 and the imaging device 15 may be integrated, and an image in a direction in which the user is facing may be acquired by the imaging device 15. Further, the acquired image may be displayed on the head mounted display 125, or the head mounted display 125 may be translucent to allow the outside to be seen.
この構成の場合、通常時は、表示装置12を透過状態として、表示装置12を通して外部を見ることができる状態とし、識別図形を検出したときに、検出した識別図形に対応する操作画像124を形成し、識別図形が見える位置に、例えば、半透過状態で表示するようにしてもよい。
また、表示画面の下部に定常操作パネルを表示するようにしてもよい。
In the case of this configuration, normally, the display device 12 is set in a transparent state so that the outside can be seen through the display device 12, and when an identification graphic is detected, an operation image 124 corresponding to the detected identification graphic is formed. Then, it may be displayed in a semi-transparent state at a position where the identification figure can be seen.
A steady operation panel may be displayed at the bottom of the display screen.
(第3の実施の形態)
上記実施の形態では、スイッチと識別タグとを1:1に対応付ける例を示したが、1:多或いは多:1に対応付けることも可能である。
以下、一例として、操作対象のスイッチと識別タグとを1:多に対応つける例を説明する。
(Third embodiment)
In the above-described embodiment, an example in which the switch and the identification tag are associated with 1: 1 is shown, but it is also possible to associate 1: multiple or multi: 1.
Hereinafter, as an example, an example in which the switch to be operated and the identification tag are associated one to many will be described.
まず、本実施の形態においては、操作対象のスイッチは、電動車椅子等の車両104のコントローラであり、表示装置12に表示されたアイコンを指定することにより、選択されたアイコンに割り当てられている操作をコントローラに指示するものとする。
この場合、図20に示すように、スイッチ制御システム100からコントローラ101に制御データが送信され、コントローラ101は、この制御データに従って、車両104のドライブ機構(駆動機構)102を制御する。
First, in the present embodiment, the switch to be operated is a controller of the vehicle 104 such as an electric wheelchair, and the operation assigned to the selected icon by designating the icon displayed on the display device 12. To the controller.
In this case, as shown in FIG. 20, the control data is transmitted from the switch control system 100 to the controller 101, and the controller 101 controls the drive mechanism (drive mechanism) 102 of the vehicle 104 according to the control data.
次に、例えば、図21に例示するような道路105を移動する場面を想定する。道路105の分岐点106,107には、識別タグ18が配置されている。 Next, for example, a scene of moving on the road 105 illustrated in FIG. 21 is assumed. Identification tags 18 are arranged at the branch points 106 and 107 of the road 105.
車両105が移動して、分岐点106の近傍に達すると、図22(a−1)に例示するような画像が表示装置12に表示される。ここで、情報処理装置13の制御部134は、画像中に識別画像(スペードの図形)を検出し、対応するスイッチ制御情報に従って、一旦停止をコントローラ101に指示する。指示に従って、コントローラ101はドライブ機構102を停止する。さらに、制御部134は、スイッチ制御情報に従って、図22(a−2)に示すようなアイコンを生成し、図22(a−3)に示すように表示装置12に表示する。利用者は、行きたい方向を指示するアイコンを選択する。スイッチ制御装置100は、選択されたアイコンを検出し、コントローラ101に指示する。コントローラ101は、ドライブ機構102を制御して、指示された方向に車両104を進める。 When the vehicle 105 moves and reaches the vicinity of the branch point 106, an image as illustrated in FIG. 22A-1 is displayed on the display device 12. Here, the control unit 134 of the information processing apparatus 13 detects an identification image (spade figure) in the image, and instructs the controller 101 to temporarily stop according to the corresponding switch control information. In accordance with the instruction, the controller 101 stops the drive mechanism 102. Further, the control unit 134 generates an icon as shown in FIG. 22A-2 according to the switch control information, and displays it on the display device 12 as shown in FIG. 22A-3. The user selects an icon that indicates the desired direction. The switch control device 100 detects the selected icon and instructs the controller 101. The controller 101 controls the drive mechanism 102 to advance the vehicle 104 in the instructed direction.
続いて、車両105が移動して、分岐点107の近傍に達すると、図22(b−1)に例示するような画像が表示装置12に表示される。制御部134は、画像中に識別画像(ハートの図形)を検出し、対応するスイッチ制御情報に従って、一旦停止をコントローラ101に指示して、車両105を停止させ、
さらに、図22(b−1)に示すようなアイコンを生成し、図22(b−3)に示すように表示装置12に表示する。利用者は、行きたい方向を指示するアイコンを選択する。スイッチ制御装置100は、選択されたアイコンを検出し、コントローラ101に指示する。コントローラ101は、ドライブ機構102を制御して、指示された方向に車両104を進める。
Subsequently, when the vehicle 105 moves and reaches the vicinity of the branch point 107, an image as illustrated in FIG. 22B-1 is displayed on the display device 12. The control unit 134 detects an identification image (heart shape) in the image, instructs the controller 101 to stop temporarily according to the corresponding switch control information, stops the vehicle 105,
Furthermore, an icon as shown in FIG. 22 (b-1) is generated and displayed on the display device 12 as shown in FIG. 22 (b-3). The user selects an icon that indicates the desired direction. The switch control device 100 detects the selected icon and instructs the controller 101. The controller 101 controls the drive mechanism 102 to advance the vehicle 104 in the instructed direction.
このように、この実施の形態においては、複数の識別タグ18と特定のスイッチとが対応付けられ、識別タグ18にスイッチの操作が対応付けられる。そして、識別タグ18とスイッチ制御システム100とがある程度近接した段階、即ち、スイッチ操作が必要となったタイミングで、識別タグ18が認識され、その時点で、必要な操作を指示するアイコンが表示装置12に表示され、操作対象である駆動機構105の操作が可能となる。 Thus, in this embodiment, a plurality of identification tags 18 are associated with specific switches, and switch operations are associated with the identification tags 18. The identification tag 18 is recognized when the identification tag 18 and the switch control system 100 are close to each other to some extent, that is, when a switch operation is required, and at that time, an icon that indicates the necessary operation is displayed on the display device. 12, the drive mechanism 105 that is the operation target can be operated.
この構成によれば、車両104のハンドル、操作レバー等を直接操作しなくても、車両104を制御することが可能となり、例えば、肢体が不自由な方でも、車両104の操作が可能となる。 According to this configuration, the vehicle 104 can be controlled without directly operating the steering wheel, operation lever, and the like of the vehicle 104. For example, the vehicle 104 can be operated even when the limb is disabled. .
なお、識別タグ18を、スイッチ制御情報を記憶した非接触情報記憶媒体(RFID等)から構成し、スイッチ制御システム100が所定距離まで近づいた時点で、識別タグ18を認識できるようにしてもよい。 The identification tag 18 may be formed of a non-contact information storage medium (RFID or the like) that stores switch control information so that the identification tag 18 can be recognized when the switch control system 100 approaches a predetermined distance. .
(第4の実施の形態)
第3の実施の形態では、利用者19が車両104を自らの意志で制御する例を示したが、車両104等を自動制御することも可能である。以下、車両104を自動制御する例を説明する。
(Fourth embodiment)
In the third embodiment, an example in which the user 19 controls the vehicle 104 by his / her own will has been described. However, the vehicle 104 and the like can be automatically controlled. Hereinafter, an example in which the vehicle 104 is automatically controlled will be described.
この例では、前提として、デパートの各フロアがスロープで結ばれており、車両104がフロア間を移動可能であるとする。また、各階の床面には、車両104の予想される移動経路が特定色でペイントされている。 In this example, it is assumed that the floors of the department stores are connected by slopes, and the vehicle 104 can move between the floors. Further, the expected movement route of the vehicle 104 is painted in a specific color on the floor surface of each floor.
また、車両104は、図23に示すように、移動経路を検出するための経路検出部311と、移動コースを予め記憶する経路メモリ312とを備えている。 Further, as shown in FIG. 23, the vehicle 104 includes a route detection unit 311 for detecting a travel route, and a route memory 312 for storing a travel course in advance.
また、デパートの各「館内案内板」の横には、互いに異なる識別図形が描かれた識別タグ18が配置されている。 Further, an identification tag 18 on which an identification graphic different from each other is drawn is arranged next to each “interior guide board” of the department store.
各識別タグ18の識別図形と、その識別タグ18が配置されている位置から任意の売り場に到るコースは予め経路メモリ312に格納されている。 The identification graphic of each identification tag 18 and the course from the position where the identification tag 18 is arranged to an arbitrary sales floor are stored in the path memory 312 in advance.
このような構成において、スイッチ制御システム100の制御部134は、撮像画像中に館内案内板に対応する識別タグ18上の識別図形を検出すると、例えば、図24(a)に示すように、対応する操作画像124を表示する。この例では、識別タグ18に描かれた識別図形は「スペード」であり、操作画像124は、館内案内に相当する画像であり、「階数」と「商品分類」等がアイコンとして配置されている。 In such a configuration, when the control unit 134 of the switch control system 100 detects the identification graphic on the identification tag 18 corresponding to the hall information board in the captured image, for example, as shown in FIG. The operation image 124 to be displayed is displayed. In this example, the identification figure drawn on the identification tag 18 is “spade”, the operation image 124 is an image corresponding to the in-house guidance, and “floor”, “product classification”, and the like are arranged as icons. .
利用者19は、目的とする階を示すアイコン(「1F」〜「4F」、「屋上」)或いは商品を示すアイコン(「レストラン」、「衣料品」)などが強調表示されているタイミングで、その選択を意識する。 At the timing when the user 19 highlights an icon indicating the target floor (“1F” to “4F”, “rooftop”) or an icon indicating a product (“restaurant”, “clothing”). Be aware of that choice.
利用者19が、例えば、図24(b)の状態で、選択を意識すれば、アイコン「衣料品」が選択され、スイッチ制御システム100は、「衣料品」が選択されたことをコントローラ101に通知する。
コントローラ101は、スペードが描かれた識別タグ18の設置位置から「衣料品」が陳列されている位置(2Fの所定エリア)に到る経路を経路メモリ312から読み出す。
For example, if the user 19 is conscious of selection in the state of FIG. 24B, the icon “clothing” is selected, and the switch control system 100 notifies the controller 101 that “clothing” has been selected. Notice.
The controller 101 reads, from the path memory 312, a path from the installation position of the identification tag 18 on which the spade is drawn to a position (a predetermined area on 2F) where “clothing” is displayed.
以後、コントローラ101は、床にペイントされた経路を経路検出部311によりトレースしながら、ドライブ機構102を制御し、車両104を2階の衣料品が陳列されている位置まで駆動する。なお、車両104を所定の経路に沿って目的地まで移動すること自体は、所謂、無人搬送車を制御・駆動する方法と同一である。
このような構成によれば、車両104を、自動制御することが可能となる。
Thereafter, the controller 101 controls the drive mechanism 102 while tracing the route painted on the floor by the route detection unit 311 to drive the vehicle 104 to a position where clothing items on the second floor are displayed. Note that moving the vehicle 104 to a destination along a predetermined route is the same as a method of controlling and driving a so-called automatic guided vehicle.
According to such a configuration, the vehicle 104 can be automatically controlled.
(第5の実施の形態)
第3、第4の実施の形態では、電動車椅子を制御する例を示したが制御対象は任意である。
例えば、デパートの例で示すと、エレベータを制御する場合などにも適用可能である。以下、本発明をエレベータを制御するシステムに適用した例を説明する。
本実施の形態においては、エレベータ内、例えば、ドアの内側に、識別タグ18が配置され、この識別タグ18に、図24(a)に示すような操作画像124が対応付けられている。
(Fifth embodiment)
In the third and fourth embodiments, the example of controlling the electric wheelchair has been shown, but the control target is arbitrary.
For example, in the case of a department store, the present invention can be applied to the case of controlling an elevator. Hereinafter, an example in which the present invention is applied to a system for controlling an elevator will be described.
In the present embodiment, an identification tag 18 is arranged in an elevator, for example, inside a door, and an operation image 124 as shown in FIG. 24A is associated with the identification tag 18.
制御部134は、撮像画像中に館内案内板に対応する識別図形を検出すると、例えば、図24(a)に示すように、対応する操作画像124を表示する。 When the controller 134 detects an identification graphic corresponding to the hall information board in the captured image, the controller 134 displays a corresponding operation image 124 as shown in FIG. 24A, for example.
利用者19は、目的とする階を示すアイコン(「1F」〜「4F」、「屋上」)或いは商品を示すアイコン(「レストラン」、「衣料品」)などが強調表示されているタイミングで、その選択を意識する。
利用者19が、例えば、図24(b)の状態で、選択を意識すれば、アイコン「衣料品」が選択され、スイッチ制御システム100は、「衣料品」が選択されたことを判別し、衣料品が2階に相当することを検出する。制御部134は、機器制御装置14を制御して、エレベータに設置された受信機171に、「2階」を指示するコマンドを送信する。
エレベータのコントローラ172は、行き先階を2階にセットする。
At the timing when the user 19 highlights an icon indicating the target floor (“1F” to “4F”, “rooftop”) or an icon indicating a product (“restaurant”, “clothing”). Be aware of that choice.
For example, if the user 19 is aware of the selection in the state of FIG. 24B, the icon “clothing” is selected, and the switch control system 100 determines that “clothing” has been selected. Detect that the clothing corresponds to the second floor. The control unit 134 controls the device control device 14 to transmit a command instructing “second floor” to the receiver 171 installed in the elevator.
The elevator controller 172 sets the destination floor to the second floor.
この構成によれば、エレベータを任意に制御することが可能となる。 According to this configuration, the elevator can be arbitrarily controlled.
(第6の実施の形態)
上記実施の形態においては、撮像画像中の識別画像を検出し、これにより、アイコンを表示したが、非接触情報記憶媒体221を検出することにより、アイコンを表示するように構成してもよい。
この場合、非接触情報記憶媒体221は、図17に例示した構成を有し、メモリ231には、例えば、図25に例示する構成のスイッチ制御情報が格納される。
このスイッチ制御情報は、識別図形に関する情報を含んでいない。また、無線通信部232は、例えば、数メートル程度の通信距離を有する。
また、スイッチ制御システム100は、図18に示す構成又は無線通信部16を介して非接触情報記憶媒体221と交信する構成を有する。
(Sixth embodiment)
In the above embodiment, the identification image in the captured image is detected and the icon is displayed thereby. However, the non-contact information storage medium 221 may be detected to display the icon.
In this case, the non-contact information storage medium 221 has the configuration illustrated in FIG. 17, and the memory 231 stores, for example, switch control information having the configuration illustrated in FIG.
This switch control information does not include information related to the identification graphic. The wireless communication unit 232 has a communication distance of about several meters, for example.
Further, the switch control system 100 has a configuration shown in FIG. 18 or a configuration for communicating with the non-contact information storage medium 221 via the wireless communication unit 16.
次に、図26を参照して、このような構成のスイッチ制御システム100の動作を説明する。なお、この例では、表示装置12は、透過型であり、例えば、図19に示すようなヘッドマウントディスプレイから構成される。 Next, the operation of the switch control system 100 having such a configuration will be described with reference to FIG. In this example, the display device 12 is a transmissive type, and includes, for example, a head mounted display as shown in FIG.
まず、情報処理装置13の制御部134は、無線通信部136を介して近傍の非接触情報記憶媒体221と交信する(ステップS41)。
次に、制御部134は、交信できた非接触情報記憶媒体221が存在するか否かを判別する(ステップS42)。
First, the control unit 134 of the information processing apparatus 13 communicates with a nearby non-contact information storage medium 221 via the wireless communication unit 136 (step S41).
Next, the control unit 134 determines whether or not there is a non-contact information storage medium 221 that can be communicated (step S42).
制御部134は、存在すると判別された場合、検出された各非接触情報記憶媒体221からスイッチ制御情報を読み出す(ステップS43)。なお、非接触情報記憶媒体221に格納しきれない情報を、或いは、関連情報をタグ情報記憶部132及び/又はDBサーバ20のDBに格納し、任意の情報を読み出して、操作画像124の生成に利用してもよい。 When it is determined that the control unit 134 exists, the control unit 134 reads the switch control information from each detected non-contact information storage medium 221 (step S43). Note that information that cannot be stored in the non-contact information storage medium 221 or related information is stored in the tag information storage unit 132 and / or the DB of the DB server 20, and arbitrary information is read out to generate the operation image 124. You may use it.
次に、制御部134は、読み出したスイッチ制御情報に基づいて、操作画像124を合成する(ステップS44)。即ち、読み出した各スイッチ制御情報に含まれている操作画像定義情報に従って、枠の図形を特定し、その枠内の指定された位置に各アイコンとテキストを配置して、操作画像124を形成する。 Next, the control unit 134 synthesizes the operation image 124 based on the read switch control information (step S44). That is, according to the operation image definition information included in each read switch control information, the figure of the frame is specified, and the operation image 124 is formed by arranging each icon and text at a designated position in the frame. .
次に、ステップS41で検出された全ての非接触情報記憶媒体221について操作画像124が形成されたと、生成した操作画像124と選択状態にある(初期状態では、デフォルトの)定常操作パネル画像123とを合成して、1フレーム分の画像を合成する(ステップS45)。 Next, when the operation image 124 is formed for all the non-contact information storage media 221 detected in step S41, the generated operation image 124 is in a selected state (default in the initial state) and a steady operation panel image 123. Are combined to synthesize an image for one frame (step S45).
一方、ステップS42で、非接触情報記憶媒体221が存在しないと判別された場合(ステップS42;No)、表示対象の定常操作パネル画像123を選択する(ステップS46)。 On the other hand, if it is determined in step S42 that the non-contact information storage medium 221 does not exist (step S42; No), the steady operation panel image 123 to be displayed is selected (step S46).
次に、ステップS45又はS46で合成した1フレーム分の画像上に、現在強調表示しているアイコンがあるか否かを判別する(ステップS47)。 Next, it is determined whether or not there is an icon that is currently highlighted on the image for one frame synthesized in step S45 or S46 (step S47).
強調表示中のアイコンがあれば、そのアイコンを強調表示している継続時間を更新し(例えば、1フレーム期間を加算し)、さらに、継続時間が、所定時間以上であるか否かを判別する(ステップS48)。継続時間が所定時間未満であると判別された場合(ステップS48;No)、そのアイコンの強調表示を維持する(ステップS49)。 If there is an icon that is highlighted, the duration for which the icon is highlighted is updated (for example, one frame period is added), and it is further determined whether or not the duration is equal to or longer than a predetermined time. (Step S48). When it is determined that the duration time is less than the predetermined time (step S48; No), the highlighted display of the icon is maintained (step S49).
続いて、このようにして生成した1フレーム分の表示画像を、表示装置12に供給し、表示させる(ステップS50)。その後、処理は、ステップS41にリターンする。 Subsequently, the display image for one frame generated in this way is supplied to the display device 12 to be displayed (step S50). Thereafter, the process returns to step S41.
一方、ステップS48で、強調表示の継続時間が所定時間以上であると判別すると、他アイコンを特定し、継続時間を0にリセットする(ステップS51)。その後、処理は、ステップS49に進む。 On the other hand, if it is determined in step S48 that the duration of highlighting is equal to or longer than the predetermined time, another icon is specified and the duration is reset to 0 (step S51). Thereafter, the processing proceeds to step S49.
また、ステップS47で、強調アイコンが無いと判別された場合(ステップS47;No)、強調対象のアイコンを特定し、継続時間を0にリセットする(ステップS52)。その後、処理は、ステップS21に進む。 If it is determined in step S47 that there is no emphasized icon (step S47; No), the emphasized icon is specified and the duration is reset to 0 (step S52). Thereafter, the processing proceeds to step S21.
このような処理を行う結果、一定距離内にある非接触情報記憶媒体221に格納されたスイッチ制御情報により特定されるスイッチ操作を可能とするための操作画像124が、図14に例示するように、表示される。 As a result of such processing, an operation image 124 for enabling the switch operation specified by the switch control information stored in the non-contact information storage medium 221 within a certain distance is illustrated in FIG. ,Is displayed.
そして、操作画像124上のアイコン及び定常操作パネル画像123上のアイコンが順次強調表示される。
そして、利用者19が、所望のアイコンが強調表示されているタイミングで、そのアイコンの選択を希望することにより、脳波に変化が現れ、この変化が検出され、そのタイミングで強調されていたアイコンが特定され、そのアイコンに対応付けられている操作が実行される。
Then, the icon on the operation image 124 and the icon on the steady operation panel image 123 are sequentially highlighted.
Then, when the user 19 desires to select the icon at the timing when the desired icon is highlighted, a change appears in the electroencephalogram, the change is detected, and the icon highlighted at the timing is displayed. The operation identified and associated with the icon is executed.
このような構成によれば、操作対象とするスイッチ17に対応するスイッチ制御情報を非接触情報記憶媒体221に格納して配置することにより、各スイッチの遠隔操作が可能となる。 According to such a configuration, the switch control information corresponding to the switch 17 to be operated is stored and arranged in the non-contact information storage medium 221, thereby enabling remote operation of each switch.
以上の説明においては、脳波の変化を検出して、アイコンを選択する例を説明したが、アイコンを指定する手法は任意である。 In the above description, an example of detecting an electroencephalogram change and selecting an icon has been described. However, a method for specifying an icon is arbitrary.
例えば、脳波を判別関数で処理することにより、注視しているアイコンを判別するように構成してもよい。また、脳波は、頭皮上の電極により計測されたものに限らず、硬膜下電極などにより計測されたものでも良い。さらに、本システムは、脳磁計など他の脳機能計測手法を用いても動作する。また、脳波に限らず、任意の筋肉からの信号でもよい。 For example, the icon being watched may be discriminated by processing the electroencephalogram with a discriminant function. Further, the electroencephalogram is not limited to that measured by the electrode on the scalp but may be measured by the subdural electrode or the like. Furthermore, this system can be operated using other brain function measurement methods such as a magnetoencephalograph. Further, the signal is not limited to an electroencephalogram but may be a signal from any muscle.
また、体の各部、例えば、指、頭部の微妙な動きであってもよい。
また、例えば、図27に示すように、利用者19の顔を撮影する撮像装置を配置し、撮像装置で撮影した画像から、利用者19の視線の方向を判別し、視線の位置にあるアイコンを選択するように構成してもよい。この場合には、アイコンを順次強調表示する必要はない。
Further, it may be a delicate movement of each part of the body, for example, a finger or a head.
Also, for example, as shown in FIG. 27, an imaging device that captures the face of the user 19 is arranged, the direction of the line of sight of the user 19 is determined from the image captured by the imaging device, and the icon at the position of the line of sight May be selected. In this case, it is not necessary to highlight the icons sequentially.
以上説明したように、本発明の制御システム・方法は、切替スイッチ、オン・オフスイッチ、ボリュームスイッチ等の狭義のスイッチの制御に限らず、機器、装置、システム等に指示・コマンド・入力等を与えるもの一般に広く適用可能である。また、利用者19が肢体不自由者の場合などに特に有効であるが、利用者の属性は任意であり、健常者の利用にも有効である。 As described above, the control system / method of the present invention is not limited to the control of switches in a narrow sense such as a changeover switch, on / off switch, volume switch, etc. It is generally applicable to what is given. In addition, this is particularly effective when the user 19 is a physically handicapped person or the like, but the user's attributes are arbitrary, and it is also effective for use by a healthy person.
以上、この発明の実施の形態を説明したが、この発明は、上記実施の形態に限定されるものではなく、任意に応用及び変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be arbitrarily applied and modified.
11 脳波測定装置
12 表示装置
13 情報処理装置
14 機器制御装置
15 撮像装置
16 無線通信機
17 スイッチ
18 識別タグ
19 利用者
20 データベース(DB)サーバ
100 スイッチ制御システム
111 プローブ
112 信号処理回路
113 出力部
121 操作用画面
122 撮像画像
124 操作画像
123 定常操作パネル画像
125 ヘッドマウントディスプレイ
131 入力部
132 タグ情報記憶部
133 通信部
134 制御部
135 脳波記憶部
141 通信部
142 入出力部
143 制御部
171 受信機
172 コントローラ
173 アクチュエータ
11 EEG measurement device 12 Display device 13 Information processing device 14 Device control device 15 Imaging device 16 Wireless communication device 17 Switch 18 Identification tag 19 User 20 Database (DB) server 100 Switch control system 111 Probe 112 Signal processing circuit 113 Output unit 121 Operation screen 122 Captured image 124 Operation image 123 Steady operation panel image 125 Head mounted display 131 Input unit 132 Tag information storage unit 133 Communication unit 134 Control unit 135 Brain wave storage unit 141 Communication unit 142 Input / output unit 143 Control unit 171 Receiver 172 Controller 173 Actuator
Claims (10)
前記検出手段が制御対象の存在を示す情報を検出したことに応答し、アイコンを含む操作画像を特定する情報を記憶手段から読み出す読出手段と、
前記読出手段により読み出された情報に従って、アイコンを含む操作画像を生成し、生成した操作画像を表示装置に表示する表示制御手段と、
前記表示装置に表示されている操作画像に含まれるアイコンのうち、利用者が注目しているアイコンを判別する注目アイコン判別手段と、
前記注目アイコン判別手段により判別されたアイコンに対応する制御信号を出力する制御出力手段と、
を備えることを特徴とする制御システム。 Detection means for detecting information indicating the presence of the operation target;
In response to detection of information indicating the presence of the control target by the detection means, reading means for reading out information specifying an operation image including an icon from the storage means;
Display control means for generating an operation image including an icon according to the information read by the reading means, and displaying the generated operation image on a display device;
Of the icons included in the operation image displayed on the display device, attention icon determination means for determining the icon that the user is paying attention to,
Control output means for outputting a control signal corresponding to the icon determined by the attention icon determination means;
A control system comprising:
前記記憶手段は、特定の図形と操作画像特定情報とを対応付けて記憶し、
前記読出手段は、前記特定図形検出手段により検出された特定の図形に対応する操作画像特定情報を読み出し、
前記表示制御手段は、読出手段により読み出された操作画像特定情報により特定される操作画像を前記表示装置に表示する、
ことを特徴とする請求項1に記載の制御システム。 The detection means is composed of specific graphic detection means for inputting an image signal and detecting a specific graphic in the image represented by the image signal,
The storage means stores a specific figure and operation image specifying information in association with each other,
The reading means reads operation image specifying information corresponding to the specific graphic detected by the specific graphic detecting means,
The display control means displays an operation image specified by the operation image specifying information read by the reading means on the display device.
The control system according to claim 1.
前記読出手段は、前記検出手段により検出された非接触情報記憶媒体に記憶されている操作画像を特定する情報を読み出す、ことを特徴とする請求項1に記載の制御システム。 The detection means includes means for detecting a non-contact information storage medium arranged in the vicinity of the operation target,
The control system according to claim 1, wherein the reading unit reads information specifying an operation image stored in a non-contact information storage medium detected by the detection unit.
前記表示制御手段は、前記表示装置に操作画像を表示する、ことを特徴とする請求項1に記載の制御システム。 The display device is composed of a transmissive display device,
The control system according to claim 1, wherein the display control unit displays an operation image on the display device.
利用者の生体情報を取得し、取得した生体情報に基づいて、前記表示手段に表示されている操作画像に含まれるアイコンのうち、いずれのアイコンに注目しているかを判別する手段を含む、
ことを特徴とする請求項1に記載の制御システム。 The attention icon discrimination means
Including means for acquiring biometric information of the user and determining which icon of the icons included in the operation image displayed on the display means is focused based on the acquired biometric information.
The control system according to claim 1.
前記注目アイコン判別手段は、利用者の生体情報を取得し、取得した生体情報の変化を検出する手段と、変化時点において強調状態にあるアイコンを注目アイコンとして判別する手段と、を備える、
ことを特徴とする請求項1に記載の制御システム。 The display control means sequentially highlights icons included in the operation image,
The attention icon determination means includes a means for acquiring the user's biological information, detecting a change in the acquired biological information, and a means for determining an icon that is in an emphasized state at the time of the change as an attention icon.
The control system according to claim 1.
利用者の脳波信号を取得し、取得した脳波信号に基づいて、利用者が注目しているアイコン判別する手段と、利用者の視線を判別し、視線上のアイコンを判別する手段と、の少なくとも一方を備える、
ことを特徴とする請求項1に記載の制御システム。 The attention icon discrimination means
At least one of a means for acquiring a user's brain wave signal and determining an icon that the user is paying attention to based on the acquired brain wave signal and a means for determining a user's line of sight and determining an icon on the line of sight With one side,
The control system according to claim 1.
検出に応答し、操作画像を特定する情報を読み出し、
読み出した情報に従って、アイコンを含む操作画像を生成して表示し、
利用者が注目しているアイコンを判別し、
判別されたアイコンに対応する制御信号を操作対象に出力する、
ことを特徴とする制御方法。 Detect the presence of the operation target,
In response to detection, read the information that identifies the operation image,
According to the read information, an operation image including an icon is generated and displayed,
Determine which icon the user is paying attention to,
Output a control signal corresponding to the determined icon to the operation target;
A control method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008174402A JP5176112B2 (en) | 2008-07-03 | 2008-07-03 | Control system and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008174402A JP5176112B2 (en) | 2008-07-03 | 2008-07-03 | Control system and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010015360A true JP2010015360A (en) | 2010-01-21 |
JP5176112B2 JP5176112B2 (en) | 2013-04-03 |
Family
ID=41701428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008174402A Active JP5176112B2 (en) | 2008-07-03 | 2008-07-03 | Control system and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5176112B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011114401A1 (en) * | 2010-03-15 | 2011-09-22 | 株式会社ニコン | Electronic apparatus |
JP2011209965A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processor, information processing method and program |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2015215894A (en) * | 2014-05-12 | 2015-12-03 | イマージョン コーポレーションImmersion Corporation | System and method for providing haptic feedback for remote interaction |
JP2016519377A (en) * | 2013-05-09 | 2016-06-30 | アマゾン・テクノロジーズ、インコーポレイテッド | Recognition interface for computing devices |
WO2016199312A1 (en) * | 2015-06-10 | 2016-12-15 | 株式会社Doog | Autonomous movement system |
JP2017509037A (en) * | 2013-12-20 | 2017-03-30 | ノキア テクノロジーズ オーユー | Displaying information on a see-through display |
JP2018045458A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
WO2018051970A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
JP2018116468A (en) * | 2017-01-18 | 2018-07-26 | 株式会社デンソー | Electronic information processing system and computer program |
JP2018136944A (en) * | 2018-02-22 | 2018-08-30 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
JP2020013623A (en) * | 2019-10-29 | 2020-01-23 | 株式会社Doog | Autonomous mobile system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142825A (en) * | 1999-11-18 | 2001-05-25 | Sony Corp | Portable information processing terminal, system and method for inputting/outputting information |
JP2003248541A (en) * | 2002-02-22 | 2003-09-05 | Mitsubishi Electric Corp | Control device using brain wave signal and control method |
WO2007148469A1 (en) * | 2006-06-21 | 2007-12-27 | Panasonic Corporation | Service providing system |
JP2008040885A (en) * | 2006-08-08 | 2008-02-21 | Seikatsu Kyodo Kumiai Coop Sapporo | Product information providing system, product information providing method and server system |
WO2008059878A1 (en) * | 2006-11-15 | 2008-05-22 | Panasonic Corporation | Adjusting device for brain wave identification method, adjusting method and computer program |
-
2008
- 2008-07-03 JP JP2008174402A patent/JP5176112B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142825A (en) * | 1999-11-18 | 2001-05-25 | Sony Corp | Portable information processing terminal, system and method for inputting/outputting information |
JP2003248541A (en) * | 2002-02-22 | 2003-09-05 | Mitsubishi Electric Corp | Control device using brain wave signal and control method |
WO2007148469A1 (en) * | 2006-06-21 | 2007-12-27 | Panasonic Corporation | Service providing system |
JP2008040885A (en) * | 2006-08-08 | 2008-02-21 | Seikatsu Kyodo Kumiai Coop Sapporo | Product information providing system, product information providing method and server system |
WO2008059878A1 (en) * | 2006-11-15 | 2008-05-22 | Panasonic Corporation | Adjusting device for brain wave identification method, adjusting method and computer program |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8836841B2 (en) | 2010-03-15 | 2014-09-16 | Nikon Corporation | Electronic apparatus |
JP2011192075A (en) * | 2010-03-15 | 2011-09-29 | Nikon Corp | Electronic device |
CN102741796A (en) * | 2010-03-15 | 2012-10-17 | 株式会社尼康 | Electronic apparatus |
WO2011114401A1 (en) * | 2010-03-15 | 2011-09-22 | 株式会社ニコン | Electronic apparatus |
JP2011209965A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processor, information processing method and program |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2016519377A (en) * | 2013-05-09 | 2016-06-30 | アマゾン・テクノロジーズ、インコーポレイテッド | Recognition interface for computing devices |
US9927949B2 (en) | 2013-05-09 | 2018-03-27 | Amazon Technologies, Inc. | Recognition interfaces for computing devices |
JP2017509037A (en) * | 2013-12-20 | 2017-03-30 | ノキア テクノロジーズ オーユー | Displaying information on a see-through display |
JP2015215894A (en) * | 2014-05-12 | 2015-12-03 | イマージョン コーポレーションImmersion Corporation | System and method for providing haptic feedback for remote interaction |
US11347311B2 (en) | 2014-05-12 | 2022-05-31 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
US10613627B2 (en) | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
WO2016199312A1 (en) * | 2015-06-10 | 2016-12-15 | 株式会社Doog | Autonomous movement system |
CN107636546A (en) * | 2015-06-10 | 2018-01-26 | 株式会社道具 | Autonomous system |
US10599157B2 (en) | 2015-06-10 | 2020-03-24 | Doog Inc. | Autonomous movement system |
CN107636546B (en) * | 2015-06-10 | 2021-03-02 | 株式会社道具 | Autonomous moving system |
JPWO2016199312A1 (en) * | 2015-06-10 | 2018-03-29 | 株式会社Doog | Autonomous mobile system |
WO2018051970A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
JP2018045459A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
US10744411B2 (en) | 2016-09-14 | 2020-08-18 | Bandai Namco Entertainment Inc. | Simulation system, processing method, and information storage medium |
WO2018051969A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
US11094106B2 (en) | 2016-09-14 | 2021-08-17 | Bandai Namco Entertainment Inc. | Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view |
JP2018045458A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
WO2018135064A1 (en) * | 2017-01-18 | 2018-07-26 | 株式会社デンソー | Electronic information processing system and computer program |
JP2018116468A (en) * | 2017-01-18 | 2018-07-26 | 株式会社デンソー | Electronic information processing system and computer program |
JP2018136944A (en) * | 2018-02-22 | 2018-08-30 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
JP2020013623A (en) * | 2019-10-29 | 2020-01-23 | 株式会社Doog | Autonomous mobile system |
Also Published As
Publication number | Publication date |
---|---|
JP5176112B2 (en) | 2013-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5176112B2 (en) | Control system and control method | |
US11783345B2 (en) | Cyber life electronic networking and commerce operating exchange | |
US11367130B2 (en) | Method for in-store object highlighting by a real world user interface | |
US20130077831A1 (en) | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program | |
US10987804B2 (en) | Robot device and non-transitory computer readable medium | |
JP5356633B1 (en) | Medical endoscope system | |
US20190105771A1 (en) | Display control device, display control method, computer program product, and communication system | |
JP5214968B2 (en) | Object discovery method and system, device control method and system, interface, and pointing device | |
JP7004729B2 (en) | Augmented reality for predictive workflows in the operating room | |
KR20170026164A (en) | Virtual reality display apparatus and display method thereof | |
CN107113544A (en) | The 3D mappings of internet of things equipment | |
US11163367B2 (en) | Method of obtaining gesture zone definition data for a control system based on user input | |
JP6439806B2 (en) | Robot apparatus and program | |
US20220401049A1 (en) | Medical display control device, medical observation device, display control method, and medical observation system | |
EP2512151A1 (en) | Image capturing device | |
JP2007078270A (en) | Air conditioning system | |
JP2006146803A (en) | Operation device, and remote operation system | |
US11536938B2 (en) | Microscope system and method for controlling a surgical microscope | |
JP2013149257A (en) | Adaptive interface system | |
CN114930802A (en) | Information processor, information processing method, and program | |
JP6721023B2 (en) | Information processing device and program | |
EP3797730B1 (en) | Surgery information processing device, information processing method, and program | |
JP6099444B2 (en) | Medical system and method of operating medical system | |
WO2009153708A1 (en) | Programming system and method for programming an interactive system | |
CN113920221A (en) | Information processing apparatus, information processing method, and computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5176112 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |