Nothing Special   »   [go: up one dir, main page]

JPH0981307A - Equipment controller - Google Patents

Equipment controller

Info

Publication number
JPH0981307A
JPH0981307A JP7255822A JP25582295A JPH0981307A JP H0981307 A JPH0981307 A JP H0981307A JP 7255822 A JP7255822 A JP 7255822A JP 25582295 A JP25582295 A JP 25582295A JP H0981307 A JPH0981307 A JP H0981307A
Authority
JP
Japan
Prior art keywords
moving body
screen
area
display
fingertip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7255822A
Other languages
Japanese (ja)
Inventor
Toshio Sakuragi
俊男 桜木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP7255822A priority Critical patent/JPH0981307A/en
Publication of JPH0981307A publication Critical patent/JPH0981307A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate the burden of a user in an operation input mode by recognizing the key display that is estimated by the movement of a mobile object in a mobile object area and reading the equipment control data related to the command corresponding to the key display out of a storage means to control an equipment. SOLUTION: An on board equipment controller 10 controls an on board equipment 30 and has a mobile object extraction part 12 which extracts the screen area (mobile object area) of a mobile object out of the image pickup signals of a camera 11 which photographs the mobile object. An action recognition part 13 decides whether the extracted mobile object area is identical with a human hand screen area and also recognizes the actions of fingers in images. A memory part 14 stores a menu screen including toe key display corresponding to the command related to the control of the equipment 30. A screen synthesis part 15 puts the mobile object area that is extracted at the part 12 on the menu screen stored in the part 14. Then a command input extraction part 16 extracts the key display that is designated by the finger actions out of a screen that is synthesized at the part 15.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車載用機器
等の制御に係わる指令を入力する指令入力機能をを備え
た機器制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device control apparatus having a command input function for inputting commands relating to control of, for example, in-vehicle devices.

【0002】[0002]

【従来の技術】従来、このような機器制御装置として
は、例えばルームエアコンやカーオーディオといった車
載用機器等の機器制御を行うものがあげられ、通常、運
転者がその近傍に配置した前面パネルの各指令に対応し
た操作キーを直接触れて操作することにより、当該車載
用機器の制御を実現するようにしたものである。
2. Description of the Related Art Conventionally, as such a device control device, there is a device for controlling a device such as an in-vehicle device such as a room air conditioner or a car audio system. The in-vehicle device is controlled by directly touching and operating the operation key corresponding to each command.

【0003】しかしながら、このような機器制御装置に
よれば、昨今、当該車載用機器の機能が複雑化して当該
機能に係わる各指令数が多くなってきたことに伴い、各
指令に対応した操作キーを増設しなければならず、しか
も、これら操作キーに対応したキースペースを確保する
ことは非常に困難であるといった事態が生じた。
However, according to such a device control device, the function of the on-vehicle device has become complicated and the number of commands relating to the function has increased in recent years. However, it has been difficult to secure a key space corresponding to these operation keys.

【0004】そこで、このような事態を打開するため
に、近年、タッチパネル機能を備えた機器制御装置が商
品化されている。
In order to overcome such a situation, in recent years, a device control device having a touch panel function has been commercialized.

【0005】当該タッチパネル機能を備えた機器制御装
置は、表示部の表示画面上に各指令に対応した疑似キー
を表示し、当該表示画面上の疑似キーに直接触れて操作
されることにより、当該疑似キーに対応した指令に基づ
いて当該車載用機器の制御を実現するようにしたもので
ある。
The device control device having the touch panel function displays pseudo keys corresponding to each command on the display screen of the display unit, and operates by directly touching the pseudo keys on the display screen to operate the pseudo keys. The in-vehicle device is controlled based on a command corresponding to the pseudo key.

【0006】当該タッチパネル機能を備えた機器制御装
置によれば、当該車載用機器の機能が複雑化して当該機
能に係わる各指令数が増えたとしても、当該表示画面上
の疑似キーの数を増やす、すなわち当該プログラム上で
のキー数を増やすだけで良く、前述したようなキースペ
ースを確保する必要性はない。
According to the device control device having the touch panel function, even if the function of the in-vehicle device is complicated and the number of commands related to the function is increased, the number of pseudo keys on the display screen is increased. That is, it is only necessary to increase the number of keys on the program, and it is not necessary to secure the key space as described above.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記従
来の機器制御装置によれば、ユーザーが当該表示画面上
に表示中の各指令に対応した疑似キーに直接触れて操作
するものであるが、当該操作時においてユーザーの姿勢
が崩れて、視線が逸れてしまい、強いては当該機器制御
装置を車載用に適用した場合には、当該操作時における
姿勢の崩れや視線の逸れが運転上に支障を来す虞があ
り、当該操作時においてユーザーに負担をかけてしまう
といった問題点があった。
However, according to the above-mentioned conventional equipment control device, the user directly touches and operates the pseudo key corresponding to each command displayed on the display screen. If the user's posture collapses during operation and the line of sight deviates, and if the device control device is applied to an in-vehicle device, the posture collapse and line-of-sight deviation during operation may interfere with driving. Therefore, there is a problem that the user is burdened during the operation.

【0008】本発明は上記問題点に鑑みてなされたもの
であり、その目的とするところは、操作入力時にかかる
ユーザーへの負担を確実に解消することができる機器制
御装置を提供することにある。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a device control device which can surely eliminate the burden on the user at the time of operation input. .

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に本発明における請求項1記載の機器制御装置は、機器
の制御に係わる指令に対応したキー表示を有するメニュ
ー画面を記憶する第1記憶手段と、当該キー表示に対応
した指令に係わる機器制御データを記憶する第2記憶手
段と、前記第1記憶手段に記憶されたメニュー画面を表
示する表示手段と、移動体を撮像し、当該移動体に係わ
る撮像信号を得る撮像手段と、当該撮像信号から移動体
領域を抽出する移動体抽出手段と、当該抽出された移動
体領域と前記第1記憶手段に記憶されたメニュー画面と
を合成して合成画面を生成する画面合成手段と、前記移
動体領域における移動体の動作及び当該動作により指定
されたキー表示を認識する移動体動作認識手段と、当該
認識されたキー表示に対応した指令に係わる機器制御デ
ータを前記第2記憶手段から読み出し、当該読み出され
た機器制御データに基づいて前記機器を制御する制御手
段とを有することを特徴とする。
In order to achieve the above object, a device control apparatus according to a first aspect of the present invention is a first storage for storing a menu screen having a key display corresponding to a command related to device control. Means, a second storage means for storing device control data relating to a command corresponding to the key display, a display means for displaying the menu screen stored in the first storage means, an image of the moving body, and the movement. An image pickup means for obtaining an image pickup signal relating to the body, a moving body extraction means for extracting a moving body area from the image pickup signal, a combination of the extracted moving body area and the menu screen stored in the first storage means are combined. Screen synthesizing means for generating a synthesized screen by means of the moving body, moving body movement recognizing means for recognizing the movement of the moving body in the moving body area and the key display designated by the movement, and the recognized key table. Reading from said second memory means a device control data relating to a command corresponding to, and having a controller for controlling the device based on the read-out device control data.

【0010】つまり、上記請求項1記載の機器制御装置
は、例えば車載用機器の制御に係わる指令を入力する指
令入力機能を備えた機器制御装置であり、当該入力操作
を実行する移動体、例えば人の手等を撮像する撮像手段
であるカメラ等を設け、当該カメラにて撮像された撮像
信号から移動体領域である手の画面領域を前記移動体抽
出手段にて抽出し、当該抽出された手の画面領域を前記
第1記憶手段に記憶されたメニュー画面上に前記画面合
成手段にて重ね合わせ、当該メニュー画面上の手の画面
領域、主に当該手の指先の画面領域を画像認識すること
により指先の動作及び当該動作により指定されたキー表
示を前記移動体動作認識手段にて認識し、当該認識され
たキー表示に対応した指令に係わる機器制御データを前
記第2記憶手段から読み出し、当該読み出された機器制
御データに基づいて当該車載用機器の制御を前記制御手
段にて行うようにした。
That is, the device control apparatus according to claim 1 is a device control apparatus having a command input function for inputting a command relating to the control of the vehicle-mounted device, for example, a moving body that executes the input operation, for example, A camera or the like as an image pickup means for picking up an image of a person's hand or the like is provided, and the screen area of the hand, which is a moving body area, is extracted by the moving body extraction means from the image pickup signal picked up by the camera The screen area of the hand is superimposed on the menu screen stored in the first storage means by the screen combining means, and the screen area of the hand on the menu screen, mainly the screen area of the fingertip of the hand, is image-recognized. As a result, the movement of the fingertip and the key display designated by the movement are recognized by the moving body movement recognition means, and the device control data relating to the command corresponding to the recognized key display is stored in the second storage means. Read, and the control of the vehicle equipment based on the read-out device control data as performed by the control unit.

【0011】また、前記指先の動作により指定されたキ
ー表示とは、当該メニュー画面上に指先の画面領域が重
ね合わせられた際の当該メニュー画面上における当該指
先の画面領域の位置に対応したキー表示である。
The key display designated by the operation of the fingertip is a key corresponding to the position of the screen area of the fingertip on the menu screen when the screen area of the fingertip is overlaid on the menu screen. It is a display.

【0012】従って、上記請求項1記載の機器制御装置
によれば、従来のようにタッチパネル機能の疑似キーや
操作キーに直接触れなくても、指先の動作、すなわちジ
ェスチャーを画像認識し、当該画像認識された指先のジ
ェスチャーにて当該機器制御に係わる指令を入力するよ
うにした、つまり、当該操作時における姿勢の崩れや視
線の逸れを起こすことなく指先のジェスチャーだけで所
望の指令を入力するようにしたので、当該入力操作時に
かかるユーザーへの負担を確実に解消することができ
る。
Therefore, according to the device control apparatus of the first aspect, the operation of the fingertip, that is, the gesture is recognized as an image without directly touching the pseudo key or the operation key of the touch panel function as in the conventional case, and the image is detected. The command related to the device control is input by the recognized fingertip gesture, that is, the desired command is input only by the fingertip gesture without causing the posture collapse and the deviation of the line of sight during the operation. Therefore, the burden on the user during the input operation can be reliably eliminated.

【0013】また、上記請求項2記載の機器制御装置
は、前記制御手段が前記画面合成手段にて生成された合
成画面を前記表示手段に表示出力させることを特徴とす
る。
The device control apparatus according to the second aspect is characterized in that the control means causes the display means to display and output the composite screen generated by the screen composite means.

【0014】従って、上記請求項2記載の機器制御装置
によれば、前記移動体動作認識手段にて認識された指先
及びメニュー画面を前記表示手段に合わせて表示させる
ようにしたので、ユーザーの指先がどの位置にあるのか
を当該表示手段の画面上にて認識することができる。
Therefore, according to the device control apparatus of the second aspect, the fingertip and the menu screen recognized by the moving body motion recognition means are displayed in accordance with the display means, so that the fingertip of the user is displayed. It is possible to recognize which position is on the screen of the display means.

【0015】また、上記請求項3記載の機器制御装置
は、請求項1又は2記載の制御手段が前記移動体動作認
識手段にて認識されたキー表示を当該表示手段に表示中
のメニュー画面上にて識別表示させることを特徴とす
る。
Further, in the equipment control device according to claim 3, the control means according to claim 1 or 2 is on the menu screen which is displaying the key display recognized by the moving body motion recognition means on the display means. It is characterized in that it is identified and displayed in.

【0016】従って、上記請求項3記載の機器制御装置
によれば、前記移動体動作認識手段にて認識されたキー
表示、すなわち前記指先の動作により指定されたキー表
示を他のキー表示とは異なるように、例えばマークや異
色等により識別表示させるようにしたので、当該指令指
定に係わる入力操作を効果的に認識することができる。
Therefore, according to the device control apparatus of the third aspect, the key display recognized by the moving body motion recognition means, that is, the key display designated by the motion of the fingertip is different from the other key display. Differently, for example, the marks and different colors are used for identification display, so that the input operation relating to the command designation can be effectively recognized.

【0017】[0017]

【発明の実施の形態】以下、図面に基づいて本発明の機
器制御装置における実施形態について説明する。図1は
本発明の機器制御装置の実施形態を示す車載用機器制御
装置の概略構成を示すブロック図である。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the device control apparatus of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of an in-vehicle device control device showing an embodiment of the device control device of the present invention.

【0018】図1において車載用機器制御装置10は、
車載用機器30を制御するものであり、移動体を撮像し
て撮像信号を得る撮像手段であるカメラ11と、当該カ
メラ11の撮像信号から移動体の画面領域(以下、単に
移動体領域と称する)を抽出する移動体抽出手段である
移動体抽出部12と、当該移動体抽出部12にて抽出さ
れた移動体領域が人の手の画面領域であるか否かを判別
すると共に、当該手における指先の動作を画像認識する
動作認識部13と、前記車載用機器30の制御に係わる
指令に対応したキー表示を有するメニュー画面を記憶す
る第1記憶手段であるメモリ部14と、当該メモリ部1
4に記憶されたメニュー画面上に、前記移動体抽出部1
2により抽出された移動体領域を重ね合わせる画面合成
手段である画面合成部15と、当該画面合成部15にて
合成された合成画面から前記指の動作により指定された
キー表示を抽出する指令入力抽出部16と、前記画面合
成部15にて合成された合成画面を表示出力する表示手
段である表示部17と、報知音を発生する報知音発生部
18と、当該報知音を音声出力するスピーカ19と、当
該機器制御装置10全体を制御する制御手段である制御
部20とを有している。尚、請求項1記載の移動体動作
認識手段は、前記動作認識部13及び指令入力抽出部1
6に相当するものである。
In FIG. 1, the on-vehicle equipment control device 10 is
A camera 11 that controls the vehicle-mounted device 30 and is an image pickup unit that obtains an image pickup signal by picking up an image of the moving body, and a screen area of the moving body from the image pickup signal of the camera 11 (hereinafter, simply referred to as a moving body area). ) Is detected by the moving body extracting unit 12 as a moving body extracting unit, and whether or not the moving body area extracted by the moving body extracting unit 12 is a screen area of a human hand. An operation recognition unit 13 for recognizing an operation of a fingertip in the above, a memory unit 14 as a first storage unit for storing a menu screen having a key display corresponding to a command related to the control of the vehicle-mounted device 30, and the memory unit. 1
On the menu screen stored in No. 4, the moving body extraction unit 1
2. A screen synthesizing unit 15 that is a screen synthesizing unit that superimposes the moving body regions extracted by 2 and a command input that extracts the key display designated by the operation of the finger from the synthetic screen synthesized by the screen synthesizing unit 15. An extraction unit 16, a display unit 17 that is a display unit that displays and outputs the combined screen combined by the screen combining unit 15, an alarm sound generation unit 18 that generates an alarm sound, and a speaker that outputs the alarm sound by voice. 19 and a control unit 20 which is a control means for controlling the device control apparatus 10 as a whole. The moving body motion recognition means according to claim 1 includes the motion recognition unit 13 and the command input extraction unit 1.
This corresponds to 6.

【0019】前記制御部20の内部には、前記メニュー
画面上の各キー表示に対応した指令に係わる機器制御デ
ータが記憶されているものである。
Inside the control unit 20, device control data relating to commands corresponding to each key display on the menu screen is stored.

【0020】前記表示部17は、例えば運転中において
も視線の動きが少ないヘッドアップディスプレイとす
る。
The display unit 17 is, for example, a head-up display in which the movement of the line of sight is small even during driving.

【0021】では、次に当該車載用機器制御装置10に
おける動作について説明する。図2は当該機器制御装置
10の指令入力処理における制御部20の処理動作を示
すフローチャートである。
Next, the operation of the in-vehicle device control apparatus 10 will be described. FIG. 2 is a flowchart showing the processing operation of the control unit 20 in the command input processing of the device control apparatus 10.

【0022】当該指令入力処理とは、人の手、主に指先
のジェスチャーを前記カメラ11にて撮像し、当該撮像
された指先のジェスチャーを画像認識し、当該指先のジ
ェスチャーにより指定された合成画面上のキー表示に対
応した指令に係わる車載用機器30の制御を実行する処
理である。つまり、当該指令入力処理とは、操作キーに
直接触れることなく、指先のジェスチャーだけで指令を
入力するものである。
The command input processing is to capture a gesture of a person's hand, mainly a fingertip, with the camera 11, image-recognize the captured gesture of the fingertip, and synthesize a screen specified by the gesture of the fingertip. This is a process of executing control of the in-vehicle device 30 related to a command corresponding to the above key display. That is, the command input process is to input a command only by the gesture of the fingertip without directly touching the operation key.

【0023】図1に示す制御部20は、前記カメラ11
から得られる撮像信号を入力し(ステップS11)、後
述する図3に示す移動体抽出処理を実行する(ステップ
S12)。尚、当該移動体抽出処理は、前記移動体抽出
部12にて前記カメラ11からの撮像信号から移動体領
域を抽出する処理である。
The control unit 20 shown in FIG.
The image pickup signal obtained from step S11 is input (step S11), and the moving body extraction processing shown in FIG. The moving body extraction process is a process in which the moving body extraction unit 12 extracts a moving body region from an image pickup signal from the camera 11.

【0024】ステップS12の移動体抽出処理終了後、
当該撮像信号内にて移動体領域を抽出されたことを示す
移動体検出フラグ(以下、単に第1フラグと称する)が
“1”であるか否かを判定する(ステップS13)。
After the moving object extraction processing in step S12 is completed,
It is determined whether or not the moving body detection flag (hereinafter, simply referred to as the first flag) indicating that the moving body region is extracted in the image pickup signal is "1" (step S13).

【0025】当該第1フラグが“1”であれば、当該抽
出された移動体領域が手の画面領域であり、かつ指先の
画面領域が検出されたことを示す指先検出フラグ(以
下、単に第2フラグと称する)が“1”であるか否かを
判定する(ステップS14)。尚、前記移動体抽出部1
2は、撮像信号から図7(a)に示すように移動体領域
50aのみを抽出し、当該抽出された移動体領域50a
を前記画面合成部15及び動作認識部13に夫々供給す
るものである。また、当該画面合成部15は、当該移動
体領域50aを前記メモリ部14に記憶した図7(b)
に示すメニュー画面50b上に重ね合わせて合成画面と
して図7(c)に示す画像内容を前記表示部17に表示
出力するものである。当該表示部17に表示中の画面上
においては、下から上へと移動体が順次に移動するので
あれば、重ねられる画像の下方から移動方向へと順次に
重ね合わせられていくものである。
When the first flag is "1", the fingertip detection flag (hereinafter, simply referred to as the first area) indicating that the extracted moving body area is the screen area of the hand and the screen area of the fingertip is detected. It is determined whether or not "2 flag") is "1" (step S14). Incidentally, the moving body extraction unit 1
2 extracts only the moving body region 50a from the image pickup signal as shown in FIG. 7A, and extracts the moving body region 50a.
Is supplied to the screen synthesis unit 15 and the motion recognition unit 13, respectively. Further, the screen compositing unit 15 stores the moving body region 50a in the memory unit 14 shown in FIG.
The image content shown in FIG. 7C is displayed and output on the display unit 17 as a composite screen by superimposing it on the menu screen 50b shown in FIG. On the screen being displayed on the display unit 17, if the moving body moves sequentially from the bottom to the top, the images to be superimposed are sequentially superimposed from the bottom to the movement direction.

【0026】また、ステップS14にて当該第2フラグ
が“1”であれば、当該指先の指閉じアクションを検出
したことを示す指閉じアクション検出フラグ(以下、単
に第3フラグと称する)が“1”であるか否かを判定す
る(ステップS15)。
If the second flag is "1" in step S14, the finger closing action detection flag (hereinafter simply referred to as the third flag) indicating that the finger closing action of the fingertip is detected is ". It is determined whether or not it is "1" (step S15).

【0027】当該第3フラグが“1”であれば、当該指
先の指開きアクションを検出したことを示す指開きアク
ション検出フラグ(以下、単に第4フラグと称する)が
“1”であるか否かを判定する(ステップS16)。
If the third flag is "1", whether or not the finger opening action detection flag (hereinafter, simply referred to as a fourth flag) indicating that the finger opening action of the fingertip is detected is "1". It is determined (step S16).

【0028】当該第4フラグが“1”であれば、前記画
面合成部15にて合成された合成画面上、つまりメニュ
ー画面上に重ね合わせられた指先の位置に対応したキー
表示を前記指令入力抽出部16を介して抽出し、当該抽
出されたキー表示に対応した指令に係わる機器制御デー
タを読み出し、当該読み出された機器制御データに基づ
いて各車載用機器30を制御し(ステップS17)、当
該指令入力に係わる監視動作が終了したか否かを判定す
る(ステップS18)。尚、当該表示部17にはキー表
示及び指先(手)も合わせて合成画面として表示されて
いる。
If the fourth flag is "1", the key input corresponding to the position of the fingertip overlaid on the composite screen composited by the screen compositing unit 15, that is, the menu screen is input as the command. The device control data extracted by the extraction unit 16 and related to the command corresponding to the extracted key display is read, and each in-vehicle device 30 is controlled based on the read device control data (step S17). Then, it is determined whether or not the monitoring operation related to the command input is completed (step S18). Note that the display unit 17 also displays the key display and the fingertip (hand) as a combined screen.

【0029】また、ステップS18にて当該監視動作が
終了したのであれば、当該指令入力処理を終了する。
If the monitoring operation is finished in step S18, the command input process is finished.

【0030】また、ステップS13にて第1フラグが
“1”でなければ、ステップS18に移行する。また、
ステップS14にて第2フラグが“1”でなければ、後
述する図4に示す指の検出処理を実行し(ステップS1
9)、当該処理実行後にステップS18に移行する。
尚、当該指の検出処理とは、前記動作認識部13にて前
記移動体抽出処理により抽出された移動体領域が人の手
の画面領域であり、かつ当該手の指先の画面領域を検出
する処理である。
If the first flag is not "1" in step S13, the process proceeds to step S18. Also,
If the second flag is not "1" in step S14, the finger detection process shown in FIG. 4 described later is executed (step S1).
9), after performing the process, the process proceeds to step S18.
In the finger detection process, the moving body region extracted by the moving body extraction process by the motion recognition unit 13 is the screen region of the human hand, and the screen region of the fingertip of the hand is detected. Processing.

【0031】また、ステップS15にて第3フラグが
“1”でなければ、後述する図5に示す指閉じアクショ
ン検出処理を実行し(ステップS20)、当該処理実行
後にステップS18に移行する。尚、当該指閉じアクシ
ョン検出処理とは、前記動作認識部13にて指先を閉じ
たアクション、すなわち当該メニュー画面上の指先によ
るキー表示指定の開始を促すアクションを検出する処理
である。
If the third flag is not "1" in step S15, a finger closing action detection process shown in FIG. 5 described later is executed (step S20), and after the execution of the process, the process proceeds to step S18. The finger close action detection process is a process of detecting an action of closing the fingertip in the motion recognition unit 13, that is, an action of prompting the start of key display designation by the fingertip on the menu screen.

【0032】また、ステップS16にて第4フラグが
“1”でなければ、後述する図6に示す指開きアクショ
ン検出処理を実行し(ステップS21)、当該処理実行
後にステップS18に移行する。尚、当該指開きアクシ
ョン検出処理とは、前記動作認識部13にて指先を開い
たアクション、すなわち当該メニュー画面上の指先によ
りキー表示を指定するアクションを検出する処理であ
る。
If the fourth flag is not "1" in step S16, a finger opening action detection process shown in FIG. 6 described later is executed (step S21), and after the execution of the process, the process proceeds to step S18. The finger opening action detection process is a process of detecting an action of opening the fingertip by the motion recognition unit 13, that is, an action of designating a key display by the fingertip on the menu screen.

【0033】また、ステップS18にて当該指令入力処
理による監視動作を終了するのでなければ、ステップS
11に移行する。
If the monitoring operation by the command input processing is not ended in step S18, step S18 is executed.
Go to 11.

【0034】尚、上記指令入力処理においてユーザー
は、まず最初に前記カメラ11にて撮像された移動体が
人の手であることを認識させるために指先を開いたアク
ションを実行し、次に当該キー表示指定開始を促すため
に指先を閉じたアクションを実行し、次に当該キー表示
指定を行うために指先を開いたアクションを実行するも
のである。
In the command input process, the user first executes the action of opening the fingertip in order to recognize that the moving body imaged by the camera 11 is a human hand, and then The action is to close the fingertip to prompt the start of the key display designation, and then execute the action to open the fingertip to perform the key display designation.

【0035】では、次にステップS12の移動体抽出処
理について説明する。図3は当該移動体抽出処理におけ
る移動体抽出部12の処理動作を示すフローチャートで
ある。
Next, the moving body extraction processing in step S12 will be described. FIG. 3 is a flowchart showing the processing operation of the moving body extraction unit 12 in the moving body extraction processing.

【0036】図3に示す移動体抽出部12においては、
前記カメラ11から順次得られる撮像信号(画面)から
2枚のフレームデータを画素毎に差分をとるフレーム間
差分処理を実行し(ステップS31)、当該フレーム間
差分処理より得られた差分データを2値化して当該撮像
信号内に移動体領域があるか否かを判別する移動体判別
処理を実行し(ステップS32)、当該処理結果に基づ
いて移動体領域が当該撮像信号内にあるか否かを判定す
る(ステップS33)。尚、ステップS33における移
動体の画面領域の判別方法としては、前記2値化された
差分データの画素数が所定しきい値以上であるか否かを
判別基準とし、当該画素数が所定しきい値以上であれ
ば、当該撮像信号内に移動体領域があると判別するもの
である。
In the moving body extraction unit 12 shown in FIG.
Inter-frame difference processing is performed to obtain a difference for each pixel from two pieces of frame data from image pickup signals (screens) sequentially obtained from the camera 11 (step S31), and the difference data obtained by the inter-frame difference processing is set to 2 A moving body determination process is performed to determine whether or not there is a moving body region in the image pickup signal by binarization (step S32), and whether or not the moving body region is in the image pickup signal based on the processing result. Is determined (step S33). As a method of discriminating the screen area of the moving body in step S33, whether or not the number of pixels of the binarized difference data is equal to or larger than a predetermined threshold is used as a discrimination reference, and the number of pixels is a predetermined threshold. If the value is greater than or equal to the value, it is determined that there is a moving body area in the image pickup signal.

【0037】ステップS33にて当該撮像信号内に移動
体領域があれば、当該撮像信号内に移動体領域が検出さ
れたことを示す第1フラグを“1”にし(ステップS3
4)、前記差分データに基づいて当該撮像信号から移動
体領域を抽出する移動体抽出処理を実行する(ステップ
S35)。尚、ステップS35においては、エッジ抽出
処理を実行することにより当該撮像信号内から移動体領
域を抽出するものであるが、当該エッジ抽出は微分演算
により行うものである。
If there is a moving body area in the image pickup signal in step S33, the first flag indicating that the moving body area is detected in the image pickup signal is set to "1" (step S3).
4), based on the difference data, a moving body extraction process for extracting a moving body region from the image pickup signal is executed (step S35). In step S35, the moving object region is extracted from the image pickup signal by executing the edge extraction process, but the edge extraction is performed by the differential operation.

【0038】また、ステップS35の処理後、先に抽出
された移動体領域を今回抽出された移動体領域に更新す
る移動体更新処理を実行し(ステップS36)、当該移
動体領域が画面の監視エリアから外れた、すなわち当該
移動体領域が当該撮像信号内から画面抜けしたか否かを
判定する移動体画面抜け判別処理を実行し(ステップS
37)、当該処理結果に基づいて当該移動体領域が当該
撮像信号内から画面抜けしたか否かを判定する(ステッ
プS38)。
After the processing of step S35, the moving body update processing for updating the moving body area previously extracted to the moving body area extracted this time is executed (step S36), and the moving body area is monitored on the screen. A moving body screen dropout determination process is performed to determine whether the moving body area is out of the area, that is, whether or not the moving body region is out of the image pickup signal (step S
37), based on the processing result, it is determined whether or not the screen of the moving body region has fallen out of the image pickup signal (step S38).

【0039】当該移動体領域が画面抜けしたのであれ
ば、前記第1、第2、第3及び第4フラグを夫々リセッ
トし(ステップS39)、当該移動体抽出処理を終了し
て図2に示すステップS13に移行する。
If the moving object region is out of the screen, the first, second, third and fourth flags are reset (step S39), the moving object extracting process is terminated, and the process is shown in FIG. Control goes to step S13.

【0040】また、ステップS33にて当該撮像信号内
に移動体領域がなければ、第1フラグが“1”であるか
否かを判定する(ステップS40)。当該第1フラグが
“1”であれば、ステップS35に移行する。
If there is no moving object area in the image pickup signal in step S33, it is determined whether the first flag is "1" (step S40). If the first flag is "1", the process proceeds to step S35.

【0041】また、ステップS38にて当該画面抜けが
発生したのでなければ、又はステップS40にて第1フ
ラグが“1”でなければ、当該移動体抽出処理を終了し
て図2に示すステップS13に移行する。
If the screen omission has not occurred in step S38, or if the first flag is not "1" in step S40, the moving object extraction processing is terminated and step S13 shown in FIG. Move to.

【0042】では、次に図2に示すステップS19の指
の検出処理について説明する。図4は当該指の検出処理
における動作認識部13の処理動作を示すフローチャー
トである。
Next, the finger detection process of step S19 shown in FIG. 2 will be described. FIG. 4 is a flowchart showing the processing operation of the operation recognition unit 13 in the finger detection processing.

【0043】図4に示す動作認識部13においては、前
記移動体抽出部12にて抽出された移動体領域の先端部
分を検出し(ステップS51)、当該移動体領域が図7
(a)に示す指定枠領域17a内にあるか否かを判定す
る(ステップS52)。当該移動体領域が当該指定枠領
域17a内にあれば、当該移動体領域が人の手の画面領
域であるか否かを判別する細線化処理を実行する(ステ
ップS53)。
The motion recognition section 13 shown in FIG. 4 detects the tip of the moving body area extracted by the moving body extracting section 12 (step S51), and the moving body area is detected as shown in FIG.
It is determined whether or not it is within the designated frame area 17a shown in (a) (step S52). If the moving body area is within the designated frame area 17a, thinning processing is performed to determine whether the moving body area is the screen area of a human hand (step S53).

【0044】尚、当該細線化処理とは、図8に示すよう
に当該移動体領域を当該撮像信号の撮像画面に対して横
方向に一定量の縮小化処理を施し、当該縮小化処理を施
された移動体領域の先端部分が細線化されているか否か
を判別基準とし、当該先端部分が細線化されていれば、
当該移動体領域を手の画面領域、そして当該先端部分を
指先の画面領域と考えて当該指先の画面領域における長
さ及び幅を算出する処理である。
Note that the thinning processing is, as shown in FIG. 8, performed by performing a certain amount of reduction processing in the horizontal direction on the moving object region with respect to the image pickup screen of the image pickup signal, and performing the reduction processing. Whether or not the leading end portion of the moving body region that has been thinned is used as a determination criterion, and if the leading end portion is thinned,
This is a process of calculating the length and width of the moving object area in the screen area of the fingertip by considering the moving object area as the screen area of the hand and the tip portion as the screen area of the fingertip.

【0045】ステップS53の処理後、当該算出された
指先の画面領域の長さが予め設定された所定値以上であ
るか否かを判定する(ステップS54)。当該指先の画
面領域の長さが所定値以上であれば、当該指先の画面領
域における幅が予め設定された所定値以下であるか否か
を判定する(ステップS55)。当該指先の画面領域の
幅が所定値以下であれば、当該先端部分を確実に指先の
画面領域であると判断し、当該判断された指先の画面領
域が前記指定枠領域17a内にあることを示す第2フラ
グを“1”とし(ステップS56)、当該指の検出処理
を終了して図2に示すステップS18に移行する。
After the processing of step S53, it is determined whether or not the calculated length of the screen area of the fingertip is equal to or more than a predetermined value set in advance (step S54). If the length of the screen area of the fingertip is greater than or equal to a predetermined value, it is determined whether the width of the screen area of the fingertip is less than or equal to a predetermined value set in advance (step S55). If the width of the screen area of the fingertip is less than or equal to a predetermined value, it is determined that the tip portion is the screen area of the fingertip, and the screen area of the determined fingertip is within the designated frame area 17a. The second flag shown is set to "1" (step S56), the detection processing of the finger is ended, and the process proceeds to step S18 shown in FIG.

【0046】尚、前記制御部20は、前記動作認識部1
3を介してステップS56にて指先の画面領域が指定枠
領域17a内にあると判断した場合、前記報知音発生部
18に報知音を発生させ、当該発生された報知音を前記
スピーカ19を介して音声出力させる。つまり、ユーザ
ーは、当該報知音を受聴することにより、画面を目視し
なくても当該指先が指定枠領域17a内にあることを認
識することができる。
The control unit 20 controls the motion recognition unit 1
If it is determined in step S56 that the screen area of the fingertip is within the designated frame area 17a via step 3, an alarm sound is generated by the alarm sound generation unit 18, and the generated alarm sound is transmitted via the speaker 19. To output audio. That is, by listening to the notification sound, the user can recognize that the fingertip is within the designated frame area 17a without visually observing the screen.

【0047】また、ステップS52にて当該移動体領域
が指定枠領域17a内になければ、又はステップS54
にて当該移動体領域の先端部分における画面領域の長さ
が所定値以上でなければ、又はステップS55にて当該
移動体領域の先端部分における画面領域の幅が所定値以
下でなければ、当該指定枠領域17a内に指先の画面領
域がないと判断し、当該指の検出処理を終了して図2に
示すステップS18に移行する。
If the moving object area is not within the designated frame area 17a in step S52, or in step S54.
If the length of the screen area at the tip of the moving body area is not greater than or equal to a predetermined value, or if the width of the screen area at the tip of the moving body area is not less than or equal to the predetermined value in step S55, the designation is performed. It is determined that there is no screen area of the fingertip in the frame area 17a, the detection processing of the finger is ended, and the process proceeds to step S18 shown in FIG.

【0048】では、次に図2に示すステップS20の指
閉じアクション検出処理について説明する。図5は当該
指閉じアクション検出処理における動作認識部13の処
理動作を示すフローチャートである。
Next, the finger close action detection processing of step S20 shown in FIG. 2 will be described. FIG. 5 is a flowchart showing the processing operation of the operation recognition unit 13 in the finger close action detection processing.

【0049】図5に示す動作認識部13においては、前
記移動体領域、すなわち手の画面領域が指定枠領域17
a内にあることを検出し(ステップS61)、当該指定
枠領域17a内に指先の画面領域があるか否かを判定す
る(ステップS62)。当該指定枠領域17a内に指先
の画面領域がなければ、指先を閉じたアクション、すな
わち当該メニュー画面上の指先によるキー表示指定の開
始を促すアクションを検出したことを示す第3フラグを
“1”とし(ステップS63)、当該指閉じアクション
検出処理を終了して図2に示すステップS18に移行す
る。
In the motion recognition unit 13 shown in FIG. 5, the moving body area, that is, the screen area of the hand is the designated frame area 17.
It is detected that it is within a (step S61), and it is determined whether or not there is a screen area of the fingertip in the designated frame area 17a (step S62). If there is no screen area of the fingertip in the designated frame area 17a, the third flag indicating that the action of closing the fingertip, that is, the action of prompting the start of key display designation by the fingertip on the menu screen is detected is "1". Then (step S63), the finger close action detection process is terminated, and the process proceeds to step S18 shown in FIG.

【0050】尚、前記制御部20は、ステップS62に
て当該指定枠領域17a内に手の画面領域はあるが、指
先の画面領域がないことを前記動作認識部13を介して
検出すると、前記報知音発生部18に報知音を発生さ
せ、当該発生された報知音を前記スピーカ19を介して
音声出力するものである。ユーザーは、当該報知音を受
聴することにより、画面を目視せずともキー表示指定の
開始を促すアクションを認識することができる。
When the control section 20 detects through the motion recognition section 13 that the screen area of the hand is present in the designated frame area 17a but the screen area of the fingertip is not present in step S62, the control section 20 determines A notification sound is generated in the notification sound generation unit 18, and the generated notification sound is output as voice through the speaker 19. By listening to the notification sound, the user can recognize an action that prompts the start of key display designation without visually observing the screen.

【0051】また、ステップS62にて当該指定枠領域
17a内に移動体領域の画面領域がなければ、当該指閉
じアクション検出処理を終了して図2に示すステップS
18に移行する。
If there is no moving object area screen area in the designated frame area 17a in step S62, the finger close action detection processing is terminated and step S shown in FIG.
Go to 18.

【0052】では、次に図2に示すステップS21の指
開きアクション検出処理について説明する。図6は当該
指開きアクション検出処理における動作認識部13の処
理動作を示すフローチャートである。
Next, the finger opening action detection processing of step S21 shown in FIG. 2 will be described. FIG. 6 is a flowchart showing the processing operation of the operation recognition unit 13 in the finger opening action detection processing.

【0053】図6に示す動作認識部13においては、前
記移動体領域、すなわち手の画面領域が指定枠領域17
a内にあることを検出し(ステップS71)、当該指定
枠領域17a内に指先の画面領域があるか否かを判定す
る(ステップS72)。当該指定枠領域17a内に指先
の画面領域があれば、指先を開いたアクション、すなわ
ち当該メニュー画面上の指先によりキー表示を指定する
アクションを検出したことを示す第4フラグを“1”と
し(ステップS73)、当該指開きアクションを終了し
て図2に示すステップS18に移行する。
In the motion recognition unit 13 shown in FIG. 6, the moving body area, that is, the screen area of the hand is the designated frame area 17.
It is detected that it is within a (step S71), and it is determined whether or not there is a screen area of the fingertip in the designated frame area 17a (step S72). If there is a screen area of the fingertip in the designated frame area 17a, the fourth flag indicating that the action of opening the fingertip, that is, the action of designating the key display by the fingertip on the menu screen is detected is set to "1" ( (Step S73), the finger opening action is ended, and the process proceeds to step S18 shown in FIG.

【0054】また、ステップS72にて当該指定枠領域
17a内に指先の画面領域がなければ、当該指開きアク
ション検出処理を終了して図2に示すステップS18に
移行する。
If there is no screen area of the fingertip in the designated frame area 17a in step S72, the finger opening action detection process is terminated and the process proceeds to step S18 shown in FIG.

【0055】尚、前記制御部20は、ステップS72に
て当該指定枠領域17a内に指先の画面領域があること
を前記動作認識部13を介して検出すると、前記報知音
発生部18に報知音を発生させ、当該報知音を前記スピ
ーカ19を介して音声出力するものである。ユーザー
は、当該報知音を受聴することにより、画面を目視せず
ともキー表示を指定したことを認識することができる。
When the control section 20 detects in the step S72 that there is a screen area of the fingertip in the designated frame area 17a through the motion recognition section 13, the notification sound generation section 18 is notified. Is generated and the notification sound is output as voice through the speaker 19. By listening to the notification sound, the user can recognize that the key display has been designated without observing the screen.

【0056】つまり、上記実施形態による車載用機器制
御装置10は、カメラ11により撮像された撮像信号か
ら移動体領域を前記移動体抽出部12にて抽出し、当該
抽出された移動体領域をメニュー画面上に重ね合わせ、
当該移動体領域が手及び指先の画面領域であるか否かを
判別し、当該指先の画面領域であると判断した場合、当
該表示部17に表示中の表示画面上において指先及び当
該指先の動作を画像認識し、当該画像認識された指先の
動作により当該表示部17に表示中の表示画面上におい
て当該指先の画面領域の位置に対応したキー表示に係わ
る指令に対応した機器制御データを読み出し、当該読み
出された機器制御データに基づいて前記車載用機器30
を制御するようにした。
That is, the in-vehicle device control apparatus 10 according to the above-described embodiment extracts the moving body region from the image pickup signal picked up by the camera 11 by the moving body extraction unit 12 and displays the extracted moving body region in the menu. Overlay on the screen,
When it is determined whether or not the moving body region is the screen region of the hand and the fingertip, and when it is determined that it is the screen region of the fingertip, the fingertip and the action of the fingertip on the display screen displayed on the display unit 17 Image recognition is performed, and the device control data corresponding to the command related to the key display corresponding to the position of the screen area of the fingertip on the display screen being displayed on the display unit 17 is read by the operation of the fingertip recognized by the image, The in-vehicle device 30 based on the read device control data
Was controlled.

【0057】従って、上記実施形態による車載用機器制
御装置10によれば、従来のタッチパネル機能の疑似キ
ーや操作キーといったように直接触れなくても、手や指
先のジェスチャーを画像認識し、当該画像認識された指
先のジェスチャーにて当該機器制御に係わる指令を入力
するようにした、つまり、当該操作時における姿勢の崩
れや視線の逸れを起こすことなく指先のジェスチャーだ
けで所望の指令を入力するようにしたので、当該入力操
作時にかかるユーザーへの負担を確実に解消することが
でき、強いて運転上の安全性向上を図ることができる。
Therefore, according to the vehicle-mounted device control apparatus 10 according to the above-described embodiment, the gesture of the hand or the fingertip is recognized by the image without directly touching the pseudo key or the operation key of the conventional touch panel function, and the image is recognized. The command related to the device control is input by the recognized fingertip gesture, that is, the desired command is input only by the fingertip gesture without causing the posture collapse and the deviation of the line of sight during the operation. Therefore, the burden on the user during the input operation can be reliably eliminated, and the driving safety can be improved.

【0058】また、上記実施形態によれば、前記表示部
17に表示中の合成画面のメニュー画面上に当該指先に
より指定されたキー表示の位置に当該指先も合わせて表
示させるようにしたので、当該画面上においてどのキー
表示を指定したかをユーザーは認識することができ、強
いてはその操作性を著しく向上させることができる。
According to the above embodiment, the fingertip is also displayed at the key display position designated by the fingertip on the menu screen of the composite screen being displayed on the display unit 17. The user can recognize which key display has been designated on the screen, and the operability can be remarkably improved.

【0059】また、上記実施形態によれば、前記カメラ
部11に撮像される移動体がキー入力可能領域に到達し
たときに前記報知音声発生部18より報知音を発生し、
当該発生された報知音をスピーカ19より音声出力させ
るようにしたので、ユーザーは、表示画面を目視せずと
もその指先がキー入力可能領域にあることを認識するこ
とができる。
Further, according to the above embodiment, when the moving body imaged by the camera unit 11 reaches the key input possible area, the notification sound generation unit 18 generates a notification sound,
Since the generated notification sound is output by the speaker 19, the user can recognize that his / her fingertip is in the key input possible area without visually observing the display screen.

【0060】尚、上記実施形態においては、当該指先に
より指定されたキー表示と当該指先とを合わせて当該表
示部17に表示中のメニュー画面上に表示させることに
より、当該指定されたキー表示と他のキー表示とを異な
るように識別表示させるようにしたが、当該指先のブレ
等により指定されたキー表示の位置が定まりにくいとい
った事態も考えられる。
In the above embodiment, the key display designated by the fingertip and the fingertip are combined and displayed on the menu screen being displayed on the display unit 17, so that the designated key display is displayed. Although the different key display is displayed differently from the other key display, it is possible that the position of the designated key display is difficult to determine due to the blurring of the fingertip.

【0061】そこで、このような事態を打開するため
に、図9に示すように当該表示中のメニュー画面上にお
いて当該指定されたキー表示200の色や輝度を、他の
キー表示100とは異なるように変えるようにしても良
く、この場合には当該指定されたキー表示200が明確
になり、ユーザーの入力操作をより一層良好にすること
ができる。
Therefore, in order to overcome such a situation, as shown in FIG. 9, the color and brightness of the designated key display 200 on the displayed menu screen are different from those of the other key displays 100. However, in this case, the designated key display 200 becomes clear and the user's input operation can be further improved.

【0062】また、当該表示中のメニュー画面上におい
ては、当該指定されたキー表示をカーソル表示等のマー
ク表示とするようにしても良く、この場合には前記移動
体抽出部12により移動体の位置情報を抽出し、当該移
動体が抽出された位置にカーソル等のマークを表示させ
るようにすれば良い。
Further, on the displayed menu screen, the designated key display may be a mark display such as a cursor display. In this case, the moving body extraction unit 12 displays the moving body. The position information may be extracted and a mark such as a cursor may be displayed at the position where the moving body is extracted.

【0063】また、上記実施形態によれば、当該カメラ
部11により撮像された撮像信号から抽出された移動体
領域を当該表示部17に表示中のメニュー画面上に表示
させるようにしたが、当該移動体領域が当該撮像信号内
にないと、当該移動体がキー入力可能領域にない場合と
して図10(a)に示すように当該表示部17に表示中
の表示画面を滅灯し、当該移動体領域が当該撮像信号内
にあると、当該移動体がキー入力可能領域にある場合と
して図10(b)に示すように当該表示部17に表示中
の表示画面上において指定枠領域17a以外の画面領域
を点灯表示させるようにしても良く、この場合、ユーザ
ーは自分の手がキー入力可能領域近傍にあるか否かを画
面上にて認識することができ、非常に入力操作がしやす
い。
Further, according to the above embodiment, the moving body area extracted from the image pickup signal picked up by the camera section 11 is displayed on the menu screen being displayed on the display section 17. If the moving body region is not within the image pickup signal, it is determined that the moving body is not in the key input possible region, and the display screen being displayed on the display unit 17 is extinguished as shown in FIG. When the body region is in the image pickup signal, as shown in FIG. 10B, it is assumed that the moving body is in the key input possible region, and other than the designated frame region 17a on the display screen being displayed on the display unit 17. The screen area may be lit and displayed. In this case, the user can recognize on the screen whether his or her hand is in the vicinity of the key input possible area, and the input operation is very easy.

【0064】また、図11に示すように当該表示部17
に表示中のメニュー画面上を例えば指定枠領域17a、
当該指定枠領域17aを包囲する中間画面領域17b及
び当該中間画面領域17bを包囲する外枠画面領域17
cの様に3つの画面領域に分け、当該表示部17に表示
中の外枠画面領域17c上にて移動体が移動してきた場
合には当該外枠画面領域17cをオレンジ色に表示し、
当該移動体が中間画面領域17b内に移動してきた場合
には当該中間画面領域17bを黄色に表示し、当該移動
体が指定枠領域17a内に移動してきた場合、当該指定
枠領域17aを緑色に表示させるようにしても良く、こ
の場合、手探り操作時においてユーザーの手がどのキー
入力領域にあるかを逐次認識することができ、より一層
の操作性を向上させることができる。また、これら各領
域17a,17b,17cへの移動体の移動により、表
示色を変えるだけでなく、報知音の音量や音質を変化さ
せるようにしても良い。
Further, as shown in FIG.
On the menu screen being displayed in, for example, the designated frame area 17a,
An intermediate screen area 17b surrounding the designated frame area 17a and an outer frame screen area 17 surrounding the intermediate screen area 17b.
When the moving body moves on the outer frame screen area 17c being displayed on the display unit 17, the outer frame screen area 17c is displayed in orange,
When the moving body has moved into the intermediate screen area 17b, the intermediate screen area 17b is displayed in yellow, and when the moving body has moved into the designated frame area 17a, the designated frame area 17a is displayed in green. It may be displayed, and in this case, it is possible to successively recognize which key input area the user's hand is in during a fumbling operation, and it is possible to further improve operability. Further, by moving the moving body to each of these areas 17a, 17b, 17c, not only the display color may be changed but also the volume and sound quality of the notification sound may be changed.

【0065】また、上記実施形態においては運転中のキ
ー入力未使用時においても当該表示部17においてはメ
ニュー画面を表示しているが、当該キー入力未使用時に
おいては前記表示部17におけるメニュー画面の表示を
消して、図3に示すステップS33にて移動体が判別さ
れたときにのみ当該表示部17に対してメニュー画面を
表示させるようにしても良く、この場合には当該表示中
のメニュー画面により運転中の視界を妨げることを防止
することができると共に、キー入力未使用時における無
駄な電力消費を削減することができる。
Further, in the above embodiment, the menu screen is displayed on the display unit 17 even when the key input is not used during driving, but the menu screen on the display unit 17 is displayed when the key input is not used. May be turned off and the menu screen may be displayed on the display unit 17 only when the moving body is discriminated in step S33 shown in FIG. 3. In this case, the menu currently displayed is displayed. It is possible to prevent the screen from obstructing the field of vision during driving and reduce unnecessary power consumption when the key input is not used.

【0066】また、上記実施形態における機器制御装置
としては、車載用機器を制御する車載用機器制御装置を
例にとり説明するようにしたが、図12に示すようにパ
ソコン41にカメラ42を設けることにより、パソコン
41のポインタ43を移動させるマウスの代わりに当該
カメラ42により撮像された指先のジェスチャーに基づ
いて当該ポインタ43を制御するようにしても良いこと
は言うまでもない。
Further, as the equipment control device in the above embodiment, the on-vehicle equipment control device for controlling the on-vehicle equipment has been described as an example. However, as shown in FIG. 12, a camera 42 is provided on the personal computer 41. Therefore, it goes without saying that the pointer 43 may be controlled based on the gesture of the fingertip imaged by the camera 42 instead of the mouse for moving the pointer 43 of the personal computer 41.

【0067】[0067]

【発明の効果】上記のように構成された本発明の請求項
1記載の機器制御装置によれば、従来のようにタッチパ
ネル機能の疑似キーや操作キーに直接触れなくても、指
先のジェスチャーを画像認識し、当該画像認識された指
先のジェスチャーにて当該機器制御に係わる指令を入力
するようにした、つまり、当該操作時における姿勢の崩
れや視線の逸れを起こすことなく指先のジェスチャーだ
けで所望の指令を入力するようにしたので、当該入力操
作時にかかるユーザーへの負担を確実に解消することが
できる。
According to the device control device of the first aspect of the present invention configured as described above, the gesture of the fingertip can be performed without directly touching the pseudo key or the operation key of the touch panel function unlike the conventional case. Image recognition is performed, and a command related to the device control is input by the gesture of the fingertip recognized in the image, that is, the gesture of the fingertip is required without causing the posture collapse and the deviation of the line of sight during the operation. Since the command is input, it is possible to reliably eliminate the burden on the user during the input operation.

【0068】また、上記請求項2記載の機器制御装置に
よれば、前記移動体動作認識手段にて認識された指先及
びメニュー画面を合成画面として前記表示手段に表示さ
せるようにしたので、ユーザーの指先がどの位置にある
のかを当該表示手段の画面上にて認識することができ
る。
Further, according to the device control apparatus of the second aspect, since the fingertip and the menu screen recognized by the moving body motion recognition means are displayed on the display means as a composite screen, The position of the fingertip can be recognized on the screen of the display means.

【0069】また、上記請求項3記載の機器制御装置に
よれば、前記移動体動作認識手段にて認識されたキー表
示、すなわち前記指先の動作により指定されたキー表示
を他のキー表示とは異なるように、例えばマークや異色
等により識別表示させるようにしたので、当該指令指定
に係わる入力操作を効果的に認識することができる。
According to the device control apparatus of the third aspect, the key display recognized by the moving body motion recognition means, that is, the key display designated by the motion of the fingertip is different from other key displays. Differently, for example, the marks and different colors are used for identification display, so that the input operation relating to the command designation can be effectively recognized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の機器制御装置を実施形態を示す車載用
機器制御装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an in-vehicle device control device showing an embodiment of a device control device of the present invention.

【図2】本実施形態の指令入力処理における制御部の処
理動作を示すフローチャートである。
FIG. 2 is a flowchart showing a processing operation of a control unit in a command input processing of this embodiment.

【図3】本実施形態の移動体抽出処理における移動体抽
出部の処理動作を示すフローチャートである。
FIG. 3 is a flowchart showing a processing operation of a moving body extraction unit in a moving body extraction process of this embodiment.

【図4】本実施形態の指の検出処理における動作認識部
の処理動作を示すフローチャートである。
FIG. 4 is a flowchart showing the processing operation of the operation recognition unit in the finger detection processing of the present embodiment.

【図5】本実施形態の指閉じアクション検出処理におけ
る動作認識部の処理動作を示すフローチャートである。
FIG. 5 is a flowchart showing the processing operation of the operation recognition unit in the finger close action detection processing of the present embodiment.

【図6】本実施形態の指開きアクション検出処理におけ
る動作認識部の処理動作を示すフローチャートである。
FIG. 6 is a flowchart showing the processing operation of the operation recognition unit in the finger opening action detection processing of the present embodiment.

【図7】本実施形態の画面合成部に係わる合成画面を端
的に示す説明図である。 a)撮像信号から抽出された移動体領域を示す説明図 b)メモリ部に記憶されたメニュー画面を示す説明図 c)メニュー画面上に移動体領域を重ね合わせた合成画
面を示す説明図
FIG. 7 is an explanatory diagram schematically showing a composite screen related to the screen composition unit of the present embodiment. a) Explanatory diagram showing the moving body region extracted from the image pickup signal b) Explanatory diagram showing the menu screen stored in the memory section c) Explanatory diagram showing the composite screen in which the moving body region is superimposed on the menu screen

【図8】本実施形態の動作認識部にて行われる細線化処
理を端的に示す説明図である。 a)細線化処理前の移動体領域を示す説明図 b)細線化処理後の移動体領域を示す説明図
FIG. 8 is an explanatory diagram schematically showing a thinning process performed by a motion recognition unit according to the present embodiment. a) Explanatory diagram showing a moving body region before thinning processing b) Explanatory diagram showing a moving body region after thinning processing

【図9】他の実施形態における表示部に表示中のメニュ
ー画面を示す説明図である。
FIG. 9 is an explanatory diagram showing a menu screen being displayed on a display unit according to another embodiment.

【図10】他の実施形態における表示部に表示中のメニ
ュー画面を端的に示す説明図である。 a)撮像信号内に移動体がない場合における表示画面の
表示状態を示す説明図 b)撮像信号内に移動体がある場合における表示画面の
表示状態を示す説明図
FIG. 10 is an explanatory view briefly showing a menu screen being displayed on a display unit in another embodiment. a) Explanatory diagram showing the display state of the display screen when there is no moving body in the image pickup signal b) Explanatory diagram showing the display state of the display screen when there is a moving body in the image pickup signal

【図11】他の実施形態における表示部に表示中のメニ
ュー画面を端的に示す説明図である。
FIG. 11 is an explanatory view briefly showing a menu screen being displayed on a display unit in another embodiment.

【図12】本発明の機器制御装置をパソコン等に適用し
た場合の実施形態を示す外観説明図である。
FIG. 12 is an external view showing an embodiment in which the device control apparatus of the present invention is applied to a personal computer or the like.

【符号の説明】[Explanation of symbols]

10 車載用機器制御装置(機器制御装置) 11 カメラ部(撮像手段) 12 移動体抽出部(移動体抽出手段) 13 動作認識部(移動体動作認識手段) 14 メモリ部(第1記憶手段) 15 画面合成部(画面合成手段) 16 指令入力抽出部(移動体動作認識手段) 17 表示部(表示手段) 20 制御部(制御手段、第2記憶手段) 30 車載用機器(機器) DESCRIPTION OF SYMBOLS 10 In-vehicle equipment control device (equipment control device) 11 Camera part (imaging means) 12 Moving body extraction part (moving body extraction means) 13 Motion recognition part (moving body motion recognition means) 14 Memory part (first storage means) 15 Screen synthesis unit (screen synthesis unit) 16 Command input extraction unit (moving body motion recognition unit) 17 Display unit (display unit) 20 Control unit (control unit, second storage unit) 30 Vehicle-mounted device (device)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 機器の制御に係わる指令に対応したキー
表示を有するメニュー画面を記憶する第1記憶手段と、 当該キー表示に対応した指令に係わる機器制御データを
記憶する第2記憶手段と、 前記第1記憶手段に記憶されたメニュー画面を表示する
表示手段と、 移動体を撮像し、当該移動体に係わる撮像信号を得る撮
像手段と、 当該撮像信号から移動体領域を抽出する移動体抽出手段
と、 当該抽出された移動体領域と前記第1記憶手段に記憶さ
れたメニュー画面とを合成して合成画面を生成する画面
合成手段と、 前記移動体領域における移動体の動作及び当該動作によ
り指定されたキー表示を認識する移動体動作認識手段
と、 当該認識されたキー表示に対応した指令に係わる機器制
御データを前記第2記憶手段から読み出し、当該読み出
された機器制御データに基づいて前記機器を制御する制
御手段とを有することを特徴とする機器制御装置。
1. A first storage means for storing a menu screen having a key display corresponding to a command related to device control, and a second storage means for storing device control data related to a command corresponding to the key display. Display means for displaying the menu screen stored in the first storage means, image pickup means for picking up an image of a moving body to obtain an image pickup signal relating to the moving body, and moving body extraction for extracting a moving body region from the image pickup signal Means, screen synthesizing means for synthesizing the extracted moving body area and the menu screen stored in the first storage means to generate a synthesized screen, and an operation of the moving body in the moving body area and the operation. The moving body motion recognition means for recognizing the designated key display and the device control data relating to the command corresponding to the recognized key display are read out from the second storage means and read out. Device control apparatus characterized by a control means for controlling the apparatus on the basis of the device control data.
【請求項2】 前記制御手段は、前記画面合成手段にて
生成された合成画面を前記表示手段に表示出力させるこ
とを特徴とする請求項1記載の機器制御装置。
2. The device control apparatus according to claim 1, wherein the control unit causes the display unit to display and output the combined screen generated by the screen combining unit.
【請求項3】 前記制御手段は、前記移動体動作認識手
段にて認識されたキー表示を当該表示手段に表示中のメ
ニュー画面上にて識別表示させることを特徴とする請求
項1又は2記載の機器制御装置。
3. The control means causes the key display recognized by the moving body motion recognition means to be identified and displayed on a menu screen being displayed on the display means. Equipment control device.
JP7255822A 1995-09-08 1995-09-08 Equipment controller Pending JPH0981307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7255822A JPH0981307A (en) 1995-09-08 1995-09-08 Equipment controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7255822A JPH0981307A (en) 1995-09-08 1995-09-08 Equipment controller

Publications (1)

Publication Number Publication Date
JPH0981307A true JPH0981307A (en) 1997-03-28

Family

ID=17284107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7255822A Pending JPH0981307A (en) 1995-09-08 1995-09-08 Equipment controller

Country Status (1)

Country Link
JP (1) JPH0981307A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049934A (en) * 2003-07-29 2005-02-24 Yamaha Corp Image processor
JP2005301479A (en) * 2004-04-08 2005-10-27 Akinori Yoshino Instruction input device based on projected action of presenter
JP2005302019A (en) * 2004-04-05 2005-10-27 Bose Corp Accepting user control
JP2006091948A (en) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd Controller for electronic equipment
JP2007156950A (en) * 2005-12-07 2007-06-21 Toyota Motor Corp Vehicle operating device
JP2008158675A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Operation device for vehicle
JP2009031981A (en) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp Interface device, interface method and interface program
JP2009128201A (en) * 2007-11-26 2009-06-11 Mitsubishi Electric Corp Position and attitude recognition device
JP2009525529A (en) * 2006-02-01 2009-07-09 トビー テクノロジー アーベー Generating graphical feedback in computer systems
JP2010003303A (en) * 2009-07-21 2010-01-07 Victor Co Of Japan Ltd Controller for electronic equipment
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
US7970173B2 (en) 2006-03-31 2011-06-28 Denso Corporation Object-detecting device and method of extracting operation object
JP2012058928A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2014096804A (en) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd Operation control device and operation display method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049934A (en) * 2003-07-29 2005-02-24 Yamaha Corp Image processor
JP2005302019A (en) * 2004-04-05 2005-10-27 Bose Corp Accepting user control
JP2005301479A (en) * 2004-04-08 2005-10-27 Akinori Yoshino Instruction input device based on projected action of presenter
JP2006091948A (en) * 2004-09-21 2006-04-06 Victor Co Of Japan Ltd Controller for electronic equipment
US7629959B2 (en) 2004-09-21 2009-12-08 Victor Company Of Japan, Limited Controller for electronic appliance
JP2007156950A (en) * 2005-12-07 2007-06-21 Toyota Motor Corp Vehicle operating device
US10452140B2 (en) 2006-02-01 2019-10-22 Tobii Ab Generation of graphical feedback in a computer system
US9760170B2 (en) 2006-02-01 2017-09-12 Tobii Ab Generation of graphical feedback in a computer system
JP2009525529A (en) * 2006-02-01 2009-07-09 トビー テクノロジー アーベー Generating graphical feedback in computer systems
US9213404B2 (en) 2006-02-01 2015-12-15 Tobii Technology Ab Generation of graphical feedback in a computer system
US7970173B2 (en) 2006-03-31 2011-06-28 Denso Corporation Object-detecting device and method of extracting operation object
JP2008158675A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Operation device for vehicle
JP2009031981A (en) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp Interface device, interface method and interface program
JP2009128201A (en) * 2007-11-26 2009-06-11 Mitsubishi Electric Corp Position and attitude recognition device
JP2010003303A (en) * 2009-07-21 2010-01-07 Victor Co Of Japan Ltd Controller for electronic equipment
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
US9400560B2 (en) 2009-10-05 2016-07-26 Hitachi Maxell, Ltd. Image display device and display control method thereof
JP2012058928A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
US9513712B2 (en) 2010-09-07 2016-12-06 Sony Corporation Information processing device and information processing method
JP2014096804A (en) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd Operation control device and operation display method

Similar Documents

Publication Publication Date Title
JP5201999B2 (en) Input device and method thereof
EP1324269B1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
JP4720874B2 (en) Information processing apparatus, information processing method, and information processing program
JPH0981307A (en) Equipment controller
JP5418093B2 (en) Display device and control method
JP4433948B2 (en) Background image acquisition program, video game apparatus, background image acquisition method, and computer-readable recording medium recording the program
US10108334B2 (en) Gesture device, operation method for same, and vehicle comprising same
CN101131609A (en) Interface apparatus and interface method
KR101490908B1 (en) System and method for providing a user interface using hand shape trace recognition in a vehicle
WO2007018416A1 (en) User input method and device of mobile communication terminal
JPH08315154A (en) Gesture recognition system
US9052750B2 (en) System and method for manipulating user interface by 2D camera
WO2018061413A1 (en) Gesture detection device
JP2016038621A (en) Space input system
TW201426404A (en) Electronic device and application hand gesture control method
JP5332623B2 (en) Image display device and image display method
JP3899241B2 (en) Image display system, image display method, program, and recording medium
CN110908517A (en) Image editing method, image editing device, electronic equipment and medium
CN112124434A (en) Method and device for realizing transparent A column
JPH05232908A (en) Instruction input device
JP6673567B2 (en) Information display device, information display system, and information display method
TW201926050A (en) Vehicle multi-display control system and vehicle multi-display control method
JP6587553B2 (en) Imaging apparatus and display method
CN111679737B (en) Hand segmentation method and electronic device
JP5676959B2 (en) Information processing apparatus and control method thereof