Nothing Special   »   [go: up one dir, main page]

JP2002083302A - Information processing device, action recognition processing method, and program storage medium - Google Patents

Information processing device, action recognition processing method, and program storage medium

Info

Publication number
JP2002083302A
JP2002083302A JP2000276645A JP2000276645A JP2002083302A JP 2002083302 A JP2002083302 A JP 2002083302A JP 2000276645 A JP2000276645 A JP 2000276645A JP 2000276645 A JP2000276645 A JP 2000276645A JP 2002083302 A JP2002083302 A JP 2002083302A
Authority
JP
Japan
Prior art keywords
image
recognition
image data
motion
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000276645A
Other languages
Japanese (ja)
Inventor
Shinsuke Noguchi
進祐 野口
Junko Saito
潤子 齋藤
Keigo Ihara
圭吾 井原
Takahiko Sueyoshi
隆彦 末吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000276645A priority Critical patent/JP2002083302A/en
Publication of JP2002083302A publication Critical patent/JP2002083302A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately recognize an input action by a user and to execute the prescribed process according to the recognized input action. SOLUTION: The image data of a gesture recognition display area 106 in an image obtained by photographing the hand of the user with a CCD(charge coupled device) camera 8 are specified, and the action of the hand of the user is recognized based on the image data of the gesture recognition display area 106. Since the action of the hand of the unser can be recognized by using only the image data of the gesture recognition display area 106 required in recognizing the action of the hand of the user, erroneous recognition is reduced, and recognition precision can be further improved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は情報処理装置、動作
認識処理方法及びプログラム格納媒体に関し、例えばノ
ートブック型パーソナルコンピュータ(以下、これをノ
ートパソコンと呼ぶ)に適用して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an operation recognition processing method, and a program storage medium, and is suitably applied to, for example, a notebook personal computer (hereinafter referred to as a notebook personal computer).

【0002】[0002]

【従来の技術】従来、ノートパソコンにおいては本体部
と、液晶ディスプレイ等の表示手段と、所定のコマンド
や文字を入力するためのキーボードあるいはマウス等の
入力手段とによって構成され、当該入力手段によって入
力されたコマンドに応じて所定の処理を実行し、その実
行結果を表示手段に表示するようになされている。
2. Description of the Related Art Conventionally, a notebook personal computer comprises a main body, display means such as a liquid crystal display, and input means such as a keyboard or mouse for inputting predetermined commands and characters. A predetermined process is executed in response to the command, and the execution result is displayed on a display unit.

【0003】また最近のノートパソコンにおいては、キ
ーボードやマウス以外の入力手段として例えば当該ノー
トパソコンの筐体側面から僅かに突出するように設けら
れた所定形状の回転操作子いわゆるジョグダイヤルが用
いられ、当該ジョグダイヤルに対する回転操作及び押圧
操作に応動して、メニュー項目の選択及びコマンドの決
定等の命令が入力されるようになされている。
In recent notebook personal computers, a so-called jog dial having a predetermined shape is used as input means other than a keyboard and a mouse, for example, so as to slightly protrude from the side of the housing of the notebook personal computer. In response to a rotating operation and a pressing operation on the jog dial, a command such as selection of a menu item and determination of a command is input.

【0004】[0004]

【発明が解決しようとする課題】ところでかかる構成の
ノートパソコンにおいては、キーボード、マウス及びジ
ョグダイヤル等の入力手段を当該各入力手段毎の操作方
法で直接操作しなければならず、ユーザに対して各入力
手段毎の操作方法を覚えさせる必要があると共に、煩雑
な操作を強いるという問題があった。
In a notebook personal computer having such a configuration, input means such as a keyboard, a mouse, and a jog dial must be directly operated by an operation method for each input means. There is a problem in that it is necessary to memorize an operation method for each input means and a complicated operation is required.

【0005】またノートパソコンは、ユーザの入力操作
に間違いがあった場合には、間違った処理を実行するこ
とにもなり、使い勝手としては不十分であった。
[0005] In addition, if the input operation by the user is incorrect, the notebook personal computer may execute an incorrect process, which is insufficient in usability.

【0006】本発明は以上の点を考慮してなされたもの
で、ユーザによる入力操作を一段と正確に認識し得る情
報処理装置、動作認識処理方法及びプログラム格納媒体
を提案しようとするものである。
The present invention has been made in view of the above points, and it is an object of the present invention to propose an information processing apparatus, an operation recognition processing method, and a program storage medium which can more accurately recognize an input operation by a user.

【0007】[0007]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、撮像手段によって認識対象を撮像
することにより得られた画像における所定領域の画像デ
ータを特定し、当該所定領域の画像データにのみ基づい
て認識対象の動作を認識するようにしたことにより、認
識対象の動作を認識する際に必要な所定領域の画像デー
タだけを用いて認識対象の動作を認識することができる
ので、誤認識を低減すると共に一段と認識精度を向上さ
せることができる。
According to the present invention, in order to solve the above-mentioned problems, image data of a predetermined area in an image obtained by imaging an object to be recognized by an imaging means is specified, and image data of the predetermined area is specified. By recognizing the operation of the recognition target based only on the recognition target operation, the operation of the recognition target can be recognized using only image data of a predetermined area necessary for recognizing the operation of the recognition target. Recognition can be reduced and recognition accuracy can be further improved.

【0008】[0008]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0009】(1)第1の実施の形態 (1−1)ノートブック型パーソナルコンピュータの外
観構成 図1において、1は全体として本発明を適用した情報処
理装置としてのノートブック型パーソナルコンピュータ
(以下、これをノートパソコンと呼ぶ)を示し、本体2
と当該本体2に対して開閉自在に取り付けられた表示部
3とによって構成されている。
(1) First Embodiment (1-1) External Configuration of Notebook Personal Computer In FIG. 1, reference numeral 1 denotes a notebook personal computer (hereinafter, referred to as an information processing apparatus) to which the present invention is applied as a whole. , This is called a notebook computer).
And a display unit 3 attached to the main body 2 so as to be openable and closable.

【0010】本体2は、その上面に各種文字や記号及び
数字等を入力するための複数の操作キー4、マウスカー
ソルの移動に用いられるスティック式ポインティングデ
バイス(以下、これを単にスティックと呼ぶ)5、通常
のマウスにおける左ボタン及び右ボタンに相当する左ク
リックボタン5A及び5B、マウスカーソルをスクロー
ルボタンに合わせることなくスクロールバーを操作する
ためのセンタボタン5C、内蔵スピーカ6A及び6B、
押圧式の電源スイッチ7、表示部3に設けられたCCD
(Charge Coupled Device )カメラ8用のシャッタボタ
ン9、LED(Light Emitting Diode)で構成された電
源ランプPL、電池ランプBL及びメッセージランプM
L等が設けられている。
The main body 2 has a plurality of operation keys 4 for inputting various characters, symbols, numbers, and the like on a top surface thereof, and a stick type pointing device (hereinafter, simply referred to as a stick) 5 used for moving a mouse cursor. Left click buttons 5A and 5B corresponding to a left button and a right button of a normal mouse, a center button 5C for operating a scroll bar without moving the mouse cursor to the scroll buttons, built-in speakers 6A and 6B,
Push-type power switch 7, CCD provided on display unit 3
(Charge Coupled Device) A shutter button 9 for a camera 8, a power lamp PL, a battery lamp BL, and a message lamp M each composed of an LED (Light Emitting Diode).
L and the like are provided.

【0011】表示部3は、その正面に例えば8.9型
(1024×480ピクセル)対応のTFT(Thin Fil
m Transisitor )カラー液晶でなる液晶ディスプレイ1
0が設けられると共に、正面の中央上端部には撮像手段
としてのCCDカメラ8を備えた撮像部11が当該表示
部3に対して回動自在に設けられている。
The display section 3 has a TFT (Thin Fil) corresponding to, for example, an 8.9 type (1024 × 480 pixels) on its front surface.
m Transisitor) Liquid crystal display 1 consisting of color liquid crystal
0 is provided, and an image pickup section 11 provided with a CCD camera 8 as an image pickup means is provided at the upper end of the front center so as to be rotatable with respect to the display section 3.

【0012】この撮像部11においては、CCDカメラ
8が表示部3の正面方向から背面方向までの180度程
度の角度範囲で回動して任意の角度で位置決めし得ると
共に、当該CCDカメラ8によって所望の撮像対象を撮
像する際のフォーカス調整を当該撮像部11の上端部に
設けられた調整リング12の回転操作により容易に行い
得るようになされている。
In the image pickup section 11, the CCD camera 8 can be rotated at an angle of about 180 degrees from the front direction to the rear direction of the display section 3 to position the display section 3 at an arbitrary angle. Focus adjustment when imaging a desired imaging target can be easily performed by rotating the adjustment ring 12 provided at the upper end of the imaging unit 11.

【0013】また表示部3は、撮像部11の左端近傍に
おける正面側及び背面側にマイクロフォン13が設けら
れており、当該マイクロフォン13を介して当該表示部
3の正面側から背面側までの広範囲に渡って集音し得る
ようになされている。
The display unit 3 is provided with microphones 13 on the front side and the back side near the left end of the imaging unit 11, and covers a wide area from the front side to the back side of the display unit 3 via the microphone 13. It is designed to be able to collect sound across.

【0014】さらに表示部3は、液晶ディスプレイ10
の左端近傍及び右端近傍にそれぞれつめ14及び15が
設けられ、当該つめ14及び15と対応する本体2の所
定位置には孔部16及び17が設けられており、表示部
3を本体2に閉塞した状態でつめ14及び15がそれぞ
れ対応する孔部16及び17に嵌合される。
The display unit 3 further includes a liquid crystal display 10
The pawls 14 and 15 are provided near the left end and the right end, respectively, and holes 16 and 17 are provided at predetermined positions of the main body 2 corresponding to the pawls 14 and 15, respectively. In this state, the claws 14 and 15 are fitted into the corresponding holes 16 and 17, respectively.

【0015】これに対して表示部3は、本体2に閉塞さ
れた当該表示部3の前側が持ち上げられたときに、孔部
16及び17とつめ14及び15の嵌合状態が解除さ
れ、その結果、当該表示部3が本体2から展開し得るよ
うになされている。
On the other hand, when the front side of the display unit 3 closed by the main body 2 is lifted, the fitted state of the holes 16 and 17 and the claws 14 and 15 is released. As a result, the display unit 3 can be developed from the main body 2.

【0016】また本体2は、その右側面にIrDA(In
frared Data Association )準拠の赤外線ポート18、
ヘッドフォン端子19、マイクロフォン用入力端子2
0、USB(Universal Serial Bus)端子21、外部電
源コネクタ22、外部ディスプレイ出力用コネクタ2
3、回転操作子の回転操作及び押圧操作によって所定の
処理を実行するための命令を入力し得るジョグダイヤル
24及びモジュラージャック用のモデム端子25が設け
られている。
The main body 2 has an IrDA (In)
frared Data Association) compliant infrared port 18,
Headphone terminal 19, microphone input terminal 2
0, USB (Universal Serial Bus) terminal 21, external power supply connector 22, external display output connector 2
3. A jog dial 24 and a modem terminal 25 for a modular jack are provided for inputting a command for executing a predetermined process by a rotation operation and a pressing operation of the rotary operation element.

【0017】一方、図2に示すように本体2は、その左
側面に排気孔26、PCMCIA(Personal Computer
Memory Card International Association )規格のPC
(Personal Computer )カードに対応したPCカードス
ロット27及び4ピン対応のIEEE(Institute of E
lectrical and Electronics Engineers )1394端子
28が設けられている。
On the other hand, as shown in FIG. 2, the main body 2 has an exhaust hole 26 on its left side and a PCMCIA (Personal Computer).
Memory Card International Association) standard PC
(Personal Computer) card compatible with PC card slot 27 and 4-pin IEEE (Institute of E)
Electrical and Electronics Engineers) 1394 terminal 28 is provided.

【0018】さらに図3に示すように本体2は、その後
側面にバッテリコネクタ29が設けられており、底面に
はバッテリパック30(図1)を取り外すためのスライ
ド式取り外しレバー31及び当該スライド式取り外しレ
バー31のスライド操作をロックするロックレバー32
が設けられると共に、本体2の動作を中断して電源投入
時の環境を再構築するためのリセットスイッチ33が設
けられている。なおバッテリパック30は、バッテリコ
ネクタ29に対して着脱自在に接続される。
Further, as shown in FIG. 3, the main body 2 is provided with a battery connector 29 on a rear side surface thereof, and a slide type removal lever 31 for removing the battery pack 30 (FIG. 1) on the bottom surface thereof, and the slide type removal lever 31. Lock lever 32 for locking the sliding operation of lever 31
And a reset switch 33 for interrupting the operation of the main body 2 and reconstructing the environment at power-on. The battery pack 30 is detachably connected to the battery connector 29.

【0019】(1−2)ノートブック型パーソナルコン
ピュータの回路構成 次にノートパソコン1の回路構成について図4を用いて
詳細に説明する。ノートパソコン1の本体2において
は、当該本体2の各種機能を統括的に制御するCPU
(Central Processing Unit )50がホストバス52に
接続されており、当該CPU50によってRAM(Rand
om Access Memory)53にロードされた各種プログラム
やアプリケーションソフトウェアに応じた処理を、クロ
ックジェネレータ60から与えられるシステムクロック
に基づいて所定の動作速度で実行することにより各種機
能を実現し得るようになされている。
(1-2) Circuit Configuration of Notebook Type Personal Computer Next, the circuit configuration of the notebook personal computer 1 will be described in detail with reference to FIG. In the main body 2 of the notebook personal computer 1, a CPU for controlling various functions of the main body 2 in an integrated manner
(Central Processing Unit) 50 is connected to the host bus 52, and the CPU 50 controls the RAM (Rand Rand).
om Access Memory) 53 is executed at a predetermined operating speed based on a system clock provided from the clock generator 60, thereby realizing various functions. I have.

【0020】またホストバス52には、キャッシュメモ
リ51が接続されており、CPU50が使用するデータ
をキャッシュし、高速アクセスを実現し得るようになさ
れている。
A cache memory 51 is connected to the host bus 52 so as to cache data used by the CPU 50 and realize high-speed access.

【0021】このホストバス52は、PCI(Peripher
al Component Interconnect )バス55とホスト−PC
Iブリッジ54を介して接続されており、当該PCIバ
ス55にはビデオコントローラ56、IEEE1349
インターフェース57、ビデオキャプチャ処理チップ8
3及びPCカードインターフェース58が接続されてい
る。
The host bus 52 is connected to a PCI (Peripher
al Component Interconnect) bus 55 and host-PC
The PCI bus 55 is connected via a video controller 56 and an IEEE 1349
Interface 57, video capture processing chip 8
3 and the PC card interface 58 are connected.

【0022】ここでホスト−PCIブリッジ54は、C
PU50と、ビデオコントローラ56、ビデオキャプチ
ャ処理チップ83、IEEE1349インターフェース
57及びPCカードインターフェース58との間で行わ
れる各種データの授受を制御すると共に、メモリバス5
9を介して接続されたRAM53のメモリコントロール
を行うようになされている。
Here, the host-PCI bridge 54
It controls the exchange of various data between the PU 50 and the video controller 56, the video capture processing chip 83, the IEEE 1349 interface 57, and the PC card interface 58, and controls the memory bus 5
9 for controlling the memory of the RAM 53 connected thereto.

【0023】またホスト−PCIブリッジ54は、ビデ
オコントローラ56とAGP(Accelerated Graphics P
ort )に沿った信号線を介して接続されており、これに
より当該ホスト−PCIブリッジ54及びビデオコント
ローラ56間で画像データを高速転送し得るようになさ
れている。
The host-PCI bridge 54 is connected to a video controller 56 and an AGP (Accelerated Graphics Processor).
(ort), so that image data can be transferred between the host-PCI bridge 54 and the video controller 56 at a high speed.

【0024】ビデオキャプチャ処理チップ83は、シリ
アルバスでなるI2 Cバス82(一般的にSM(System
Management )バスとも呼ばれている)と接続されてお
り、当該I2 Cバス82を介してCCDカメラ8で撮像
された画像データが供給されると、これを内蔵のフレー
ムメモリ(図示せず)に一旦格納し、JPEG(Joint
Photographic Experts Group)規格に従って画像圧縮処
理を施すことによりJPEG画像データを生成した後、
当該JPEG画像データを再度フレームメモリに格納す
るようになされている。
The video capture processing chip 83 includes an I 2 C bus 82 (generally a SM (System
Management) bus, and when image data captured by the CCD camera 8 is supplied via the I 2 C bus 82, the image data is stored in a built-in frame memory (not shown). And store it in JPEG (Joint
Photographic Experts Group) After generating JPEG image data by performing image compression processing according to the standard,
The JPEG image data is stored in the frame memory again.

【0025】そしてビデオキャプチャ処理チップ83
は、CPU50からの要求に応じて、フレームメモリに
格納されているJPEG画像データをバスマスタ機能を
用いてRAM53へ転送した後、JPEG画像(静止
画)データ又はMotionJPEG画像(動画)デー
タとしてハードディスクドライブ(HDD)67へ転送
する。
Then, the video capture processing chip 83
Transmits the JPEG image data stored in the frame memory to the RAM 53 using the bus master function in response to a request from the CPU 50, and then transfers the JPEG image (still image) data or the Motion JPEG image (moving image) data to the hard disk drive ( HDD) 67.

【0026】またビデオコントローラ56は、適時供給
される各種アプリケーションソフトウェアに基づく画像
データや、CCDカメラ8で撮像された画像データを表
示部3の液晶ディスプレイ10に出力することにより、
複数のウィンドウ画面を表示し得るようになされてい
る。
The video controller 56 outputs image data based on various kinds of application software supplied at appropriate times and image data captured by the CCD camera 8 to the liquid crystal display 10 of the display unit 3,
A plurality of window screens can be displayed.

【0027】IEEE1349インターフェース57
は、IEEE1394端子28と直結されており、当該
IEEE1394端子28を介して他のコンピュータ装
置やディジタルビデオカメラ等の外部デバイスと接続し
得るようになされている。
IEEE 1349 interface 57
Is directly connected to the IEEE 1394 terminal 28, and can be connected to another computer device or an external device such as a digital video camera via the IEEE 1394 terminal 28.

【0028】PCカードインターフェース58は、オプ
ション機能を追加するときに適宜PCカードスロット2
7に装填されるPCカード(図示せず)と接続され、当
該PCカードを介して例えばCD−ROM(Compact Di
sc-Read Only Memory )ドライブやDVD(Digital Ve
rsatile Disc)ドライブ等の外部デバイスと接続し得る
ようになされている。
The PC card interface 58 is connected to the PC card slot 2 when adding optional functions.
7 is connected to a PC card (not shown) mounted on the PC 7 and, for example, a CD-ROM (Compact Dimm
sc-Read Only Memory) drive and DVD (Digital Ve
(rsatile Disc) drive so that it can be connected to an external device.

【0029】PCIバス55は、ISA(Industrial S
tandard Architecture)バス65とPCI−ISAブリ
ッジ66を介して接続されており、当該PCI−ISA
ブリッジ66にはHDD67及びUSB端子21が接続
されている。
The PCI bus 55 is an ISA (Industrial S)
and a PCI-ISA bridge 66 and a PCI-ISA bridge 66.
The HDD 67 and the USB terminal 21 are connected to the bridge 66.

【0030】ここでPCI−ISAブリッジ66は、I
DE(Integrated Drive Electronics)インターフェー
ス、コンフィギュレーションレジスタ、RTC(Real-T
imeClock )回路及びUSBインターフェース等によっ
て構成されており、クロックジェネレータ60から与え
られるシステムクロックを基にIDEインターフェース
を介してHDD67の制御を行う。
Here, the PCI-ISA bridge 66
DE (Integrated Drive Electronics) interface, configuration register, RTC (Real-T
imeClock) circuit, a USB interface, and the like, and controls the HDD 67 via the IDE interface based on a system clock supplied from the clock generator 60.

【0031】HDD67のハードディスクには、 Windo
ws98(商標)等のOS(Operating System)、電子メ
ールプログラム、オートパイロットプログラム、ジョグ
ダイヤルサーバプログラム、ジョグダイヤルドライバ、
キャプチャーソフトウェア、ディジタル地図ソフトウェ
ア及びこれら以外の各種アプリケーションソフトウェア
が格納されており、起動処理の過程で適時RAM53に
転送されてロードされる。
The hard disk of the HDD 67 has Windo
OS (Operating System) such as ws98 (trademark), e-mail program, auto pilot program, jog dial server program, jog dial driver,
Capture software, digital map software, and various other application software are stored, and are transferred to and loaded on the RAM 53 as needed in the course of startup processing.

【0032】またPCI−ISAブリッジ66は、US
B端子21を介して接続される図示しないフロッピー
(登録商標)ディスクドライブ、プリンタ及びUSBマ
ウス等の外部デバイスをUSBインターフェースを介し
て制御すると共に、ISAバス65に接続されるモデム
69及びサウンドコントローラ70の制御を行う。
The PCI-ISA bridge 66 is a U.S.A.
External devices such as a floppy (registered trademark) disk drive, a printer, and a USB mouse (not shown) connected via the B terminal 21 are controlled via a USB interface, and a modem 69 and a sound controller 70 connected to the ISA bus 65. Control.

【0033】モデム69は、モデム端子25から図示し
ない公衆電話回線を介してインターネットサービスプロ
バイダ(以下、これをプロバイダと呼ぶ)に接続し、当
該プロバイダを介してインターネットへダイヤルアップ
IP接続するようになされている。
The modem 69 is connected to an Internet service provider (hereinafter, referred to as a provider) from a modem terminal 25 via a public telephone line (not shown), and is connected to the Internet via a dial-up IP connection via the provider. ing.

【0034】サウンドコントローラ70は、マイクロフ
ォン13で集音された音声信号をディジタル変換するこ
とにより音声データを生成し、これをCPU50に出力
すると共に、当該CPU50から供給される音声データ
をアナログ変換することにより音声信号を生成し、これ
を内蔵スピーカ6を介して外部に出力する。
The sound controller 70 generates sound data by converting a sound signal collected by the microphone 13 into digital data, outputs the sound data to the CPU 50, and converts the sound data supplied from the CPU 50 into an analog signal. , And outputs it to the outside via the built-in speaker 6.

【0035】またISAバス65には、I/O(In/Ou
t)コントローラ73が接続されており、外部電源コネ
クタ22から電源供給充電制御回路85を介して外部電
源の電力供給を受け、電源スイッチ7がオンされたとき
に各回路へ電力の供給を行う。なお、ここでもI/Oコ
ントローラ73は、クロックジェネレータ60から供給
されるシステムクロックを基に動作する。
The ISA bus 65 has an I / O (In / Ou).
t) The controller 73 is connected, receives power from an external power supply from the external power supply connector 22 via the power supply charging control circuit 85, and supplies power to each circuit when the power switch 7 is turned on. Here, the I / O controller 73 operates based on the system clock supplied from the clock generator 60 also.

【0036】また電源供給充電制御回路85は、I/O
コントローラ73によって制御され、バッテリコネクタ
29(図3)に接続されたバッテリパック30の充電を
制御する。
The power supply / charge control circuit 85 includes an I / O
The controller 73 controls charging of the battery pack 30 connected to the battery connector 29 (FIG. 3).

【0037】I/Oコントローラ73は、マイクロコン
トローラ、I/Oインターフェース、CPU、ROM、
RAM等によって構成されており、フラッシュメモリ7
9に格納されているBIOS(Basic Input/Output Sys
tem )に基づいてOSやアプリケーションソフトウェア
と液晶ディスプレイ10やHDD67等の各種周辺機器
との間におけるデータの入出力を制御する。
The I / O controller 73 includes a microcontroller, an I / O interface, a CPU, a ROM,
The flash memory 7 comprises a RAM or the like.
9 (Basic Input / Output Sys.)
tem) to control the input and output of data between the OS and application software and various peripheral devices such as the liquid crystal display 10 and the HDD 67.

【0038】またI/Oコントローラ73は、赤外線ポ
ート18と接続され、例えば他のコンピュータ装置との
間で赤外線通信を実行し得るようになされている。
The I / O controller 73 is connected to the infrared port 18 and can execute infrared communication with, for example, another computer.

【0039】さらにI/Oコントローラ73は、反転ス
イッチ77と接続されており、撮像部11が液晶ディス
プレイ10の背面側方向に180度回転されたとき当該
反転スイッチ77がオンされ、その旨をPCI−ISA
ブリッジ66及びホスト−PCIブリッジ54を介して
CPU50に通知する。
Further, the I / O controller 73 is connected to an inversion switch 77, and when the imaging unit 11 is rotated by 180 degrees toward the back side of the liquid crystal display 10, the inversion switch 77 is turned on. -ISA
The CPU 50 is notified via the bridge 66 and the host-PCI bridge 54.

【0040】これに加えてI/Oコントローラ73は、
全押し/半押しスイッチ78と接続されており、本体2
の上面に設けられたシャッタボタン9が半押し状態にさ
れたとき全押し/半押しスイッチ78が半押し状態にオ
ンされ、その旨をCPU50に通知すると共に、シャッ
タボタン9が全押し状態にされたとき全押し/半押しス
イッチ78が全押し状態にオンされ、その旨をCPU5
0に通知する。
In addition, the I / O controller 73
It is connected to the full-press / half-press switch 78 and the main body 2
When the shutter button 9 provided on the upper surface of the camera is half-pressed, the full-press / half-press switch 78 is turned on to the half-pressed state, the CPU 50 is notified of this, and the shutter button 9 is fully pressed. The full-press / half-press switch 78 is turned on to the full-press state, and the CPU 5
Notify 0.

【0041】すなわちCPU50は、HDD67のハー
ドディスクからキャプチャーソフトウェアをRAM53
上に立ち上げた状態で、ユーザによってシャッタボタン
9が半押し状態にされると静止画像モードに入り、CC
Dカメラ8を制御して静止画像のフリーズを実行し、全
押し状態にされるとフリーズされた静止画像データを取
り込みビデオコントローラ56に送出する。
That is, the CPU 50 transfers the capture software from the hard disk of the HDD 67 to the RAM 53.
When the shutter button 9 is half-pressed by the user in a state where the camera is raised up, the still image mode is entered and the CC
The D camera 8 is controlled to freeze the still image. When the D camera 8 is fully pressed, the frozen still image data is captured and sent to the video controller 56.

【0042】これに対してCPU50は、キャプチャー
ソフトウェアを立ち上げない状態で、ユーザによってシ
ャッタボタン9が全押し状態にされると動画像モードに
入り、最大60秒程度までの動画像を取り込んでビデオ
コントローラ56に送出するようになされている。
On the other hand, when the shutter button 9 is fully pressed by the user without starting the capture software, the CPU 50 enters the moving image mode, captures a moving image of up to about 60 seconds, and outputs the video. The data is sent to the controller 56.

【0043】ところで、I/Oコントローラ73のRO
Mには、ウェイクアッププログラム、キー入力監視プロ
グラム、LED制御プログラム及びジョグダイヤル状態
監視プログラム、その他種々の制御プログラムが格納さ
れている。
By the way, the RO of the I / O controller 73
M stores a wakeup program, a key input monitoring program, an LED control program, a jog dial state monitoring program, and various other control programs.

【0044】ここでジョグダイヤル状態監視プログラム
は、HDD67のハードディスクに格納されているジョ
グダイヤルサーバプログラムと連動して用いられるプロ
グラムであり、ジョグダイヤル24が回転操作又は押圧
操作されたか否かを監視するためのものである。
Here, the jog dial state monitoring program is a program used in conjunction with a jog dial server program stored in the hard disk of the HDD 67, and monitors whether the jog dial 24 is rotated or pressed. It is.

【0045】ウェイクアッププログラムは、PCI−I
SAブリッジ66内のRTC回路から供給される現在時
刻が予め設定した開始時刻と一致すると、CPU50に
よって所定の処理を実行するように制御されたプログラ
ムであり、キー入力監視プログラムは操作キー4及びそ
の他の各種キースイッチからの入力を監視するプログラ
ムである。LED制御プログラムは、電源ランプPL、
電池ランプBL、メッセージランプML(図1)等の各
種ランプの点灯を制御するプログラムである。
The wake-up program is a PCI-I
When the current time supplied from the RTC circuit in the SA bridge 66 coincides with a preset start time, the CPU 50 is a program controlled to execute a predetermined process. Is a program for monitoring inputs from various key switches. The LED control program includes a power lamp PL,
This is a program for controlling lighting of various lamps such as a battery lamp BL and a message lamp ML (FIG. 1).

【0046】またI/Oコントローラ73のRAMに
は、ジョグダイヤル状態監視プログラム用のI/Oレジ
スタ、ウェイクアッププログラム用の設定時刻レジス
タ、キー入力監視プログラム用のキー入力監視レジス
タ、LED制御プログラム用のLED制御レジスタ及び
その他の各種プログラム用のレジスタが設けられてい
る。
The RAM of the I / O controller 73 has an I / O register for a jog dial state monitoring program, a set time register for a wake-up program, a key input monitoring register for a key input monitoring program, and a key input monitoring register for an LED control program. An LED control register and other registers for various programs are provided.

【0047】設定時刻レジスタは、ウェイクアッププロ
グラムで用いるためにユーザが予め任意に設定した開始
時刻の時間情報を格納するようになされている。従って
I/Oコントローラ73は、ウェイクアッププログラム
に基づいてRTC回路から供給される現在時刻が任意に
設定した開始時刻と一致するか否かを判別し、当該開始
時刻と一致したときにはその旨をCPU50に通知す
る。
The set time register stores the time information of the start time arbitrarily set by the user in advance for use in the wake-up program. Accordingly, the I / O controller 73 determines whether or not the current time supplied from the RTC circuit matches the arbitrarily set start time based on the wake-up program. Notify.

【0048】これによりCPU50は、開始時刻で予め
設定された所定のアプリケーションソフトウェアを立ち
上げ、当該アプリケーションソフトウェアに従って所定
の処理を実行する。
Thus, the CPU 50 starts up predetermined application software set in advance at the start time, and executes predetermined processing according to the application software.

【0049】またキー入力監視レジスタは、操作キー
4、スティック5、左クリックボタン5A、右クリック
ボタン5B及びセンタボタン5C等の入力操作に応じた
操作キーフラグを格納するようになされている。
The key input monitoring register stores operation key flags corresponding to input operations of the operation keys 4, the stick 5, the left click button 5A, the right click button 5B, the center button 5C and the like.

【0050】従ってI/Oコントローラ73は、キー入
力監視プログラムに基づいて例えばスティック5による
ポインティング操作や、左クリックボタン5A、右クリ
ックボタン5B及びセンタボタン5Cのクリック操作が
行われたか否かを操作キーフラグの状態に基づいて判別
し、ポインティング操作やクリック操作が行われたとき
にはその旨をCPU50に通知する。
Therefore, the I / O controller 73 operates based on the key input monitoring program to determine whether the pointing operation with the stick 5 or the clicking operation of the left click button 5A, right click button 5B and center button 5C has been performed. The determination is made based on the state of the key flag, and when a pointing operation or a click operation is performed, the fact is notified to the CPU 50.

【0051】ここでポインティング操作とは、スティッ
ク5を指で上下左右に押圧操作することによりマウスカ
ーソルを画面上の所望位置に移動する操作のことであ
り、クリック操作とは左クリックボタン5A又は右クリ
ックボタン5Bを指で素早く押して離す操作のことであ
る。
Here, the pointing operation is an operation of moving the mouse cursor to a desired position on the screen by pressing the stick 5 up, down, left and right with a finger, and the clicking operation is the left click button 5A or the right button. This is an operation to quickly press and release the click button 5B with a finger.

【0052】これによりCPU50は、ポインティング
操作によるマウスカーソルの移動やクリック操作に応じ
た所定の処理を実行する。
As a result, the CPU 50 executes a predetermined process according to the movement of the mouse cursor and the click operation by the pointing operation.

【0053】またLED制御レジスタは、電源ランプP
L、電池ランプBL、メッセージランプML等の各種ラ
ンプの点灯状態を示す点灯フラグを格納するようになさ
れている。
The LED control register includes a power lamp P
A lighting flag indicating the lighting state of various lamps such as L, battery lamp BL, and message lamp ML is stored.

【0054】従ってI/Oコントローラ73は、例えば
ジョグダイヤル24の押圧操作によりCPU50がHD
D67のハードディスクから電子メールプログラムを立
ち上げ、当該電子メールプログラムに従って電子メール
を受け取ったときに点灯フラグを格納すると共に、当該
点灯フラグに基づいてLED81を制御することにより
メッセージランプMLを点灯させる。
Therefore, the I / O controller 73 causes the CPU 50 to operate the HD
The e-mail program is started from the hard disk at D67, and when an e-mail is received according to the e-mail program, a lighting flag is stored, and the message lamp ML is turned on by controlling the LED 81 based on the lighting flag.

【0055】またジョグダイヤル状態監視プログラム用
のI/Oレジスタは、ジョグダイヤル24に対する回転
操作及び押圧操作に応じた回転操作フラグ及び押圧操作
フラグを格納するようになされている。
The I / O register for the jog dial state monitoring program stores a rotation operation flag and a pressing operation flag corresponding to a rotation operation and a pressing operation on the jog dial 24.

【0056】従ってI/Oコントローラ73は、回転検
出部88を介して接続されたジョグダイヤル24の回転
操作及び押圧操作により複数のメニュー項目の中からユ
ーザ所望のメニュー項目が選択されたとき、I/Oレジ
スタに格納されている回転操作フラグ及び押圧操作フラ
グを立てると共に、その旨をCPU50に通知する。
Therefore, when a user-desired menu item is selected from a plurality of menu items by rotating and pressing the jog dial 24 connected via the rotation detecting unit 88, the I / O controller 73 performs I / O control. The rotation operation flag and the pressing operation flag stored in the O register are set, and the CPU 50 is notified to that effect.

【0057】これによりCPU50は、HDD67から
読み出してRAM53上に立ち上げたジョグダイヤルサ
ーバプログラムに従って、ジョグダイヤル24の回転操
作及び押圧操作によって決定されたメニュー項目に該当
する所定の処理を実行したり、メニュー項目に該当する
アプリケーションソフトウェアを起動する。
In accordance with the jog dial server program read out from the HDD 67 and launched on the RAM 53, the CPU 50 executes a predetermined process corresponding to the menu item determined by the rotation operation and the press operation of the jog dial 24, or executes the menu item. Start the application software corresponding to.

【0058】ここでI/Oコントローラ73は、電源ス
イッチ7がオフでOSが起動していない状態であって
も、電源供給充電制御回路85の制御によって常時動作
しており、専用キーを設けることなく省電力状態又は電
源オフ時のジョグダイヤル24の押圧操作によってユー
ザ所望のアプリケーションソフトウェアやスクリプトフ
ァイルを起動し得るようになされている。
The I / O controller 73 operates constantly under the control of the power supply / charge control circuit 85 even when the power switch 7 is off and the OS is not running. The user can start application software or a script file desired by the user by pressing the jog dial 24 in the power saving state or when the power is off.

【0059】なおI/Oコントローラ73は、I2 Cバ
ス82とも接続されており、操作キー4やジョグダイヤ
ル24によって設定されたCCDカメラ8に対する各種
設定パラメータをI2 Cバス82を介して供給すること
により、CCDカメラ8における明るさやコントラスト
を調整するようになされている。
It should be noted the I / O controller 73 is also connected to the I 2 C bus 82, supplies the various setting parameters for the CCD camera 8 set by operating keys 4 or the jog dial 24 through the I 2 C bus 82 Thus, the brightness and contrast of the CCD camera 8 are adjusted.

【0060】(1−3)ジェスチャー認識処理 かかる構成に加えてノートパソコン1は、CCDカメラ
8で撮像したユーザの手の動き(ジェスチャー)を認識
するためのサイバージェスチャープログラムと呼ばれる
アプリケーションソフトウェアをHDD67のハードデ
ィスクから立ち上げ、当該サイバージェスチャープログ
ラムに基づいてCCDカメラ8で撮像したユーザの手の
動きを認識し、その認識結果に応じた所定の処理をアプ
リケーションソフトウェアに基づくアクティブウィンド
ウ画面上で実行するようになされている。
(1-3) Gesture Recognition Processing In addition to the above configuration, the notebook computer 1 uses the HDD 67 to execute application software called a cyber gesture program for recognizing a user's hand movement (gesture) captured by the CCD camera 8. It starts up from the hard disk, recognizes the movement of the user's hand captured by the CCD camera 8 based on the cyber gesture program, and executes a predetermined process according to the recognition result on the active window screen based on the application software. It has been done.

【0061】すなわちノートパソコン1は、例えば撮像
された静止画を加工することが可能な画像編集プログラ
ムを立ち上げ、加工対象となる静止画を選択するために
HDD67のハードディスクに格納されている複数枚の
静止画を液晶ディスプレイ10に順次表示する場合、ユ
ーザによるジョグダイヤル24の回動操作に応じて液晶
ディスプレイ10に表示した静止画を1枚ずつ送り進め
たり送り戻すような画像送り動作を通常行っているが、
本発明においてはCCDカメラ8で撮像したユーザの手
の動きをサイバージェスチャープログラムに基づいてC
PU50に認識させることにより、当該CPU50の制
御により上述の画像送り動作をジョグダイヤル24に触
れることなく非接触で実行し得るようになされている。
That is, the notebook computer 1 starts, for example, an image editing program capable of processing a captured still image, and selects a plurality of images stored in the hard disk of the HDD 67 in order to select a still image to be processed. Are sequentially displayed on the liquid crystal display 10, an image feed operation such as advancing or returning the still images displayed on the liquid crystal display 10 one by one in accordance with the turning operation of the jog dial 24 by the user is usually performed. But
In the present invention, the movement of the user's hand imaged by the CCD camera 8 is represented by C based on a cyber gesture program.
By causing the PU 50 to recognize, the image feed operation described above can be executed without touching the jog dial 24 under the control of the CPU 50.

【0062】因みにノートパソコン1では、ジョグダイ
ヤル24がユーザから見て奥行側に所定角度以上回転さ
れたときに液晶ディスプレイ10に表示した静止画を1
枚だけ送り進め、ジョグダイヤル24がユーザから見て
手前側に所定角度以上回転されたときに液晶ディスプレ
イ10に表示した静止画を1枚だけ送り戻すようになさ
れている。
Incidentally, in the notebook computer 1, the still image displayed on the liquid crystal display 10 when the jog dial 24 is rotated by a predetermined angle or more to the depth side as viewed from the user is displayed.
When the jog dial 24 is rotated by a predetermined angle or more toward the user as viewed from the user, only one still image displayed on the liquid crystal display 10 is fed back.

【0063】実際上ノートパソコン1のCPU50は、
図5におけるルーチンRT1の開始ステップからジェス
チャー認識処理手順に入って次のステップSP1に移
る。
In practice, the CPU 50 of the notebook computer 1
The gesture recognition processing procedure is entered from the start step of the routine RT1 in FIG. 5, and the process proceeds to the next step SP1.

【0064】ステップSP1においてCPU50は、ユ
ーザの操作に応じてHDD67のハードディスクからサ
イバージェスチャープログラムを立ち上げ、当該サイバ
ージェスチャープログラムに従って図6に示すようなジ
ェスチャー認識画面100を生成し、画像編集プログラ
ムに応じたアクティブウィンドウ画面上に表示した後、
次のステップSP2に移る。
In step SP1, the CPU 50 starts a cyber gesture program from the hard disk of the HDD 67 in response to a user operation, generates a gesture recognition screen 100 as shown in FIG. 6 according to the cyber gesture program, and responds to the image editing program. After displaying on the active window screen,
Move to the next step SP2.

【0065】ここで、図7に示すようにジェスチャー認
識画面100は、164×136ピクセル(画素)の画
面サイズで構成され、当該ジェスチャー認識画面100
の上端部にサイバージェスチャープログラムであること
を示す「CYBERGESTURE」(ソニー(株)商標)のタイト
ル文字部101、機能の詳細設定を行うためのオプショ
ンボタン102、ヘルプボタン103、最小化ボタン1
04及び閉じるボタン105が設けられている。尚、実
際のCCDカメラ8から入力した入力画像はジェスチャ
ー認識画面100のうち160×120ピクセルの画面
サイズで表示されている。
Here, as shown in FIG. 7, the gesture recognition screen 100 has a screen size of 164 × 136 pixels (pixels).
The title character portion 101 of "CYBERGESTURE" (trademark of Sony Corporation) indicating that it is a cyber gesture program, an option button 102 for performing detailed setting of functions, a help button 103, and a minimize button 1
04 and a close button 105 are provided. The input image actually input from the CCD camera 8 is displayed with a screen size of 160 × 120 pixels in the gesture recognition screen 100.

【0066】このジェスチャー認識画面100は、液晶
ディスプレイ10の画面サイズ(1024×480ピク
セル)に比べて極めて小さな画面サイズで形成されてお
り、これにより当該ジェスチャー認識画面100の背景
に表示されているアクティブウィンドウ画面の静止画に
対する隠蔽面積を極力小さくするようになされている。
The gesture recognition screen 100 is formed with an extremely small screen size as compared with the screen size of the liquid crystal display 10 (1024 × 480 pixels), so that the active state displayed on the background of the gesture recognition screen 100 is reduced. The concealment area of a window screen from a still image is minimized.

【0067】またノートパソコン1のCPU50は、ジ
ェスチャー認識画面100のほぼ中央部分に十文字形状
のジェスチャー認識表示エリア106を表示し、当該ジ
ェスチャー認識表示エリア106を256階調のグレー
スケールで表示するようになされている。
The CPU 50 of the notebook personal computer 1 displays a cross-shaped gesture recognition display area 106 substantially at the center of the gesture recognition screen 100 so that the gesture recognition display area 106 is displayed in 256 gray scales. It has been done.

【0068】この場合ジェスチャー認識表示エリア10
6には、十文字形状の表示エリアに沿って複数個のほぼ
正方形状に形成されたターゲット107A〜107Iが
上下左右に等間隔で配列されており、何ら動きを認識し
ていないサーチ状態のときにターゲット107A〜10
7Iの内部領域を上下左右に沿って赤色で順番に交互表
示することにより、ユーザの手の左右上下方向に関する
動きをノートパソコン1が認識するようになされている
ことを当該ユーザに対して容易に想像させ得ると共に、
サイバージェスチャープログラムが起動中で現在サーチ
状態であることをユーザに対して容易に認識させ得るよ
うになされている。
In this case, the gesture recognition display area 10
In FIG. 6, a plurality of substantially square targets 107A to 107I are arranged at equal intervals vertically and horizontally along a cross-shaped display area, and the targets 107A to 107I are in a search state in which no motion is recognized. Target 107A-10
The internal area of 7I is alternately displayed in red along the top, bottom, left and right in order, so that the user can easily recognize that the notebook computer 1 recognizes the movement of the user's hand in the left, right, up and down directions. While you can imagine,
The user can easily recognize that the cyber gesture program is running and is currently in the search state.

【0069】またジェスチャー認識表示エリア106の
ターゲット107A〜107Iは、図8に示すように縦
方向及び横方向が8ピクセル×8ピクセルのサイズで、
それぞれ1ピクセル幅の枠部分107AF〜107IF
によって形成されていると共に、枠部分107AF〜1
07IFが赤色で表示されるようになされており、これ
により背景のグレースケール表示に対してターゲット1
07A〜107Iを視認し易くしている。
The targets 107A to 107I of the gesture recognition display area 106 have a size of 8 pixels × 8 pixels in the vertical and horizontal directions as shown in FIG.
Frame portions 107AF to 107IF each having a width of one pixel
And the frame portions 107AF-1
07IF is displayed in red, so that the target 1
07A to 107I are easily visible.

【0070】なおジェスチャー認識画面100のジェス
チャー認識表示エリア106は、走査線の2水平ライン
毎に黒色のライン表示(図示せず)がなれており、これ
により通常の画像を表示するような画面とは異なり、ジ
ェスチャー認識画面100であることをユーザに対して
容易に認識させるようになされている。
In the gesture recognition display area 106 of the gesture recognition screen 100, a black line display (not shown) is provided for every two horizontal lines of the scanning lines, thereby providing a screen for displaying a normal image. In contrast, the gesture recognition screen 100 is made to be easily recognized by the user.

【0071】さらにジェスチャー認識表示エリア106
には、モード表示部109の「JOG DIAL」に対
応して、ジョグダイヤル24の押圧操作に対応した手の
動きの移動方向を示す押圧操作表示部108A、ジョグ
ダイヤル24の押圧操作をキャンセルするキャンセル操
作に対応した手の動きの移動方向を示すキャンセル操作
表示部108B、ジョグダイヤル24がユーザから見て
奥行側に回動されたときの回動操作に対応した手の動き
の移動方向を示す回動操作表示部108C、及びジョグ
ダイヤル24がユーザから見て手前側に回動されたとき
の回動操作に対応した手の動きの移動方向を示す回動操
作表示部108Dが表示されており、ジョグダイヤルモ
ードにおける手の移動方向を認識するようになされてい
ることをユーザに対して通知するようになされている。
Further, the gesture recognition display area 106
In response to "JOG DIAL" on the mode display unit 109, a push operation display unit 108A indicating the direction of movement of the hand movement corresponding to the push operation of the jog dial 24, and a cancel operation for canceling the push operation of the jog dial 24 A cancel operation display unit 108B indicating the corresponding hand movement direction, and a rotation operation display indicating the hand movement direction corresponding to the rotation operation when the jog dial 24 is rotated to the depth side as viewed from the user. A rotation operation display section 108D indicating the direction of movement of the hand corresponding to the rotation operation when the jog dial 24 is rotated to the front side when viewed from the user is displayed, and the hand in the jog dial mode is displayed. Is notified to the user that the moving direction is recognized.

【0072】ステップSP2においてCPU50は、表
示部3(図1)の正面に存在するユーザを撮像部11の
CCDカメラ8で撮像し、その結果得られる入力画像を
ユーザの手の動きを認識するために取り込み、次のステ
ップSP3に移る。
In step SP2, the CPU 50 takes an image of the user present in front of the display unit 3 (FIG. 1) with the CCD camera 8 of the image pickup unit 11, and recognizes the input image obtained as a result of the movement of the user's hand. And proceeds to the next step SP3.

【0073】因みに、このときCPU50は入力画像を
取り込むと共に当該入力画像をジェスチャー認識画面1
00に表示し、手の移動方向を認識するために撮像中で
あることをユーザに対して認識させ得るようになされて
いる。
At this time, the CPU 50 captures the input image and displays the input image on the gesture recognition screen 1.
00 is displayed so that the user can recognize that the image is being captured in order to recognize the moving direction of the hand.

【0074】ステップSP3においてCPU50は、ジ
ェスチャー認識画面100のオプションボタン102が
押下操作されると、図9に示すような詳細設定画面14
0をアクティブウィンドウ画面上に重ねて表示し、ユー
ザの選択操作に応じた各種詳細設定処理及びマスク選択
設定処理を行う。
At step SP3, when the option button 102 of the gesture recognition screen 100 is pressed, the CPU 50 sets the detailed setting screen 14 as shown in FIG.
0 is superimposed on the active window screen to perform various detailed setting processing and mask selection setting processing according to the user's selection operation.

【0075】実際上、詳細設定画面140においてはデ
フォルトとして「ジェスチャー設定」表示部142が最
前表示されるようになされており、ユーザの手の動きを
操作キー4の矢印キーに対応させる「矢印キー(Curso
r)」項目143、ジョグダイヤル24に対応させる
「ジョグダイヤル(Jog Dial)」項目144、又はイン
ターネットにおけるWebページのページ捲り操作に対
応させる「インターネット(Internet)」項目145の
中から「ジョグダイヤル」項目144がクリックされ、
「マスクをかける」項目146又は「マスクをかけな
い」項目147のうち「マスクをかける」項目146が
クリックされると、CPU50はユーザのジェスチャー
をジョグダイヤル24の動きに対応させるジョグダイヤ
ルモードに設定すると共に、ジェスチャー認識表示エリ
ア106以外の画像領域をマスク処理して当該ジェスチ
ャー認識表示エリア106における画像データのみを取
得し、当該取得した画像データに基づいてユーザの手の
動きの移動方向を判断するマスクモードに設定する。
Actually, on the detailed setting screen 140, the “gesture setting” display section 142 is displayed as the forefront as a default, and the “arrow key” for making the movement of the user's hand correspond to the arrow key of the operation key 4 (Curso
r) "item 143," Jog Dial "item 144 corresponding to jog dial 24, or" Internet (Internet) "item 145 corresponding to page turning operation of a Web page on the Internet," Jog dial "item 144 is included. Clicked,
When the “mask” item 146 of the “mask” item 146 or the “not mask” item 147 is clicked, the CPU 50 sets the user's gesture to the jog dial mode corresponding to the movement of the jog dial 24 and A mask mode for masking an image area other than the gesture recognition display area 106 to acquire only image data in the gesture recognition display area 106, and determining the moving direction of the movement of the user's hand based on the acquired image data. Set to.

【0076】またCPU50は、「マスクをかけない」
項目147がクリックされた場合は、ジェスチャー認識
表示エリア106以外の画像領域をマスク処理すること
はなく、入力画像全てから画像データを取得し、当該取
得した画像データに基づいてユーザの手の動きの移動方
向を判断するノーマスクモードに設定するようになされ
ている。
Further, the CPU 50 "does not mask".
When the item 147 is clicked, the image area other than the gesture recognition display area 106 is not masked, image data is acquired from all input images, and the movement of the user's hand is determined based on the acquired image data. A no-mask mode for determining the moving direction is set.

【0077】因みにCPU50は、「矢印キー」項目1
43がクリックされると、ユーザのジェスチャーを操作
キー4の矢印キーに対応させるカーソルモードに設定す
ると共に、ジョグダイヤルモードのジェスチャー認識画
面100とは変わって図10に示すようなカーソルモー
ドに対応したジェスチャー認識画面130を表示する。
By the way, the CPU 50 executes the “arrow key” item 1
When the button 43 is clicked, a gesture mode corresponding to the cursor mode as shown in FIG. 10 is set in place of the gesture recognition screen 100 in the jog dial mode while the gesture mode of the user is set to correspond to the arrow key of the operation key 4. A recognition screen 130 is displayed.

【0078】このジェスチャー認識画面130では、モ
ード表示部109の「CURSOR」に対応して、ジョ
ギダイヤルモードにおける押圧操作表示部108A、キ
ャンセル操作表示部108B、回動操作表示部108C
及び回動操作表示部108Dに変えて、左右上下に対応
した矢印キーをそれぞれ示す方向表示部131A〜13
1Dが表示されることにより、ユーザの手の動作の移動
方向が矢印キー(カーソル)に対応付けられていること
をユーザに対して通知するようになされている。
On the gesture recognition screen 130, corresponding to "CURSOR" of the mode display unit 109, a press operation display unit 108A, a cancel operation display unit 108B, and a rotation operation display unit 108C in the jog dial mode.
And direction display units 131A to 131A indicating arrow keys corresponding to left, right, up and down instead of the rotation operation display unit 108D.
By displaying 1D, the user is notified that the movement direction of the user's hand movement is associated with the arrow keys (cursor).

【0079】同様にCPU50は、「インターネット」
項目145がクリックされると、ユーザのジェスチャー
をWebページの「進む」、「戻す」ボタンに対応させ
るインターネットモードに設定すると共に、図11に示
すようなインターネットモードに対応したジェスチャー
認識画面135を表示する。
Similarly, the CPU 50 executes “Internet”
When the item 145 is clicked, the gesture of the user is set to the Internet mode corresponding to the “forward” and “return” buttons on the Web page, and the gesture recognition screen 135 corresponding to the Internet mode as shown in FIG. 11 is displayed. I do.

【0080】このジェスチャー認識画面135では、モ
ード表示部109の「INTERNET」に対応して、
「BACK」及び「NEXT」で表示されたページ操作
表示部136A及び136Bが表示されると共に、上下
のスクロール方向に対応したスクロール方向表示部13
7A及び137Bが表示されることにより、ユーザの手
の移動方向がWebページのページ捲り操作やスクロー
ル操作に対応付けられていることをユーザに対して通知
するようになされている。
On the gesture recognition screen 135, corresponding to "INTERNET" of the mode display section 109,
The page operation display sections 136A and 136B displayed by "BACK" and "NEXT" are displayed, and the scroll direction display section 13 corresponding to the up and down scroll directions is displayed.
By displaying 7A and 137B, the user is notified that the moving direction of the user's hand is associated with a page turning operation or a scroll operation of a Web page.

【0081】ところで、詳細設定画面140において
「エフェクトの設定」表示部149がクリックされる
と、CPU50は図10に示すように「エフェクトの設
定」表示部149を最前に表示する。
When the "effect setting" display section 149 is clicked on the detailed setting screen 140, the CPU 50 displays the "effect setting" display section 149 at the forefront as shown in FIG.

【0082】そしてCPU50は、「エフェクトの設
定」表示部149において、ユーザのジェスチャを認識
したときにジェスチャー認識表示エリア106のターゲ
ット107A〜107Iを用いてアニメーションを表示
するための「アニメーションを表示する」項目153、
及びジェスチャを認識したときに効果音を発生するため
の「効果音を有効にする」項目154にチェックマーク
が付けられると、ユーザの手の動きの移動方向を認識し
たときにアニメーションを表示し、同時に所定の効果音
を発生させるように設定するようになされている。
Then, the CPU 50 displays “animation” on the “effect setting” display section 149 for displaying an animation using the targets 107A to 107I of the gesture recognition display area 106 when the user recognizes the gesture. Item 153,
When a check mark is added to the “Enable sound effect” item 154 for generating a sound effect when a gesture is recognized, an animation is displayed when the movement direction of the user's hand movement is recognized, At the same time, it is set so as to generate a predetermined sound effect.

【0083】続いて、「認識レベル」表示部150がユ
ーザによってクリックされると、CPU50は図13に
示すように「認識レベル」表示部150を最前に表示す
る。CPU50は、「認識レベル」表示部150におい
て、ユーザの手の動きの移動方向を判断するときの手の
振れ具合を調整枠156の中の調整バー157によって
「小さい」から「大きい」までの範囲内で設定する。
Subsequently, when the "recognition level" display section 150 is clicked by the user, the CPU 50 displays the "recognition level" display section 150 at the forefront as shown in FIG. The CPU 50 uses the adjustment bar 157 in the adjustment frame 156 to set the degree of hand movement in the range from “small” to “large” on the “recognition level” display section 150 by using the adjustment bar 157 in the adjustment frame 156. Set within.

【0084】この場合、手の振れ具合を「小さい」方に
設定すればする程、小さな手の動きで移動方向を判断す
ることができるが誤認識の確率も高くなり、手の振れ具
合を「大きい」方に設定すればする程、手を大きく動か
さなければ移動方向を判断することは出来ないが誤認識
の確率は低くなる。従って、ユーザは好みに合わせて認
識レベルを設定することができるので、操作性を高めて
使い勝手を一段と向上させることが可能となる。
In this case, as the degree of hand movement is set to “small”, the direction of movement can be determined with a small movement of the hand, but the probability of erroneous recognition increases. The larger the "larger" setting, the less it is possible to determine the moving direction unless the hand is moved greatly, but the lower the probability of erroneous recognition. Therefore, the user can set the recognition level according to his / her preference, so that the operability can be improved and the usability can be further improved.

【0085】また、「ウィンドウ表示モード」表示部1
48がユーザによってクリックされると、CPU50は
図14に示すように「ウィンドウ表示モード」表示部1
48を最前に表示する。
Also, a “window display mode” display unit 1
When the user clicks on the button 48, the CPU 50 causes the “window display mode” display unit 1 as shown in FIG.
48 is displayed first.

【0086】そしてCPU50は、「ウィンドウ表示モ
ード」表示部148において、「常にウィンドウを最前
に表示する」項目159にチェックマークが付けられる
と、ジェスチャー認識画面100が他のウィンドウに隠
されてしまうことがないように常に最前に表示するよう
に設定するようになされている。
When the check mark is added to the item “Always display window first” 159 in the “window display mode” display section 148, the CPU 50 may hide the gesture recognition screen 100 in another window. It is set to always be displayed first so that there is no display.

【0087】なお、「カメラ鏡面設定」表示部151が
ユーザによってクリックされると、CPU50は図15
に示すように「カメラ鏡面設定」表示部151を最前に
表示する。
When the “camera mirror surface setting” display section 151 is clicked by the user, the CPU 50 displays the state shown in FIG.
As shown in the figure, the "camera mirror setting" display section 151 is displayed at the forefront.

【0088】そしてCPU50は、「カメラ鏡面設定」
表示部151において、「鏡面表示解除」項目161に
チェックマークが付けられないことにより、CCDカメ
ラ8で自分自身を撮像したときにジェスチャー認識画面
100に表示される入力画像が鏡面表示となるように設
定するようになされている。
Then, the CPU 50 sets “camera mirror surface setting”.
In the display unit 151, the check mark is not added to the “mirror display release” item 161 so that the input image displayed on the gesture recognition screen 100 when the CCD camera 8 captures the image itself is displayed as a mirror display. It is set to be set.

【0089】このようにしてユーザは、好みに合わせて
各種詳細設定処理及びマスク選択設定処理を行うことが
できる。
In this way, the user can perform various detailed setting processing and mask selection setting processing according to his / her preference.

【0090】ステップSP4においてCPU50は、ス
テップSP2においてCCDカメラ8から取り込んだ入
力画像に対してジョグダイヤルモードに対応した所定の
マスク形状でなるマスク画像を用いてマスク処理を行
い、次のサブルーチンSRT2に移る。
In step SP4, the CPU 50 performs a mask process on the input image fetched from the CCD camera 8 in step SP2 using a mask image having a predetermined mask shape corresponding to the jog dial mode, and proceeds to the next subroutine SRT2. .

【0091】この場合CPU50は、実際上、図16に
示すようにジェスチャー認識画面100(図7)におけ
るジェスチャー認識表示エリア106に対応し、当該ジ
ェスチャー認識表示エリア106だけを残すように遮蔽
領域164A及び非遮蔽領域164Bが形成されたマス
ク形状のマスク画像164を用い、当該マスク画像16
4を入力画像に重ねて合成することにより、入力画像の
うちジェスチャー認識表示エリア106に対応する領域
だけからユーザの手の動きに関する画像データを取得し
得るようになされている。
In this case, the CPU 50 actually corresponds to the gesture recognition display area 106 on the gesture recognition screen 100 (FIG. 7) as shown in FIG. 16, and the shielding area 164A and the shield area 164A are left so that only the gesture recognition display area 106 is left. Using a mask image 164 having a mask shape in which the non-shielding region 164B is formed, the mask image 16
By superimposing 4 on the input image and synthesizing it, image data relating to the movement of the user's hand can be obtained from only the area corresponding to the gesture recognition display area 106 in the input image.

【0092】図17に示すように、サブルーチンSRT
2のステップSP11においてCPU50は、取り込ん
だ入力画像を16画素×16画素でなる複数のマクロブ
ロックに分割し、次のステップSP12に移る。
As shown in FIG. 17, the subroutine SRT
In step SP11 of the second step, the CPU 50 divides the fetched input image into a plurality of macroblocks each consisting of 16 pixels × 16 pixels, and proceeds to the next step SP12.

【0093】ステップSP12においてCPU50は、
各マクロブロックにおける前フレームとの輝度レベルの
変化に基づいてマクロブロック毎の動きベクトルを算出
し、次のステップSP13に移る。
At step SP12, the CPU 50
A motion vector for each macroblock is calculated based on a change in the luminance level of each macroblock from the previous frame, and the flow advances to next step SP13.

【0094】ステップSP13においてCPU50は、
同一方向の動きベクトルを持つマクロブロックを集めて
動き領域を算出し、次のステップSP14に移る。
At step SP13, the CPU 50
A motion area is calculated by collecting macroblocks having motion vectors in the same direction, and the routine goes to the next step SP14.

【0095】この場合、CPU50は入力画像をマスク
画像164を用いてマスク処理を行っているので、入力
画像のうちジェスチャー認識表示エリア106に該当す
る領域だけから得られるマクロブロックだけがデータ処
理対象となり、データ処理量としては必要最小限で済む
ようになされている。
In this case, since the CPU 50 performs the masking process on the input image using the mask image 164, only the macro blocks obtained from only the region corresponding to the gesture recognition display area 106 in the input image are subjected to data processing. In addition, the data processing amount is set to be a necessary minimum.

【0096】すなわちCPU50はノーマスクモードの
場合と同様に入力画像の全マクロブロックをデータ処理
するが、実際にはマスク処理されているのでジェスチャ
ー認識表示エリア106に該当する領域だけからマクロ
ブロックの画像データを得ることになり、その結果マス
ク画像164を用いた場合でもノーマスクモードと同様
のデータ処理方法でデータ処理量を低減し得るようにな
されている。
That is, the CPU 50 performs data processing on all the macroblocks of the input image as in the case of the no-mask mode. However, since the mask processing is actually performed, the image data of the macroblock is obtained only from the area corresponding to the gesture recognition display area 106. As a result, even when the mask image 164 is used, the data processing amount can be reduced by the same data processing method as in the no-mask mode.

【0097】ステップSP14においてCPU50は、
ステップSP13で算出した動き領域が入力画像の中に
存在しているか否かを判定する。ここで否定結果が得ら
れると、このことは同一方向の動きベクトルを持つマク
ロブロックの集合体である動き領域が入力画像の中には
存在していないことを表しており、このときCPU50
はステップSP17に移って次のフレームにおけるステ
ップSP11以降の処理を繰り返す。
At step SP14, the CPU 50
It is determined whether or not the motion area calculated in step SP13 exists in the input image. If a negative result is obtained here, this means that a motion area, which is a set of macroblocks having motion vectors in the same direction, does not exist in the input image.
Moves to step SP17 and repeats the processing from step SP11 onward for the next frame.

【0098】これに対してステップSP14で肯定結果
が得られると、このことは同一方向の動きベクトルを持
つマクロブロックの集合体である動き領域が入力画像の
中に存在していることを表しており、このときCPU5
0は次のステップSP15に移る。
On the other hand, if an affirmative result is obtained in step SP14, this means that a motion area which is an aggregate of macroblocks having motion vectors in the same direction exists in the input image. At this time, CPU5
"0" moves to the next step SP15.

【0099】ステップSP15においてCPU50は、
動き領域が所定の大きさ以上であるか否かを判定する。
ここで否定結果が得られると、動き領域が所定の大きさ
以上ではなく、すなわち例えば手の平領域とは判断し得
ないことを表しており、このときCPU50はステップ
SP17に移って次のフレームにおけるステップSP1
1以降の処理を繰り返す。
At step SP15, the CPU 50
It is determined whether or not the motion area is equal to or larger than a predetermined size.
If a negative result is obtained here, it indicates that the motion area is not equal to or larger than the predetermined size, that is, for example, it cannot be determined to be a palm area. At this time, the CPU 50 proceeds to step SP17 and proceeds to step SP17. SP1
The processing after 1 is repeated.

【0100】これに対してステップSP15で肯定結果
が得られると、このことは動き領域が所定の大きさ以上
すなわち手の平領域であると判断することができること
を表しており、このときCPU50は次のステップSP
16に移る。
On the other hand, if a positive result is obtained in step SP15, this indicates that the motion area can be determined to be a predetermined area or more, that is, a palm area. Step SP
Move to 16.

【0101】ステップSP16においてCPU50は、
動き領域全体の座標値に基づいて当該動き領域の重心位
置を算出した後、当該重心位置に対して垂直方向上方に
相当する動き領域の上端座標位置を検出し、これを手の
指先に相当する重心上部位置として取得することによ
り、サブルーチンSRT2における手の位置情報に関す
る取得処理手順を終了し、ルーチンRT1の次のサブル
ーチンSRT3へ移る。
In step SP16, the CPU 50
After calculating the position of the center of gravity of the moving region based on the coordinate values of the entire moving region, the upper end coordinate position of the moving region corresponding to the vertically upper portion with respect to the position of the center of gravity is detected and corresponds to the fingertip of the hand. By obtaining the position as the upper position of the center of gravity, the obtaining processing procedure regarding the position information of the hand in the subroutine SRT2 is ended, and the routine proceeds to the subroutine SRT3 following the routine RT1.

【0102】例えばCPU50は、図18に示すように
取得した重心上部位置に所定形状のポインタ110を表
示すると共に、当該ポインタ110を含みユーザの手の
平領域全体に渡って囲んだ認識枠109をジェスチャー
認識表示エリア106にオーバーラップ表示する。
For example, the CPU 50 displays a pointer 110 having a predetermined shape at the position above the center of gravity acquired as shown in FIG. 18, and gesture-recognizes a recognition frame 109 including the pointer 110 and surrounding the entire palm area of the user. The display is overlapped in the display area 106.

【0103】この場合、ジェスチャー認識表示エリア1
06の各ターゲット107A〜107I等は図面中表示
されていないが、説明の便宜上表示していないだけであ
り、実際には全て表示されている。
In this case, the gesture recognition display area 1
Although the targets 06A to 107I, etc., 06 are not shown in the drawing, they are not shown for convenience of explanation, but are all actually displayed.

【0104】ここでCPU50は、認識枠109を1ピ
クセル幅で白色表示し、各ターゲット107A〜107
Iと同様の形状及びサイズで形成したポインタ110を
1ピクセル幅のポインタ枠110Fで白色表示すると共
に、その内部を赤色表示するようになされている。
Here, the CPU 50 displays the recognition frame 109 in white with a width of one pixel, and sets each of the targets 107A to 107A.
The pointer 110 formed in the same shape and size as I is displayed in white in a pointer frame 110F having a width of one pixel, and the inside thereof is displayed in red.

【0105】これによりCPU50は、各ターゲット1
07A〜107Iにおける枠部分107AF〜107I
Fの赤色表示と、ポインタ110におけるポインタ枠1
10Fの白色表示とによって、各ターゲット107A〜
107Iとポインタ110とをユーザに対して明確に区
別させるようになされている。
As a result, the CPU 50
Frame portions 107AF to 107I in 07A to 107I
F red display and pointer frame 1 of the pointer 110
Each target 107A-
107I and the pointer 110 are clearly distinguished for the user.

【0106】なおCPU50は、矢印D方向に示すユー
ザの手の動きに応じて認識枠109及びポインタ110
を連動して下から上へ移動させながら表示するようにな
されており、これにより認識過程においてユーザの手の
動きを追っていることをユーザに対して視覚的に認識さ
せるようになされている。
The CPU 50 moves the recognition frame 109 and the pointer 110 according to the movement of the user's hand shown in the direction of arrow D.
Are displayed while being moved upward from the bottom in conjunction with each other, so that the user can visually recognize that the user is following the movement of the hand in the recognition process.

【0107】図19に示すように、サブルーチンSRT
3のステップSP21においてCPU50は、RAM5
3を用いてリングバッファ状に格納された現フレーム
と、当該現フレームに隣り合う前フレームとの隣接フレ
ーム間における重心上部位置の座標値の差分に基づいて
移動距離を算出し、次のステップSP22に移る。
As shown in FIG. 19, the subroutine SRT
In step SP21 of No. 3, the CPU 50
3, the moving distance is calculated based on the difference between the coordinate values of the position above the center of gravity between the current frame stored in the ring buffer shape and the previous frame adjacent to the current frame, and the next step SP22 Move on to

【0108】ステップSP22においてCPU50は、
ステップSP21で算出した隣接フレーム間の移動距離
が所定の上限閾値以下であるか否かを判定する。ここで
否定結果が得られると、このことは前フレームの指先を
示す位置から現フレームの指先を示す位置までの距離が
極端に離れ過ぎていることにより、手の動きを認識する
ためのデータとして移動距離が不適切であることを表し
ており、このときCPU50は次のステップSP23に
移る。
In step SP22, the CPU 50
It is determined whether the moving distance between adjacent frames calculated in step SP21 is equal to or less than a predetermined upper threshold. If a negative result is obtained here, this means that the distance from the position indicating the fingertip of the previous frame to the position indicating the fingertip of the current frame is extremely far away, and as data for recognizing hand movement. This indicates that the moving distance is inappropriate, and the CPU 50 moves to the next step SP23.

【0109】ステップSP23においてCPU50は、
隣接フレーム間の移動距離をデータとして使用すること
が不適切であるので、ステップSP24以降で行う移動
方向の検出を停止し、ルーチンRT1(図5)のステッ
プSP2に戻って上述の処理を繰り返す。
At step SP23, the CPU 50
Since it is inappropriate to use the movement distance between adjacent frames as data, the detection of the movement direction performed after step SP24 is stopped, and the process returns to step SP2 of the routine RT1 (FIG. 5) to repeat the above processing.

【0110】これに対してステップSP22で肯定結果
が得られると、このことは前フレームの指先を示す位置
から現フレームの指先を示す位置までの距離が極端に離
れ過ぎておらず、手の動きを認識するためのデータとし
て移動距離が適切であることを表しており、このときC
PU50は次のステップSP24に移る。
On the other hand, if a positive result is obtained in step SP22, this means that the distance from the position indicating the fingertip of the previous frame to the position indicating the fingertip of the current frame is not extremely large, and the Indicates that the moving distance is appropriate as data for recognizing
The PU 50 moves to the next step SP24.

【0111】ステップSP24においてCPU50は、
図20に示すようにリングバッファ状に順次格納された
現フレームの指先を示す重心上部位置の座標値と、所定
範囲の過去数フレームの中から選ばれた任意の過去フレ
ームの指先を示す重心上部位置の座標値との差分が最大
長さとなるものを最大移動距離として算出し、当該最大
移動距離が所定の下限閾値よりも大きいか否かを判定す
る。
At step SP24, the CPU 50
As shown in FIG. 20, the coordinate value of the position of the upper center of gravity indicating the fingertip of the current frame sequentially stored in a ring buffer shape, and the upper part of the center of gravity indicating the fingertip of an arbitrary past frame selected from past several frames in a predetermined range. A maximum difference between the coordinate value of the position and the maximum value is calculated as the maximum movement distance, and it is determined whether the maximum movement distance is greater than a predetermined lower threshold.

【0112】ここで否定結果が得られると、このことは
複数フレームに渡る入力画像の状態遷移に基づく最大移
動距離が所定の下限閾値よりも小さいこと、すなわち手
の動きとして認識するに値しない程度でしか動いていな
いことを表しており、このときCPU50は当該最大移
動距離を認識処理対象から除外し、ステップSP21に
戻って上述の処理を繰り返す。
Here, if a negative result is obtained, it means that the maximum movement distance based on the state transition of the input image over a plurality of frames is smaller than a predetermined lower threshold, that is, it is not worth recognizing hand movement. In this case, the CPU 50 excludes the maximum moving distance from the recognition processing target, returns to step SP21, and repeats the above processing.

【0113】これに対してステップSP24で肯定結果
が得られると、このことは最大移動距離が所定の下限閾
値よりも大きく、確実に手が左右又は上下に移動したと
認められることを表しており、このときCPU50は次
のステップSP25に移る。
On the other hand, if an affirmative result is obtained in step SP24, this means that the maximum movement distance is larger than the predetermined lower threshold value, and it is recognized that the hand has certainly moved left and right or up and down. At this time, the CPU 50 moves to the next step SP25.

【0114】ステップSP25においてCPU50は、
現フレームの指先を示す重心上部位置と最大移動距離を
算出したときに用いられていた過去フレームの指先を示
す重心上部位置との移動ベクトルに基づいて手の動きの
移動方向(右方向、左方向、上方向又は下方向)を判断
し、ルーチンRT1(図5)のステップSP5に移る。
At step SP25, the CPU 50
Movement direction of the hand movement (rightward, leftward) based on the movement vector between the upper center of gravity indicating the fingertip of the current frame and the upper center of gravity indicating the fingertip of the past frame used when calculating the maximum movement distance , Upward or downward), and proceeds to step SP5 of the routine RT1 (FIG. 5).

【0115】ステップSP5においてCPU50は、最
大移動距離及び当該最大移動距離の移動方向を検出した
ので、当該検出した手の平領域全体の現フレームの画素
データと前フレームの画素データとの座標値における単
位時間当たりの移動量に基づいて当該検出した手の平領
域全体の動き速度が所定の速度を超えているか否かを判
定する。
In step SP5, the CPU 50 detects the maximum moving distance and the moving direction of the maximum moving distance, and thus the unit time in the coordinate values of the pixel data of the current frame and the pixel data of the previous frame in the entire detected palm area. It is determined whether or not the detected moving speed of the entire palm region exceeds a predetermined speed based on the moving amount of the hit.

【0116】ここで否定結果が得られると、このことは
検出した手の平領域全体の動き速度が所定の速度を超え
ていない、すなわち比較的遅く動いているので実際には
手の平領域ではなく顔領域である可能性があると判断
し、再度ステップSP2に戻って上述の処理を繰り返
す。
Here, if a negative result is obtained, this means that the detected movement speed of the entire palm region does not exceed a predetermined speed, that is, since the movement is relatively slow, the actual palm region is not the palm region but the face region. It is determined that there is a possibility, and the process returns to step SP2 again to repeat the above processing.

【0117】これに対してステップSP5で肯定結果が
得られると、このことは検出した手の平領域全体の動き
速度が所定の速度を超えている、すなわち比較的速く動
いているので手の平領域である可能性が一段と高いと判
断し、次のステップSP6に移る。
On the other hand, if an affirmative result is obtained in step SP5, this means that the detected movement speed of the entire palm region exceeds a predetermined speed, that is, the palm region is moving relatively fast, so that the palm region may be a palm region. It is determined that the property is even higher, and the routine goes to the next step SP6.

【0118】このようにCPU50は、同一フレームの
入力画像に手の平領域と思われる候補が2つ以上存在し
たときに、手の平領域と顔領域とを一段と正確に判別し
得るようになされている。
As described above, when there are two or more candidates considered to be a palm region in the input image of the same frame, the CPU 50 can more accurately determine the palm region and the face region.

【0119】ステップSP6においてCPU50は、サ
イバージェスチャープログラムに基づいて認識した手の
動きの移動方向をジョグダイヤル用のAPI(Applicat
ionProgramming Interface )を介してジョグダイヤル
サーバープログラムに供給すると共に、ユーザの手の移
動方向(ジェスチャー)をノートパソコン1がどのよう
に認識したのかを示す認識結果を、ジェスチャー認識画
面100にビジュアルフィードバック表示し、次のステ
ップSP7に移る。
In step SP6, the CPU 50 determines the movement direction of the movement of the hand recognized based on the cyber gesture program by using a jog dial API (Applicat).
and a recognition result indicating how the notebook personal computer 1 has recognized the moving direction (gesture) of the user's hand is displayed on the gesture recognition screen 100 by visual feedback. Move to the next step SP7.

【0120】例えばCPU50は、図21に示すよう
に、ジェスチャー認識画面100のジェスチャー認識表
示エリア106におけるターゲット107F、107
G、107C、107H、107Iを当該ターゲット1
07Iの位置する下方からターゲット107Fの位置す
る上方に向かって(矢印E方向)赤色で順番に交互表示
する(図中では現在ターゲット107Hが赤色表示され
ている)ことにより、ユーザの手の動きの移動方向に対
する認識結果をユーザに対して視覚的に認識させるよう
になされている。
For example, as shown in FIG. 21, the CPU 50 sets the targets 107F and 107 in the gesture recognition display area 106 of the gesture recognition screen 100.
G, 107C, 107H and 107I to the target 1
By alternately displaying the target 107F in an upward direction (in the direction of arrow E) in red from the lower side where 07I is located (the direction of arrow E) (the target 107H is currently displayed in red in the figure), the movement of the user's hand is shown. The recognition result for the moving direction is visually recognized by the user.

【0121】ここでAPIとは、OSがアプリケーショ
ンソフトウェアに対して公開しているプログラムインタ
ーフェースであり、アプリケーションソフトウェアは基
本的に全ての処理を当該APIを経由して行うようにな
されている。因みに、現在一般的なOSのAPIは、関
数の形式をとっており、アプリケーションソフトウェア
からは適当な引数(パラメータ)を指定してAPIの関
数を呼び出すようになされている。
Here, the API is a program interface open to the application software by the OS, and the application software basically performs all processing via the API. Incidentally, the API of the general OS at present takes the form of a function, and the function of the API is called from application software by designating appropriate arguments (parameters).

【0122】因みにCPU50は、ジョグダイヤル24
の動作結果とサイバージェスチャープログラムに基づく
手の動きの移動方向の認識結果を同一の入力形式で取り
込み、兼用のジョグダイヤル用のAPIを介してジョグ
ダイヤルサーバープログラムに供給するようになされて
おり、これによりソフトウェア的な処理を簡素化し得る
ようになされている。
Incidentally, the CPU 50 operates the jog dial 24.
And the recognition result of the movement direction of the hand movement based on the cyber gesture program are taken in the same input format, and supplied to the jog dial server program via the dual jog dial API. The processing can be simplified.

【0123】ステップSP7においてCPU50は、ユ
ーザの手を動きの移動方向を認識した後、当該手の動き
の移動方向に応じた所定のコマンドをジョグダイヤルサ
ーバープログラムからアプリケーションソフトウェアに
供給して所定の処理を実行し、再度ステップSP2に戻
って上述の処理を繰り返す。
At step SP7, after recognizing the moving direction of the movement of the user's hand, the CPU 50 supplies a predetermined command corresponding to the moving direction of the hand movement from the jog dial server program to the application software to perform predetermined processing. Then, the process returns to step SP2 to repeat the above-described processing.

【0124】なおCPU50は、このとき認識結果に応
じた所定の処理を実行中であるので、手の動きの認識直
後については数フレーム分の入力画像に対してジェスチ
ャー認識処理を実行しないようになされている。
Since the CPU 50 is executing a predetermined process according to the recognition result at this time, the gesture recognition process is not performed on the input image for several frames immediately after the recognition of the hand movement. ing.

【0125】このようにノートパソコン1のCPU50
は、入力画像に対してマスク処理を施すことにより、ユ
ーザの手の動きの移動方向を認識するために必要なジェ
スチャー認識表示エリア106に対応する領域から得た
画像データだけを基にユーザの手の動きを正確に認識す
ることができ、当該認識結果に応じた所定のコマンドを
ジョグダイヤルサーバープログラムを介してアプリケー
ションソフトウェアに供給し、当該アプリケーションソ
フトウェアに基づくアクティブウィンドウ画面上でコマ
ンドに応じた所定の画像送り動作を実行し得るようにな
されている。
Thus, the CPU 50 of the notebook personal computer 1
Performs a masking process on an input image so that the user's hand can be recognized based on only image data obtained from an area corresponding to the gesture recognition display area 106 necessary for recognizing the moving direction of the user's hand movement. Can be accurately recognized, a predetermined command corresponding to the recognition result is supplied to the application software via the jog dial server program, and a predetermined image corresponding to the command is displayed on an active window screen based on the application software. The feeding operation can be performed.

【0126】実際上ノートパソコン1のCPU50は、
ジェスチャーが下方から上方への手の動きであると認識
した場合、ジェスチャー認識画面100の背景に表示さ
れているアクティブウィンドウ画面の静止画を1枚分だ
け送り進めるようになされている。
Actually, the CPU 50 of the notebook computer 1
When the gesture is recognized as a hand movement from below to above, the still image of the active window screen displayed on the background of the gesture recognition screen 100 is advanced by one.

【0127】このようにユーザは、ジョグダイヤル24
を直接操作することなく、撮像部11のCCDカメラ8
に手をかざして動かすだけで、ジェスチャー認識画面1
00の背景に表示されているアクティブウィンドウ画面
の静止画を画像送りすることができる。
As described above, the user operates the jog dial 24.
Without directly operating the CCD camera 8 of the imaging unit 11.
Gesture recognition screen 1 just by holding your hand over
The still image of the active window screen displayed on the background of the image No. 00 can be image-forwarded.

【0128】 (1−4)第1の実施の形態における動作及び効果 以上の構成において、ノートパソコン1のCPU50
は、表示部3の正面に位置するユーザを撮像部11のC
CDカメラ8で撮像し、その結果得られる入力画像を取
り込み、マスク画像164を用いてジェスチャー認識の
ために必要なジェスチャー認識表示エリア106の領域
だけを残すようにマスク処理を施す。
(1-4) Operation and Effect in First Embodiment In the above configuration, the CPU 50 of the notebook computer 1
Indicates the user located in front of the display unit 3
An image is captured by the CD camera 8, the resulting input image is captured, and mask processing is performed using the mask image 164 to leave only the gesture recognition display area 106 necessary for gesture recognition.

【0129】これによりCPU50は、入力画像の中か
ら手の動きを認識するために必要となる画像データ以外
の例えば肘部分や他の部分の画像データを取得すること
が無くなり、この結果、誤認識をすることを未然に防止
することができる。
This eliminates the need for the CPU 50 to obtain image data of, for example, an elbow portion or other portions other than the image data necessary for recognizing the hand movement from the input image. Can be prevented beforehand.

【0130】すなわちCPU50は、図18に示したよ
うにジェスチャー認識表示エリア106の縦方向に沿っ
てユーザの手が動かされた場合、肘部分の動きに関する
画像データがジェスチャー認識表示エリア106の縦方
向の領域から読み出されることはないことにより、ユー
ザのジェスチャを一段と正確に認識してユーザ所望の操
作を正確かつ確実に実行することができる。
That is, when the user's hand is moved along the vertical direction of the gesture recognition display area 106 as shown in FIG. 18, the CPU 50 displays image data relating to the movement of the elbow portion in the vertical direction of the gesture recognition display area 106. Is not read from the area, the user's gesture can be more accurately recognized, and the operation desired by the user can be executed accurately and reliably.

【0131】またCPU50は、マスクモードでマスク
処理を施した場合、ジェスチャー認識表示エリア106
に相当する領域だけから手の動きを認識するために必要
な画像データを結果的に取得することになり、ノーマス
クモードと比較して特別な方法でジェスチャー認識表示
エリア106に相当する領域から画像データを取得して
いるわけではないので、マスクモード及びノーマスクモ
ードにおいてもデータ処理手法を変えることなく、ジェ
スチャー認識処理のデータ処理量を低減して正確な認識
結果を短時間で検出することができる。
When the mask processing is performed in the mask mode, the CPU 50 displays the gesture recognition display area 106.
As a result, image data necessary for recognizing hand movements is obtained only from the area corresponding to the gesture recognition display area 106 by a special method compared to the no-mask mode. Therefore, the data processing amount of the gesture recognition processing can be reduced and the accurate recognition result can be detected in a short time without changing the data processing method in the mask mode and the no-mask mode.

【0132】以上の構成によれば、ノートパソコン1は
CCDカメラ8で撮像した入力画像に対してマスク画像
164でマスク処理することにより、手の動きを認識す
るために必要となる画像データだけを効率良く取得し、
一段と正確にジェスチャーを認識することができる。
According to the above configuration, the notebook personal computer 1 masks the input image picked up by the CCD camera 8 with the mask image 164 so that only the image data necessary for recognizing the hand movement can be obtained. Get efficiently,
Gestures can be more accurately recognized.

【0133】これによりCPU50は、ユーザの手の動
きに対応したコマンドを認識し、当該コマンドに対応す
る所定のページ送り動作を正確かつ確実に実行すること
ができ、かくしてユーザに対して簡単なジェスチャー動
作を行わせるだけで確実にジェスチャー動作に応じた所
定の処理を実行することができる。
As a result, the CPU 50 recognizes a command corresponding to the movement of the user's hand, and can execute a predetermined page-turning operation corresponding to the command accurately and surely. Predetermined processing corresponding to the gesture operation can be executed reliably only by performing the operation.

【0134】(2)第2の実施の形態 (2−1)ネットワークシステムの全体構成 図22において、200は全体として本発明を適用した
携帯電話機MS3が接続されているネットワークシステ
ムを示し、通信サービスの提供エリアを所望の大きさに
分割したセル内にそれぞれ固定無線局である基地局CS
1〜CS4が設置されている。
(2) Second Embodiment (2-1) Overall Configuration of Network System In FIG. 22, reference numeral 200 denotes a network system to which a mobile phone MS3 to which the present invention is applied is connected as a whole. Base station CS, which is a fixed radio station, in a cell obtained by dividing the service area of
1 to CS4 are provided.

【0135】これらの基地局CS1〜CS4には、移動
無線局である携帯情報端末MS1及びMS2やカメラ付
ディジタル携帯電話機MS3及びMS4が例えばW−C
DMA(Wideband-Code Division Multiple Access)と
呼ばれる符号分割多元接続方式によって無線接続される
ようになされており、2[GHz] の周波数帯域を使用して
最大2[Mbps]のデータ転送速度で大容量データを高速に
データ通信し得るようになされている。
The base stations CS1 to CS4 include mobile information terminals MS1 and MS2, which are mobile radio stations, and digital mobile phones MS3 and MS4 with cameras, for example, WC.
Wireless connection is made by a code division multiple access method called DMA (Wideband-Code Division Multiple Access), and a large capacity at a maximum data transfer rate of 2 [Mbps] using a frequency band of 2 [GHz]. Data is transmitted at high speed.

【0136】このように携帯情報端末MS1及びMS2
やカメラ付ディジタル携帯電話機MS3及びMS4は、
W−CDMA方式によって大容量データを高速にデータ
通信し得るようになされていることにより、音声通話だ
けでなく電子メールの送受信、簡易ホームページの閲
覧、画像の送受信等の多種に及ぶデータ通信を実行し得
るようになされている。
Thus, the portable information terminals MS1 and MS2
And camera-equipped digital mobile phones MS3 and MS4
The W-CDMA system enables high-speed data communication of large-volume data, so it can perform not only voice calls but also various data communications such as sending and receiving e-mails, browsing simple homepages, and sending and receiving images. It is made to be able to do.

【0137】また基地局CS1〜CS4は、有線回線を
介して公衆回線網INWに接続されており、当該公衆回
線網INWにはインターネットITNや、図示しない多
くの加入者有線端末、コンピュータネットワーク及び企
業内ネットワーク等が接続されている。
The base stations CS1 to CS4 are connected to a public line network INW via a wired line. The public line network INW includes the Internet ITN, many subscriber wired terminals (not shown), computer networks, and corporate networks. The internal network is connected.

【0138】公衆回線網INWには、インターネットサ
ービスプロバイダのアクセスサーバASも接続されてお
り、当該アクセスサーバASには当該インターネットサ
ービスプロバイダが保有するコンテンツサーバTSが接
続されている。
An access server AS of an Internet service provider is also connected to the public network INW, and a content server TS owned by the Internet service provider is connected to the access server AS.

【0139】このコンテンツサーバTSは、加入者有線
端末や携帯情報端末MS1、MS2及びカメラ付ディジ
タル携帯電話機MS3、MS4からの要求に応じて例え
ば簡易ホームページ等のコンテンツを例えばコンパクト
HTML(Hyper Text Markup Language)形式のファイ
ルとして提供するようになされている。
[0139] The content server TS converts content such as a simple homepage into, for example, a compact HTML (Hyper Text Markup Language) in response to a request from a subscriber wired terminal or mobile information terminal MS1, MS2 and a digital mobile phone with camera MS3, MS4. ) Format file.

【0140】ところでインターネットITNには、多数
のWWWサーバWS1〜WSnが接続され、TCP/I
Pプロトコルに従って加入者有線端末や携帯情報端末M
S1、MS2及びカメラ付ディジタル携帯電話機MS
3、MS4からWWWサーバWS1〜WSnに対してア
クセスし得るようになされている。
Incidentally, a number of WWW servers WS1 to WSn are connected to the Internet ITN,
Subscriber wired terminal or portable information terminal M according to P protocol
S1, MS2 and digital mobile phone MS with camera
3. The MS 4 can access the WWW servers WS1 to WSn.

【0141】因みに携帯情報端末MS1、MS2及びカ
メラ付ディジタル携帯電話機MS3、MS4は、図示し
ない基地局CS1〜CS4までを2 [Mbps] の簡易トラ
ンスポートプロトコルで通信し、当該基地局CS1〜C
S4からインターネットITNを介してWWWサーバW
S1〜WSnまでをTCP/IPプロトコルで通信する
ようになされている。
Incidentally, the portable information terminals MS1 and MS2 and the digital cellular phones with cameras MS3 and MS4 communicate with the base stations CS1 to CS4 (not shown) using a simple transport protocol of 2 [Mbps].
WWW server W from S4 via Internet ITN
S1 to WSn are communicated by the TCP / IP protocol.

【0142】なお管理制御装置MCUは、公衆回線網I
NWを介して加入者有線端末や携帯情報端末MS1、M
S2及びカメラ付ディジタル携帯電話機MS3、MS4
に接続されており、当該加入者有線端末や携帯情報端末
MS1、MS2及びカメラ付ディジタル携帯電話機MS
3、MS4に対する認証処理や課金処理等を行うように
なされている。
It is to be noted that the management control unit MCU is provided with the public network I
Subscriber wired terminal or portable information terminal MS1, M via NW
S2 and digital mobile phone with camera MS3, MS4
And the subscriber's wired terminal, the portable information terminals MS1, MS2, and the camera-equipped digital cellular phone MS.
3. Authentication processing, charging processing, and the like for the MS 4 are performed.

【0143】 (2−2)カメラ付ディジタル携帯電話機の外観構成 次に本発明を適用したカメラ付ディジタル携帯電話機M
S3の外観構成について説明する。図23に示すように
カメラ付ディジタル携帯電話機MS3は、中央のヒンジ
部211を境に表示部212と本体213とに分けられ
ており、当該ヒンジ部211を介して折り畳み可能に形
成されている。
(2-2) External Configuration of Digital Mobile Phone with Camera Next, the digital mobile phone with camera M to which the present invention is applied
The external configuration of S3 will be described. As shown in FIG. 23, the digital mobile phone with camera MS3 is divided into a display unit 212 and a main body 213 with a central hinge 211 as a boundary, and is foldable via the hinge 211.

【0144】表示部212には、上端左部に送受信用の
アンテナ214が引出し及び収納可能な状態に取り付け
られており、当該アンテナ214を介して基地局CS3
との間で電波を送受信するようになされている。
[0144] A transmitting / receiving antenna 214 is attached to the display unit 212 at the upper left portion so as to be able to be pulled out and housed.
It is designed to transmit and receive radio waves between and.

【0145】また表示部212には、上端中央部にほぼ
180度の角度範囲で回動自在なカメラ部215が設け
られており、当該カメラ部215のCCDカメラ216
によって所望の撮像対象を撮像し得るようになされてい
る。
The display section 212 is provided with a camera section 215 which is rotatable in an angle range of about 180 degrees at the center of the upper end, and a CCD camera 216 of the camera section 215 is provided.
Thus, a desired imaging target can be imaged.

【0146】ここで表示部212は、カメラ部215が
ユーザによってほぼ180度回動されて位置決めされた
場合、図24に示すように当該カメラ部215の背面側
中央に設けられたスピーカ217が正面側に位置するこ
とになり、これにより通常の音声通話状態に切り換わる
ようになされている。
Here, when the camera section 215 is rotated by approximately 180 degrees and positioned by the user, the display section 212 is provided with a speaker 217 provided at the center of the rear side of the camera section 215 as shown in FIG. Side, thereby switching to a normal voice call state.

【0147】さらに表示部212には、その正面に液晶
ディスプレイ218が設けられており、電波の受信状
態、電池残量、電話帳として登録されている相手先名や
電話番号及び発信履歴等の他、電子メールの内容、簡易
ホームページ、カメラ部215のCCDカメラ216で
撮像した画像を表示し得るようになされている。
Further, the display unit 212 is provided with a liquid crystal display 218 in front of the display unit 212 so as to receive radio wave reception status, remaining battery power, a destination name and telephone number registered as a telephone directory, a transmission history, and the like. The content of the e-mail, the simple homepage, and the image captured by the CCD camera 216 of the camera unit 215 can be displayed.

【0148】一方、本体213には、その表面に「0」
〜「9」の数字キー、発呼キー、リダイヤルキー、終話
及び電源キー、クリアキー及び電子メールキー等の操作
キー219が設けられており、当該操作キー219を用
いて各種指示を入力し得るようになされている。
On the other hand, the main body 213 has “0” on its surface.
There are provided operation keys 219 such as a number key, a call key, a redial key, an end call and power key, a clear key, an e-mail key, and the like of "9", and various instructions are inputted using the operation keys 219. Have been made to gain.

【0149】また本体213には、操作キー219の下
部にメモボタン220やマイクロフォン221が設けら
れており、当該メモボタン220によって通話中の相手
の音声を録音し得ると共に、マイクロフォン221によ
って通話時のユーザの音声を集音するようになされてい
る。
The main body 213 is provided with a memo button 220 and a microphone 221 below the operation keys 219, so that the memo button 220 can record the voice of the other party during a call, and the microphone 221 can be used to record a call. The sound of the user is collected.

【0150】さらに本体213には、操作キー219の
上部に回動自在なジョグダイヤル222が当該本体21
3の表面から僅かに突出した状態で設け等られており、
当該ジョグダイヤル222に対する回動操作に応じて液
晶ディスプレイ218に表示されている電話帳リストや
電子メールのスクロール動作、簡易ホームページのペー
ジ捲り動作及び画像の送り動作等の種々の動作を実行す
るようになされている。
Further, the main body 213 is provided with a rotatable jog dial 222 above the operation key 219.
3 is provided so as to protrude slightly from the surface,
Various operations such as a scrolling operation of a telephone directory list or an e-mail displayed on the liquid crystal display 218, a page turning operation of a simple homepage, an image sending operation, and the like are performed in response to the turning operation on the jog dial 222. ing.

【0151】例えば本体213は、ユーザによるジョグ
ダイヤル222の回動操作に応じて液晶ディスプレイ2
18に表示された電話帳リストの複数の電話番号の中か
ら所望の電話番号が選択され、当該ジョグダイヤル22
2が本体213の内部方向に押圧されると、選択された
電話番号を確定して当該電話番号に対して自動的に発呼
処理を行うようになされている。
For example, the main body 213 operates in response to a rotation operation of the jog dial 222 by the user.
A desired telephone number is selected from a plurality of telephone numbers in the telephone directory list displayed at 18 and the jog dial 22 is selected.
When the user presses the button 2 toward the inside of the main body 213, the selected telephone number is determined and the calling process is automatically performed on the telephone number.

【0152】なお本体213は、背面側に図示しないバ
ッテリパックが挿着されており、終話及び電源キーがオ
ン状態になると、当該バッテリパックから各回路部に対
して電力が供給されて動作可能な状態に起動する。
The main body 213 has a battery pack (not shown) inserted on the back side thereof. When the call is ended and the power key is turned on, power is supplied from the battery pack to each circuit section, and the main body 213 can operate. Start up in a proper state.

【0153】ところで本体213には、当該本体213
の左側面上部に抜差自在なメモリスティック(ソニー
(株)商標)223を挿着するためのメモリスティック
スロット224が設けられており、メモボタン220が
押下されるとメモリスティック223に通話中の相手の
音声を記録したり、ユーザの操作に応じて電子メール、
簡易ホームページ、CCDカメラ216で撮像した画像
を記録し得るようになされている。
The main body 213 has the main body 213.
A memory stick slot 224 for inserting a detachable memory stick (trademark of Sony Corporation) 223 is provided on the upper left side of the device. When the memo button 220 is pressed, a call can be made to the memory stick 223 during a call. Record the voice of the other party, send e-mail,
A simple homepage is provided so that images captured by the CCD camera 216 can be recorded.

【0154】ここでメモリスティック223は、本願出
願人であるソニー株式会社によって開発されたフラッシ
ュメモリカードの一種である。このメモリスティック2
23は、縦21.5×横50×厚さ2.8[mm] の小型薄型形状の
プラスチックケース内に電気的に書換えや消去が可能な
不揮発性メモリであるEEPROM(Electrically Era
sable and Programmable Read Only Memory )の一種で
あるフラッシュメモリ素子を格納したものであり、10
ピン端子を介して画像や音声、音楽等の各種データの書
き込み及び読み出しが可能となっている。
Here, the memory stick 223 is a kind of flash memory card developed by Sony Corporation, the present applicant. This memory stick 2
Reference numeral 23 denotes an EEPROM (Electrically Era) which is a nonvolatile memory which can be electrically rewritten and erased in a small and thin plastic case having a size of 21.5 × 50 × 2.8 [mm].
sable and Programmable Read Only Memory), which stores flash memory elements.
Various data such as images, sounds, and music can be written and read via pin terminals.

【0155】またメモリスティック223は、大容量化
等による内蔵フラッシュメモリの仕様変更に対しても、
使用する機器で互換性を確保することができる独自のシ
リアルプロトコルを採用し、最大書込速度1.5[MB/S] 、
最大読出速度2.45[MB/S]の高速性能を実現していると共
に、誤消去防止スイッチを設けて高い信頼性を確保して
いる。
The memory stick 223 can be used in response to a change in the specification of the built-in flash memory due to an increase in capacity or the like.
Adopts a unique serial protocol that can ensure compatibility with the device used, with a maximum writing speed of 1.5 [MB / S]
It achieves high-speed performance with a maximum read speed of 2.45 [MB / S] and secures high reliability by providing an erasure prevention switch.

【0156】従ってカメラ付ディジタル携帯電話機MS
3は、このようなメモリスティック223を挿着可能に
構成されているために、当該メモリスティック223を
介して他の電子機器との間でデータの共有化を図ること
ができるようになされている。
Therefore, the camera-equipped digital mobile phone MS
3 is configured to be able to insert such a memory stick 223, so that data can be shared with another electronic device via the memory stick 223. .

【0157】 (2−3)カメラ付ディジタル携帯電話機の回路構成 図25に示すように、カメラ付ディジタル携帯電話機M
S3は、表示部212及び本体213の各部を統括的に
制御するようになされた主制御部250に対して、電源
回路部251、操作入力制御部252、画像エンコーダ
253、カメラインターフェース部254、LCD(Li
quid Crystal Display)制御部255、画像デコーダ2
56、多重分離部257、記録再生部262、変復調回
路部258及び音声コーデック259がメインバス26
0を介して互いに接続されると共に、画像エンコーダ2
53、画像デコーダ256、多重分離部257、変復調
回路部258及び音声コーデック259が同期バス26
1を介して互いに接続されて構成されている。
(2-3) Circuit Configuration of Digital Mobile Phone with Camera As shown in FIG.
In step S3, the power supply circuit unit 251, the operation input control unit 252, the image encoder 253, the camera interface unit 254, and the LCD control unit 250 control the main control unit 250 that controls the display unit 212 and the main body 213 in an integrated manner. (Li
quid Crystal Display) control unit 255, image decoder 2
56, a demultiplexing unit 257, a recording / reproducing unit 262, a modulation / demodulation circuit unit 258, and an audio codec 259.
0 and connected to each other via the image encoder 2
53, an image decoder 256, a demultiplexing unit 257, a modulation / demodulation circuit unit 258, and an audio codec 259.
1 are connected to each other.

【0158】電源回路部251は、ユーザの操作により
終話及び電源キーがオン状態にされると、バッテリパッ
クから各部に対して電力を供給することによりカメラ付
ディジタル携帯電話機MS3を動作可能な状態に起動す
る。
When the call end and the power key are turned on by the user's operation, the power supply circuit unit 251 supplies power to each unit from the battery pack to enable the digital cellular phone with camera MS3 to operate. To start.

【0159】カメラ付ディジタル携帯電話機MS3は、
CPU、ROM及びRAM等でなる主制御部250の制
御に基づいて、音声通話モード時にマイクロフォン22
1で集音した音声信号を音声コーデック259によって
ディジタル音声データに変換し、これを変復調回路部2
58でスペクトラム拡散処理し、送受信回路部262で
ディジタルアナログ変換処理及び周波数変換処理を施し
た後にアンテナ214を介して送信する。
The camera-equipped digital mobile phone MS3 is
Under the control of the main control unit 250 including a CPU, a ROM, a RAM, and the like, the
1 is converted into digital audio data by the audio codec 259, and this is converted into a digital demodulation circuit unit 2.
The spread spectrum processing is performed at 58, and the digital signal is subjected to digital / analog conversion processing and frequency conversion processing at the transmission / reception circuit section 262, and then transmitted via the antenna 214.

【0160】またカメラ付ディジタル携帯電話機MS3
は、音声通話モード時にアンテナ214で受信した受信
信号を増幅して周波数変換処理及びアナログディジタル
変換処理を施し、変復調回路部258でスペクトラム逆
拡散処理し、音声コーデック259によってアナログ音
声信号に変換した後、これをスピーカ217を介して出
力する。
A digital mobile phone with camera MS3
After amplifying the received signal received by the antenna 214 in the voice communication mode, performing a frequency conversion process and an analog-to-digital conversion process, performing a spectrum despreading process in the modulation / demodulation circuit unit 258, and converting the received signal into an analog voice signal by the voice codec 259. Is output via the speaker 217.

【0161】さらにカメラ付ディジタル携帯電話機MS
3は、データ通信モード時に電子メールを送信する場
合、操作キー219及びジョグダイヤル222の操作に
よって入力された電子メールのテキストデータを操作入
力制御部252を介して主制御部250に送出する。
Further, digital mobile phone MS with camera
3 transmits the text data of the e-mail input by operating the operation keys 219 and the jog dial 222 to the main control unit 250 via the operation input control unit 252 when transmitting the e-mail in the data communication mode.

【0162】主制御部250は、テキストデータを変復
調回路部258でスペクトラム拡散処理し、送受信回路
部262でディジタルアナログ変換処理及び周波数変換
処理を施した後にアンテナ214を介して基地局CS3
(図17)へ送信する。
The main control unit 250 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit 258, and performs digital / analog conversion processing and frequency conversion processing in the transmission / reception circuit unit 262, and then transmits the base station CS3 via the antenna 214.
(FIG. 17).

【0163】これに対してカメラ付ディジタル携帯電話
機MS3は、データ通信モード時に電子メールを受信す
る場合、アンテナ214を介して基地局CS3から受信
した受信信号を変復調回路部258でスペクトラム逆拡
散処理して元のテキストデータを復元した後、LCD制
御部255を介して液晶ディスプレイ218に電子メー
ルとして表示する。
On the other hand, when receiving an electronic mail in the data communication mode, the camera-equipped digital mobile phone MS3 performs a spectrum despreading process on the received signal received from the base station CS3 via the antenna 214 in the modulation / demodulation circuit unit 258. After the original text data is restored, the data is displayed as an electronic mail on the liquid crystal display 218 via the LCD control unit 255.

【0164】この後カメラ付ディジタル携帯電話機MS
3は、ユーザの操作に応じて受信した電子メールを記録
再生部262を介してメモリスティック223に記録す
ることも可能である。
Thereafter, the camera-equipped digital mobile phone MS
3 can also record an e-mail received in response to a user operation on the memory stick 223 via the recording / reproducing unit 262.

【0165】一方カメラ付ディジタル携帯電話機MS3
は、データ通信モード時に画像データを送信する場合、
CCDカメラ216で撮像された画像データをカメライ
ンターフェース部254を介して画像エンコーダ253
に供給する。
On the other hand, camera-equipped digital mobile phone MS3
When transmitting image data in the data communication mode,
The image data captured by the CCD camera 216 is transferred to the image encoder 253 via the camera interface unit 254.
To supply.

【0166】因みにカメラ付ディジタル携帯電話機MS
3は、画像データを送信しない場合には、CCDカメラ
216で撮像した画像データをカメラインターフェース
部254及びLCD制御部255を介して液晶ディスプ
レイ218に直接表示することも可能である。
Incidentally, a digital mobile phone MS with a camera
3 does not transmit image data, it is also possible to directly display image data captured by the CCD camera 216 on the liquid crystal display 218 via the camera interface unit 254 and the LCD control unit 255.

【0167】画像エンコーダ253は、CCDカメラ2
16から供給された画像データを例えばMPEG(Movi
g Picture Experts Group )2やMPEG4等の所定の
符号化方式によって圧縮符号化することにより符号化画
像データに変換し、これを多重分離部257に送出す
る。
The image encoder 253 is a CCD camera 2
The image data supplied from the MPU 16 is, for example, MPEG (Movi)
g Picture Experts Group) 2, converts the encoded image data into encoded image data by compression encoding according to a predetermined encoding method such as MPEG4, and sends it to the demultiplexing unit 257.

【0168】このとき同時にカメラ付ディジタル携帯電
話機MS3は、CCDカメラ216で撮像中にマイクロ
フォン221で集音した音声を音声コーデック259を
介してディジタルの音声データとして多重分離部257
に送出する。
At this time, the camera-equipped digital mobile phone MS3 simultaneously converts the sound collected by the microphone 221 during imaging by the CCD camera 216 as digital sound data via the sound codec 259 into the demultiplexing unit 257.
To send to.

【0169】多重分離部257は、画像エンコーダ25
3から供給された符号化画像データと音声コーデック2
59から供給された音声データとを所定の方式で多重化
し、その結果得られる多重化データを変復調回路部25
8でスペクトラム拡散処理し、送受信回路部262でデ
ィジタルアナログ変換処理及び周波数変換処理を施した
後にアンテナ214を介して送信する。
[0169] The demultiplexing unit 257
3 and the coded image data supplied from 3 and the audio codec 2
The multiplexed data is multiplexed with the audio data supplied from 59 in a predetermined manner, and the resulting multiplexed data is
Then, the transmission / reception circuit unit 262 performs a digital-to-analog conversion process and a frequency conversion process, and then transmits the data via the antenna 214.

【0170】これに対してカメラ付ディジタル携帯電話
機MS3は、データ通信モード時に例えば簡易ホームペ
ージ等の画像データを受信する場合、アンテナ214を
介して基地局CS3から受信した受信信号を変復調回路
部258でスペクトラム逆拡散処理し、その結果得られ
る多重化データを多重分離部257に送出する。
On the other hand, when receiving digital image data such as a simple homepage in the data communication mode, the camera-equipped digital mobile phone MS3 modulates the received signal received from the base station CS3 via the antenna 214 by the modem circuit 258. The spectrum despreading process is performed, and the resulting multiplexed data is sent to the demultiplexing unit 257.

【0171】多重分離部257は、多重化データを分離
することにより符号化画像データと音声データとに分
け、同期バス261を介して当該符号化画像データを画
像デコーダ256に供給すると共に当該音声データを音
声コーデック259に供給する。
The demultiplexing unit 257 separates the multiplexed data into coded image data and audio data, supplies the coded image data to the image decoder 256 via the synchronization bus 261, and Is supplied to the audio codec 259.

【0172】画像デコーダ256は、符号化画像データ
をMPEG2やMPEG4等の所定の符号化方式に対応
した復号化方式でデコードすることにより再生画像デー
タを生成し、これをLCD制御部255を介して液晶デ
ィスプレイ218に、例えば簡易ホームページにリンク
された画像として表示する。
The image decoder 256 generates reproduced image data by decoding the encoded image data using a decoding method corresponding to a predetermined encoding method such as MPEG2 or MPEG4, and outputs the reproduced image data via the LCD control unit 255. The image is displayed on the liquid crystal display 218 as an image linked to, for example, a simple homepage.

【0173】このとき同時に音声コーデック259は、
音声データをアナログ音声信号に変換した後、これをス
ピーカ217を介して、例えば簡易ホームページにリン
クされた音声として出力する。
At this time, the audio codec 259 simultaneously
After converting the audio data into an analog audio signal, the audio data is output via the speaker 217 as, for example, audio linked to a simple homepage.

【0174】この場合も電子メールの場合と同様にカメ
ラ付ディジタル携帯電話機MS3は、受信した簡易ホー
ムページの画像データをユーザの操作により記録再生部
262を介してメモリスティック223に記録すること
が可能である。
Also in this case, similarly to the case of the electronic mail, the digital mobile phone with camera MS3 can record the received image data of the simple homepage on the memory stick 223 via the recording / reproducing unit 262 by the operation of the user. is there.

【0175】かかる構成に加えてカメラ付ディジタル携
帯電話機MS3は、主制御部250のROMに第1の実
施の形態と同様のサイバージェスチャープログラム及び
ジョグダイヤルサーバプログラムが格納されており、所
定のアプリケーションソフトウェアに基づくアクティブ
ウィンドウ画面を液晶ディスプレイ218に表示した状
態で、サイバージェスチャープログラムに基づいてアク
ティブウィンドウ画面にジェスチャー認識画面100
(図6)を重ねて表示し得ると共に、当該ジェスチャー
認識画面100にCCDカメラ216で撮像したユーザ
の画像を表示し得るようになされている。
In addition to the above configuration, in the digital mobile phone with camera MS3, the same cyber gesture program and jog dial server program as those in the first embodiment are stored in the ROM of the main control unit 250, and the predetermined application software The active window screen based on the gesture recognition screen 100 is displayed on the liquid crystal display 218 based on the cyber gesture program.
(FIG. 6) can be displayed in a superimposed manner, and an image of the user captured by the CCD camera 216 can be displayed on the gesture recognition screen 100.

【0176】次にカメラ付ディジタル携帯電話機MS3
は、図5〜図21に示した第1の実施の形態と同様に、
主制御部250の制御によりCCDカメラ216で撮像
した入力画像を取り込み、当該入力画像に対してジェス
チャー認識のために必要なジェスチャー認識表示エリア
106に対応する領域だけを残すようにマスク処理を施
す。
Next, the digital cellular phone MS3 with a camera
Is similar to the first embodiment shown in FIGS.
Under the control of the main control unit 250, an input image captured by the CCD camera 216 is captured, and mask processing is performed on the input image so that only an area corresponding to the gesture recognition display area 106 necessary for gesture recognition is left.

【0177】そして主制御部250は、ユーザの手の動
きの移動方向を認識すべきジェスチャー認識表示エリア
106に対応する領域だけから得た画像データに基づい
てユーザの手の動きの移動方向を認識し、当該認識結果
に応じた所定のコマンドをジョグダイヤルサーバプログ
ラムを介してアプリケーションソフトウェアに供給し、
当該アプリケーションソフトウェアに基づくアクティブ
ウィンドウ画面上でコマンドに応じた所定の画像送り動
作を実行し得るようになされている。
The main control unit 250 recognizes the movement direction of the user's hand movement based on image data obtained only from the area corresponding to the gesture recognition display area 106 where the movement direction of the user's hand movement should be recognized. Then, a predetermined command corresponding to the recognition result is supplied to the application software via the jog dial server program,
A predetermined image feed operation according to a command can be executed on an active window screen based on the application software.

【0178】これによりユーザは、ジョグダイヤル22
2を直接操作することなく、CCDカメラ216に手を
かざして動かすだけで、ジェスチャー認識画面100の
背景に表示されているアクティブウィンドウ画面の静止
画を画像送りすることができる。
Thus, the user can move the jog dial 22
The image of the still image of the active window screen displayed on the background of the gesture recognition screen 100 can be sent simply by moving the hand over the CCD camera 216 without directly operating the camera 2.

【0179】 (2−4)第2の実施の形態における動作及び効果 以上の構成においてカメラ付ディジタル携帯電話機MS
3は、CCDカメラ216でユーザを撮像し、その結果
得られる入力画像を取り込み、ジェスチャー認識のため
に必要なジェスチャー認識表示エリア106の領域だけ
を残すようにマスク画像164を用いてマスク処理す
る。
(2-4) Operation and Effect in Second Embodiment In the above configuration, digital mobile phone MS with camera
3 captures an image of the user with the CCD camera 216, captures the resulting input image, and performs mask processing using the mask image 164 so as to leave only the gesture recognition display area 106 necessary for gesture recognition.

【0180】これにより主制御部250は、入力画像の
中から手の動きの移動方向を認識するために不要な画像
データを取得することが無くなり、この結果、誤認識を
未然に防止することができると共に、ユーザのジェスチ
ャを一段と正確に認識してユーザ所望の操作を非接触で
実現することができる。
As a result, the main control unit 250 does not acquire unnecessary image data for recognizing the moving direction of the hand movement from the input image. As a result, it is possible to prevent erroneous recognition from occurring. In addition to the above, the user's gesture can be more accurately recognized, and the user's desired operation can be realized in a non-contact manner.

【0181】以上の構成によればカメラ付ディジタル携
帯電話機MS3は、CCDカメラ216で撮像した入力
画像に対してマスク処理することにより、ユーザの手の
動きを認識する際に必要な画像データだけを取得し、当
該画像データに基づいて一段と正確にユーザの手の動き
を認識してユーザ所望の画像送り操作を正確かつ確実に
実行することができる。
According to the above configuration, the camera-equipped digital cellular phone MS3 performs mask processing on the input image picked up by the CCD camera 216 so that only the image data necessary for recognizing the movement of the user's hand is obtained. Acquired, the movement of the user's hand can be more accurately recognized based on the image data, and the image feed operation desired by the user can be executed accurately and reliably.

【0182】(3)他の実施の形態 なお上述の第1及び第2の実施の形態においては、ジェ
スチャー認識画面100のジェスチャー認識表示エリア
106に対応したマスク形状のマスク画像164を用い
てマスク処理するようにした場合について述べたが、本
発明はこれに限らず、他の種々の形状でなるジェスチャ
ー認識表示エリアに対応して図26(A)〜(C)に示
すような遮蔽領域171A、172A、173A及び非
遮蔽領域171B、172B、173Bでなるマスク形
状を持つマスク画像171、172又は173を用いる
ようにしても良い。
(3) Other Embodiments In the first and second embodiments described above, mask processing is performed using a mask image 164 of a mask shape corresponding to the gesture recognition display area 106 of the gesture recognition screen 100. However, the present invention is not limited to this, and the present invention is not limited to this, and corresponds to the gesture recognition display area having various other shapes, as shown in FIGS. 26A to 26C. A mask image 171, 172 or 173 having a mask shape composed of 172A, 173A and non-shielded areas 171B, 172B, 173B may be used.

【0183】また上述の第1及び第2の実施の形態にお
いては、左右上下方向におけるユーザの手の動きの移動
方向を認識するために十文字形状のマスク画像164を
用いるようにした場合について述べたが、本発明はこれ
に限らず、回転方向におけるユーザの手の動きを認識す
るために、図25に示すように遮蔽領域175A及び円
形状の非遮蔽領域175Bでなるマスク画像175を用
いるようにしても良い。
In the above-described first and second embodiments, a case has been described in which the cross-shaped mask image 164 is used to recognize the moving direction of the user's hand movement in the horizontal and vertical directions. However, the present invention is not limited to this. In order to recognize the movement of the user's hand in the rotation direction, a mask image 175 including a shielded area 175A and a circular non-shielded area 175B is used as shown in FIG. May be.

【0184】さらに上述の第1及び第2の実施の形態に
おいては、ジョグダイヤル24及び222による画像送
り動作を、サイバージェスチャープログラムに従って動
作する制御手段としてのCPU50及び主制御部250
によってエミュレートするようにした場合について述べ
たが、本発明はこれに限らず、アクティブウィンドウ画
面に表示されている静止画の拡大縮小動作や、音量ボリ
ュームの上げ下げ動作や、テレビジョンのチャンネル移
動動作等のジョグダイヤル24及び222や操作キー4
及び219で操作可能な他の種々の動作をエミュレート
するようにしても良い。
In the first and second embodiments described above, the CPU 50 and the main control unit 250 as control means for operating the image feed operation by the jog dials 24 and 222 in accordance with the cyber gesture program.
However, the present invention is not limited to this, and the present invention is not limited to this. The operation of enlarging / reducing the still image displayed on the active window screen, the operation of raising / lowering the volume control, and the operation of moving the channel of the television are performed. Jog dials 24 and 222 and operation keys 4
And 219 may be emulated.

【0185】さらに上述の第1及び第2の実施の形態に
おいては、ターゲット107A〜107Iやポインタ1
10を正方形状に形成するようにした場合について述べ
たが、本発明はこれに限らず、例えば円形等の他の種々
の形状に形成するようにしても良い。
In the first and second embodiments, the targets 107A to 107I and the pointer 1
Although the case where 10 is formed in a square shape has been described, the present invention is not limited to this, and may be formed in various other shapes such as a circle.

【0186】さらに上述の第1及び第2の実施の形態に
おいては、マスク画像164を用いて入力画像をマスク
処理することにより、手の動きの移動方向を認識するた
めだけに必要な画像データを入力画像のジェスチャー認
識表示エリア106に対応した領域から得るようにした
場合について述べたが、本発明はこれに限らず、マスク
画像164を用いるのではなく入力画像の中からジェス
チャー認識表示エリア106に対応した領域のデータだ
けを指定して読み出すことにより、手の動きの移動方向
を認識するためだけに必要な画像データを得るようにし
ても良い。
Further, in the above-described first and second embodiments, mask processing is performed on the input image using the mask image 164, so that image data necessary only for recognizing the moving direction of the hand movement can be obtained. Although a case has been described in which the input image is obtained from the area corresponding to the gesture recognition display area 106, the present invention is not limited to this. Instead of using the mask image 164, the gesture recognition display area 106 is selected from the input image. By designating and reading only the data of the corresponding area, image data necessary only for recognizing the moving direction of the hand movement may be obtained.

【0187】さらに上述の第1及び第2の実施の形態に
おいては、認識対象としてユーザの動作を認識手段とし
てのCPU50及び主制御部250によって認識するよ
うにした場合について述べたが、本発明はこれに限ら
ず、例えばユーザ以外にロボットや動物等の他の種々の
認識対象の動作を認識するようにしても良い。
Further, in the first and second embodiments described above, a case has been described where the user's operation is recognized by the CPU 50 and the main control unit 250 as recognition means as recognition targets. However, the present invention is not limited to this. For example, the operation of various other recognition targets such as robots and animals other than the user may be recognized.

【0188】さらに上述の第1及び第2の実施の形態に
おいては、CPU50及び主制御部250がHDD67
のハードディスクやROMに予め格納されたサイバージ
ェスチャープログラムに基づいて入力画像をマスク処理
してユーザの動作を認識するようにした場合について述
べたが、本発明はこれに限らず、サイバージェスチャー
プログラムが格納されたプログラム格納媒体をノートパ
ソコン1及びカメラ付ディジタル携帯電話機MS3にイ
ンストールすることにより、上述のユーザの動作を認識
するようにしても良い。
In the first and second embodiments described above, the CPU 50 and the main control unit 250
A case has been described in which an input image is masked based on a cyber gesture program stored in advance in a hard disk or ROM to recognize a user's operation. However, the present invention is not limited to this. The above-described operation of the user may be recognized by installing the stored program storage medium in the notebook personal computer 1 and the digital mobile phone with camera MS3.

【0189】このように上述した一連の処理を実行する
サイバージェスチャープログラムをノートパソコン1及
びカメラ付ディジタル携帯電話機MS3にインストール
し、当該ノートパソコン1及びカメラ付ディジタル携帯
電話機MS3にインストールにおいて実行可能な状態に
するために用いられるプログラム格納媒体としては、例
えばフロッピーディスク、CD−ROM(Compact Disc
-Read Only Memory)、DVD(Digital Versatile Dis
c)等のパッケージメディアのみならず、サイバージェ
スチャープログラムが一時的もしくは永続的に格納され
る半導体メモリや磁気ディスク等で実現しても良い。ま
た、これらプログラム格納媒体にサイバージェスチャー
プログラムを格納する手段としては、ローカルエリアネ
ットワークやインターネット、ディジタル衛生放送等の
有線及び無線通信媒体を利用しても良く、ルータやモデ
ム等の各種通信インターフェースを介して格納するよう
にしても良い。
The state in which the cyber gesture program for executing the above-described series of processing is installed in the notebook personal computer 1 and the digital mobile phone with camera MS3 is executable in the notebook personal computer 1 and the digital mobile phone with camera MS3. For example, a floppy disk, CD-ROM (Compact Disc)
-Read Only Memory), DVD (Digital Versatile Dis
The present invention may be realized not only by package media such as c) but also by a semiconductor memory or a magnetic disk in which a cyber gesture program is temporarily or permanently stored. As a means for storing the cyber gesture program in these program storage media, a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting may be used, and various communication interfaces such as a router and a modem may be used. It may be stored.

【0190】さらに上述の第1及び第2の実施の形態に
おいては、撮像手段として表示部3と一体形成された撮
像部11におけるCCDカメラ8で撮像した入力画像を
取り込むようにした場合について述べたが、本発明はこ
れに限らず、ノートパソコン1とは別個の他の種々の撮
像手段によって撮像した入力画像をIEEE1394端
子28等を介して取り込むようにしても良い。
Further, in the above-described first and second embodiments, a case has been described in which an input image picked up by the CCD camera 8 in the image pickup unit 11 integrally formed with the display unit 3 is taken as image pickup means. However, the present invention is not limited to this, and an input image captured by various other image capturing means separate from the notebook computer 1 may be captured via the IEEE 1394 terminal 28 or the like.

【0191】さらに上述の第1及び第2の実施の形態に
おいては、本発明の情報処理装置としてノートパソコン
1及びカメラ付ディジタル携帯電話機MS3に適用する
ようにした場合について述べたが、携帯情報端末MS1
及びMS2等の他の種々の情報処理装置に適用するよう
にしても良い。
Further, in the first and second embodiments described above, a case has been described in which the information processing apparatus of the present invention is applied to the notebook personal computer 1 and the digital mobile phone with camera MS3. MS1
And other various information processing devices such as the MS2.

【0192】[0192]

【発明の効果】上述のように本発明によれば、撮像手段
によって認識対象を撮像することにより得られた画像に
おける所定領域の画像データを特定し、当該所定領域の
画像データにのみ基づいて認識対象の動作を認識するよ
うにしたことにより、認識対象の動作を認識する際に必
要な所定領域の画像データだけを用いて認識対象の動作
を認識することができるので、誤認識を低減すると共に
一段と認識精度を向上させことができる。
As described above, according to the present invention, image data of a predetermined area in an image obtained by imaging an object to be recognized by an imaging means is specified, and recognition is performed based only on the image data of the predetermined area. By recognizing the motion of the target, it is possible to recognize the motion of the recognition target using only image data of a predetermined area necessary for recognizing the motion of the recognition target. The recognition accuracy can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態におけるノートブッ
ク型パーソナルコンピュータの全体構成を示す略線的斜
視図である。
FIG. 1 is a schematic perspective view showing an overall configuration of a notebook personal computer according to a first embodiment of the present invention.

【図2】本体の左側面の構成を示す略線図である。FIG. 2 is a schematic diagram illustrating a configuration of a left side surface of a main body.

【図3】本体の後側面及び底面の構成を示す略線図であ
る。
FIG. 3 is a schematic diagram illustrating a configuration of a rear side surface and a bottom surface of a main body.

【図4】ノートブック型パーソナルコンピュータの回路
構成を示すブロツク図である。
FIG. 4 is a block diagram showing a circuit configuration of the notebook personal computer.

【図5】ジェスチャー認識処理手順を示すフローチャー
トである。
FIG. 5 is a flowchart illustrating a gesture recognition processing procedure.

【図6】アクティブウィンドウ画面上に重ねて表示され
たジェスチャー認識画面を示す略線図である。
FIG. 6 is a schematic diagram illustrating a gesture recognition screen displayed over the active window screen.

【図7】ジェスチャー認識画面の構成を示す略線図であ
る。
FIG. 7 is a schematic diagram illustrating a configuration of a gesture recognition screen.

【図8】ターゲットの構成を示す略線図である。FIG. 8 is a schematic diagram illustrating a configuration of a target.

【図9】「ジェスチャー選択」表示部が最前表示された
詳細設定画面を示す略線図である。
FIG. 9 is a schematic diagram illustrating a detailed setting screen in which a “gesture selection” display unit is displayed at the forefront;

【図10】カーソルモードのジェスチャー認識画面をを
示す略線図である。
FIG. 10 is a schematic diagram illustrating a gesture recognition screen in a cursor mode.

【図11】インターネットモードのジェスチャー認識画
面をを示す略線図である。
FIG. 11 is a schematic diagram illustrating a gesture recognition screen in the Internet mode.

【図12】「エフェクトの設定」表示部が最前表示され
た詳細設定画面を示す略線図である。
FIG. 12 is a schematic diagram illustrating a detailed setting screen in which an “effect setting” display unit is displayed at the forefront;

【図13】「認識レベル」表示部が最前表示された詳細
設定画面を示す略線図である。
FIG. 13 is a schematic diagram illustrating a detailed setting screen in which a “recognition level” display unit is displayed at the forefront;

【図14】「ウィンドウ表示モード」表示部が最前表示
された詳細設定画面を示す略線図である。
FIG. 14 is a schematic diagram illustrating a detailed setting screen in which a “window display mode” display unit is displayed at the forefront;

【図15】「カメラ鏡面設定」表示部が最前表示された
詳細設定画面を示す略線図である。
FIG. 15 is a schematic diagram illustrating a detailed setting screen in which a “camera mirror surface setting” display unit is displayed at the forefront;

【図16】ジョグダイヤルモードに対応したマスク画像
のマスク形状を示す略線図である。
FIG. 16 is a schematic diagram illustrating a mask shape of a mask image corresponding to a jog dial mode.

【図17】手の位置情報に関する取得処理手順を示すフ
ローチャートである。
FIG. 17 is a flowchart illustrating an acquisition processing procedure regarding hand position information.

【図18】重心上部位置に対応したポインタ及び認識枠
を示す略線図である。
FIG. 18 is a schematic diagram illustrating a pointer and a recognition frame corresponding to a position above the center of gravity.

【図19】ジェスチャ動作に関する判断処理手順を示す
フローチャートである。
FIG. 19 is a flowchart illustrating a determination processing procedure regarding a gesture operation.

【図20】最大移動距離の算出の説明に供する略線図で
ある。
FIG. 20 is a schematic diagram used for explaining calculation of a maximum movement distance.

【図21】ビジュアルフィードバック表示の説明に供す
る略線図である。
FIG. 21 is a schematic diagram for explaining a visual feedback display.

【図22】第2の実施の形態におけるネットワークシス
テムの全体構成を示す略線図である。
FIG. 22 is a schematic diagram illustrating an overall configuration of a network system according to a second embodiment.

【図23】カメラ付ディジタル携帯電話機の外観構成を
示す略線的斜視図である。
FIG. 23 is a schematic perspective view showing an external configuration of a digital mobile phone with a camera.

【図24】カメラ部を回動したときの表示部を示す略線
的斜視図である。
FIG. 24 is a schematic perspective view showing the display unit when the camera unit is rotated.

【図25】カメラ付ディジタル携帯電話機の回路構成を
示すブロック図である。
FIG. 25 is a block diagram showing a circuit configuration of a digital mobile phone with a camera.

【図26】他の実施の形態におけるマスク画像のマスク
形状(1)を示す略線図である。
FIG. 26 is a schematic diagram illustrating a mask shape (1) of a mask image according to another embodiment.

【図27】他の実施の形態におけるマスク画像のマスク
形状(2)を示す略線図である。
FIG. 27 is a schematic diagram illustrating a mask shape (2) of a mask image according to another embodiment.

【符号の説明】[Explanation of symbols]

1……ノートブック型パーソナルコンピュータ、2、2
13……本体、3、212……表示部、4、219……
操作キー、8、216……CCDカメラ、10、218
……液晶ディスプレイ、11……撮像部、24、222
……ジョグダイヤル、50……CPU、53……RA
M、100……ジェスチャー認識画面、106……ジェ
スチャー認識表示エリア、164、171、172、1
73、175……マスク画像、200……ネットワーク
システム、MS1、MS2……携帯情報端末、MS3、
MS4……カメラ付ディジタル携帯電話機、CS1〜C
S4……基地局、250……主制御部。
1. Notebook type personal computer, 2, 2
13 ... body, 3, 212 ... display unit, 4, 219 ...
Operation keys, 8, 216 ... CCD camera, 10, 218
...... liquid crystal display, 11 ... imaging part, 24, 222
…… Jog dial, 50 …… CPU, 53 …… RA
M, 100: gesture recognition screen, 106: gesture recognition display area, 164, 171, 172, 1
73, 175: mask image, 200: network system, MS1, MS2: portable information terminal, MS3,
MS4 ... Digital mobile phone with camera, CS1-C
S4: Base station, 250: Main control unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井原 圭吾 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 末吉 隆彦 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 5L096 BA08 CA02 CA24 DA05 EA37 FA14 GA10 HA04  ──────────────────────────────────────────────────続 き Continued on the front page (72) Keigo Ihara, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takahiko Sueyoshi 6-35, 7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony F term in reference (reference) 5L096 BA08 CA02 CA24 DA05 EA37 FA14 GA10 HA04

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】撮像手段によって認識対象を撮像すること
により得られた画像における所定領域の画像データを特
定する特定手段と、 上記所定領域の上記画像データに基づいて上記認識対象
の動作を認識する動作認識手段とを具えることを特徴と
する情報処理装置。
An identification unit configured to identify image data of a predetermined region in an image obtained by imaging the recognition target by an imaging unit; and recognizing an operation of the recognition target based on the image data of the predetermined region. An information processing apparatus comprising: motion recognition means.
【請求項2】上記動作認識手段によって認識された上記
認識対象の動作に対応した所定の処理を実行する制御手
段とを具えることを特徴とする請求項1に記載の情報処
理装置。
2. The information processing apparatus according to claim 1, further comprising control means for executing a predetermined process corresponding to the motion of the recognition target recognized by the motion recognition means.
【請求項3】上記特定手段は、上記画像の上記所定領域
だけを残すように当該所定領域に対応した遮蔽パターン
でなるマスク画像を上記画像に重ねて合成することによ
り上記所定領域の画像データを特定することを特徴とす
る請求項1に記載の情報処理装置。
3. The image processing apparatus according to claim 1, wherein the specifying unit superimposes a mask image including a shielding pattern corresponding to the predetermined area on the image so as to leave only the predetermined area of the image, and synthesizes the image data of the predetermined area. The information processing apparatus according to claim 1, wherein the information is specified.
【請求項4】上記動作認識手段は、上記画像データに基
づいて動きベクトルを検出することにより上記認識対象
の動作を認識することを特徴とする請求項1に記載の情
報処理装置。
4. The information processing apparatus according to claim 1, wherein the motion recognition means recognizes the motion of the recognition target by detecting a motion vector based on the image data.
【請求項5】撮像手段によって認識対象を撮像すること
により得られた画像における所定領域の画像データを特
定する特定ステップと、 上記所定領域の上記画像データに基づいて上記認識対象
の動作を認識する動作認識ステップとを具えることを特
徴とする動作認識処理方法。
5. A specifying step of specifying image data of a predetermined area in an image obtained by imaging a recognition target by an imaging unit, and recognizing an operation of the recognition target based on the image data of the predetermined area. A motion recognition processing method, comprising a motion recognition step.
【請求項6】上記動作認識ステップで認識された上記認
識対象の動作に対応した所定の処理を実行する制御ステ
ップとを具えることを特徴とする請求項5に記載の動作
認識処理方法。
6. The motion recognition method according to claim 5, further comprising a control step of executing a predetermined process corresponding to the motion of the recognition target recognized in the motion recognition step.
【請求項7】上記特定ステップでは、上記画像の上記所
定領域だけを残すように当該所定領域に対応した遮蔽パ
ターンでなるマスク画像を上記画像に重ねて合成するこ
とにより上記所定領域の画像データを特定することを特
徴とする請求項5に記載の動作認識処理方法。
7. The image data of the predetermined area is synthesized by superimposing a mask image formed of a shielding pattern corresponding to the predetermined area on the image so as to leave only the predetermined area of the image. The method according to claim 5, wherein the operation is identified.
【請求項8】上記動作認識ステップでは、上記画像デー
タに基づいて動きベクトルを検出することにより上記認
識対象の動作を認識することを特徴とする請求項5に記
載の動作認識処理方法。
8. The motion recognition processing method according to claim 5, wherein in the motion recognition step, the motion of the recognition target is recognized by detecting a motion vector based on the image data.
【請求項9】撮像手段によって認識対象を撮像すること
により得られた画像における所定領域の画像データを特
定する特定ステップと、 上記所定領域の上記画像データに基づいて上記認識対象
の動作を認識する動作認識ステップとを具えることを特
徴とするプログラムを情報処理装置に実行させるプログ
ラム格納媒体。
9. A specifying step of specifying image data of a predetermined area in an image obtained by capturing an image of a recognition target by an imaging unit; and recognizing an operation of the recognition target based on the image data of the predetermined area. A program storage medium for causing an information processing apparatus to execute a program, comprising a motion recognition step.
【請求項10】上記動作認識ステップで認識された上記
認識対象の動作に対応した所定の処理を実行する制御ス
テップとを具えることを特徴とする請求項9に記載のプ
ログラム格納媒体。
10. The program storage medium according to claim 9, further comprising a control step of executing a predetermined process corresponding to the motion of the recognition target recognized in the motion recognition step.
【請求項11】上記特定ステップでは、上記画像の上記
所定領域だけを残すように当該所定領域に対応した遮蔽
パターンでなるマスク画像を上記画像に重ねて合成する
ことにより上記所定領域の画像データを特定することを
特徴とする請求項9に記載のプログラム格納媒体。
11. The image data of the predetermined area is synthesized by superimposing a mask image formed of a shielding pattern corresponding to the predetermined area on the image so as to leave only the predetermined area of the image. The program storage medium according to claim 9, wherein the program storage medium is specified.
【請求項12】上記動作認識ステップでは、上記画像デ
ータに基づいて動きベクトルを検出することにより上記
認識対象の動作を認識することを特徴とする請求項9に
記載のプログラム格納媒体。
12. The program storage medium according to claim 9, wherein in the motion recognition step, the motion of the recognition target is recognized by detecting a motion vector based on the image data.
JP2000276645A 2000-09-07 2000-09-07 Information processing device, action recognition processing method, and program storage medium Pending JP2002083302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000276645A JP2002083302A (en) 2000-09-07 2000-09-07 Information processing device, action recognition processing method, and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000276645A JP2002083302A (en) 2000-09-07 2000-09-07 Information processing device, action recognition processing method, and program storage medium

Publications (1)

Publication Number Publication Date
JP2002083302A true JP2002083302A (en) 2002-03-22

Family

ID=18762074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000276645A Pending JP2002083302A (en) 2000-09-07 2000-09-07 Information processing device, action recognition processing method, and program storage medium

Country Status (1)

Country Link
JP (1) JP2002083302A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029393A1 (en) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. Multimedia reproducing apparatus, menu operation accepting method, and computer program
US7561741B2 (en) 2002-12-16 2009-07-14 Lg Electronics, Inc. Apparatus for operating a mobile communication terminal with integrated photographic apparatus and method thereof
JP2010237766A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, method and program for controlling command execution
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
JP2012123617A (en) * 2010-12-08 2012-06-28 Omron Corp Gesture recognition apparatus, gesture recognition method, control program, and recording medium
WO2012147960A1 (en) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
US8593399B2 (en) 2009-02-18 2013-11-26 Kabushiki Kaisha Toshiba Interface apparatus and method for controlling a device
US8644556B2 (en) 2010-10-29 2014-02-04 Sony Corporation Image processing apparatus and method and program
WO2014027674A1 (en) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 Input device, input method, and recording medium
WO2014030442A1 (en) * 2012-08-22 2014-02-27 日本電気株式会社 Input device, input method, program, and electronic sign
JP2014085967A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing device, information processing method, and program
JP2015511043A (en) * 2012-03-29 2015-04-13 インテル コーポレイション Creating 3D graphics using gestures
JP2015158912A (en) * 2006-10-04 2015-09-03 イマージョン コーポレーションImmersion Corporation Haptic effects with proximity sensing
JPWO2016002270A1 (en) * 2014-06-30 2017-04-27 クラリオン株式会社 Non-contact operation detection device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561741B2 (en) 2002-12-16 2009-07-14 Lg Electronics, Inc. Apparatus for operating a mobile communication terminal with integrated photographic apparatus and method thereof
JP2007072564A (en) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc Multimedia reproduction apparatus, menu operation reception method, and computer program
WO2007029393A1 (en) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. Multimedia reproducing apparatus, menu operation accepting method, and computer program
JP2015158912A (en) * 2006-10-04 2015-09-03 イマージョン コーポレーションImmersion Corporation Haptic effects with proximity sensing
US8593399B2 (en) 2009-02-18 2013-11-26 Kabushiki Kaisha Toshiba Interface apparatus and method for controlling a device
JP2010237766A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, method and program for controlling command execution
JP2010237765A (en) * 2009-03-30 2010-10-21 Toshiba Corp Information processing apparatus, focus movement control method, and focus movement control program
US8644556B2 (en) 2010-10-29 2014-02-04 Sony Corporation Image processing apparatus and method and program
JP2012123617A (en) * 2010-12-08 2012-06-28 Omron Corp Gesture recognition apparatus, gesture recognition method, control program, and recording medium
WO2012147960A1 (en) 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
US9329673B2 (en) 2011-04-28 2016-05-03 Nec Solution Innovators, Ltd. Information processing device, information processing method, and recording medium
JP2015511043A (en) * 2012-03-29 2015-04-13 インテル コーポレイション Creating 3D graphics using gestures
WO2014027674A1 (en) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 Input device, input method, and recording medium
WO2014030442A1 (en) * 2012-08-22 2014-02-27 日本電気株式会社 Input device, input method, program, and electronic sign
JP2014085967A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing device, information processing method, and program
JPWO2016002270A1 (en) * 2014-06-30 2017-04-27 クラリオン株式会社 Non-contact operation detection device

Similar Documents

Publication Publication Date Title
US7046232B2 (en) Information processing apparatus, method of displaying movement recognizable standby state, method of showing recognizable movement, method of displaying movement recognizing process, and program storage medium
CN114764298B (en) Cross-device object dragging method and device
US11669242B2 (en) Screenshot method and electronic device
CN109766066B (en) Message processing method, related device and system
CN110865744B (en) Split-screen display method and electronic equipment
CN112449099B (en) Image processing method, electronic equipment and cloud server
JP5358733B2 (en) System and method for changing touch screen functionality
JP2021100249A (en) Shooting and user interface using night shooting mode processing
CN110032307A (en) A kind of moving method and electronic equipment of application icon
CN116055773A (en) Multi-screen collaboration method, system and electronic equipment
CN109523609B (en) Content editing method and terminal
CN111355998B (en) Video processing method and device
CN112068762A (en) Interface display method, device, equipment and medium of application program
JP2002083302A (en) Information processing device, action recognition processing method, and program storage medium
CN109819168B (en) Camera starting method and mobile terminal
CN111104380A (en) Application file management method and device, mobile terminal and storage medium
CN113746718A (en) Content sharing method, device and system
CN113946302B (en) Method and device for opening file
KR100466855B1 (en) Method and System for Providing User Interface by Using Image Signal for Mobile Communication Terminal Equipped with Camera Function
CN114363678A (en) Screen projection method and equipment
JP4415227B2 (en) Information processing apparatus, information processing method, and recording medium
CN113885973A (en) Translation result display method and device and electronic equipment
CN113934352B (en) Notification message processing method, electronic device and computer-readable storage medium
CN117785340A (en) Card sharing method and device
CN110764852B (en) Screenshot method, terminal and computer readable storage medium