JP7286857B2 - Information processing system, program and information processing method - Google Patents
Information processing system, program and information processing method Download PDFInfo
- Publication number
- JP7286857B2 JP7286857B2 JP2022167754A JP2022167754A JP7286857B2 JP 7286857 B2 JP7286857 B2 JP 7286857B2 JP 2022167754 A JP2022167754 A JP 2022167754A JP 2022167754 A JP2022167754 A JP 2022167754A JP 7286857 B2 JP7286857 B2 JP 7286857B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- motion
- information processing
- finger
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理システム、プログラム及び情報処理方法に関する。 The present invention relates to an information processing system, a program, and an information processing method.
従来、コンピュータやスマートフォン等の情報処理装置(ユーザ端末)を介してアプリ
ケーションを提供する情報処理システムが知られている。例えば近年では、ネットワーク
を介してサーバにアクセス可能なスマートフォンやゲーム端末等のユーザ端末で実行可能
なゲームが提供されている(例えば、特許文献1を参照)。
2. Description of the Related Art Conventionally, information processing systems are known that provide applications via information processing devices (user terminals) such as computers and smartphones. For example, in recent years, games that can be executed on user terminals such as smartphones and game terminals that can access servers via a network have been provided (see, for example, Patent Document 1).
ユーザ端末で実行可能なゲームでは、バーチャルスティックとも称される仮想的な操作
部がゲーム画面に表示され、この操作部が例えばユーザのスワイプ動作によって操作され
ることによって、ユーザが使用するゲーム内のプレイヤ(可動オブジェクト)が制御され
るものが存在している。
In a game that can be executed on a user terminal, a virtual operation unit called a virtual stick is displayed on the game screen. There is something that the player (movable object) is controlled by.
上記のような仮想的な操作部がゲーム画面に表示されるゲームでは、ユーザがゲーム画
面に接触するスワイプ動作によってプレイヤが操作されることから、例えばゲーム画面に
対する奥行き方向のプレイヤの三次元的な動作を実現することができない。したがって、
プレイヤの動作が二次元的な動作に制限されることがあり、操作性に改善の余地がある。
In a game in which a virtual operation unit as described above is displayed on the game screen, the player is operated by a swipe motion in which the user touches the game screen. Action cannot be realized. therefore,
The player's actions are sometimes restricted to two-dimensional actions, leaving room for improvement in operability.
本発明は、上記事情に鑑みてなされたものであり、アプリケーション内の可動オブジェ
クトを操作する際の利便性を向上させることができる情報処理システム、プログラム及び
情報処理方法を提供することを課題とするものである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an information processing system, a program, and an information processing method that can improve convenience when operating a movable object in an application. It is.
上記課題を達成するための本発明は、情報処理端末で実行可能なアプリケーションを提
供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション
内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることことを特徴としている。
To achieve the above object, the present invention provides an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's finger;
a motion control unit that controls the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger detected by the detection unit;
It is characterized by having
これによれば、検出部で検出されるユーザの指の三次元の動作に応じて、アプリケーシ
ョン内の可動オブジェクトが三次元に制御される。よって、ユーザは直感的にアプリケー
ションを操作することができることから、ゲーム等のアプリケーションを操作する際のユ
ーザの利便性が向上する。
According to this, the movable object in the application is three-dimensionally controlled according to the three-dimensional motion of the user's finger detected by the detection unit. Therefore, since the user can intuitively operate the application, the convenience for the user when operating the application such as a game is improved.
この発明によれば、アプリケーション内で可動オブジェクトを操作する際のユーザの利
便性が向上する。
According to the present invention, user convenience is improved when operating a movable object within an application.
次に、図1~図11に基づいて、本発明の実施の形態に係る情報処理システムについて
説明する。
Next, an information processing system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 11. FIG.
図1は、本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック
図である。図示のように、例えば情報処理システム10は、サーバ20及び1以上のユー
ザ端末30(情報処理端末)を備え、これらがインターネット網等のネットワーク100
を介して互いにアクセス可能に接続される。なお、サーバ20の機能をユーザ端末30に
設けることで、ユーザ端末30のみで情報処理システム10を構成してもよい。また、本
例の情報処理システム10はゲーム分野のアプリケーションを提供するシステムであるが
、これに限られず、ゲーム以外の様々な分野のアプリケーションを提供するシステムにも
適用可能である。ゲーム以外の分野としては、例えば、不動産の内部を見学するアプリケ
ーション等とすることができる。当該アプリケーション内の建物内でキャラクタを三次元
に移動させたり、仮想カメラの三次元の動きを制御して、画面に表示される表示画像の視
野(視界)を三次元で制御したりすることができる。
FIG. 1 is a block diagram illustrating the outline of the configuration of an information processing system according to an embodiment of the present invention. As illustrated, for example, the
are accessiblely connected to each other via By providing the functions of the
サーバ20は、本実施の形態では、情報処理システム10でアプリケーション(本例で
はゲーム)を提供する事業者1(システム管理者)に配備され、ユーザ端末30は、事業
者1が提供するアプリケーションを利用するユーザ2に保有される。
In the present embodiment, the
情報処理システム10で事業者1が提供するゲームは、例えば、対戦ゲーム、シューテ
ィングゲーム、パズルゲーム、アクションゲーム、野球ゲーム、サッカーゲーム、その他
スポーツゲーム、クイズゲーム、ピンボールゲーム、カードゲーム、リズムゲーム、RP
G(ロールプレイングゲーム)、位置情報ゲーム、ボードゲーム、アドベンチャーゲーム
、カジノゲーム、シミュレーションゲーム、ストラテジーゲーム、レーシングゲーム又は
これらのうち何れか複数を組み合わせたゲーム等であってよい。
The games provided by the
G (role-playing game), location information game, board game, adventure game, casino game, simulation game, strategy game, racing game, or a combination of any of these may be used.
次に、本実施の形態の情報処理システム10の各部の具体的な構成について説明する。
以下の説明において、「ゲーム」の記載は「アプリケーション」に置きかえ可能である。
Next, a specific configuration of each part of the
In the following description, the description of "game" can be replaced with "application".
サーバ20は、本実施の形態では、デスクトップ型あるいはノート型のコンピュータ(
情報処理装置)によって実装される。
The
information processing device).
図2は、サーバ20の構成の概略を説明するブロック図である。図示のように、サーバ
20は、プロセッサ21、メモリ22、ストレージ23、送受信部24、及び入出力部2
5を備え、これらが互いにバス26を介して電気的に接続される。
FIG. 2 is a block diagram for explaining the outline of the configuration of the
5 which are electrically connected to each other via a
プロセッサ21は、サーバ20の動作を制御し、各要素間におけるデータの送受信の制
御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
The
このプロセッサ21は、本実施の形態では例えばCPU(Central Proce
ssing Unit)であり、後述するストレージ23に格納されてメモリ22に展開
されたアプリケーションプログラムを実行して各処理を行う。
This
It is a switching unit), and executes each process by executing an application program stored in a
メモリ22は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Ha
rd Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える
。
The
y) and other volatile storage devices, and flash memory and HDD (Ha
rd Disc Drive) or other non-volatile storage device.
このメモリ22は、プロセッサ21の作業領域として使用される一方、サーバ20の起
動時に実行されるBIOS(Basic Input/Output System)、
及び各種の設定情報等が格納される。
This
and various setting information and the like are stored.
ストレージ23は、プログラムや各種の処理に用いられる情報等が格納されている。こ
のストレージ23の構成については、後述する。なお、本例ではサーバ20の記憶部が、
メモリ22とストレージ23とで構成されているが、これに限られるものではない。
The
It is composed of a
送受信部24は、サーバ20をネットワーク100に接続する。この送受信部24は、
Bluetooth(登録商標)やBLE(Bluetooth Low Energy
)といった近距離通信インターフェースを具備するものであってもよい。
The transmitter/
Bluetooth (registered trademark) and BLE (Bluetooth Low Energy
) may be provided with a short-range communication interface.
入出力部25は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続さ
れるインターフェースである。
The input/
バス26は、接続したプロセッサ21、メモリ22、ストレージ23、送受信部24及
び入出力部25の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝
達する。
The
図3は、ストレージ23の構成の概略を説明するブロック図である。図示のように、ス
トレージ23は、本実施の形態では、データベース40及び情報処理プログラム41を備
える。
FIG. 3 is a block diagram for explaining the outline of the configuration of the
データベース40は、ストレージ23の提供する記憶領域として実現され、本実施の形
態では、アプリケーション情報の一例としてのゲーム情報D1が格納される。
The
図4は、ゲーム情報D1の構成の概略を説明するブロック図である。図示のように、ゲ
ーム情報D1は、ゲームデータd1a、イベントデータd1b、プレイヤデータd1c及
び報酬データd1dを備える。
FIG. 4 is a block diagram for explaining the outline of the configuration of the game information D1. As illustrated, the game information D1 includes game data d1a, event data d1b, player data d1c, and reward data d1d.
ゲームデータd1aは、本実施の形態では、ゲームに登場するキャラクタやアイテム、
背景画像等、ゲームの種類に応じたゲームの設定に関するデータによって構成され、例え
ば、対戦ゲームである場合は、ステージのIDに関連づけられたステージ名等が含まれる
。
In this embodiment, the game data d1a includes characters and items that appear in the game,
It is composed of data related to game settings according to the type of game, such as a background image.
ゲームデータd1aを構成するキャラクタは、本実施の形態では、ユーザ2がユーザ端
末30を介して操作することによってゲーム内で行動するプレイヤ、プレイヤの仲間とな
るキャラクタ、あるいはプレイヤと対戦する敵のキャラクタ等が含まれる。
In the present embodiment, the characters that make up the game data d1a are the players who act in the game by the operation of the
イベントデータd1bは、本実施の形態では、ユーザ2がプレイヤとして実行するトラ
イアル(例えば敵のキャラクタとの対戦等)が設定された任意のイベントによって構成さ
れ、この種のイベントをクリアすると、ゲーム内で使用されるアイテムやプレイヤのエナ
ジーの回復等といった後述するゲーム内報酬が付与される場合がある。
In the present embodiment, the event data d1b is composed of an arbitrary event in which a trial (for example, a battle with an enemy character, etc.) is set by the
プレイヤデータd1cは、本実施の形態では、プレイヤ名、ユーザ2がプレイヤとして
所有するキャラクタに関するデータ、ユーザ2のプレイヤの動作の設定に関するデータ、
ユーザ2のプレイヤが所有するアイテムに関するデータ、プレイステージに関するデータ
等によって構成される。
In the present embodiment, the player data d1c includes a player name, data relating to a character owned by the
It is composed of data related to items owned by the player of
所有するキャラクタに関するデータは、例えば、キャラクタのIDに関連づけられたレ
ベル、攻撃力、防御力及び体力等の各種のパラメータの現在の値が含まれる。
The data about owned characters includes, for example, the current values of various parameters such as level, attack power, defense power, and physical strength associated with the character's ID.
プレイヤの動作の設定に関するデータは、例えば、ユーザ2の指の三次元の動作のベク
トルとプレイヤの動作のベクトルとを関連づける予め設定された任意の基準が含まれる。
Data relating to the player's motion settings include, for example, arbitrary preset criteria that relate the three-dimensional motion vectors of the user's 2 fingers to the player's motion vectors.
本実施の形態では、例えば、ユーザ2の指がx方向に動いた場合はプレイヤもx方向に
動き、ユーザ2の指がy方向に動いた場合はプレイヤもy方向に動く等といった基準が含
まれる。プレイヤの動作の設定に関するデータは、例えば、指の動作のベクトルの方向と
、可動オブジェクト(プレイヤ)の動作のベクトルの方向との関係を示す情報を含んでも
よい。指の動作のベクトルの方向と、可動オブジェクトの動作のベクトルの方向とを一致
させる場合に加え、所定の演算処理によって角度を補正する場合(例えば、ユーザ2の指
がx方向に動いた場合はプレイヤがy方向に動き、ユーザ2の指がy方向に動いた場合は
プレイヤがz方向に動く等といった場合等)も含むことができる。プレイヤの動作の設定
に関するデータは、例えば、指の動作のベクトルの大きさと、可動オブジェクト(プレイ
ヤ)の動作のベクトルの大きさとの関係を示す情報を含んでもよい。例えば、ユーザ2の
指が基準位置から10mm移動した場合は、可動オブジェクトもアプリケーション内で1
0mm動く、あるいは所定の倍率を乗じた距離だけ動く、といった対応関係の情報を含む
。また、ユーザ2の指の三次元の動作と、アプリケーション内の画面のズームイン動作、
及びズームアウト動作とが関連付けられていてもよい。
In this embodiment, for example, if the finger of
It includes information on correspondence such as movement by 0 mm or movement by a distance multiplied by a predetermined magnification. Also, the three-dimensional motion of the finger of the
and a zoom-out operation may be associated.
所有するアイテムに関するデータは、例えば、アイテムのIDに関連づけられたアイテ
ムの保有数等の値が含まれる。
Data related to owned items includes, for example, values such as the number of owned items associated with item IDs.
プレイステージに関するデータは、設定された複数のステージのうち、ユーザ2がプレ
イヤとしてこれまでにプレイしたことがあるステージに関するデータであり、例えばプレ
イの回数やステージをクリアした際のデータ等が含まれる。
The data about the play stage is data about the stage that the
報酬データd1dは、プレイヤに付与されるゲーム内報酬に関するデータである。 The reward data d1d is data relating to in-game rewards given to the player.
このゲーム内報酬は、本実施の形態では、例えばゲーム内で実行される任意のイベント
の実行、プレイヤが任意のアイテムを取得する際の確率を示すドロップ率の上昇、ゲーム
内でアイテムと交換したりプレイヤのエナジーを回復したりする等の際に費消するゲーム
内ポイント、あるいはゲーム内で実行される機能が制限されている場合にその制限を解除
して機能を実行させる機能実行指令等が含まれる。
In the present embodiment, this in-game reward includes, for example, the execution of an arbitrary event executed in the game, an increase in the drop rate indicating the probability that the player obtains an arbitrary item, and the exchange of items in the game. In-game points that are consumed when recovering the player's energy, etc., or function execution commands, etc. be
図3で示す情報処理プログラム41は、本実施の形態では、ゲーム処理部41a、動作
制御部41b及びインターフェース生成部41cを備える。
The
ゲーム処理部41aは、本実施の形態では、ゲームの進行やキャラクタの制御といった
ゲームの基本的な処理を実行するモジュールであって、本実施の形態では、例えばキャラ
クタ育成処理、イベント処理、機能制限処理あるいは報酬付与処理等を実行する。
In the present embodiment, the
キャラクタ育成処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラ
クタが、ユーザ2によって例えば走らせられたり泳がせられたりといった予め設定された
任意のアクションに基づいて、キャラクタの経験値やエナジーの値を向上させて、キャラ
クタの育成を実行する処理である。
In the character training process, in the present embodiment, a character selected by the
イベント処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタの
行動に応じてイベントを実行する処理であり、機能制限処理は、ゲーム内で実行される機
能の制限及びその制限の解除を実行する処理であり、報酬付与処理は、ユーザ2が使用す
るプレイヤにゲーム内報酬を付与する処理である。
In this embodiment, the event processing is processing for executing an event according to the action of the character selected by the
ゲーム処理部41aは、その他、ゲームの基本的な各種の処理を実行する。
The
図3で示す動作制御部41bは、本実施の形態では、ゲーム内におけるプレイヤの動作
を制御するモジュールである。
The
図5は、動作制御部41bの処理の概略を説明するフローチャートである。まず、ゲー
ムの起動後であってゲームを開始する際に、ユーザ端末30の後述する検出部としての三
次元カメラ(デプスカメラ)でユーザ2の指の位置が検出されると、図示のように、動作
制御部41bは、ステップS1において、検出されたユーザ2の指の位置をプレイヤの動
作を制御する際の基準位置として設定する。
FIG. 5 is a flowchart for explaining the outline of the processing of the
本実施の形態では、例えば、ユーザ2がユーザ端末30の正面側の任意の部位に対して
指をかざすと、三次元カメラがその位置でユーザ2の指の位置を検出し、検出したその位
置を基準位置として設定する。基準位置の設定のタイミングは、初めてアプリケーション
を使う際の初期設定時など、予め設定されたタイミングであってもよいし、画面に表示さ
れる基準位置設定アイコンをユーザ2が選択した際などのユーザ2の操作に基づくタイミ
ングであってもよい。
In the present embodiment, for example, when the
基準位置の設定に続いて、ゲームを開始すると、ステップS2において、ユーザ端末3
0の三次元カメラが検出したユーザ2の指の三次元の動作に応じて生成されてユーザ端末
30から送信される検出信号に基づいて、ユーザ2の指の動作の態様を判別する。三次元
カメラが検出したユーザ2の指の三次元の動作とは、基準位置に対する相対的な三次元の
指の位置、または指の移動方向、移動距離、移動速度、加速度等を意味する。
After setting the reference position, when the game is started, in step S2, the user terminal 3
Based on the detection signal generated according to the three-dimensional motion of the finger of the
本実施の形態では、例えば、ユーザ2が三次元で指をユーザ端末30の上下左右方向に
動かす動作であるのか、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向に
動かす動作であるのか等といったユーザ2の指の動作の態様を判別する。
In the present embodiment, for example, the
ユーザ2の動作の態様を判別すると、ステップS3において、ゲーム内におけるプレイ
ヤの仮想的な三次元の動作を制御する。
Once the mode of action of the
また、ユーザ端末30に表示される画像は、図6、7、8のようにプレイヤの三人称視
点であってもよいし、一人称視点であってもよい。一人称視点は、FPS(First Person Sh
ooter)等の3Dアクションシューティングの分野に適している。また、本システムでは、
三人称視点と一人称視点とを切り替える視点切替部をサーバ20やユーザ端末30が備え
ていてもよい。かかる視点の切り替えは、ゲームの進行状況や場面に応じてサーバ20や
ユーザ端末30側で自動的に切り替えられてもよいし、ユーザ端末30を介したユーザの
要求に応じて切り替えることができるようにしてもよい。一人称視点の場合、アプリケー
ション内の可動オブジェクト(キャラクタ、仮想カメラ等)の動作に応じて、ユーザ端末
30に表示される表示画像の視野が変化する。具体的には、キャラクタが向いている方向
(視線方向)に応じて、仮想的にキャラクタの視点から見える景色が表示される。三人称
視点の場合、図6、7、8に示すように、所定の距離だけ離れた位置からキャラクタを撮
像した画像が画面に表示される。なお、指の三次元の動作に基づいて、ユーザ端末に表示
される画像の視野を直接的に制御するようにしてもよい。換言すれば、指の三次元の動作
に基づいて、アプリケーション内の仮想カメラの撮像範囲(視野)の制御を行うこともで
きる(ズームイン、ズームアウトを含む)。その場合、アプリケーション内の背景画像や
可動オブジェクトをアプリケーション内で仮想的に撮像する仮想カメラの動作が、指の三
次元の動作に基づいて制御され、当該仮想カメラの撮像範囲が、ユーザ端末に表示される
画像となる。
Also, the image displayed on the
ooter) and other 3D action shooting fields. Also, in this system,
The
本実施の形態では、プレイヤデータd1cに含まれるプレイヤの動作の設定に関するデ
ータに基づいて、ユーザ2の指の三次元の動作のベクトルとユーザ2がプレイヤとして選
択したキャラクタCの動作のベクトルとを関連づけて(もしくは一致させて)動作を制御
する。
In the present embodiment, a three-dimensional movement vector of the finger of the
図6は、ゲーム画面のビューが、ユーザ2がプレイヤとして選択したキャラクタCを正
面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
FIG. 6 is a diagram for explaining the outline of the processing of the
図示のように、ユーザ2の指の動作の態様を矢線V1で示す画面上方向に動かす動作あ
るいは矢線V2で示す画面下方向に動かす動作であると判別した場合は、ゲーム画面IF
1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Uで示す上方向
あるいは矢線Dで示す下方向に動くというように、動作を制御する。
As shown in the figure, when it is determined that the motion of the finger of the
A character C displayed in 1 is controlled to move upward as indicated by an arrow U or downward as indicated by an arrow D depending on how the user's finger moves.
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
一方、ユーザ2の指の動作の態様を矢線V3で示す画面左方向に動かす動作あるいは矢
線V4で示す画面右方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示
されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Rで示す右方向あるいは
矢線Lで示す左方向に動くというように、動作を制御する。
On the other hand, if it is determined that the motion of the finger of the
さらに、ユーザ2の指の動作の態様を矢線V5で示すゲーム画面IF1に対する奥行き
方向前方に動かす動作(例えば、指をカメラに近づける動作)あるいは矢線V6で示すゲ
ーム画面IF1に対する奥行き方向後方に動かす動作(例えば、指をカメラから遠ざける
動作)であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ
2の指の動作の態様に応じて矢線Fで示す前進方向あるいは矢線Bで示す後退方向に動く
というように、動作を制御する。
Furthermore, the
図7は、ゲーム画面IF1のビューがキャラクタCを側面から見る設定の場合における
動作制御部41bの処理の概略を説明する図である。
FIG. 7 is a diagram for explaining the outline of the processing of the
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面
下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラ
クタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというよ
うに、動作を制御する。
As shown in the figure, when it is determined that the motion of
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V
4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは
、ユーザ2の指の動作の態様に応じて前進方向Fあるいは後退方向Bに動くというように
、動作を制御する。
On the other hand, if the motion of the finger of the
4, the character C displayed on the game screen IF1 moves in the forward direction F or the backward direction B according to the mode of motion of the finger of the
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に
動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると
判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の
態様に応じて左方向Lに動くあるいは右方向Rに動くというように、動作を制御する。
Furthermore, if the
図8は、ゲーム画面IF1のビューがキャラクタCを上方から見る設定の場合における
動作制御部41bの処理の概略を説明する図である。
FIG. 8 is a diagram for explaining the outline of the processing of the
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面
下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラ
クタCは、ユーザ2の指の動作の態様に応じて後退方向Bあるいは前進方向Fに動くとい
うように、動作を制御する。
As shown in the figure, when it is determined that the motion of
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V
4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは
、ユーザ2の指の動作の態様に応じて右方向Rあるいは左方向Lに動くというように、動
作を制御する。
On the other hand, if the motion of the finger of the
4, the character C displayed on the game screen IF1 is controlled to move in the right direction R or left direction L according to the motion of the finger of the
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に
動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると
判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の
態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
Furthermore, if the
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している
場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり
、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり
、キャラクタCが飛行している場合は下降する動作である。
Note that, in the present embodiment, the upward motion U is, for example, a jump motion when the character C is walking, a rising motion when the character C is flying, and a downward motion. The motion to D is, for example, a crouching motion when the character C is walking, and a descending motion when the character C is flying.
図3で示すインターフェース生成部41cは、ユーザ2の指の三次元の動作の状態を示
す状態表示インターフェースを生成するモジュールである。
The
図9は、状態表示インターフェースの概略を説明する図である。図示のように、状態表
示インターフェースIF2は、x軸、y軸及びz軸からなる仮想的な三次元の領域に配置
される透明(または半透明)な仮想球体Sを備える。
FIG. 9 is a diagram illustrating an overview of the status display interface. As shown, the state display interface IF2 comprises a transparent (or translucent) virtual sphere S arranged in a virtual three-dimensional area consisting of x-, y-, and z-axes.
本実施の形態では、ユーザ2の指の三次元の動作の方向、すなわちプレイヤとして選択
されたキャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから動
作線Mが伸長し、動作線Mと仮想球体Sとが交差する仮想球体Sの球面に動作領域Aが表
示される。
In the present embodiment, the direction of the three-dimensional action of the finger of the
この状態表示インターフェースIF2は、例えばゲーム画面の左下等、ゲーム画面にお
ける任意の部位に表示される。状態表示インターフェースIF2の位置は変更可能であっ
てもよい。その場合、例えば状態表示インターフェースIF2の位置変更を要求するボタ
ン画像等をゲーム画面に表示して起き、ユーザ2は当該位置変更要求ボタンを選択してか
ら、任意の画面の位置をタップ操作等で指定することで、状態表示インターフェースIF
2の位置変更を行えるようにしてもよい。
This state display interface IF2 is displayed at an arbitrary portion on the game screen, such as the lower left corner of the game screen. The position of the status display interface IF2 may be changeable. In that case, for example, a button image or the like requesting a position change of the state display interface IF2 is displayed on the game screen, and the
2 can be changed.
これにより、ユーザ2は自らの指の三次元の動作及びそれに追従するキャラクタの仮想
的な三次元の動作を同時に視認することができることから、ゲームを操作する際の利便性
が向上する。
As a result, the
これらゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備
える情報処理プログラム41での処理に基づいて、本実施の形態では、ユーザ端末30に
おいてゲームが実行される。
A game is executed in the
図1で示すユーザ端末30は、本実施の形態では、携帯型情報端末であるスマートフォ
ンで実装されるが、例えばゲーム専用の端末、タブレット型のコンピュータ、デスクトッ
プ型あるいはノート型のコンピュータによって実装されるものであってもよい。
In this embodiment, the
図10は、ユーザ端末30の構成の概略を説明するブロック図である。図示のように、
ユーザ端末30は、制御部31、ディスプレイ32及び検出部としての三次元カメラ33
を主要構成として備える。検出部は、三次元カメラ33に限定されず、指の三次元の動作
を検出可能な各種センサデバイス等であってもよい。あるいは、ユーザ端末30に設けら
れた単眼カメラの映像を解析して三次元の動作を推測する解析部をサーバ20またはユー
ザ端末30に設けることで、検出部として機能させてもよい。
FIG. 10 is a block diagram for explaining the outline of the configuration of the
The
is provided as the main configuration. The detection unit is not limited to the three-
制御部31は、本実施の形態では、ディスプレイ32や三次元カメラ33等のユーザ端
末30の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信
部等によって構成される。
In this embodiment, the
この制御部31には、本実施の形態では、ゲームアプリケーションあるいはウェブサイ
トを閲覧可能なブラウザが格納され、サーバ20の情報処理プログラム41での処理に基
づいて、ゲームアプリケーションあるいはブラウザを介してユーザ端末30においてゲー
ムが実行される。
In this embodiment, the
ディスプレイ32には、本実施の形態では、図6~図8で示したゲーム画面IF1を含
む、ユーザ端末30で実行されるゲームの画面インターフェースが表示される。
In the present embodiment, the
このディスプレイ32は、表示面への接触によって情報の入力を受け付けるいわゆるタ
ッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される
。なお、本例ではディスプレイ32及び三次元カメラ33が、ユーザ端末においてユーザ
からの入力操作を受け付ける入力部を構成しているが、これに限られない。入力部として
、キーボードやマウスを有していてもよいし、音声による入力操作が可能なマイク等を有
していてもよいし、視線情報を取得するアイトラッキングデバイスを備えていてもよい。
ディスプレイ32は、アプリケーション画像を出力する表示部も構成している。
The
The
三次元カメラ33は、本実施の形態では、ユーザ端末30であるスマートフォンの前面
に搭載されたインカメラであって、物体との距離を検出する近接センサ等の各種のセンサ
を備えて構成され、ユーザ動作情報D2を検出する。
In the present embodiment, the three-
ユーザ動作情報D2は、プレイヤの操作あるいは動作に関して入力される情報であって
、ユーザ2の任意の動作に基づく映像情報である。
The user action information D2 is information that is input regarding the player's operation or action, and is image information based on any action of the
このユーザ動作情報D2は、本実施の形態では、例えば、ユーザ端末30に対してユー
ザ2が三次元で指を上下左右方向に動かす動作、あるいはユーザ2が三次元で指をユーザ
端末30の奥行き方向(前後方向)に動かす動作である。
In the present embodiment, this user action information D2 is, for example, a three-dimensional motion of the
ユーザ動作情報D2がユーザ端末30の三次元カメラ33に検出されると、三次元カメ
ラ33は、ユーザ2の動作の態様に応じた検出信号を生成する。
When the user action information D2 is detected by the three-
次に、本実施の形態に係る情報処理システム10の処理の概略について説明する。
Next, an outline of processing of the
図11は、本実施の形態に係る情報処理システム10の処理の概略を説明するフローチ
ャートである。図示のように、まず、ステップS10において、ユーザ2はゲームを起動
する。
FIG. 11 is a flowchart for explaining the outline of the processing of the
ゲームの起動後、ゲームの開始に際して、ユーザ2が指をユーザ端末30の三次元カメ
ラ33にかざして三次元カメラ33がユーザ2の指の位置を検出すると、ステップS11
において、三次元カメラ33が検出したユーザ2の指の位置を、プレイヤの動作を制御す
る際の基準位置として設定する。より具体的に、任意の1本の指の先端の位置を検出し、
基準位置として設定することが好ましい。なお、指先に限られず、指の特定の関節や任意
の部位を検出するようにしてもよい。
After starting the game, at the start of the game, when the
, the position of the finger of the
It is preferable to set it as a reference position. Note that detection is not limited to fingertips, and specific joints or arbitrary parts of fingers may be detected.
基準位置の設定後、ステップS12において、ユーザ2はゲームを開始する。
After setting the reference position, the
ゲームを開始すると、ステップS13において、ユーザ2の指の三次元の動作に基づい
て、ユーザ2がプレイヤとして選択したキャラクタの仮想的な三次元の動作を制御する。
When the game is started, in step S13, the virtual three-dimensional motion of the character selected as the player by the
本実施の形態では、例えば、ユーザ2が三次元で指をゲーム画面の上下左右方向に動か
す動作あるいはユーザ2が三次元で指をゲーム画面の奥行き方向に動かす動作に応じて、
ユーザ2の指の三次元の動作のベクトルと対応した(もしくは一致した)ベクトルにおい
てキャラクタがゲーム内で仮想的な三次元の動作を行う。ユーザ2の指の三次元の動作の
方向、距離、速度、及び加速度は、ゲーム内でのキャラクタの三次元の動作の方向、距離
、速度、及び加速度にそれぞれ完全に一致していなくてもよく、例えば予め設定された所
定の計算式に基づく補正処理を行うなど、少なくとも対応関係があればよい。
In the present embodiment, for example, in response to a three-dimensional motion of the
The character performs a virtual three-dimensional motion in the game at a vector corresponding (or coinciding with) the three-dimensional motion vector of the finger of the
このように、本システムにあっては、検出部で検出されるユーザの指の三次元の動作に
基づいて、アプリケーション内の可動オブジェクトの三次元の動作が制御される。これに
より、アプリケーションを操作する際のユーザ2の利便性が向上する。具体的に本例では
、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ端末30で検出されるユーザ
2の指の三次元の動作に追従するように制御されることによって、ユーザ2は直感的にゲ
ームを操作することができることから、ゲームを操作する際のユーザ2の利便性が向上す
る。
Thus, in this system, the three-dimensional motion of the movable object in the application is controlled based on the three-dimensional motion of the user's finger detected by the detection unit. This improves convenience for the
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲
で種々の変更が可能である。
The present invention is not limited to the above-described embodiments, and various modifications are possible without departing from the scope of the invention.
上記実施の形態では、ゲーム画面のビュー(表示画像)が、ユーザ2がプレイヤとして
選択したキャラクタCを三人称視点で正面から見る設定の場合、キャラクタCを側面から
見る設定の場合及びキャラクタCを上方から見る設定の場合を説明したが、例えばキャラ
クタCを下方あるいは背面から見る設定等、種々の設定であってもよい。また、ゲーム画
面のビューが、キャラクタCの目から見える景色を示す一人称視点であってもよい。
In the above embodiment, the view (display image) of the game screen is such that the character C selected by the
上記実施の形態では、基準位置の設定後、ユーザ2の指が基準位置にあるときには、仮
想球体Sの中心点Oから動作線Mは伸長せず(動作領域Aが表示されず)、中心点Oに動
作線Mが位置していることを表示する(例えば中心点Oの表示が大きくなったり、明るく
なったり、もしくは暗くなったりする等)などしてもよい。また、その際、キャラクタは
停止した状態としてもよい。また、基準位置から離れた位置でユーザ2が指を停止してい
る場合、基準位置に対するユーザ2の指の位置に応じて、キャラクタが基準位置に対する
指の位置の方向に移動し続けるようにしてもよい。その場合、状態表示インターフェース
IF2は、キャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oか
ら延びる動作線Mと、球面の動作領域Aとが表示され続けるようにしてもよい。
In the above embodiment, after setting the reference position, when the finger of the
上記実施の形態では、ユーザ端末30に搭載された三次元カメラ33でユーザ2の指の
三次元の動作を検出する場合を説明したが、ユーザ端末30に搭載されたモーションセン
サでユーザ2の指の三次元の動作を検出するものであってもよい。
In the above embodiment, the three-
さらに、ユーザ端末30で検出するユーザ2の指の本数は、1本であっても2本であっ
てもそれ以外の任意の数であってもよいし、人差し指、中指あるいは親指等、いずれの指
であってもよい。2本以上の指を検出する場合、2本以上の指が開く動作、閉じる動作、
2本以上の指が共に同一方向に動く動作等を検出し、それぞれの動作に応じて関連付けら
れた動作をアプリケーション内の可動オブジェクトが行うようにしてもよい。その場合、
ユーザの指の三次元の動作と、アプリケーション内の可動オブジェクトとが、関連付けら
れて記憶部に予め記憶される。また、ユーザが、ユーザの指の三次元の動作と、アプリケ
ーション内の可動オブジェクトの動作とを関連付けられるようにしてもよい。すなわち、
サーバ20の制御部は、ユーザ端末30を介したユーザの指示に基づいて、ユーザの指の
三次元の任意の動作と、アプリケーション内の可動オブジェクトの特定の動作とを関連付
けて、記憶部に記憶するようにしてもよい。例えば、サーバ20は、予め記憶部に記憶さ
れたアプリケーション内の可動オブジェクトの複数の動作をユーザ端末30に表示させ、
その中から特定の動作を選択する指示を、ユーザ端末30を介して受け付けるとともに、
当該動作に関連付けたいユーザの指の三次元の動作を、ユーザ端末30を介した入力操作
に基づいて受け付ける。これにより、任意の指の可動オブジェクトの特定の動作に関連付
けて記憶させ、可動オブジェクトの三次元の操作に使用することができる。また、ユーザ
の指の三次元の動作(例えばジェスチャー)と、アプリケーション内の所定の操作(例え
ばメニュー表示やショートカットの作動、音量等の調整操作、ズーム調整(画面の拡大、
縮小)各種機能のON/OFF切替等)とが、関連付けられて記憶部に記憶されるようにして
もよい。このユーザの指の動作と、アプリケーション内の操作との組み合わせは、ユーザ
が設定できるようにしてもよいし、システム管理者側で予め設定しておいてもよい。また
、ユーザ端末で検出するユーザの指や手の動作をトラッキングして、ゲームのコントロー
ラとして使うようにしてもよい。この場合も、ユーザの指や手の動作と、ゲーム内の所定
の動作とが関連付けて記憶されており、例えば、格闘ゲームにおいて、検出した指や手の
動作に追従して、当該動作に関連付けられたパンチを繰り出す動作等が実行されたり、レ
ースゲームにおいて、指や手の動作に追従してゲーム内でハンドルを動かしたりする、と
いった利用が可能となる。なお、ゲームは特に限定されず、例えば所謂ビデオゲームでも
VRゲームでもよい。
Furthermore, the number of fingers of the
A motion in which two or more fingers move in the same direction may be detected, and a movable object in the application may perform a motion associated with each motion. In that case,
A three-dimensional motion of the user's finger and a movable object in the application are associated and pre-stored in the storage unit. A user may also be able to associate three-dimensional movements of the user's fingers with movements of movable objects within the application. i.e.
Based on the user's instruction via the
Receiving an instruction to select a specific action from among them via the
A three-dimensional motion of the user's finger to be associated with the motion is received based on an input operation via the
reduction) ON/OFF switching of various functions, etc.) may be stored in the storage unit in association with each other. The combination of the user's finger motion and the operation within the application may be set by the user, or may be set in advance by the system administrator. Also, the motion of the user's finger or hand detected by the user terminal may be tracked and used as a game controller. In this case as well, motions of the user's fingers and hands are stored in association with predetermined motions in the game. In a racing game, it is possible to move the steering wheel in the game by following the motion of the finger or hand. The game is not particularly limited, and may be, for example, a so-called video game or a VR game.
また、本システムにおいては、検出部が、右手の指か左手の指かを検出するようにして
もよい。その場合、右手の指と左手の指とで異なる動作を設定することができるので、可
動オブジェクトの操作のバリエーションが増大する。また、左右何れか一方の手における
1本以上の指、あるいは両手の指を使った可動オブジェクトの操作が可能となる。
In addition, in this system, the detection unit may detect whether the finger is the finger of the right hand or the finger of the left hand. In that case, different actions can be set for the fingers of the right hand and the fingers of the left hand, increasing the variation in the manipulation of the movable object. In addition, it is possible to operate the movable object using one or more fingers on either the left or right hand or fingers on both hands.
本発明は、以下の構成を備える。
(項目1)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション
内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることを特徴とする情報処理システム。
(項目2)
前記検出部は、三次元カメラを備えることを特徴とする項目1に記載の情報処理システ
ム。
(項目3)
前記動作制御部は、所定のタイミングにおいて前記検出部で検出された前記ユーザの指
の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定することを特
徴とする項目1又は2に記載の情報処理システム。
(項目4)
前記基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インター
フェースを生成するインターフェース生成部、
を備えることを特徴とする項目3に記載の情報処理システム。
(項目5)
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記アプリケーション内の前記可動オブジ
ェクトの動作のベクトルとを関連づけることを特徴とする項目1~4のいずれか1項に記
載の情報処理システム。
(項目6)
前記動作制御部は、
アプリケーション画面に表示される前記可動オブジェクトの向きの設定に応じて、前記
ユーザの指の動作方向と前記アプリケーション内の前記可動オブジェクトの動作の方向と
を関連づけることを特徴とする項目1~5のいずれか1項に記載の情報処理システム。
(項目7)
前記動作制御部は、
前記可動オブジェクトの三次元の動作に基づいて、前記アプリケーション内における表
示画像の視野を制御することを特徴とする項目1~6のいずれか1項に記載の情報処理シ
ステム。
(項目8)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出処理と、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
(項目9)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出ステップと、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェ
クトの三次元の動作を制御する動作制御ステップと、
を含むことを特徴とする情報処理方法。
The present invention has the following configurations.
(Item 1)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's finger;
a motion control unit that controls the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger detected by the detection unit;
An information processing system comprising:
(Item 2)
The information processing system according to
(Item 3)
(Item 4)
an interface generation unit that generates a state display interface indicating a three-dimensional position of the user's finger relative to the reference position;
The information processing system according to item 3, characterized by comprising:
(Item 5)
The operation control unit is
5. The information processing system according to any one of
(Item 6)
The operation control unit is
6. Any one of
(Item 7)
The operation control unit is
7. The information processing system according to any one of
(Item 8)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection process for detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control process for controlling the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
A program characterized by causing a computer to execute
(Item 9)
In an information processing system that provides an application that can be executed on an information processing terminal,
a detection step of detecting a three-dimensional motion of a user's finger with a detection unit;
a motion control step of controlling the three-dimensional motion of a movable object within the application based on the three-dimensional motion of the user's finger;
An information processing method comprising:
1 事業者
2 ユーザ
10 情報処理システム
20 サーバ
30 ユーザ端末
33 検知センサ
40 データベース
41 情報処理プログラム(プログラム)
41b 動作制御部
41c インターフェース生成部
D2 ユーザ動作情報
IF2 状態表示インターフェース
1
41b
Claims (6)
ユーザの手の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの手の三次元の動作に基づいて、前記アプリケーション内での仮想カメラの撮像範囲の制御を行う動作制御部と、
を備え、
前記仮想カメラの撮像範囲が、前記情報処理端末に表示される画像となることを特徴とする情報処理システム。 In an information processing system that provides an application that can be executed on an information processing terminal,
a detection unit that detects a three-dimensional motion of a user's hand;
a motion control unit that controls an imaging range of a virtual camera within the application based on a three-dimensional motion of a user's hand detected by the detection unit;
with
An information processing system , wherein an imaging range of the virtual camera is an image displayed on the information processing terminal .
前記動作制御部は、前記ユーザの指の三次元の動作に基づいて、前記仮想カメラの三次元の動作を制御することを特徴とする請求項1に記載の情報処理システム。 The detection unit is capable of detecting a three-dimensional motion of one or more fingers of the user,
2. The information processing system according to claim 1, wherein the motion control unit controls the three-dimensional motion of the virtual camera based on the three-dimensional motion of the user's finger.
前記動作制御部は、前記ユーザの手が右手か左手かに基づいて、前記仮想カメラの三次元の動作を制御することを特徴とする請求項1又は2に記載の情報処理システム。 The detection unit is capable of detecting whether the user's hand is a right hand or a left hand,
3. The information processing system according to claim 1, wherein the motion control unit controls the three-dimensional motion of the virtual camera based on whether the user's hand is right handed or left handed.
前記動作制御部は、前記ユーザの両手の動作に基づいて、前記仮想カメラの三次元の動作を制御することを特徴とする請求項1~3の何れかに記載の情報処理システム。 The detection unit is capable of detecting motions of both hands of the user,
4. The information processing system according to claim 1, wherein the motion control unit controls the three-dimensional motion of the virtual camera based on motions of both hands of the user.
検出部でユーザの手の三次元の動作を検出する検出処理と、
前記ユーザの手の三次元の動作に基づいて、前記アプリケーション内での仮想カメラの撮像範囲の制御を行う処理と、
をコンピュータに実行させ、
前記仮想カメラの撮像範囲が、前記情報処理端末に表示される画像となることを特徴とするプログラム。 In an information processing system that provides an application that can be executed on an information processing terminal,
A detection process for detecting a three-dimensional motion of a user's hand with a detection unit;
a process of controlling an imaging range of a virtual camera within the application based on the three-dimensional motion of the user's hand;
on the computer , and
A program , wherein an imaging range of the virtual camera is an image displayed on the information processing terminal .
検出部でユーザの手の三次元の動作を検出する検出ステップと、
前記ユーザの手の三次元の動作に基づいて、前記アプリケーション内での仮想カメラの撮像範囲の制御を行うステップと、
を含み、
前記仮想カメラの撮像範囲が、前記情報処理端末に表示される画像となることを特徴とする情報処理方法。 In an information processing system that provides an application that can be executed on an information processing terminal,
a detection step of detecting a three-dimensional motion of a user's hand with a detection unit;
controlling the imaging range of a virtual camera within the application based on the three-dimensional motion of the user's hand;
including _
An information processing method , wherein an imaging range of the virtual camera is an image displayed on the information processing terminal .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022167754A JP7286857B2 (en) | 2021-07-20 | 2022-10-19 | Information processing system, program and information processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021119379A JP7052128B1 (en) | 2021-07-20 | 2021-07-20 | Information processing system, program and information processing method |
JP2022055133A JP2023015979A (en) | 2021-07-20 | 2022-03-30 | Information processing system, program, and information processing method |
JP2022167754A JP7286857B2 (en) | 2021-07-20 | 2022-10-19 | Information processing system, program and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022055133A Division JP2023015979A (en) | 2021-07-20 | 2022-03-30 | Information processing system, program, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023016047A JP2023016047A (en) | 2023-02-01 |
JP7286857B2 true JP7286857B2 (en) | 2023-06-05 |
Family
ID=87888208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022167754A Active JP7286857B2 (en) | 2021-07-20 | 2022-10-19 | Information processing system, program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7286857B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288156A (en) | 2002-03-28 | 2003-10-10 | Minolta Co Ltd | Input device |
JP2010526391A (en) | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
JP2012203737A (en) | 2011-03-25 | 2012-10-22 | Kyocera Corp | Electronic device, control method and control program |
JP2013069273A (en) | 2011-09-07 | 2013-04-18 | Nitto Denko Corp | Motion detection method of input body and input device using the same |
JP2013218379A (en) | 2012-04-04 | 2013-10-24 | Sharp Corp | Display device and program |
JP2014115876A (en) | 2012-12-11 | 2014-06-26 | Mitsubishi Electric Corp | Remote operation method of terminal to be operated using three-dimentional touch panel |
JP2015210684A (en) | 2014-04-25 | 2015-11-24 | 富士通株式会社 | Input controller, control method and control program |
JP2017211884A (en) | 2016-05-26 | 2017-11-30 | トヨタ紡織株式会社 | Motion detection system |
-
2022
- 2022-10-19 JP JP2022167754A patent/JP7286857B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288156A (en) | 2002-03-28 | 2003-10-10 | Minolta Co Ltd | Input device |
JP2010526391A (en) | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
JP2012203737A (en) | 2011-03-25 | 2012-10-22 | Kyocera Corp | Electronic device, control method and control program |
JP2013069273A (en) | 2011-09-07 | 2013-04-18 | Nitto Denko Corp | Motion detection method of input body and input device using the same |
JP2013218379A (en) | 2012-04-04 | 2013-10-24 | Sharp Corp | Display device and program |
JP2014115876A (en) | 2012-12-11 | 2014-06-26 | Mitsubishi Electric Corp | Remote operation method of terminal to be operated using three-dimentional touch panel |
JP2015210684A (en) | 2014-04-25 | 2015-11-24 | 富士通株式会社 | Input controller, control method and control program |
JP2017211884A (en) | 2016-05-26 | 2017-11-30 | トヨタ紡織株式会社 | Motion detection system |
Also Published As
Publication number | Publication date |
---|---|
JP2023016047A (en) | 2023-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10821360B2 (en) | Data processing method and mobile terminal | |
CN110545889B (en) | Game system, game control device, and program | |
US9545566B2 (en) | Game device, game system, game control method, and information storage medium | |
CN115427122A (en) | Virtual console game controller | |
JP6450875B1 (en) | GAME PROGRAM, GAME METHOD, AND INFORMATION PROCESSING DEVICE | |
CN116328317A (en) | Application processing system, application processing method, and application processing program | |
CN112402971B (en) | Virtual object control method, device, computer equipment and storage medium | |
WO2019207898A1 (en) | Game control device, game system, and program | |
CN115193064A (en) | Virtual object control method and device, storage medium and computer equipment | |
JP6672401B2 (en) | Game program, method, and information processing device | |
JP7286857B2 (en) | Information processing system, program and information processing method | |
JP7286856B2 (en) | Information processing system, program and information processing method | |
JP7163526B1 (en) | Information processing system, program and information processing method | |
WO2023002907A1 (en) | Information processing system, program, and information processing method | |
CN115999153A (en) | Virtual character control method and device, storage medium and terminal equipment | |
JP2023015979A (en) | Information processing system, program, and information processing method | |
WO2022130681A1 (en) | Game system, program, and information processing method | |
JP2020110603A (en) | Game program, method, and information processing unit | |
JP2020061162A (en) | System for screen operation by interlocking head-mounted display with controller, program, and method | |
JP2019103815A (en) | Game program, method and information processing apparatus | |
JP2019080928A (en) | Game system, game control device, and program | |
JP7337732B2 (en) | program | |
JP6668425B2 (en) | Game program, method, and information processing device | |
CN116850594A (en) | Game interaction method, game interaction device, computer equipment and computer readable storage medium | |
CN117482523A (en) | Game interaction method, game interaction device, computer equipment and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286857 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |