JP2016009473A - Terminal device - Google Patents
Terminal device Download PDFInfo
- Publication number
- JP2016009473A JP2016009473A JP2014131850A JP2014131850A JP2016009473A JP 2016009473 A JP2016009473 A JP 2016009473A JP 2014131850 A JP2014131850 A JP 2014131850A JP 2014131850 A JP2014131850 A JP 2014131850A JP 2016009473 A JP2016009473 A JP 2016009473A
- Authority
- JP
- Japan
- Prior art keywords
- display
- pseudo
- indicator
- operation key
- pseudo operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 29
- 230000015654 memory Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 17
- 210000003811 finger Anatomy 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000004936 left thumb Anatomy 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、表示部に表示された疑似操作キーを、タッチパネルを介して操作することが可能な端末装置に関する。 The present invention relates to a terminal device capable of operating a pseudo operation key displayed on a display unit via a touch panel.
従来より、スマートフォンに代表されるように、液晶ディスプレイなどの表示部とそれを被覆するように設けられたタッチパネルを備える端末装置において、ゲームに用いられるような十字キーなど疑似操作キーをディスプレイ上に表示して、同じくディスプレイに表示された他のキャラクタの表示を制御することが可能な端末装置が知られている。 Conventionally, as represented by a smartphone, in a terminal device including a display unit such as a liquid crystal display and a touch panel provided so as to cover it, pseudo operation keys such as a cross key used in a game are displayed on the display. There is known a terminal device that can display and control the display of other characters that are also displayed on the display.
例えば、特許文献1には、ディスプレイ上に表示されたキャラクタの移動方向を指令する操作ボタンを表示し、その操作ボタンに対応するタッチパネル上の任意の位置をユーザが指で接触すると、その位置に対応するコマンドを発生させてキャラクタの移動方向を制御することが記載されている。 For example, in Patent Document 1, an operation button for instructing a moving direction of a character displayed on a display is displayed, and when a user touches an arbitrary position on the touch panel corresponding to the operation button with a finger, the position is displayed. It is described that a corresponding command is generated to control the moving direction of the character.
しかし、従来の端末装置においては、疑似操作キーの表示位置が一旦決められると、その操作の間、疑似操作キーの表示位置は固定されており、必ずしも使い勝手の良いものではなかった。例えば、端末装置上でゲームプログラムを実行していると、ユーザが継続的にその疑似的に表示された十字キー上に左手親指を接触させていたとしても、キャラクタの移動などのゲームの進行に集中するがために、いつの間にか十字キー上から指が移動してしまいキャラクタの移動が意図せず停止してしまうことがあった。 However, in the conventional terminal device, once the display position of the pseudo operation key is determined, the display position of the pseudo operation key is fixed during the operation, which is not always easy to use. For example, when a game program is executed on a terminal device, even if the user continuously touches the left thumb with the pseudo-displayed cross key, the game progresses such as character movement. Due to the concentration, the finger moved from the cross key and the movement of the character stopped unintentionally.
そこで、本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。 Therefore, according to various embodiments of the present invention, a terminal device that can be operated with a pseudo operation key that is more convenient to use is provided.
本発明の一実施形態に係る端末装置は、疑似操作キーを表示する表示部と、前記疑似操作キーへの指示体による接触を検出するタッチパネルと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。 A terminal device according to an embodiment of the present invention includes a display unit that displays a pseudo operation key, a touch panel that detects contact with the pseudo operation key by an indicator, and the indicator detected via the touch panel. A control unit that determines whether or not a drag operation by the indicator is performed based on contact of the pseudo operation key, and controls a display position of the pseudo operation key. When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the display position of the pseudo operation key is changed according to the contact position of the indicator. is there.
本発明の一実施形態に係るプログラムは、コンピュータを、表示部に疑似操作キーを表示し、端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。 A program according to an embodiment of the present invention displays a pseudo operation key on a display unit of a computer, and the indicator based on contact of the pseudo operation key by an indicator detected via a touch panel included in a terminal device. Is a program that determines whether a drag operation is performed and functions as a control unit that controls the display position of the pseudo operation key, wherein the control unit determines the contact position of the indicator by the drag operation. When the display area of the pseudo operation key is exceeded, the display position of the pseudo operation key is changed according to the contact position of the indicator.
本発明の一実施形態に係る表示制御方法は、表示部に擬似操作キーを表示するステップと、タッチパネルを介して前記表示部への指示体の接触を検出するステップと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更されることを特徴とするものである。 A display control method according to an embodiment of the present invention includes a step of displaying a pseudo operation key on a display unit, a step of detecting contact of an indicator with the display unit via a touch panel, and a detection via the touch panel. Determining whether a drag operation by the indicator is performed based on the touch of the pseudo operation key by the indicator, and controlling the display position of the pseudo operation key. In the display control method, when the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the display position of the pseudo operation key is changed according to the contact position of the indicator. It is characterized by.
本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。 According to various embodiments of the present invention, a terminal device that can be operated with a pseudo-operation key that is more convenient to use is provided.
添付図面を参照して本発明の実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。 Embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the same referential mark is attached | subjected to the common component in drawing.
<本発明の一実施形態の概要>
以下、本発明の一実施形態に係る端末装置として、本実施形態に係るプログラムを実行可能なタッチパネルを有する端末装置100(携帯電話、スマートフォン、携帯型ゲーム機、携帯情報端末、PDA、無線コントローラー端末、デスクトップパソコン、ラップトップパソコン、ゲームセンター等に設置されるようなアーケードゲーム用端末など)を例にとって具体的に説明する。
<Outline of One Embodiment of the Present Invention>
Hereinafter, as a terminal device according to an embodiment of the present invention, a
図1は、本発明の一実施形態に係る端末装置100のユーザの使用状態を示す図である。図1を参照すると、ユーザは端末装置100を横長方向に用い、その両端を左手及び右手でそれぞれ把持する。そして、本実施形態に係るプログラムが制御部110によって実行されると、表示部113に、いわゆるジョイスティックを疑似的に模した疑似ジョイスティック131や、可動オブジェクト132が表示される。そして、タッチパネルを介し、例えば左手の親指で疑似ジョイスティック131を操作して、表示された可動オブジェクト132の移動を制御する。また、タッチパネルを介し、右手の親指で疑似操作ボタンA133及び/又は疑似操作ボタンB134を操作して、可動オブジェクト132が保持する武器の表示を制御する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。
FIG. 1 is a diagram illustrating a usage state of a user of a
なお、本実施形態において、指示体として指を利用し、当該指の接触をタッチパネルで検出する例を記載するが、指示体としては指に限定されない。採用するタッチパネルの方式に応じて、スタイラスペンなど、各方式に適した公知の指示体を用いることが可能である。 In the present embodiment, an example is described in which a finger is used as an indicator and contact of the finger is detected by a touch panel, but the indicator is not limited to a finger. A known indicator suitable for each method, such as a stylus pen, can be used depending on the method of the touch panel employed.
また、本実施形態に係るプログラムは、一例としては、ゲームプログラムが挙げられるが、それに限定はされない。図1に記載するような疑似操作キーによる操作が必要とするプログラムであれば、いずれでもよい。このようなプログラムは、あらかじめ端末装置100のメモリ部114に記憶されているが、通信処理部111を介して外部のサーバー装置(図示しない)から受信することも可能である。また、当該プログラムを所定のカートリッジに記憶しておき、そのカートリッジとコネクタ124を介して端末装置100を接続し、制御部110は、そのカートリッジから当該プログラムを読みだすことも可能である。また、いわゆるネイティブアプリと呼ばれるプログラムのように、当該プログラムがサーバー装置に記憶され、端末装置100にダウンロードして実行することも可能である。
An example of the program according to the present embodiment is a game program, but is not limited thereto. Any program may be used as long as it requires an operation with a pseudo operation key as shown in FIG. Such a program is stored in advance in the
さらに、本実施形態においては、当該プログラムの実行を端末装置100制御部110において実行する場合について説明するが、いわゆるwebアプリと呼ばれるプログラムのように、外部のサーバー装置内に当該プログラムを記憶し、プログラムの進行に応じて端末装置100から送信された指示・コマンドに応じてサーバー装置内に当該プログラムにより処理を実行し、その結果を端末装置100に送信することで、本実施形態に係る表示を実現することも可能である。
Furthermore, in this embodiment, although the case where the execution of the said program is performed in the
図2は、本発明の一実施形態に係る端末装置の表示部に表示される画面の例であって、ユーザが疑似ジョイスティック131を操作している状態を示す図である。端末装置100の表示部113には、疑似操作キーとして機能する疑似ジョイスティック131が、あらかじめ決められた定位置に表示されている。疑似ジョイスティック131は、基準位置C0を中心とする円で形成されている。また、上記表示部113には、ユーザが指を接触した表示部113上の位置を明示的に把握するために、ユーザの指の接触位置C1を中心とする円で形成された操作オブジェクト135を表示している。
FIG. 2 is an example of a screen displayed on the display unit of the terminal device according to the embodiment of the present invention, and shows a state where the user is operating the
ここで、本実施形態においては、表示される疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにし、例えば可動オブジェクト132に表示が重畳した場合であっても可動オブジェクト132が視認可能にする。
Here, in the present embodiment, the displayed
図2においては、ユーザが疑似ジョイスティック131上の任意の位置に指で接触した後、任意の方向に指をドラッグさせて接触位置C1の位置まで移動させた状態を示している。そして、基準位置C0の座標値と接触位置C1の座標値とから基準位置C0から見た接触位置C1の方向A0と両位置間の距離D0を決定する。そして、決定された方向A0と距離D0に基づいて、可動オブジェクト132の表示位置の移動方向Ax及び移動距離Dxを決定する。その結果、可動オブジェクト132は、当初表示されていた位置(図中、破線で示した可動オブジェクト132の位置)から決定された方向Axに距離Dxだけ移動して表示される。
FIG. 2 shows a state in which the user touches an arbitrary position on the
なお、本実施形態では、上記のとおり疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにしているが、必ずしも、疑似ジョイスティック131及び操作オブジェクト135は常に表示されている必要はない。特に図示はしないが、一例としてはタッチパネル116に指示体が接触した時に初めてそれらが表示されるようにしてもよい。また、疑似ジョイスティック131及び操作オブジェクト135に対応する領域をタッチパネルの対応する位置に仮想的に設け、表示部113にはこれらを明示的に表示しないようにすることも可能である。
In the present embodiment, the
<端末装置>
図3は、本発明の一実施形態に係る端末装置100の構成を示すブロック図である。なお、本実施形態に係る端末装置100は、図3に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能である。
<Terminal device>
FIG. 3 is a block diagram illustrating a configuration of the
図3を参照すると、本発明の一実施形態に係る端末装置100は、制御部110、アンテナ112に接続された無線通信処理部111、表示部113、メモリ部114、タッチパネル116及びハードキー117を含む操作部115、スピーカー119及びマイクロフォン120に接続された音声処理部118、加速度センサ122やGPSセンサ123を含む検出部121、コネクタ124、カメラ126と接続された画像処理部125を含む。これらの各要素が制御ラインおよびデータラインを介して互いに電気的に接続されている。
Referring to FIG. 3, the
制御部110は、CPU(マイクロコンピュータ:マイコン)から構成され、タッチパネル116への接触により入力される座標情報に基づいて、メモリ部114に記憶された各画像情報の表示部113への表示を制御する。また、制御部110は、メモリ部114に記憶された本実施形態に係るプログラムを当該メモリ部114から読みだして、本実施形態に係るアプリケーションの進行を制御する。すなわち、制御部110は、メモリ部114に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する。
The
制御部110は、単一のCPUで構成されても良いが、複数のCPUで構成しても良い。また、画像処理、すなわち表示部113に対する表示制御に特化したGPUを別途設けても良い。
The
通信処理部111は、接続された無線通信アンテナ112を介して、メモリ部114に記憶された情報を遠隔に設置された他の端末に送信するため、又は他の端末から送信されて来た情報を受信するために、変調や復調などの各種処理を行うものである。例えば、本実施形態に係るプログラムをサーバー装置から受信するような場合には、通信処理部111は、本実施形態に係るプログラムを処理の進行に応じて随時、または実行開始時にまとめてサーバー装置等から受信するのを制御する。また、当該プログラムの実行による各種処理又は結果をサーバー装置に送信するのを制御する。
The
この通信処理部111は、W−CDMA(Wideband−Code Division Multiple Access)方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。
The
表示部113は、例えばメモリ部114に記憶された画像情報に基づいて所定のプログラムを実行する制御部によって指示された可動オブジェクトや疑似ジョイスティックなどの疑似操作キー等を表示する。一例としては、液晶ディスプレイから構成される。なお、本実施形態に係る端末装置は単一の表示部を備えるものであるが、2つ以上の表示部を備えるものであっても良い。
The
メモリ部114は、ROM、RAM、不揮発性メモリ等から構成される。ROMは、例えば本実施形態に係るプロググラムを記憶するメモリである。制御部110は、このプログラムをロードすることにより各種処理を実行する。RAMは、ROMに記憶されたプログラムを実行することにより生成される各種命令が制御部110により処理されている間、データの書き込み及び読み込みをするために用いられるメモリである。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。
The
操作部115は、タッチパネル116やハードキー117等から構成され、ユーザからの各種指示を受け付ける。
The
タッチパネル116は、表示部113を被覆するように配置され、表示部113の表示する画像データに対応する位置座標のデータを制御部110に出力するものである。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。また、その利用する方式に応じて、指やスタイラスペンなど公知の指示体によるタッチパネルへの接触を検出する。
The
ハードキー117は、物理的にスイッチを押下することにより信号のオン・オフを制御するもので、電源キーや音量キーなどから構成される。これらのハードキー117は、端末装置の電源のオン/オフや、プログラム実行中のバックミュージックの音量などを制御する。また、疑似操作キーに加えて、ゲームに用いる各機能キーを設置することも可能である。
The
検出部121は、加速度センサ122やGPSセンサ123から構成される。加速度センサは、端末装置100の3軸方向の加速度を検出して、例えば端末装置100の回転を検出する。
The
コネクタ124は、例えば本実施形態に係るプログラムが記憶されたカートリッジや記憶媒体を挿入して、制御部114により読み出しや書き込みを仲介する。また、例えば液晶テレビなどの外部表示装置などへ画像情報を出力するための端子部をも含みうる。
For example, the
音声処理部118は、マイクロフォン120から入力された音声情報をメモリ部114に記憶するため符号化する。また、音声制御部118は、メモリ部114に記憶されたバックミュージックなどの音声情報を復号化してスピーカー119から出力する。
The
画像処理部125は、カメラ126に接続され、カメラ126において撮像された画像を保存に適したデータ形式に変換して、メモリ部114に保存する。
The
<疑似ジョイスティックへの操作の概要>
図4は、疑似ジョイスティック131における基準位置からみた接触位置の方向及び距離の決定方法を説明する図である。
<Outline of operation to pseudo joystick>
FIG. 4 is a diagram for explaining a method for determining the direction and distance of the contact position as viewed from the reference position in the
図4は、表示部113に表示された疑似ジョイスティック131と指示体の接触位置との関係が示されている。まず、疑似ジョイスティック131は、地点C0を中心とした円で形成されている。この疑似ジョイスティック131の最初の表示位置は、予め表示部113上の任意の座標位置に決められており、当該プログラムの実行と共にその座標位置に疑似ジョイスティック131を示す円が表示される。なお、この表示部座標系は、タッチパネル座標系と一致するように対応付けられている。
FIG. 4 shows the relationship between the
本実施形態においては、基準位置とは、指示体によるタッチパネル上の接触位置の方向及び距離を決定する際の基準となるものであって、疑似ジョイスティック131を形成する円の中心(地点C0)である。なお、この基準位置は、上記のとおり接触位置の方向及び距離を決定する際の基準となればよく、例えば疑似操作キーが円で形成されていないような場合には必ずしもその操作キーの中心(重心)である必要はない。基準となればよいので、予め決められた任意の位置であってよい。 In the present embodiment, the reference position is a reference for determining the direction and distance of the contact position on the touch panel by the indicator, and is the center of the circle forming the pseudo joystick 131 (point C0). is there. The reference position only needs to be a reference for determining the direction and distance of the contact position as described above. For example, when the pseudo operation key is not formed in a circle, the center of the operation key ( It does not have to be the center of gravity. Since it only needs to be a reference, it may be an arbitrary position determined in advance.
ユーザが、表示部113上に予め表示された疑似ジョイスティック131内の任意の位置に自身の指を接触させて、疑似ジョイスティック131内を任意の方向にドラッグし、接触位置を移動させる。すると、タッチパネル116がその移動中又は移動後の接触位置の位置座標を検出して、その位置座標を制御部110にレポートする。図4においては、接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)が、ドラッグ操作途中又はドラッグ操作後の指の接触位置として制御部110にレポートされる。
The user touches an arbitrary position in the
制御部110は、あらかじめ決められた基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さを決定する。なお、上記角度は基準位置C0から見た各接触位置C2及びC3の方向を意味する。また、長さは、基準位置C0と各接触位置C2及びC3との間の距離を意味する。
The
これらの角度(方向)及び長さ(距離)は公知の方法で決定することが可能である。一例としては、下記のとおりである。線分A2を例にすると、まず角度(方向)は、基準位置C0を原点とする仮想的なXY座標においてX軸に対して線分A2のなす角度θ2及び線分A2の長さL2を以下の数式(数1)より算出する。
メモリ部114には、基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さ、すなわち、基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離と、可動オブジェクト132の移動方向と移動量のとの対応関係を示すテーブルが記憶されている。制御部110は、そのテーブルを参照して、決定された基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離から、可動オブジェクト132の移動方向と移動量を決定し、それに応じた可動オブジェクトの表示制御を行う。
The
なお、上記の例ではテーブルを用いたが、所定の関係式を記憶しておき、それに基づいて可動オブジェクトの移動量及び移動量を決定してもよいし、その決定方法は公知のいかなる方法も利用することができる。また、可動オブジェクトの移動量としては、一例としては、移動する際の速度であっても良いし、移動する距離であっても良く、適宜選択することが可能である。 In the above example, a table is used. However, a predetermined relational expression may be stored, and the movement amount and movement amount of the movable object may be determined based on the stored relational expression. Can be used. The moving amount of the movable object may be, for example, a moving speed or a moving distance, and can be selected as appropriate.
図5は、疑似ジョイスティック131の表示制御の方法を説明する図である。まず、本実施形態に係る擬似ジョイスティック131には、疑似ジョイスティック131の表示領域に対応して、あらかじめ操作検出領域136がタッチパネル116上に定められている。この操作検出領域136は、この領域内に対して指示体による接触操作が行われた場合には、擬似ジョイスティック131への操作として制御部が認識するための領域である。
FIG. 5 is a diagram for explaining a display control method of the
図5(a)を参照すると、円で形成された擬似ジョイスティック131の表示領域と同一の領域を操作検出領域136として設定した場合が示されている。擬似ジョイスティック131の表示領域と操作検出領域136は完全に対応した同一の領域である。接触位置C1は、ユーザが指示体を操作して擬似ジョイスティック131上をドラッグ操作して指示体の移動してきた位置を示している。そしてユーザが指示体を操作してさらに擬似ジョイスティック131の中心である基準位置C0から遠ざかる方向にドラッグすると、指示体の接触位置C1は擬似ジョイスティック131の表示領域、すなわち操作検出領域136を越える。
Referring to FIG. 5A, a case where the same area as the display area of the
制御部110は、その時、擬似ジョイスティック131の表示位置を、越えた指示体の接触位置C1の位置に応じて変更するように制御する。すなわち、制御部110は、擬似ジョイスティック131の指示体の移動方向に追従して表示されるように制御する。一例としては、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を所定距離D1だけ越えたときに擬似ジョイスティック131の表示位置の移動を開始する。そして指示体の接触位置であるC1−1と疑似ジョイスティック131の表示領域との外縁との距離を、距離D1に維持するように、疑似ジョイスティック131の追従表示制御を行う。言い換えると、制御部110は、指示体によるドラッグ操作によって、その接触位置が疑似ジョイスティック131の表示領域を越えた時に、指示体の接触位置であって操作オブジェクト135を形成する円の中心である位置C1−1が疑似ジョイスティック131の表示領域、つまりは、疑似ジョイスティック131を形成する円の外側に位置するように表示を制御する。
At that time, the
このように追従表示するまでの距離D1を設けることで、疑似ジョイスティック131の表示領域そのものを動かしているのではなく、あとからついてくるような感覚をユーザに提供することが可能となる。
By providing the distance D1 until the follow-up display is performed in this way, it is possible to provide the user with a feeling that does not move the display area itself of the
なお、上記の場合、指示体の接触位置は実際にはC1−1にある。このような場合は、基準位置C0と指示体との接触位置に基づいて決定する線分A1の角度と長さは、基準位置C0と接触位置C1−1とを結ぶ線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置C0とに基づいて決定される。
In the above case, the contact position of the indicator is actually C1-1. In such a case, the angle and the length of the line segment A1 determined based on the contact position between the reference position C0 and the indicator are such that the line segment connecting the reference position C0 and the contact position C1-1 is the
図5(b)、(c)は、擬似ジョイスティック131の表示制御の他の例を示す。図5(b)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも若干広い領域があらかじめ設定されている。このような場合は、仮に指示体の接触位置が不用意にジョイスティック131の表示領域の外になってしまった場合でも、擬似ジョイスティック131への操作であると認識しうる。また、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を越えてもすぐにはその表示を追従させる制御は行わず、操作検出領域136を越えて初めて疑似ジョイスティック131の表示位置を指示体の接触位置C1に応じて変更する追従表示制御を開始する。ユーザが指示体で操作キーに接触をするときに、狙った位置の多少のずれも吸収することができるので、よりユーザの操作性が向上する。また、図5(a)の場合と同様に、追従表示するまでの「遊び」の時間、距離を設けることで、ドラッグ操作を開始して以降のユーザの操作性がより向上する。
5B and 5C show other examples of display control of the
図5(c)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも狭い領域があらかじめ設定されている。このような場合は、制御部110は、指示体のドラッグ操作の結果、操作検出領域136を越えた段階で擬似ジョイスティック131の追従表示を開始する。つまり、指示体の接触位置は、まだ、擬似ジョイスティック131の表示領域上にあるにもかかわらず、追従表示が開始される。このようにすることで、ユーザによる指示体の接触位置は擬似ジョイスティックの表示領域から外れることはないので、常に接触しているような確かな感覚を得ることができる。
According to FIG. 5C, the
なお、このような接触位置への擬似ジョイスティック131の追従表示制御は、上記図5(a)〜(c)のいずれの態様をも用いることが可能であって、適宜設定することができる。
Note that the follow-up display control of the
図6は、疑似ジョイスティック131の表示制御の方法を説明する図である。本実施形態においては、表示部113の右側に疑似操作ボタンA133及び/又は疑似操作ボタンB134が表示されている。指示体によるドラッグ操作が擬似ジョイスティック131の表示領域又は操作検出領域136を越えてなされることにより擬似ジョイスティック131を指示体の接触位置に追従して表示させたとき、疑似操作キー131の表示位置が所定の領域を越えるような場合は、その追従表示を一旦とどまるような表示を制御部110は表示部にさせる。
FIG. 6 is a diagram for explaining a display control method of the
具体的には、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分けた場合に、擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定する。すなわち、図6においては、疑似ジョイスティック131に対する操作を開始する前に疑似ジョイスティック131を表示していた位置であって、あらかじめ決められた定位置が存在する側の領域が移動可能領域137として設定されている。この移動可能領域137とは、疑似ジョイスティック131の表示位置が当該領域内にある場合には擬似ジョイスティック131の表示位置の移動(追従表示)を行い、領域を越えるような場合には表示部113の移動可能領域と他の領域との境界上に疑似ジョイスティック131がとどまるように表示するために、あらかじめ決められた領域である。すなわち、必ずしも表示部113の中心で半分に分けた領域を移動可能領域137とする必要はなく、疑似ジョイスティック131の表示領域及び操作検出領域136よりも広い領域であればよい。たとえば、他の擬似キーの配置や表示される可動オブジェクトの配置に応じて適宜変更することが可能である。また、指示体としてユーザの指を用いる場合には、移動可能領域137は、端末装置を把持した状態で指示体である指が相対的に接触可能な範囲が設定されることも可能である。
Specifically, when the
図6を参照すると、擬似ジョイスティック131の追従表示制御の結果、擬似ジョイスティック131の表示位置(例えば、疑似ジョイスティック131内の基準位置C0)が移動可能領域137を越えるような場合には、移動可能領域137と表示部の他の領域138との境界139上にとどまるよう疑似ジョイスティック131を表示する。なお、図6の例においては、疑似ジョイスティック131は、指示体による接触位置C1を通る表示部113の外縁に平行な線140と境界139が交わる位置でとどまるように表示されている。したがって、他の領域138内で指示体を上下にドラッグ操作すると、疑似ジョイスティック131は境界線上を上下に動くように表示される。
Referring to FIG. 6, when the display position of the pseudo joystick 131 (for example, the reference position C0 in the pseudo joystick 131) exceeds the
なお、図6においては、擬似ジョイスティック131の追従表示制御の結果擬似ジョイスティック131の表示位置が移動可能領域137を越えるような場合には、境界139上にとどまるよう疑似ジョイスティック131を表示する例を示すが、これに限られない。例えば、上記のような場合、もともと疑似ジョイスティック131が表示されていた所定の定位置に疑似ジョイスティックの表示位置が戻るよう、制御部110は表示を制御することも可能である。
FIG. 6 shows an example in which the
<擬似ジョイスティックの制御フロー>
図7は、端末装置100の制御部110で本実施形態に係るプログラムを実行することで行われる処理の流れを示すフロー図である。メモリ部114に記憶された本実施形態に係るプログラムを制御部114が実行すると当該処理フローは開始される。そして、ユーザの指示体によって、タッチパネル116を介して、擬似ジョイスティック131に接触したことを検出する(S101)。次に、制御部110は、その接触位置が依然として擬似ジョイスティック131の表示領域内にあるか否かを判断する(S102)。なお、図5において説明したとおり、S102における判断の基準としては、擬似ジョイスティック131の表示領域に変えて、操作検出領域136を用いることも可能である。
<Control flow of pseudo joystick>
FIG. 7 is a flowchart showing a flow of processing performed by executing the program according to the present embodiment in the
S102において、まだ擬似ジョイスティック内に指示体の接触位置があると判断された場合、その接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する(S103及びS104)。そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S105)。
In S102, when it is determined that the contact position of the indicator is still in the pseudo joystick, the direction and contact of the contact position viewed from the reference position based on the contact position and the reference position provided in the pseudo joystick. The distance between the position and the reference position is determined (S103 and S104). Then, based on the determined direction and distance, the
次に、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、接触が継続しドラッグ操作がなされていると判断すると、再びS102に戻り、ドラッグ操作後の接触位置に基づいて擬似ジョイスティック131の表示領域内に接触位置があるか否かを判断する。
Next, it is determined whether or not contact with the touch panel by the indicator continues, that is, whether or not a drag operation is being performed (S106). As a result, if it is determined that the contact is continued and the drag operation is performed, the process returns to S102 again, and it is determined whether or not there is a contact position in the display area of the
S102において、擬似ジョイスティック131の表示領域内にないと判断された場合、すなわち、ドラッグ操作によって指示体の接触位置が擬似ジョイスティック131の表示領域を越えていると判断された場合には、S107に移行する。
If it is determined in S102 that it is not within the display area of the
次に、S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断する(S107)。そして、制御部110は、まだその接触位置が移動可能領域137内にあると判断した場合には、その接触位置に応じて擬似ジョイスティック131の表示位置を変更するように制御する(S108)。すなわち、制御部110は、擬似ジョイスティック131の接触位置への追従表示制御を行う。
Next, in S107, the
次に、S109及びS110において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、距離の決定には接触位置を用いているが、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することも可能である。
Next, in S109 and S110, based on the contact position of the indicator and the reference position provided in the pseudo joystick, the direction of the contact position viewed from the reference position and the distance between the contact position and the reference position are determined. To do. Although the contact position is used to determine the distance, the line segment determined based on the contact position between the reference position and the indicator is based on the position where the outer edge of the display area of the
そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S111)。
Then, based on the determined direction and distance, the
そして、S106において、制御部110は、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、制御部110が、ドラッグ操作が継続していると判断すると、S102に戻る。ここで、上記同様、制御部110が、擬似ジョイスティック131の表示領域を越えていると判断した場合には、処理はS107に進む。
In step S106, the
S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断し(S107)、越えたと判断した場合には、制御部110による処理はS112に進む。
In S107, the
S112においては、制御部110は、移動可能領域137と表示部113の他の領域138との境界139上に疑似ジョイスティック131の表示位置を変更する。S113及びS114において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、この場合は、距離の決定に接触位置を用いているが、この接触位置に代えて、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することが好ましい。
In S112, the
そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S115)。
Then, based on the determined direction and distance, the
そして、再びS106に戻って、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する。S106において、指示体がタッチパネル上から離されたと判断されると、この処理フローは終了する。 Then, the process returns to S106 again, and it is determined whether or not the pointer continues to touch the touch panel, that is, whether or not a drag operation is being performed. If it is determined in S106 that the indicator has been released from the touch panel, the processing flow ends.
<画面遷移>
図8は、本実施形態に係るプログラムの実行による画面例を示す模式図である。図8(a)を参照すると、端末装置100の制御部110は、本実施形態に係るプログラムの実行を開始すると、表示部113の所定の定位置に擬似ジョイスティック131及び所定の可動オブジェクト132を表示する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。
<Screen transition>
FIG. 8 is a schematic diagram illustrating a screen example obtained by executing the program according to the present embodiment. 8A, when the
さらに図8(a)を参照すると、表示部113には、ユーザが指示体を接触したタッチパネル116上の位置を明示的に把握するための操作オブジェクト135を表示している。この操作オブジェクト135は指示体によるタッチ位置が操作オブジェクト135の中心になるように指示体の移動と共に表示位置を移動する。
Further, referring to FIG. 8A, the
なお、図8(a)においては、まだユーザが指示体を使ってタッチパネル116上の接触操作を行っていないので、疑似ジョイスティック131及び可動オブジェクト132は、ともにあらかじめ決められた定位置に表示されている。具体的には、疑似ジョイスティック131の中心C0と接触位置を示す操作オブジェクト135の中心とが重なるように表示されている。
In FIG. 8A, since the user has not yet performed the touch operation on the
図8(b)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作しているときの画面例を示す模式図である。図8(b)を参照すると、指示体で接触位置C1の位置に接触することによって操作オブジェクト135も一緒に表示位置が移動されている。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。なお、このとき指示体の接触位置は擬似オブジェクト131の表示領域を越えてはいないので、制御部110は擬似オブジェクト131の表示位置の追従表示制御は行わず、定位置に表示するように制御する。
FIG. 8B is a schematic diagram illustrating a screen example when the user performs a drag operation on the
図8(c)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。なお、この例においては、擬似ジョイスティック131の追従表示制御をするか否かをその表示領域を基準にしたが、操作検出領域136を用いることも可能である。図8(c)を参照すると、擬似ジョイスティック131の追従表示制御がなされているので、接触位置の移動に伴って擬似ジョイスティック131の表示領域も一緒に移動している。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。
FIG. 8C shows a case where the user drags on the
図8(d)は、図8(c)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。図8(c)において説明したとおり、擬似ジョイスティック131の追従表示制御がなされている。また、可動オブジェクト132は、定位置にあった擬似操作オブジェクト131への操作時間の経過とともに、図8(c)の場合と比べて、より長い距離移動している。
In FIG. 8D, similarly to FIG. 8C, when the display shown in FIG. 8A is made, the user drags the
図8(e)は、図8(c)、(d)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。ここで、図8(e)の例においては、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分け擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定している。そして、指示体の接触位置を示す接触位置C1が移動可能領域137を越え、疑似ジョイスティック131の表示位置(具体的には、基準位置C0)が移動可能領域137を越えようとしている。したがって、擬似操作オブジェクト131は、移動可能領域137と他の領域138との境界139上に、その基準位置C0が来るように表示されている。なお、ここでは、基準位置C0が越えると境界線上にとどまるようにしたが、当然、基準位置ではなく、境界139にもっとも近い疑似ジョイスティック131の表示領域の外縁が移動可能領域137を越えたときに、境界線上にとどまるように表示するようにしても良い。
8 (e) is similar to FIGS. 8 (c) and 8 (d), when the display shown in FIG. 8 (a) is made, the user drags the
以上の通り、本実施形態においては、指示体の接触位置が擬似ジョイスティック131又は操作検出領域136を越えて移動した場合には、その接触位置に基づいて擬似ジョイスティック131の表示位置も移動する、すなわち追従表示制御をするので、例えば移動するキャラクタ等の可動オブジェクトの移動に集中するがために指の指示体の位置がいつの間にか擬似ジョイスティック131から外れてしまうという不都合を防止することができる。また、移動可能領域137を越えると擬似操作オブジェクト131の表示位置を移動可能領域137と他の領域138の境界上にとどまるように表示するので、指示体である指の位置から相対的に入力可能な範囲での追従表示制御が行われ、ユーザにとって違和感のない操作が可能となる。
As described above, in this embodiment, when the contact position of the indicator moves beyond the
<本発明の他の実施形態>
本発明の他の実施形態について説明する。なお、上記実施形態に係る端末装置100と同じ機能を果たすものについては、説明を省略する。また、上記実施形態、及び以下で説明する他の実施形態は、適宜それらの一部又は全部を組み合わせることが可能である。
<Other Embodiments of the Present Invention>
Another embodiment of the present invention will be described. In addition, description is abbreviate | omitted about what fulfill | performs the same function as the
1.擬似ジョイスティック131の表示位置
上記実施形態においては、上記実施形態に係るプログラムを実行すると、あらかじめ決められた定位置に擬似操作オブジェクト131を表示して、その擬似操作オブジェクト131上を指示体で接触することによって処理が開始する場合を説明した。しかし、それに代えて、任意の位置を指示体で接触することによって処理が開始するようにしてもよい。
1. Display Position of
図9は、その具体例として、擬似ジョイスティック131の表示位置を示す他の実施形態に係る画面例を示す模式図である。図9を参照すると、プログラムの実行によって定位置(図9中、破線で示す。)に擬似ジョイスティック131が表示されている。その後、指示体によって、任意の位置が接触されると、その接触位置を基準位置C0として、その基準位置C0を中心とする表示位置に擬似ジョイスティック131を移動する。そして、その移動後の位置において擬似操作オブジェクト131を用いた可動オブジェクトの表示制御や、擬似操作オブジェクト131の追従表示制御を行う。その具体的な処理フローなどは上記実施形態において実施するものと同様である。
FIG. 9 is a schematic diagram showing a screen example according to another embodiment showing the display position of the
このように、表示位置を設定することで、よりユーザの利便性を向上することができる。 Thus, the convenience of the user can be further improved by setting the display position.
2.端末装置100を縦長方向に用いた場合の制御
上記実施形態に係る端末装置100は、加速度センサ122を備える。この加速度センサ122を利用して、公知の方法により、端末装置100の回転を検出することが可能である。上記実施形態では、端末装置100を横長方向で使用していた場合について説明したが、ユーザが端末装置100を縦長方向に持ち替えて、本実施形態においては加速度センサ122によって端末装置100の回転を検出すると、表示部113の表示を切り替える。
2. Control when the
図10は、その具体例として、端末装置100を縦長方向で使用した場合の画面例を示す模式図である。図10(a)を参照すると、表示部113の上部にはプログラムの進行に伴って表示される可動オブジェクト132等を、下部には擬似ジョイスティック131、疑似操作ボタンA133及び疑似操作ボタンB134の擬似操作キーが表示されている。すなわち、横長方向に端末装置100を使用していた時には、プログラムの進行とともに随時変化する表示オブジェクトに重畳させて擬似ジョイスティック131等の擬似操作キーを表示させていたが、縦長方向に端末装置100を使用するときには、それらを異なる表示領域に表示するように表示を制御する。
FIG. 10 is a schematic diagram showing a screen example when the
図10(b)は、指示体による接触位置に擬似ジョイスティック131が追従して表示制御されている画面例の模式図である。この追従表示制御の方法は、上記実施形態において説明した方法と同様である。
FIG. 10B is a schematic diagram of a screen example in which display control is performed by the
図10(c)は、指示体による接触位置が移動可能領域137を越えてドラッグされた場合の画面例を示す模式図である。図10(c)においては、移動可能領域137として、疑似操作ボタンA133及び疑似操作ボタンB134の配置及び指示体として用いる左手親指の接触可能な範囲を考慮して、表示部113の左下が設定されている。そして、接触位置C1が移動可能領域137を越えて移動しているため、表示部113左下に設定された移動可能領域137の境界上に疑似ジョイスティック131の表示位置がとどまるように制御される。
FIG. 10C is a schematic diagram illustrating a screen example when the contact position by the indicator is dragged beyond the
このように、加速度センサ122の出力に基づいて表示部113の表示態様を切り替えるとともに、擬似操作キーの表示態様も切り替えることで、ユーザにより多様な操作方法を提供することができる。
As described above, by switching the display mode of the
なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを必ずしも半透明に表示する必要はない。
In the above embodiment, the
3.端末装置100を外部表示装置200に接続した場合の制御
上記実施形態においては、プログラムの進行とともに随時変化する表示オブジェクトを端末装置100の表示部113に表示させる場合について説明したが、液晶テレビなどの外部表示装置に接続して、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を外部表示装置に表示させることも可能である。
3. Control when
図11は、端末装置100を外部表示装置200に接続した場合の画面例を示す模式図である。図11によると、端末装置100は、外部表示装置200に無線回線を通じて接続され、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を出力している。なお、この接続は、通信処理部111を介して、無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式を利用することが可能である。また、端末装置100が備えるコネクタ124を介して、HDMI(登録商標)などを利用した有線接続をすることも可能である。
FIG. 11 is a schematic diagram illustrating a screen example when the
図11を参照すると、端末装置100の表示部113には擬似ジョイスティック131を含む擬似操作キーが表示され、可動オブジェクト132を含むゲーム進行に伴って変化する表示オブジェクトは外部表示装置200に表示されている。この擬似ジョイスティック131を用いた可動オブジェクト132の表示制御や、擬似ジョイスティック131の追従表示制御は上記実施形態と同様である。
Referring to FIG. 11, a pseudo operation key including a
このようにすることで、端末装置100を操作専用のコントローラーとして用いることができ、ユーザにより高い臨場感を提供することができる。
By doing in this way, the
なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示する必要はない。
In the above embodiment, the
4.擬似操作キーの他の例
上記実施形態では、擬似操作キーとして、擬似ジョイスティック131を用いた場合について説明した。しかし、本発明を適用可能な擬似操作キーとしては、擬似ジョイスティック131に限らない。たとえば、本発明は、一定時間以上継続して接触させ続ける必要がある擬似操作キーに適用することができる。
4). Other Examples of Pseudo Operation Keys In the above embodiment, the case where the
図12は、擬似操作キーとして、擬似十字キーを適用した場合の画面例を示す模式図である。図12を参照すると、端末装置100の表示部113には、擬似十字キー151が所定の位置に表示されている。ユーザは接触体で擬似十字キー157が備える上下左右4方向の擬似操作キーに接触することによって可動キャラクタ132の移動を制御することができる。
FIG. 12 is a schematic diagram illustrating a screen example when a pseudo cross key is applied as a pseudo operation key. Referring to FIG. 12, a
なお、擬似十字キー151の場合は、擬似ジョイスティック131と比較して、細かな複数の擬似キーで構成されているために、ユーザはより細かな指示体による操作が必要である。したがって、当然、擬似十字キー151を構成する個々の擬似操作キーの表示領域を指示体の接触位置が越えると擬似十字キー151の追従表示制御を開始することもできる。しかし、擬似十字キー151の表示領域よりも広い操作検出領域136を設定し、この操作検出領域136を基準にして擬似十字キー151の追従表示制御をする方がより好ましい。
In the case of the
図13は、擬似操作キーとして、弓矢を模したキーを適用した場合の画面例を示す模式図である。上記実施形態では、擬似操作キーとして擬似ジョイスティック131を用いる場合について説明した。すなわち、擬似操作キー円で形成しており、基準位置としてその円の中心を設定する場合について説明した。しかし、本実施形態のように、その基準位置は擬似操作キーの中心又は重心に限らず、任意の位置を基準位置として設定することが可能である。
FIG. 13 is a schematic diagram illustrating a screen example when a key imitating a bow and arrow is applied as a pseudo operation key. In the above embodiment, the case where the
図13を参照すると、弓矢を模した擬似操作キー161が表示されている。ユーザはこの擬似操作キー161の弓をひくような操作、すなわち矢の上を指示体で接触させ、そのまま所定の方向にドラッグし、離すと、制御部110は矢が仮想空間上を飛んでいくように表示を制御する。このような場合においては、接触位置の方向及び距離の決定の基準となる基準位置を任意の位置C4に適宜設定することが可能である。また、擬似操作キー161の追従表示制御をするか否かの基準となる領域も、擬似操作キー161の表示領域ではなく、操作検出領域136として、任意の領域を設定することが可能である。
Referring to FIG. 13, a pseudo operation key 161 imitating a bow and arrow is displayed. When the user performs an operation of pulling the bow of the
このようにすることで、より多様な擬似操作キーの表現が可能となる。 By doing so, it is possible to express a variety of pseudo operation keys.
本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能なものである。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。 The processes and procedures described in the present specification can be realized not only by those explicitly described in the embodiment but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, a magnetic disk, or an optical storage. Is done. Further, the processes and procedures described in this specification can be implemented as a computer program and executed by various computers.
本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明されるデータ、テーブル又はデータベースが単一のメモリに格納される旨説明されたとしても、そのようなデータ、テーブル又はデータベースは、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。 Even though the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may include multiple devices, multiple software, It may be executed by multiple components and / or multiple modules. Further, even if it is described that the data, table, or database described in this specification is stored in a single memory, such data, table, or database may be stored in a single device. Or a plurality of memories arranged in a distributed manner in a plurality of devices. Further, the software and hardware elements described herein may be realized by integrating them into fewer components or by disassembling them into more components.
100 端末装置
110 制御部
113 表示部
116 タッチパネル
200 外部表示装置
DESCRIPTION OF
Claims (17)
前記疑似操作キーへの指示体による接触を検出するタッチパネルと、
前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする前記端末装置。 A display unit for displaying pseudo operation keys;
A touch panel for detecting contact by an indicator to the pseudo operation key;
A control unit that determines whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via the touch panel, and controls a display position of the pseudo operation key; , Including a terminal device,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the control unit changes the display position of the pseudo operation key according to the contact position of the indicator. The terminal device.
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする請求項1に記載の端末装置。 The touch panel includes an operation detection area that detects an operation on the pseudo operation key corresponding to the display area of the pseudo operation key,
The said control part changes the display position of the said pseudo operation key according to the contact position of the said indicator, when the contact position of the said indicator exceeds the said operation detection area | region by the said drag operation. The terminal device according to 1.
前記制御部は、所定の基準位置と前記指示体の接触位置から得られる方向に基づいて前記可動オブジェクトの移動方向を決定することを特徴とする請求項1〜3のいずれか一項に記載の端末装置。 The display unit displays a predetermined movable object,
The said control part determines the moving direction of the said movable object based on the direction obtained from a predetermined reference position and the contact position of the said indicator, The Claim 1 characterized by the above-mentioned. Terminal device.
前記制御部は、所定の基準位置と前記指示体の接触位置との間の距離に基づいて前記可動オブジェクトの移動量を決定することを特徴とする請求項1〜4のいずれか一項に記載の端末装置。 The display unit displays a predetermined movable object,
The said control part determines the moving amount | distance of the said movable object based on the distance between a predetermined reference position and the contact position of the said indicator, The Claim 1 characterized by the above-mentioned. Terminal equipment.
前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えた場合には、前記制御部は、前記基準位置と前記接触位置とを結ぶ線分が前記擬似操作キーの表示領域の外縁に交わる位置と、前記基準位置との距離に基づいて前記可動オブジェクトの移動方向及び移動量を決定することを特徴とする請求項4又は5に記載の端末装置。 The reference position exists in the operation detection area,
When the contact position of the indicator exceeds the operation detection area by the drag operation, the control unit sets a line segment connecting the reference position and the contact position to an outer edge of the display area of the pseudo operation key. The terminal device according to claim 4, wherein a moving direction and a moving amount of the movable object are determined based on a distance between the intersecting position and the reference position.
前記基準位置は、前記疑似操作キーを形成する円の中心であることを特徴とする請求項4又は5に記載の端末装置。 The pseudo operation key is formed of a circle,
The terminal device according to claim 4, wherein the reference position is a center of a circle forming the pseudo operation key.
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えた場合に、前記操作オブジェクトを形成する円の中心が、前記疑似操作キーを形成する円の外側に位置するように前記前記疑似操作キーの表示位置を制御することを特徴とする請求項12に記載の端末装置。 The operation object is formed of a circle,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the center of the circle forming the operation object is outside the circle forming the pseudo operation key. The terminal device according to claim 12, wherein the display position of the pseudo operation key is controlled so as to be located at the terminal.
表示部に疑似操作キーを表示し、
端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする前記プログラム。 Computer
Display pseudo operation keys on the display,
Control for determining whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via a touch panel included in the terminal device, and controlling the display position of the pseudo operation key A program that functions as a part,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the control unit changes the display position of the pseudo operation key according to the contact position of the indicator. Said program.
タッチパネルを介して前記表示部への指示体の接触を検出するステップと、
前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、
前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更されることを特徴とする前記表示制御方法。 Displaying pseudo operation keys on the display unit;
Detecting the contact of the indicator to the display unit via a touch panel;
Determining whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via the touch panel, and controlling a display position of the pseudo operation key; A display control method of pseudo operation keys including
The display control, wherein the display position of the pseudo operation key is changed according to the contact position of the indicator when the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation. Method.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014131850A JP5711409B1 (en) | 2014-06-26 | 2014-06-26 | Terminal device |
TW103143049A TWI638297B (en) | 2014-06-26 | 2014-12-10 | Terminal apparatus |
EP14199521.7A EP2960766B1 (en) | 2014-06-26 | 2014-12-19 | Terminal device |
KR1020150012229A KR20160001600A (en) | 2014-06-26 | 2015-01-26 | Terminal device |
CN201510056004.6A CN105302453B (en) | 2014-06-26 | 2015-02-03 | Terminal installation |
US14/618,112 US10146343B2 (en) | 2014-06-26 | 2015-02-10 | Terminal device having virtual operation key |
HK16105041.0A HK1217544A1 (en) | 2014-06-26 | 2016-05-03 | Terminal apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014131850A JP5711409B1 (en) | 2014-06-26 | 2014-06-26 | Terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5711409B1 JP5711409B1 (en) | 2015-04-30 |
JP2016009473A true JP2016009473A (en) | 2016-01-18 |
Family
ID=52282474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014131850A Active JP5711409B1 (en) | 2014-06-26 | 2014-06-26 | Terminal device |
Country Status (7)
Country | Link |
---|---|
US (1) | US10146343B2 (en) |
EP (1) | EP2960766B1 (en) |
JP (1) | JP5711409B1 (en) |
KR (1) | KR20160001600A (en) |
CN (1) | CN105302453B (en) |
HK (1) | HK1217544A1 (en) |
TW (1) | TWI638297B (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6143934B1 (en) * | 2016-11-10 | 2017-06-07 | 株式会社Cygames | Information processing program, information processing method, and information processing apparatus |
WO2018180553A1 (en) * | 2017-03-27 | 2018-10-04 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
WO2018180552A1 (en) * | 2017-03-27 | 2018-10-04 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
JP6446149B1 (en) * | 2018-03-06 | 2018-12-26 | 株式会社Cygames | Program, processing apparatus, and processing method |
JP2019080928A (en) * | 2017-03-27 | 2019-05-30 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
JP2019083964A (en) * | 2017-11-06 | 2019-06-06 | 株式会社カプコン | Game program and game system |
JP2019134880A (en) * | 2018-02-05 | 2019-08-15 | 株式会社バンダイナムコエンターテインメント | Program and game device |
JP2020110459A (en) * | 2019-01-16 | 2020-07-27 | 株式会社スクウェア・エニックス | Game processing program, information processing device, method, and system |
JP2020156797A (en) * | 2019-03-27 | 2020-10-01 | 株式会社セガ | Program and information processor |
JP6824369B1 (en) * | 2019-11-26 | 2021-02-03 | 株式会社Cygames | Methods, programs, and electronics |
JP2021062251A (en) * | 2021-01-14 | 2021-04-22 | 株式会社バンダイナムコエンターテインメント | Program and game device |
JP2021100591A (en) * | 2019-05-30 | 2021-07-08 | 株式会社コナミデジタルエンタテインメント | Program, information processing device and information processing method |
JP2022015061A (en) * | 2020-07-08 | 2022-01-21 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
JP2022015060A (en) * | 2020-07-08 | 2022-01-21 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
JP2022518465A (en) * | 2019-06-05 | 2022-03-15 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Movement control method of virtual target and its device, terminal and computer program |
JP2023503748A (en) * | 2020-10-30 | 2023-02-01 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Virtual key position adjustment method and device, computer device and program |
US11577157B2 (en) | 2020-07-08 | 2023-02-14 | Nintendo Co., Ltd. | Systems and method of controlling game operations based on touch input |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6095393B2 (en) * | 2013-02-12 | 2017-03-15 | 株式会社スクウェア・エニックス | Video game apparatus and video game processing program |
JP6990962B2 (en) * | 2014-06-09 | 2022-01-12 | 雅人 桑原 | Information processing equipment |
JPWO2016208099A1 (en) * | 2015-06-24 | 2018-04-12 | パナソニックIpマネジメント株式会社 | Information processing apparatus, input control method for controlling input to information processing apparatus, and program for causing information processing apparatus to execute input control method |
JP5981617B1 (en) * | 2015-08-20 | 2016-08-31 | 株式会社コロプラ | Computer program and computer-implemented method for displaying user interface images |
JP5941207B1 (en) * | 2015-09-10 | 2016-06-29 | 株式会社コロプラ | User interface program and computer mounting method |
CN105335065A (en) * | 2015-10-10 | 2016-02-17 | 腾讯科技(深圳)有限公司 | Information processing method and terminal, and computer storage medium |
JP6569496B2 (en) * | 2015-11-26 | 2019-09-04 | 富士通株式会社 | Input device, input method, and program |
JP6097427B1 (en) * | 2016-02-29 | 2017-03-15 | 株式会社コロプラ | Game program |
KR102481632B1 (en) * | 2016-04-26 | 2022-12-28 | 삼성전자주식회사 | Electronic device and method for inputting adaptive touch using display in the electronic device |
CN106354418B (en) * | 2016-11-16 | 2019-07-09 | 腾讯科技(深圳)有限公司 | A kind of control method and device based on touch screen |
JP6347286B2 (en) | 2016-11-21 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM |
JP6278575B1 (en) | 2016-11-21 | 2018-02-14 | 株式会社コナミデジタルエンタテインメント | GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM |
CN106453638B (en) * | 2016-11-24 | 2018-07-06 | 腾讯科技(深圳)有限公司 | Information interacting method and system in a kind of applied business |
KR102650630B1 (en) * | 2016-11-29 | 2024-03-21 | 주식회사 넥슨코리아 | Apparatus and method for providing virtual controller |
CN106598465A (en) * | 2016-12-20 | 2017-04-26 | 上海逗屋网络科技有限公司 | Control method, device and equipment based on virtual rocker |
WO2018214029A1 (en) * | 2017-05-23 | 2018-11-29 | 深圳市大疆创新科技有限公司 | Method and apparatus for manipulating movable device |
CN107422938A (en) * | 2017-06-21 | 2017-12-01 | 网易(杭州)网络有限公司 | Information processing method, device, electronic equipment and storage medium |
CN107837531B (en) * | 2017-09-28 | 2018-11-23 | 网易(杭州)网络有限公司 | Information processing method, device, electronic equipment and storage medium |
WO2019104519A1 (en) * | 2017-11-29 | 2019-06-06 | Entit Software Llc | Gesture buttons |
KR102016681B1 (en) * | 2018-10-18 | 2019-08-30 | 김기연 | Method for interfacing of user for touching employing smartphone being able to employing emulating game type |
CN110865759A (en) * | 2019-10-28 | 2020-03-06 | 维沃移动通信有限公司 | Object moving method and electronic equipment |
CN110755846B (en) * | 2019-10-29 | 2023-05-26 | 网易(杭州)网络有限公司 | Game control method, game control device and terminal equipment |
CN111589127B (en) * | 2020-04-23 | 2022-07-12 | 腾讯科技(深圳)有限公司 | Control method, device and equipment of virtual role and storage medium |
US11541305B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Context-sensitive remote eyewear controller |
JP7437433B2 (en) * | 2022-02-16 | 2024-02-22 | 任天堂株式会社 | Information processing program, information processing system, information processing device, and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11191036A (en) * | 1997-12-26 | 1999-07-13 | Yokogawa Electric Corp | Window moving device |
JP2001045261A (en) * | 1999-07-29 | 2001-02-16 | Olympus Optical Co Ltd | Method and device for recording image and recording medium |
WO2010032354A1 (en) * | 2008-09-22 | 2010-03-25 | 日本電気株式会社 | Image object control system, image object control method, and program |
JP2010533336A (en) * | 2007-07-11 | 2010-10-21 | ユイ・ジン・オ | Data input device using finger motion sensing and input conversion method using the same |
JP2011229716A (en) * | 2010-04-28 | 2011-11-17 | Square Enix Co Ltd | User interface processor, user interface processing method, and user interface processing program |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
JP4982505B2 (en) * | 2007-01-25 | 2012-07-25 | シャープ株式会社 | Multi-window management apparatus, program, storage medium, and information processing apparatus |
TW200914093A (en) * | 2007-09-21 | 2009-04-01 | Astro Corp | Touch screen card game device and its operation method |
JP2009284468A (en) * | 2008-04-23 | 2009-12-03 | Sharp Corp | Personal digital assistant, computer readable program and recording medium |
KR101503493B1 (en) * | 2008-07-16 | 2015-03-17 | 삼성전자주식회사 | Method for controlling devices using widget contents and a remote controller thereof |
CN101414240A (en) * | 2008-11-12 | 2009-04-22 | 圆展科技股份有限公司 | Method and apparatus for dynamically arranging virtual key position |
US8451236B2 (en) * | 2008-12-22 | 2013-05-28 | Hewlett-Packard Development Company L.P. | Touch-sensitive display screen with absolute and relative input modes |
US20100277414A1 (en) * | 2009-04-30 | 2010-11-04 | Qualcomm Incorporated | Keyboard for a portable computing device |
JP4823342B2 (en) | 2009-08-06 | 2011-11-24 | 株式会社スクウェア・エニックス | Portable computer with touch panel display |
TWI423112B (en) * | 2009-12-09 | 2014-01-11 | Ind Tech Res Inst | Portable virtual human-machine interaction device and method therewith |
JP4932010B2 (en) * | 2010-01-06 | 2012-05-16 | 株式会社スクウェア・エニックス | User interface processing device, user interface processing method, and user interface processing program |
JP5750875B2 (en) * | 2010-12-01 | 2015-07-22 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
TWI442274B (en) * | 2010-02-11 | 2014-06-21 | Hon Hai Prec Ind Co Ltd | Electronic device and graphical user interface control method thereof |
US9262073B2 (en) * | 2010-05-20 | 2016-02-16 | John W. Howard | Touch screen with virtual joystick and methods for use therewith |
KR101695818B1 (en) * | 2010-07-28 | 2017-01-13 | 엘지전자 주식회사 | Mobile terminal and Method for controlling virtual key pad thereof |
US8972879B2 (en) * | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
JP5813948B2 (en) * | 2010-12-20 | 2015-11-17 | 株式会社バンダイナムコエンターテインメント | Program and terminal device |
JP2012168932A (en) * | 2011-02-10 | 2012-09-06 | Sony Computer Entertainment Inc | Input device, information processing device and input value acquisition method |
JP5379250B2 (en) * | 2011-02-10 | 2013-12-25 | 株式会社ソニー・コンピュータエンタテインメント | Input device, information processing device, and input value acquisition method |
JP5790203B2 (en) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | Information processing apparatus, information processing method, program, and remote operation system |
CN102650909B (en) * | 2012-04-16 | 2015-01-21 | 杨林 | Character inputting device and character inputting method |
US8713464B2 (en) * | 2012-04-30 | 2014-04-29 | Dov Nir Aides | System and method for text input with a multi-touch screen |
CN102981772B (en) * | 2012-11-16 | 2016-02-10 | 淘宝(中国)软件有限公司 | Method and the device of dummy keyboard are set |
EP3690624B1 (en) * | 2012-12-06 | 2023-02-01 | Samsung Electronics Co., Ltd. | Display device and method of controlling the same |
CN103472948A (en) * | 2013-09-03 | 2013-12-25 | 小米科技有限责任公司 | Method and device for remote-control processing of touch screen terminal and terminal |
WO2015035580A1 (en) * | 2013-09-11 | 2015-03-19 | 东莞宇龙通信科技有限公司 | Display method for touchscreen and terminal |
US9227141B2 (en) * | 2013-12-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Touch screen game controller |
-
2014
- 2014-06-26 JP JP2014131850A patent/JP5711409B1/en active Active
- 2014-12-10 TW TW103143049A patent/TWI638297B/en active
- 2014-12-19 EP EP14199521.7A patent/EP2960766B1/en active Active
-
2015
- 2015-01-26 KR KR1020150012229A patent/KR20160001600A/en not_active Application Discontinuation
- 2015-02-03 CN CN201510056004.6A patent/CN105302453B/en active Active
- 2015-02-10 US US14/618,112 patent/US10146343B2/en active Active
-
2016
- 2016-05-03 HK HK16105041.0A patent/HK1217544A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11191036A (en) * | 1997-12-26 | 1999-07-13 | Yokogawa Electric Corp | Window moving device |
JP2001045261A (en) * | 1999-07-29 | 2001-02-16 | Olympus Optical Co Ltd | Method and device for recording image and recording medium |
JP2010533336A (en) * | 2007-07-11 | 2010-10-21 | ユイ・ジン・オ | Data input device using finger motion sensing and input conversion method using the same |
WO2010032354A1 (en) * | 2008-09-22 | 2010-03-25 | 日本電気株式会社 | Image object control system, image object control method, and program |
JP2011229716A (en) * | 2010-04-28 | 2011-11-17 | Square Enix Co Ltd | User interface processor, user interface processing method, and user interface processing program |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10990274B2 (en) | 2016-11-10 | 2021-04-27 | Cygames, Inc. | Information processing program, information processing method, and information processing device |
WO2018088408A1 (en) * | 2016-11-10 | 2018-05-17 | 株式会社Cygames | Information processing program, information processing method, and information processing device |
JP2018075225A (en) * | 2016-11-10 | 2018-05-17 | 株式会社Cygames | Information processing program, information processing method, and information processing device |
JP6143934B1 (en) * | 2016-11-10 | 2017-06-07 | 株式会社Cygames | Information processing program, information processing method, and information processing apparatus |
KR20190120311A (en) | 2017-03-27 | 2019-10-23 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Game system, game control device and computer readable recording medium |
WO2018180553A1 (en) * | 2017-03-27 | 2018-10-04 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
JP2018161447A (en) * | 2017-03-27 | 2018-10-18 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
US11266904B2 (en) | 2017-03-27 | 2022-03-08 | Konami Digital Entertainment Co., Ltd. | Game system, game control device, and information storage medium |
JP2019080928A (en) * | 2017-03-27 | 2019-05-30 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
JP2018161446A (en) * | 2017-03-27 | 2018-10-18 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
WO2018180552A1 (en) * | 2017-03-27 | 2018-10-04 | 株式会社コナミデジタルエンタテインメント | Game system, game control device, and program |
JP2019083964A (en) * | 2017-11-06 | 2019-06-06 | 株式会社カプコン | Game program and game system |
JP2019134880A (en) * | 2018-02-05 | 2019-08-15 | 株式会社バンダイナムコエンターテインメント | Program and game device |
JP7105573B2 (en) | 2018-02-05 | 2022-07-25 | 株式会社バンダイナムコエンターテインメント | Program and game device |
JP2019150441A (en) * | 2018-03-06 | 2019-09-12 | 株式会社Cygames | Program, processor, and processing method |
JP6446149B1 (en) * | 2018-03-06 | 2018-12-26 | 株式会社Cygames | Program, processing apparatus, and processing method |
JP2020110459A (en) * | 2019-01-16 | 2020-07-27 | 株式会社スクウェア・エニックス | Game processing program, information processing device, method, and system |
JP2020156797A (en) * | 2019-03-27 | 2020-10-01 | 株式会社セガ | Program and information processor |
JP7347833B2 (en) | 2019-05-30 | 2023-09-20 | 株式会社コナミデジタルエンタテインメント | Program, information processing device and information processing method |
JP2021100591A (en) * | 2019-05-30 | 2021-07-08 | 株式会社コナミデジタルエンタテインメント | Program, information processing device and information processing method |
JP7238143B2 (en) | 2019-06-05 | 2023-03-13 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | MOVEMENT CONTROL METHOD AND APPARATUS THEREOF, TERMINAL AND COMPUTER PROGRAM FOR VIRTUAL OBJECT |
US11513657B2 (en) | 2019-06-05 | 2022-11-29 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for controlling movement of virtual object, terminal, and storage medium |
JP2022518465A (en) * | 2019-06-05 | 2022-03-15 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Movement control method of virtual target and its device, terminal and computer program |
JP2021086296A (en) * | 2019-11-26 | 2021-06-03 | 株式会社Cygames | Method, program, and electronic device |
JP6824369B1 (en) * | 2019-11-26 | 2021-02-03 | 株式会社Cygames | Methods, programs, and electronics |
JP7062033B2 (en) | 2020-07-08 | 2022-05-02 | 任天堂株式会社 | Information processing programs, information processing devices, information processing systems, and information processing methods |
JP7062034B2 (en) | 2020-07-08 | 2022-05-02 | 任天堂株式会社 | Information processing programs, information processing devices, information processing systems, and information processing methods |
JP2022015060A (en) * | 2020-07-08 | 2022-01-21 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
US11577157B2 (en) | 2020-07-08 | 2023-02-14 | Nintendo Co., Ltd. | Systems and method of controlling game operations based on touch input |
US11590413B2 (en) | 2020-07-08 | 2023-02-28 | Nintendo Co., Ltd. | Storage medium storing information processing program with changeable operation modes, information processing apparatus, information processing system, and information processing method |
JP2022015061A (en) * | 2020-07-08 | 2022-01-21 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
JP2023503748A (en) * | 2020-10-30 | 2023-02-01 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Virtual key position adjustment method and device, computer device and program |
JP2021062251A (en) * | 2021-01-14 | 2021-04-22 | 株式会社バンダイナムコエンターテインメント | Program and game device |
Also Published As
Publication number | Publication date |
---|---|
US10146343B2 (en) | 2018-12-04 |
HK1217544A1 (en) | 2017-01-13 |
TWI638297B (en) | 2018-10-11 |
CN105302453A (en) | 2016-02-03 |
JP5711409B1 (en) | 2015-04-30 |
US20150378459A1 (en) | 2015-12-31 |
EP2960766B1 (en) | 2017-06-28 |
KR20160001600A (en) | 2016-01-06 |
EP2960766A1 (en) | 2015-12-30 |
CN105302453B (en) | 2019-11-01 |
TW201601027A (en) | 2016-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5711409B1 (en) | Terminal device | |
US7825909B2 (en) | Storage medium storing object movement control program and information processing apparatus | |
JP2010224764A (en) | Portable game machine with touch panel display | |
US11759702B2 (en) | Game system, processing method, and information storage medium | |
JP5041730B2 (en) | Object processing apparatus and object processing program | |
JP4388878B2 (en) | Input processing program and input processing apparatus | |
JP5838281B1 (en) | Motion display program | |
JP5769841B2 (en) | Portable game device with touch panel display | |
US9201534B2 (en) | Information processing apparatus, information processing system, information processing method, and computer-readable storage medium having stored therein information processing program | |
JP4724740B2 (en) | Input processing program and input processing apparatus | |
JP5354820B2 (en) | Input processing program and input processing apparatus | |
JP6916449B2 (en) | Information processing equipment, computer programs | |
JP2019201851A (en) | Information processor and program | |
JP4726965B2 (en) | Input processing program and input processing apparatus | |
JP4302767B2 (en) | Input processing program and input processing apparatus | |
JP4724758B2 (en) | Input processing program and input processing apparatus | |
JP5968510B1 (en) | Interface program and computer | |
JP5363524B2 (en) | Input processing program and input processing apparatus | |
JP4730975B2 (en) | Input processing program and input processing apparatus | |
JP5769765B2 (en) | Portable game device with touch panel display | |
JP5827671B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2011172939A (en) | Portable game device with touch panel type display | |
JP2011200720A (en) | Game program and game device | |
JP2009078157A (en) | Input processing program and input processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5711409 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |