Nothing Special   »   [go: up one dir, main page]

JP2016009473A - Terminal device - Google Patents

Terminal device Download PDF

Info

Publication number
JP2016009473A
JP2016009473A JP2014131850A JP2014131850A JP2016009473A JP 2016009473 A JP2016009473 A JP 2016009473A JP 2014131850 A JP2014131850 A JP 2014131850A JP 2014131850 A JP2014131850 A JP 2014131850A JP 2016009473 A JP2016009473 A JP 2016009473A
Authority
JP
Japan
Prior art keywords
display
pseudo
indicator
operation key
pseudo operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014131850A
Other languages
Japanese (ja)
Other versions
JP5711409B1 (en
Inventor
朗 澤田
Akira Sawada
朗 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gungho Online Entertainment Inc
Original Assignee
Gungho Online Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gungho Online Entertainment Inc filed Critical Gungho Online Entertainment Inc
Priority to JP2014131850A priority Critical patent/JP5711409B1/en
Priority to TW103143049A priority patent/TWI638297B/en
Priority to EP14199521.7A priority patent/EP2960766B1/en
Priority to KR1020150012229A priority patent/KR20160001600A/en
Priority to CN201510056004.6A priority patent/CN105302453B/en
Priority to US14/618,112 priority patent/US10146343B2/en
Application granted granted Critical
Publication of JP5711409B1 publication Critical patent/JP5711409B1/en
Publication of JP2016009473A publication Critical patent/JP2016009473A/en
Priority to HK16105041.0A priority patent/HK1217544A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a terminal device which achieves operation by a pseudo operation key which can be more easily used.SOLUTION: A terminal device comprises: a display part 113 for displaying a pseudo operation key (pseudo operation joystick) 131; a touch panel for detecting contact of an indication body to the pseudo operation key 131; and a control part for determining whether or not a drag operation by the indication body is performed, based on contact of the indication body to the pseudo operation key 131 detected by the touch panel, and controlling a display position of the pseudo operation key 131. The control part changes the display position of the pseudo operation key according to a contact position of the indication body, when the contact position of the indication body exceeds a display area of the pseudo operation key 131 by the drag operation.

Description

本発明は、表示部に表示された疑似操作キーを、タッチパネルを介して操作することが可能な端末装置に関する。   The present invention relates to a terminal device capable of operating a pseudo operation key displayed on a display unit via a touch panel.

従来より、スマートフォンに代表されるように、液晶ディスプレイなどの表示部とそれを被覆するように設けられたタッチパネルを備える端末装置において、ゲームに用いられるような十字キーなど疑似操作キーをディスプレイ上に表示して、同じくディスプレイに表示された他のキャラクタの表示を制御することが可能な端末装置が知られている。   Conventionally, as represented by a smartphone, in a terminal device including a display unit such as a liquid crystal display and a touch panel provided so as to cover it, pseudo operation keys such as a cross key used in a game are displayed on the display. There is known a terminal device that can display and control the display of other characters that are also displayed on the display.

例えば、特許文献1には、ディスプレイ上に表示されたキャラクタの移動方向を指令する操作ボタンを表示し、その操作ボタンに対応するタッチパネル上の任意の位置をユーザが指で接触すると、その位置に対応するコマンドを発生させてキャラクタの移動方向を制御することが記載されている。   For example, in Patent Document 1, an operation button for instructing a moving direction of a character displayed on a display is displayed, and when a user touches an arbitrary position on the touch panel corresponding to the operation button with a finger, the position is displayed. It is described that a corresponding command is generated to control the moving direction of the character.

特開2011−034538号公報JP 2011-034538 A

しかし、従来の端末装置においては、疑似操作キーの表示位置が一旦決められると、その操作の間、疑似操作キーの表示位置は固定されており、必ずしも使い勝手の良いものではなかった。例えば、端末装置上でゲームプログラムを実行していると、ユーザが継続的にその疑似的に表示された十字キー上に左手親指を接触させていたとしても、キャラクタの移動などのゲームの進行に集中するがために、いつの間にか十字キー上から指が移動してしまいキャラクタの移動が意図せず停止してしまうことがあった。   However, in the conventional terminal device, once the display position of the pseudo operation key is determined, the display position of the pseudo operation key is fixed during the operation, which is not always easy to use. For example, when a game program is executed on a terminal device, even if the user continuously touches the left thumb with the pseudo-displayed cross key, the game progresses such as character movement. Due to the concentration, the finger moved from the cross key and the movement of the character stopped unintentionally.

そこで、本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。   Therefore, according to various embodiments of the present invention, a terminal device that can be operated with a pseudo operation key that is more convenient to use is provided.

本発明の一実施形態に係る端末装置は、疑似操作キーを表示する表示部と、前記疑似操作キーへの指示体による接触を検出するタッチパネルと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。   A terminal device according to an embodiment of the present invention includes a display unit that displays a pseudo operation key, a touch panel that detects contact with the pseudo operation key by an indicator, and the indicator detected via the touch panel. A control unit that determines whether or not a drag operation by the indicator is performed based on contact of the pseudo operation key, and controls a display position of the pseudo operation key. When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the display position of the pseudo operation key is changed according to the contact position of the indicator. is there.

本発明の一実施形態に係るプログラムは、コンピュータを、表示部に疑似操作キーを表示し、端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とするものである。   A program according to an embodiment of the present invention displays a pseudo operation key on a display unit of a computer, and the indicator based on contact of the pseudo operation key by an indicator detected via a touch panel included in a terminal device. Is a program that determines whether a drag operation is performed and functions as a control unit that controls the display position of the pseudo operation key, wherein the control unit determines the contact position of the indicator by the drag operation. When the display area of the pseudo operation key is exceeded, the display position of the pseudo operation key is changed according to the contact position of the indicator.

本発明の一実施形態に係る表示制御方法は、表示部に擬似操作キーを表示するステップと、タッチパネルを介して前記表示部への指示体の接触を検出するステップと、前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更されることを特徴とするものである。   A display control method according to an embodiment of the present invention includes a step of displaying a pseudo operation key on a display unit, a step of detecting contact of an indicator with the display unit via a touch panel, and a detection via the touch panel. Determining whether a drag operation by the indicator is performed based on the touch of the pseudo operation key by the indicator, and controlling the display position of the pseudo operation key. In the display control method, when the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the display position of the pseudo operation key is changed according to the contact position of the indicator. It is characterized by.

本発明の様々な実施形態により、より使い勝手の良い疑似操作キーによる操作が可能な端末装置を提供する。   According to various embodiments of the present invention, a terminal device that can be operated with a pseudo-operation key that is more convenient to use is provided.

図1は、本発明の一実施形態に係る端末装置のユーザの使用状態を示す図である。FIG. 1 is a diagram illustrating a usage state of a user of a terminal device according to an embodiment of the present invention. 図2は、本発明の一実施形態に係る端末装置の表示部に表示される画面の例を示す図である。FIG. 2 is a diagram illustrating an example of a screen displayed on the display unit of the terminal device according to the embodiment of the present invention. 図3は、本発明の一実施形態に係る端末装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a terminal device according to an embodiment of the present invention. 図4は、疑似ジョイスティック131における基準位置からみた接触位置の方向及び距離の決定方法を説明する図である。FIG. 4 is a diagram for explaining a method for determining the direction and distance of the contact position as viewed from the reference position in the pseudo joystick 131. 図5は、疑似ジョイスティック131の表示制御の方法を説明する図である。FIG. 5 is a diagram for explaining a display control method of the pseudo joystick 131. 図6は、疑似ジョイスティック131の表示制御の方法を説明する図である。FIG. 6 is a diagram for explaining a display control method of the pseudo joystick 131. 図7は、端末装置100の制御部110で行われる処理の流れを示すフロー図である。FIG. 7 is a flowchart showing the flow of processing performed by the control unit 110 of the terminal device 100. 図8は、本実施形態に係るプログラムの実行による画面例を示す模式図である。FIG. 8 is a schematic diagram illustrating a screen example obtained by executing the program according to the present embodiment. 図9は、擬似ジョイスティック131の表示位置を示す他の実施形態に係る画面例を示す模式図である。FIG. 9 is a schematic diagram showing a screen example according to another embodiment showing the display position of the pseudo joystick 131. 図10は、端末装置100を縦長方向で使用した場合の画面例を示す模式図である。FIG. 10 is a schematic diagram illustrating a screen example when the terminal device 100 is used in the vertically long direction. 図11は、端末装置100を外部表示装置200に接続した場合の画面例を示す模式図である。FIG. 11 is a schematic diagram illustrating a screen example when the terminal device 100 is connected to the external display device 200. 図12は、擬似操作キーとして、擬似十字キーを適用した場合の画面例を示す模式図である。FIG. 12 is a schematic diagram illustrating a screen example when a pseudo cross key is applied as a pseudo operation key. 図13は、擬似操作キーとして、弓矢を模したキーを適用した場合の画面例を示す模式図である。FIG. 13 is a schematic diagram illustrating a screen example when a key imitating a bow and arrow is applied as a pseudo operation key.

添付図面を参照して本発明の実施形態を説明する。なお、図面における共通する構成要素には同一の参照符号が付されている。   Embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the same referential mark is attached | subjected to the common component in drawing.

<本発明の一実施形態の概要>
以下、本発明の一実施形態に係る端末装置として、本実施形態に係るプログラムを実行可能なタッチパネルを有する端末装置100(携帯電話、スマートフォン、携帯型ゲーム機、携帯情報端末、PDA、無線コントローラー端末、デスクトップパソコン、ラップトップパソコン、ゲームセンター等に設置されるようなアーケードゲーム用端末など)を例にとって具体的に説明する。
<Outline of One Embodiment of the Present Invention>
Hereinafter, as a terminal device according to an embodiment of the present invention, a terminal device 100 having a touch panel that can execute the program according to the present embodiment (mobile phone, smartphone, portable game machine, portable information terminal, PDA, wireless controller terminal) An arcade game terminal installed in a desktop personal computer, a laptop personal computer, a game center, or the like will be described in detail.

図1は、本発明の一実施形態に係る端末装置100のユーザの使用状態を示す図である。図1を参照すると、ユーザは端末装置100を横長方向に用い、その両端を左手及び右手でそれぞれ把持する。そして、本実施形態に係るプログラムが制御部110によって実行されると、表示部113に、いわゆるジョイスティックを疑似的に模した疑似ジョイスティック131や、可動オブジェクト132が表示される。そして、タッチパネルを介し、例えば左手の親指で疑似ジョイスティック131を操作して、表示された可動オブジェクト132の移動を制御する。また、タッチパネルを介し、右手の親指で疑似操作ボタンA133及び/又は疑似操作ボタンB134を操作して、可動オブジェクト132が保持する武器の表示を制御する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。   FIG. 1 is a diagram illustrating a usage state of a user of a terminal device 100 according to an embodiment of the present invention. Referring to FIG. 1, the user uses the terminal device 100 in the landscape direction and holds both ends with the left hand and the right hand. When the program according to the present embodiment is executed by the control unit 110, a pseudo joystick 131 that simulates a so-called joystick and a movable object 132 are displayed on the display unit 113. Then, the pseudo joystick 131 is operated with, for example, the thumb of the left hand via the touch panel to control the movement of the displayed movable object 132. Further, the display of the weapon held by the movable object 132 is controlled by operating the pseudo operation button A 133 and / or the pseudo operation button B 134 with the thumb of the right hand via the touch panel. In addition to the characters such as people, animals, and monsters, the movable object 132 can include anything that moves in the virtual space during execution of the program, such as weapons and rocks.

なお、本実施形態において、指示体として指を利用し、当該指の接触をタッチパネルで検出する例を記載するが、指示体としては指に限定されない。採用するタッチパネルの方式に応じて、スタイラスペンなど、各方式に適した公知の指示体を用いることが可能である。   In the present embodiment, an example is described in which a finger is used as an indicator and contact of the finger is detected by a touch panel, but the indicator is not limited to a finger. A known indicator suitable for each method, such as a stylus pen, can be used depending on the method of the touch panel employed.

また、本実施形態に係るプログラムは、一例としては、ゲームプログラムが挙げられるが、それに限定はされない。図1に記載するような疑似操作キーによる操作が必要とするプログラムであれば、いずれでもよい。このようなプログラムは、あらかじめ端末装置100のメモリ部114に記憶されているが、通信処理部111を介して外部のサーバー装置(図示しない)から受信することも可能である。また、当該プログラムを所定のカートリッジに記憶しておき、そのカートリッジとコネクタ124を介して端末装置100を接続し、制御部110は、そのカートリッジから当該プログラムを読みだすことも可能である。また、いわゆるネイティブアプリと呼ばれるプログラムのように、当該プログラムがサーバー装置に記憶され、端末装置100にダウンロードして実行することも可能である。   An example of the program according to the present embodiment is a game program, but is not limited thereto. Any program may be used as long as it requires an operation with a pseudo operation key as shown in FIG. Such a program is stored in advance in the memory unit 114 of the terminal device 100, but can be received from an external server device (not shown) via the communication processing unit 111. Further, the program can be stored in a predetermined cartridge, the terminal device 100 is connected to the cartridge via the connector 124, and the control unit 110 can read the program from the cartridge. Further, like a program called a so-called native application, the program can be stored in the server device and downloaded to the terminal device 100 and executed.

さらに、本実施形態においては、当該プログラムの実行を端末装置100制御部110において実行する場合について説明するが、いわゆるwebアプリと呼ばれるプログラムのように、外部のサーバー装置内に当該プログラムを記憶し、プログラムの進行に応じて端末装置100から送信された指示・コマンドに応じてサーバー装置内に当該プログラムにより処理を実行し、その結果を端末装置100に送信することで、本実施形態に係る表示を実現することも可能である。   Furthermore, in this embodiment, although the case where the execution of the said program is performed in the terminal device 100 control part 110 is demonstrated, the said program is memorize | stored in an external server apparatus like the program called what is called a web application, In accordance with an instruction / command transmitted from the terminal device 100 according to the progress of the program, processing is executed by the program in the server device, and the result is transmitted to the terminal device 100, whereby the display according to the present embodiment is displayed. It can also be realized.

図2は、本発明の一実施形態に係る端末装置の表示部に表示される画面の例であって、ユーザが疑似ジョイスティック131を操作している状態を示す図である。端末装置100の表示部113には、疑似操作キーとして機能する疑似ジョイスティック131が、あらかじめ決められた定位置に表示されている。疑似ジョイスティック131は、基準位置C0を中心とする円で形成されている。また、上記表示部113には、ユーザが指を接触した表示部113上の位置を明示的に把握するために、ユーザの指の接触位置C1を中心とする円で形成された操作オブジェクト135を表示している。   FIG. 2 is an example of a screen displayed on the display unit of the terminal device according to the embodiment of the present invention, and shows a state where the user is operating the pseudo joystick 131. On the display unit 113 of the terminal device 100, a pseudo joystick 131 that functions as a pseudo operation key is displayed at a predetermined position. The pseudo joystick 131 is formed of a circle centered on the reference position C0. In addition, the display unit 113 includes an operation object 135 formed of a circle centered on the contact position C1 of the user's finger in order to explicitly grasp the position on the display unit 113 where the user touched the finger. it's shown.

ここで、本実施形態においては、表示される疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにし、例えば可動オブジェクト132に表示が重畳した場合であっても可動オブジェクト132が視認可能にする。   Here, in the present embodiment, the displayed pseudo joystick 131 and the operation object 135 are displayed in a translucent manner so that the movable object 132 is visible even when the display is superimposed on the movable object 132, for example. .

図2においては、ユーザが疑似ジョイスティック131上の任意の位置に指で接触した後、任意の方向に指をドラッグさせて接触位置C1の位置まで移動させた状態を示している。そして、基準位置C0の座標値と接触位置C1の座標値とから基準位置C0から見た接触位置C1の方向A0と両位置間の距離D0を決定する。そして、決定された方向A0と距離D0に基づいて、可動オブジェクト132の表示位置の移動方向Ax及び移動距離Dxを決定する。その結果、可動オブジェクト132は、当初表示されていた位置(図中、破線で示した可動オブジェクト132の位置)から決定された方向Axに距離Dxだけ移動して表示される。   FIG. 2 shows a state in which the user touches an arbitrary position on the pseudo joystick 131 with a finger and then drags the finger in an arbitrary direction to the position of the contact position C1. Then, the direction A0 of the contact position C1 viewed from the reference position C0 and the distance D0 between the two positions are determined from the coordinate value of the reference position C0 and the coordinate value of the contact position C1. Then, based on the determined direction A0 and the distance D0, the moving direction Ax and the moving distance Dx of the display position of the movable object 132 are determined. As a result, the movable object 132 is moved and displayed by the distance Dx in the direction Ax determined from the initially displayed position (the position of the movable object 132 indicated by a broken line in the drawing).

なお、本実施形態では、上記のとおり疑似ジョイスティック131及び操作オブジェクト135は半透明に表示するようにしているが、必ずしも、疑似ジョイスティック131及び操作オブジェクト135は常に表示されている必要はない。特に図示はしないが、一例としてはタッチパネル116に指示体が接触した時に初めてそれらが表示されるようにしてもよい。また、疑似ジョイスティック131及び操作オブジェクト135に対応する領域をタッチパネルの対応する位置に仮想的に設け、表示部113にはこれらを明示的に表示しないようにすることも可能である。   In the present embodiment, the pseudo joystick 131 and the operation object 135 are displayed semi-transparently as described above. However, the pseudo joystick 131 and the operation object 135 are not necessarily displayed at all times. Although not shown in particular, as an example, they may be displayed for the first time when the indicator touches the touch panel 116. It is also possible to virtually provide areas corresponding to the pseudo joystick 131 and the operation object 135 at corresponding positions on the touch panel so that these are not explicitly displayed on the display unit 113.

<端末装置>
図3は、本発明の一実施形態に係る端末装置100の構成を示すブロック図である。なお、本実施形態に係る端末装置100は、図3に示す構成要素の全てを備える必要はなく、一部を省略した構成をとることも可能である。
<Terminal device>
FIG. 3 is a block diagram illustrating a configuration of the terminal device 100 according to an embodiment of the present invention. Note that the terminal device 100 according to the present embodiment does not have to include all of the components illustrated in FIG. 3, and may have a configuration in which some are omitted.

図3を参照すると、本発明の一実施形態に係る端末装置100は、制御部110、アンテナ112に接続された無線通信処理部111、表示部113、メモリ部114、タッチパネル116及びハードキー117を含む操作部115、スピーカー119及びマイクロフォン120に接続された音声処理部118、加速度センサ122やGPSセンサ123を含む検出部121、コネクタ124、カメラ126と接続された画像処理部125を含む。これらの各要素が制御ラインおよびデータラインを介して互いに電気的に接続されている。   Referring to FIG. 3, the terminal device 100 according to an embodiment of the present invention includes a control unit 110, a wireless communication processing unit 111 connected to an antenna 112, a display unit 113, a memory unit 114, a touch panel 116, and a hard key 117. An operation processing unit 115 including the sound processing unit 118 connected to the speaker 119 and the microphone 120, a detection unit 121 including the acceleration sensor 122 and the GPS sensor 123, a connector 124, and an image processing unit 125 connected to the camera 126. Each of these elements is electrically connected to each other via a control line and a data line.

制御部110は、CPU(マイクロコンピュータ:マイコン)から構成され、タッチパネル116への接触により入力される座標情報に基づいて、メモリ部114に記憶された各画像情報の表示部113への表示を制御する。また、制御部110は、メモリ部114に記憶された本実施形態に係るプログラムを当該メモリ部114から読みだして、本実施形態に係るアプリケーションの進行を制御する。すなわち、制御部110は、メモリ部114に記憶された各種プログラムに基づいて、接続された他の構成要素を制御する。   The control unit 110 is configured by a CPU (microcomputer), and controls display of each image information stored in the memory unit 114 on the display unit 113 based on coordinate information input by touching the touch panel 116. To do. Further, the control unit 110 reads the program according to the present embodiment stored in the memory unit 114 from the memory unit 114 and controls the progress of the application according to the present embodiment. That is, the control unit 110 controls other connected components based on various programs stored in the memory unit 114.

制御部110は、単一のCPUで構成されても良いが、複数のCPUで構成しても良い。また、画像処理、すなわち表示部113に対する表示制御に特化したGPUを別途設けても良い。   The control unit 110 may be configured with a single CPU, but may be configured with a plurality of CPUs. In addition, a GPU specialized for image processing, that is, display control for the display unit 113 may be provided separately.

通信処理部111は、接続された無線通信アンテナ112を介して、メモリ部114に記憶された情報を遠隔に設置された他の端末に送信するため、又は他の端末から送信されて来た情報を受信するために、変調や復調などの各種処理を行うものである。例えば、本実施形態に係るプログラムをサーバー装置から受信するような場合には、通信処理部111は、本実施形態に係るプログラムを処理の進行に応じて随時、または実行開始時にまとめてサーバー装置等から受信するのを制御する。また、当該プログラムの実行による各種処理又は結果をサーバー装置に送信するのを制御する。   The communication processing unit 111 transmits information stored in the memory unit 114 to other remotely installed terminals via the connected wireless communication antenna 112, or information transmitted from other terminals. In order to receive the signal, various processes such as modulation and demodulation are performed. For example, when the program according to the present embodiment is received from the server device, the communication processing unit 111 collects the program according to the present embodiment as needed according to the progress of the process or at the start of execution of the server device or the like. Control receiving from. It also controls sending various processes or results from the execution of the program to the server device.

この通信処理部111は、W−CDMA(Wideband−Code Division Multiple Access)方式に代表されるような広帯域の無線通信方式に基づいて処理されるが、IEEE802.11に代表されるような無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式に基づいて処理することも可能である。   The communication processing unit 111 is processed based on a wideband wireless communication system represented by a W-CDMA (Wideband-Code Division Multiple Access) system, but a wireless LAN such as IEEE802.11. It is also possible to perform processing based on a method related to narrowband wireless communication such as Bluetooth (registered trademark).

表示部113は、例えばメモリ部114に記憶された画像情報に基づいて所定のプログラムを実行する制御部によって指示された可動オブジェクトや疑似ジョイスティックなどの疑似操作キー等を表示する。一例としては、液晶ディスプレイから構成される。なお、本実施形態に係る端末装置は単一の表示部を備えるものであるが、2つ以上の表示部を備えるものであっても良い。   The display unit 113 displays, for example, a pseudo operation key such as a movable object or a pseudo joystick instructed by a control unit that executes a predetermined program based on image information stored in the memory unit 114. As an example, it is composed of a liquid crystal display. In addition, although the terminal device which concerns on this embodiment is provided with a single display part, it may be provided with two or more display parts.

メモリ部114は、ROM、RAM、不揮発性メモリ等から構成される。ROMは、例えば本実施形態に係るプロググラムを記憶するメモリである。制御部110は、このプログラムをロードすることにより各種処理を実行する。RAMは、ROMに記憶されたプログラムを実行することにより生成される各種命令が制御部110により処理されている間、データの書き込み及び読み込みをするために用いられるメモリである。不揮発性メモリは、当該プログラムの実行によってデータの書き込み及び読み込みが実行されるメモリであって、ここに書き込まれたデータは、当該プログラムの実行が終了した後でも保存される。   The memory unit 114 includes a ROM, a RAM, a nonvolatile memory, and the like. The ROM is a memory that stores a program according to the present embodiment, for example. The control unit 110 executes various processes by loading this program. The RAM is a memory used for writing and reading data while various commands generated by executing a program stored in the ROM are processed by the control unit 110. The nonvolatile memory is a memory in which data is written and read by executing the program, and the data written therein is stored even after the execution of the program is completed.

操作部115は、タッチパネル116やハードキー117等から構成され、ユーザからの各種指示を受け付ける。   The operation unit 115 includes a touch panel 116, hard keys 117, and the like, and accepts various instructions from the user.

タッチパネル116は、表示部113を被覆するように配置され、表示部113の表示する画像データに対応する位置座標のデータを制御部110に出力するものである。タッチパネル方式としては、抵抗膜方式、静電容量結合方式、超音波表面弾性波方式など、公知の方式を利用することができる。また、その利用する方式に応じて、指やスタイラスペンなど公知の指示体によるタッチパネルへの接触を検出する。   The touch panel 116 is arranged so as to cover the display unit 113, and outputs position coordinate data corresponding to image data displayed on the display unit 113 to the control unit 110. As the touch panel system, a known system such as a resistive film system, a capacitive coupling system, and an ultrasonic surface acoustic wave system can be used. Moreover, according to the system to be used, a touch on a touch panel by a known indicator such as a finger or a stylus pen is detected.

ハードキー117は、物理的にスイッチを押下することにより信号のオン・オフを制御するもので、電源キーや音量キーなどから構成される。これらのハードキー117は、端末装置の電源のオン/オフや、プログラム実行中のバックミュージックの音量などを制御する。また、疑似操作キーに加えて、ゲームに用いる各機能キーを設置することも可能である。   The hard key 117 controls the on / off of a signal by physically pressing a switch, and includes a power key, a volume key, and the like. These hard keys 117 control the power on / off of the terminal device, the volume of back music during program execution, and the like. In addition to the pseudo operation keys, each function key used for the game can be installed.

検出部121は、加速度センサ122やGPSセンサ123から構成される。加速度センサは、端末装置100の3軸方向の加速度を検出して、例えば端末装置100の回転を検出する。   The detection unit 121 includes an acceleration sensor 122 and a GPS sensor 123. The acceleration sensor detects the acceleration in the triaxial direction of the terminal device 100, for example, detects the rotation of the terminal device 100.

コネクタ124は、例えば本実施形態に係るプログラムが記憶されたカートリッジや記憶媒体を挿入して、制御部114により読み出しや書き込みを仲介する。また、例えば液晶テレビなどの外部表示装置などへ画像情報を出力するための端子部をも含みうる。   For example, the connector 124 inserts a cartridge or a storage medium in which a program according to the present embodiment is stored, and mediates reading and writing by the control unit 114. Further, for example, a terminal portion for outputting image information to an external display device such as a liquid crystal television can be included.

音声処理部118は、マイクロフォン120から入力された音声情報をメモリ部114に記憶するため符号化する。また、音声制御部118は、メモリ部114に記憶されたバックミュージックなどの音声情報を復号化してスピーカー119から出力する。   The audio processing unit 118 encodes the audio information input from the microphone 120 for storage in the memory unit 114. In addition, the audio control unit 118 decodes audio information such as back music stored in the memory unit 114 and outputs the decoded audio information from the speaker 119.

画像処理部125は、カメラ126に接続され、カメラ126において撮像された画像を保存に適したデータ形式に変換して、メモリ部114に保存する。   The image processing unit 125 is connected to the camera 126, converts an image captured by the camera 126 into a data format suitable for storage, and stores the data in the memory unit 114.

<疑似ジョイスティックへの操作の概要>
図4は、疑似ジョイスティック131における基準位置からみた接触位置の方向及び距離の決定方法を説明する図である。
<Outline of operation to pseudo joystick>
FIG. 4 is a diagram for explaining a method for determining the direction and distance of the contact position as viewed from the reference position in the pseudo joystick 131.

図4は、表示部113に表示された疑似ジョイスティック131と指示体の接触位置との関係が示されている。まず、疑似ジョイスティック131は、地点C0を中心とした円で形成されている。この疑似ジョイスティック131の最初の表示位置は、予め表示部113上の任意の座標位置に決められており、当該プログラムの実行と共にその座標位置に疑似ジョイスティック131を示す円が表示される。なお、この表示部座標系は、タッチパネル座標系と一致するように対応付けられている。   FIG. 4 shows the relationship between the pseudo joystick 131 displayed on the display unit 113 and the contact position of the indicator. First, the pseudo joystick 131 is formed of a circle centered on the point C0. The initial display position of the pseudo joystick 131 is determined in advance to an arbitrary coordinate position on the display unit 113, and a circle indicating the pseudo joystick 131 is displayed at the coordinate position as the program is executed. The display unit coordinate system is associated with the touch panel coordinate system.

本実施形態においては、基準位置とは、指示体によるタッチパネル上の接触位置の方向及び距離を決定する際の基準となるものであって、疑似ジョイスティック131を形成する円の中心(地点C0)である。なお、この基準位置は、上記のとおり接触位置の方向及び距離を決定する際の基準となればよく、例えば疑似操作キーが円で形成されていないような場合には必ずしもその操作キーの中心(重心)である必要はない。基準となればよいので、予め決められた任意の位置であってよい。   In the present embodiment, the reference position is a reference for determining the direction and distance of the contact position on the touch panel by the indicator, and is the center of the circle forming the pseudo joystick 131 (point C0). is there. The reference position only needs to be a reference for determining the direction and distance of the contact position as described above. For example, when the pseudo operation key is not formed in a circle, the center of the operation key ( It does not have to be the center of gravity. Since it only needs to be a reference, it may be an arbitrary position determined in advance.

ユーザが、表示部113上に予め表示された疑似ジョイスティック131内の任意の位置に自身の指を接触させて、疑似ジョイスティック131内を任意の方向にドラッグし、接触位置を移動させる。すると、タッチパネル116がその移動中又は移動後の接触位置の位置座標を検出して、その位置座標を制御部110にレポートする。図4においては、接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)が、ドラッグ操作途中又はドラッグ操作後の指の接触位置として制御部110にレポートされる。   The user touches an arbitrary position in the pseudo joystick 131 displayed in advance on the display unit 113 and drags the pseudo joystick 131 in an arbitrary direction to move the contact position. Then, the touch panel 116 detects the position coordinates of the contact position during or after the movement, and reports the position coordinates to the control unit 110. In FIG. 4, the position coordinates (X2, Y2) of the contact position C2 or the position coordinates (X3, Y3) of the contact position C3 are reported to the control unit 110 as the contact position of the finger during or after the drag operation. The

制御部110は、あらかじめ決められた基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さを決定する。なお、上記角度は基準位置C0から見た各接触位置C2及びC3の方向を意味する。また、長さは、基準位置C0と各接触位置C2及びC3との間の距離を意味する。   The control unit 110 uses the predetermined position coordinates (X0, Y0) of the reference position C0, the obtained position coordinates (X2, Y2) of the contact position C2, or the position coordinates (X3, Y3) of the contact position C3. The angle and length formed by the line segments A2 and A3 to be formed are determined. In addition, the said angle means the direction of each contact position C2 and C3 seen from the reference position C0. The length means a distance between the reference position C0 and the contact positions C2 and C3.

これらの角度(方向)及び長さ(距離)は公知の方法で決定することが可能である。一例としては、下記のとおりである。線分A2を例にすると、まず角度(方向)は、基準位置C0を原点とする仮想的なXY座標においてX軸に対して線分A2のなす角度θ2及び線分A2の長さL2を以下の数式(数1)より算出する。

Figure 2016009473
These angles (directions) and lengths (distances) can be determined by a known method. An example is as follows. Taking the line segment A2 as an example, first, the angle (direction) is set to the angle θ2 formed by the line segment A2 with respect to the X axis and the length L2 of the line segment A2 with respect to the X axis in a virtual XY coordinate with the reference position C0 as the origin. It is calculated from the mathematical formula (Formula 1).
Figure 2016009473

メモリ部114には、基準位置C0の位置座標(X0,Y0)と、入手した接触位置C2の位置座標(X2,Y2)、又は接触位置C3の位置座標(X3,Y3)とで形成される線分A2及びA3のなす角度及び長さ、すなわち、基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離と、可動オブジェクト132の移動方向と移動量のとの対応関係を示すテーブルが記憶されている。制御部110は、そのテーブルを参照して、決定された基準位置C0から見た各接触位置C2及びC3の方向並びに基準位置C0と各接触位置C2及びC3間の距離から、可動オブジェクト132の移動方向と移動量を決定し、それに応じた可動オブジェクトの表示制御を行う。   The memory unit 114 is formed with the position coordinates (X0, Y0) of the reference position C0 and the obtained position coordinates (X2, Y2) of the contact position C2 or the position coordinates (X3, Y3) of the contact position C3. Angles and lengths formed by the line segments A2 and A3, that is, the directions of the contact positions C2 and C3 viewed from the reference position C0, the distances between the reference position C0 and the contact positions C2 and C3, and the moving direction of the movable object 132 A table indicating the correspondence between the movement amount and the movement amount is stored. The control unit 110 refers to the table and moves the movable object 132 from the direction of the contact positions C2 and C3 viewed from the determined reference position C0 and the distance between the reference position C0 and the contact positions C2 and C3. The direction and amount of movement are determined, and display control of the movable object is performed accordingly.

なお、上記の例ではテーブルを用いたが、所定の関係式を記憶しておき、それに基づいて可動オブジェクトの移動量及び移動量を決定してもよいし、その決定方法は公知のいかなる方法も利用することができる。また、可動オブジェクトの移動量としては、一例としては、移動する際の速度であっても良いし、移動する距離であっても良く、適宜選択することが可能である。   In the above example, a table is used. However, a predetermined relational expression may be stored, and the movement amount and movement amount of the movable object may be determined based on the stored relational expression. Can be used. The moving amount of the movable object may be, for example, a moving speed or a moving distance, and can be selected as appropriate.

図5は、疑似ジョイスティック131の表示制御の方法を説明する図である。まず、本実施形態に係る擬似ジョイスティック131には、疑似ジョイスティック131の表示領域に対応して、あらかじめ操作検出領域136がタッチパネル116上に定められている。この操作検出領域136は、この領域内に対して指示体による接触操作が行われた場合には、擬似ジョイスティック131への操作として制御部が認識するための領域である。   FIG. 5 is a diagram for explaining a display control method of the pseudo joystick 131. First, in the pseudo joystick 131 according to the present embodiment, an operation detection area 136 is defined on the touch panel 116 in advance corresponding to the display area of the pseudo joystick 131. The operation detection area 136 is an area for the control unit to recognize as an operation to the pseudo joystick 131 when a contact operation with an indicator is performed in this area.

図5(a)を参照すると、円で形成された擬似ジョイスティック131の表示領域と同一の領域を操作検出領域136として設定した場合が示されている。擬似ジョイスティック131の表示領域と操作検出領域136は完全に対応した同一の領域である。接触位置C1は、ユーザが指示体を操作して擬似ジョイスティック131上をドラッグ操作して指示体の移動してきた位置を示している。そしてユーザが指示体を操作してさらに擬似ジョイスティック131の中心である基準位置C0から遠ざかる方向にドラッグすると、指示体の接触位置C1は擬似ジョイスティック131の表示領域、すなわち操作検出領域136を越える。   Referring to FIG. 5A, a case where the same area as the display area of the pseudo joystick 131 formed by a circle is set as the operation detection area 136 is shown. The display area of the pseudo joystick 131 and the operation detection area 136 are the same area completely corresponding to each other. The contact position C1 indicates a position where the user has moved the indicator by dragging the pseudo joystick 131 by operating the indicator. When the user operates the indicator and drags it further away from the reference position C0, which is the center of the pseudo joystick 131, the contact position C1 of the indicator exceeds the display area of the pseudo joystick 131, that is, the operation detection area 136.

制御部110は、その時、擬似ジョイスティック131の表示位置を、越えた指示体の接触位置C1の位置に応じて変更するように制御する。すなわち、制御部110は、擬似ジョイスティック131の指示体の移動方向に追従して表示されるように制御する。一例としては、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を所定距離D1だけ越えたときに擬似ジョイスティック131の表示位置の移動を開始する。そして指示体の接触位置であるC1−1と疑似ジョイスティック131の表示領域との外縁との距離を、距離D1に維持するように、疑似ジョイスティック131の追従表示制御を行う。言い換えると、制御部110は、指示体によるドラッグ操作によって、その接触位置が疑似ジョイスティック131の表示領域を越えた時に、指示体の接触位置であって操作オブジェクト135を形成する円の中心である位置C1−1が疑似ジョイスティック131の表示領域、つまりは、疑似ジョイスティック131を形成する円の外側に位置するように表示を制御する。   At that time, the control unit 110 performs control so that the display position of the pseudo joystick 131 is changed according to the position of the contact position C1 of the indicator that has passed. That is, the control unit 110 performs control so that the pseudo joystick 131 is displayed following the moving direction of the indicator. As an example, the control unit 110 starts moving the display position of the pseudo joystick 131 when the contact position C1 of the indicator exceeds the display area of the pseudo joystick 131 by a predetermined distance D1. Then, the follow-up display control of the pseudo joystick 131 is performed so that the distance between the contact position of the indicator C1-1 and the outer edge of the display area of the pseudo joystick 131 is maintained at the distance D1. In other words, when the contact position exceeds the display area of the pseudo joystick 131 by the drag operation by the indicator, the control unit 110 is a position that is the contact position of the indicator and the center of the circle that forms the operation object 135. The display is controlled so that C1-1 is positioned outside the display area of the pseudo joystick 131, that is, outside the circle forming the pseudo joystick 131.

このように追従表示するまでの距離D1を設けることで、疑似ジョイスティック131の表示領域そのものを動かしているのではなく、あとからついてくるような感覚をユーザに提供することが可能となる。   By providing the distance D1 until the follow-up display is performed in this way, it is possible to provide the user with a feeling that does not move the display area itself of the pseudo joystick 131 but comes later.

なお、上記の場合、指示体の接触位置は実際にはC1−1にある。このような場合は、基準位置C0と指示体との接触位置に基づいて決定する線分A1の角度と長さは、基準位置C0と接触位置C1−1とを結ぶ線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置C0とに基づいて決定される。   In the above case, the contact position of the indicator is actually C1-1. In such a case, the angle and the length of the line segment A1 determined based on the contact position between the reference position C0 and the indicator are such that the line segment connecting the reference position C0 and the contact position C1-1 is the pseudo joystick 131. Is determined based on the position that intersects the outer edge of the display area and the reference position C0.

図5(b)、(c)は、擬似ジョイスティック131の表示制御の他の例を示す。図5(b)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも若干広い領域があらかじめ設定されている。このような場合は、仮に指示体の接触位置が不用意にジョイスティック131の表示領域の外になってしまった場合でも、擬似ジョイスティック131への操作であると認識しうる。また、制御部110は、指示体の接触位置C1が擬似ジョイスティック131の表示領域を越えてもすぐにはその表示を追従させる制御は行わず、操作検出領域136を越えて初めて疑似ジョイスティック131の表示位置を指示体の接触位置C1に応じて変更する追従表示制御を開始する。ユーザが指示体で操作キーに接触をするときに、狙った位置の多少のずれも吸収することができるので、よりユーザの操作性が向上する。また、図5(a)の場合と同様に、追従表示するまでの「遊び」の時間、距離を設けることで、ドラッグ操作を開始して以降のユーザの操作性がより向上する。   5B and 5C show other examples of display control of the pseudo joystick 131. FIG. According to FIG. 5B, the operation detection area 136 is set in advance to be slightly wider than the display area of the pseudo joystick 131. In such a case, even if the contact position of the indicator is inadvertently outside the display area of the joystick 131, it can be recognized as an operation to the pseudo joystick 131. Further, the control unit 110 does not perform control to immediately follow the display even when the contact position C1 of the indicator exceeds the display area of the pseudo joystick 131, and the display of the pseudo joystick 131 is not performed until the operation detection area 136 is exceeded. Follow-up display control for changing the position according to the contact position C1 of the indicator is started. When the user touches the operation key with the indicator, a slight shift in the target position can be absorbed, so that the operability for the user is further improved. Similarly to the case of FIG. 5A, by providing the “play” time and distance until the follow-up display, the operability of the user after the start of the drag operation is further improved.

図5(c)によると、操作検出領域136は、擬似ジョイスティック131の表示領域よりも狭い領域があらかじめ設定されている。このような場合は、制御部110は、指示体のドラッグ操作の結果、操作検出領域136を越えた段階で擬似ジョイスティック131の追従表示を開始する。つまり、指示体の接触位置は、まだ、擬似ジョイスティック131の表示領域上にあるにもかかわらず、追従表示が開始される。このようにすることで、ユーザによる指示体の接触位置は擬似ジョイスティックの表示領域から外れることはないので、常に接触しているような確かな感覚を得ることができる。   According to FIG. 5C, the operation detection area 136 is set in advance to be narrower than the display area of the pseudo joystick 131. In such a case, the control unit 110 starts the follow-up display of the pseudo joystick 131 when it exceeds the operation detection area 136 as a result of the drag operation of the indicator. That is, the follow-up display is started even though the contact position of the indicator is still on the display area of the pseudo joystick 131. By doing in this way, since the contact position of the indicator by the user does not deviate from the display area of the pseudo joystick, it is possible to obtain a certain feeling that the user is always touching.

なお、このような接触位置への擬似ジョイスティック131の追従表示制御は、上記図5(a)〜(c)のいずれの態様をも用いることが可能であって、適宜設定することができる。   Note that the follow-up display control of the pseudo joystick 131 to such a contact position can use any of the modes shown in FIGS. 5A to 5C and can be set as appropriate.

図6は、疑似ジョイスティック131の表示制御の方法を説明する図である。本実施形態においては、表示部113の右側に疑似操作ボタンA133及び/又は疑似操作ボタンB134が表示されている。指示体によるドラッグ操作が擬似ジョイスティック131の表示領域又は操作検出領域136を越えてなされることにより擬似ジョイスティック131を指示体の接触位置に追従して表示させたとき、疑似操作キー131の表示位置が所定の領域を越えるような場合は、その追従表示を一旦とどまるような表示を制御部110は表示部にさせる。   FIG. 6 is a diagram for explaining a display control method of the pseudo joystick 131. In the present embodiment, a pseudo operation button A 133 and / or a pseudo operation button B 134 are displayed on the right side of the display unit 113. When the pseudo joystick 131 is displayed following the contact position of the indicator by the drag operation by the indicator exceeding the display area or the operation detection area 136 of the pseudo joystick 131, the display position of the pseudo operation key 131 is changed. If the predetermined area is exceeded, the control unit 110 causes the display unit to display such that the following display is temporarily stopped.

具体的には、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分けた場合に、擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定する。すなわち、図6においては、疑似ジョイスティック131に対する操作を開始する前に疑似ジョイスティック131を表示していた位置であって、あらかじめ決められた定位置が存在する側の領域が移動可能領域137として設定されている。この移動可能領域137とは、疑似ジョイスティック131の表示位置が当該領域内にある場合には擬似ジョイスティック131の表示位置の移動(追従表示)を行い、領域を越えるような場合には表示部113の移動可能領域と他の領域との境界上に疑似ジョイスティック131がとどまるように表示するために、あらかじめ決められた領域である。すなわち、必ずしも表示部113の中心で半分に分けた領域を移動可能領域137とする必要はなく、疑似ジョイスティック131の表示領域及び操作検出領域136よりも広い領域であればよい。たとえば、他の擬似キーの配置や表示される可動オブジェクトの配置に応じて適宜変更することが可能である。また、指示体としてユーザの指を用いる場合には、移動可能領域137は、端末装置を把持した状態で指示体である指が相対的に接触可能な範囲が設定されることも可能である。   Specifically, when the display unit 113 is divided into a left region and a right region with the center (line AA ′) of the display unit 113 as an axis, the region where the pseudo joystick 131 is displayed (in FIG. 6). The left area) is set as the movable area 137. That is, in FIG. 6, the area where the pseudo joystick 131 is displayed before the operation on the pseudo joystick 131 is started and the side where the predetermined fixed position exists is set as the movable area 137. ing. The movable area 137 is used to move the display position of the pseudo joystick 131 (follow-up display) when the display position of the pseudo joystick 131 is within the area, and to move beyond the area. In order to display the pseudo joystick 131 so as to stay on the boundary between the movable area and another area, the area is determined in advance. That is, the area divided into half at the center of the display unit 113 does not necessarily need to be the movable area 137, and may be an area wider than the display area and the operation detection area 136 of the pseudo joystick 131. For example, it can be appropriately changed according to the arrangement of other pseudo keys and the arrangement of the displayed movable object. When the user's finger is used as the indicator, the movable region 137 can be set to a range in which the finger that is the indicator can be relatively contacted with the terminal device held.

図6を参照すると、擬似ジョイスティック131の追従表示制御の結果、擬似ジョイスティック131の表示位置(例えば、疑似ジョイスティック131内の基準位置C0)が移動可能領域137を越えるような場合には、移動可能領域137と表示部の他の領域138との境界139上にとどまるよう疑似ジョイスティック131を表示する。なお、図6の例においては、疑似ジョイスティック131は、指示体による接触位置C1を通る表示部113の外縁に平行な線140と境界139が交わる位置でとどまるように表示されている。したがって、他の領域138内で指示体を上下にドラッグ操作すると、疑似ジョイスティック131は境界線上を上下に動くように表示される。   Referring to FIG. 6, when the display position of the pseudo joystick 131 (for example, the reference position C0 in the pseudo joystick 131) exceeds the movable area 137 as a result of the follow-up display control of the pseudo joystick 131, the movable area The pseudo joystick 131 is displayed so as to remain on the boundary 139 between 137 and another area 138 of the display unit. In the example of FIG. 6, the pseudo joystick 131 is displayed so as to remain at a position where the line 140 parallel to the outer edge of the display unit 113 passing through the contact position C <b> 1 by the indicator and the boundary 139 intersect. Therefore, when the indicator is dragged up and down in another area 138, the pseudo joystick 131 is displayed so as to move up and down on the boundary line.

なお、図6においては、擬似ジョイスティック131の追従表示制御の結果擬似ジョイスティック131の表示位置が移動可能領域137を越えるような場合には、境界139上にとどまるよう疑似ジョイスティック131を表示する例を示すが、これに限られない。例えば、上記のような場合、もともと疑似ジョイスティック131が表示されていた所定の定位置に疑似ジョイスティックの表示位置が戻るよう、制御部110は表示を制御することも可能である。   FIG. 6 shows an example in which the pseudo joystick 131 is displayed so as to remain on the boundary 139 when the display position of the pseudo joystick 131 exceeds the movable region 137 as a result of the follow-up display control of the pseudo joystick 131. However, it is not limited to this. For example, in the above case, the control unit 110 can control the display so that the display position of the pseudo joystick returns to a predetermined fixed position where the pseudo joystick 131 was originally displayed.

<擬似ジョイスティックの制御フロー>
図7は、端末装置100の制御部110で本実施形態に係るプログラムを実行することで行われる処理の流れを示すフロー図である。メモリ部114に記憶された本実施形態に係るプログラムを制御部114が実行すると当該処理フローは開始される。そして、ユーザの指示体によって、タッチパネル116を介して、擬似ジョイスティック131に接触したことを検出する(S101)。次に、制御部110は、その接触位置が依然として擬似ジョイスティック131の表示領域内にあるか否かを判断する(S102)。なお、図5において説明したとおり、S102における判断の基準としては、擬似ジョイスティック131の表示領域に変えて、操作検出領域136を用いることも可能である。
<Control flow of pseudo joystick>
FIG. 7 is a flowchart showing a flow of processing performed by executing the program according to the present embodiment in the control unit 110 of the terminal device 100. When the control unit 114 executes the program according to the present embodiment stored in the memory unit 114, the processing flow is started. Then, it is detected by the user's indicator that the pseudo joystick 131 is touched via the touch panel 116 (S101). Next, the control unit 110 determines whether or not the contact position is still within the display area of the pseudo joystick 131 (S102). As described with reference to FIG. 5, the operation detection area 136 can be used in place of the display area of the pseudo joystick 131 as the determination criterion in S <b> 102.

S102において、まだ擬似ジョイスティック内に指示体の接触位置があると判断された場合、その接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する(S103及びS104)。そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S105)。   In S102, when it is determined that the contact position of the indicator is still in the pseudo joystick, the direction and contact of the contact position viewed from the reference position based on the contact position and the reference position provided in the pseudo joystick. The distance between the position and the reference position is determined (S103 and S104). Then, based on the determined direction and distance, the control unit 110 determines the moving direction and moving amount of the movable object displayed on the display unit 113 from the reference table stored in the memory unit 114, and moves the movable object. The movement display of the object is controlled (S105).

次に、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、接触が継続しドラッグ操作がなされていると判断すると、再びS102に戻り、ドラッグ操作後の接触位置に基づいて擬似ジョイスティック131の表示領域内に接触位置があるか否かを判断する。   Next, it is determined whether or not contact with the touch panel by the indicator continues, that is, whether or not a drag operation is being performed (S106). As a result, if it is determined that the contact is continued and the drag operation is performed, the process returns to S102 again, and it is determined whether or not there is a contact position in the display area of the pseudo joystick 131 based on the contact position after the drag operation.

S102において、擬似ジョイスティック131の表示領域内にないと判断された場合、すなわち、ドラッグ操作によって指示体の接触位置が擬似ジョイスティック131の表示領域を越えていると判断された場合には、S107に移行する。   If it is determined in S102 that it is not within the display area of the pseudo joystick 131, that is, if it is determined that the contact position of the indicator exceeds the display area of the pseudo joystick 131 by the drag operation, the process proceeds to S107. To do.

次に、S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断する(S107)。そして、制御部110は、まだその接触位置が移動可能領域137内にあると判断した場合には、その接触位置に応じて擬似ジョイスティック131の表示位置を変更するように制御する(S108)。すなわち、制御部110は、擬似ジョイスティック131の接触位置への追従表示制御を行う。   Next, in S107, the control unit 110 determines whether or not the display position of the pseudo joystick 131 is within the movable area 137 (S107). If the control unit 110 determines that the contact position is still within the movable region 137, the control unit 110 controls to change the display position of the pseudo joystick 131 according to the contact position (S108). That is, the control unit 110 performs display control for following the contact position of the pseudo joystick 131.

次に、S109及びS110において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、距離の決定には接触位置を用いているが、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することも可能である。   Next, in S109 and S110, based on the contact position of the indicator and the reference position provided in the pseudo joystick, the direction of the contact position viewed from the reference position and the distance between the contact position and the reference position are determined. To do. Although the contact position is used to determine the distance, the line segment determined based on the contact position between the reference position and the indicator is based on the position where the outer edge of the display area of the pseudo joystick 131 intersects with the reference position. It is also possible to decide.

そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S111)。   Then, based on the determined direction and distance, the control unit 110 determines the moving direction and moving amount of the movable object displayed on the display unit 113 from the reference table stored in the memory unit 114, and moves the movable object. The movement display of the object is controlled (S111).

そして、S106において、制御部110は、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する(S106)。その結果、制御部110が、ドラッグ操作が継続していると判断すると、S102に戻る。ここで、上記同様、制御部110が、擬似ジョイスティック131の表示領域を越えていると判断した場合には、処理はS107に進む。   In step S106, the control unit 110 determines whether or not the pointer continues to touch the touch panel, that is, whether or not a drag operation is being performed (S106). As a result, when the control unit 110 determines that the drag operation is continued, the process returns to S102. Here, as described above, when the control unit 110 determines that the display area of the pseudo joystick 131 is exceeded, the process proceeds to S107.

S107において、制御部110は、疑似ジョイスティック131の表示位置が移動可能領域137内にあるか否かを判断し(S107)、越えたと判断した場合には、制御部110による処理はS112に進む。   In S107, the control unit 110 determines whether or not the display position of the pseudo joystick 131 is within the movable area 137 (S107). If it is determined that the display position has been exceeded, the process by the control unit 110 proceeds to S112.

S112においては、制御部110は、移動可能領域137と表示部113の他の領域138との境界139上に疑似ジョイスティック131の表示位置を変更する。S113及びS114において、指示体の接触位置と擬似ジョイスティック内に設けられた基準位置とに基づいて、基準位置から見た接触位置の方向と接触位置と基準位置との間の距離を決定する。なお、この場合は、距離の決定に接触位置を用いているが、この接触位置に代えて、基準位置と指示体との接触位置に基づいて決定する線分が前記擬似ジョイスティック131の表示領域の外縁に交わる位置と基準位置とに基づいて決定することが好ましい。   In S112, the control unit 110 changes the display position of the pseudo joystick 131 on the boundary 139 between the movable region 137 and the other region 138 of the display unit 113. In S113 and S114, based on the contact position of the indicator and the reference position provided in the pseudo joystick, the direction of the contact position viewed from the reference position and the distance between the contact position and the reference position are determined. In this case, the contact position is used to determine the distance, but instead of this contact position, a line segment determined based on the contact position between the reference position and the indicator is the display area of the pseudo joystick 131. It is preferable to determine the position based on the position intersecting the outer edge and the reference position.

そして、制御部110は、その決定された方向及び距離に基づいて、メモリ部114内に記憶された参照テーブルから表示部113に表示された可動オブジェクトの移動方向及び移動量を決定し、その可動オブジェクトの移動表示を制御する(S115)。   Then, based on the determined direction and distance, the control unit 110 determines the moving direction and moving amount of the movable object displayed on the display unit 113 from the reference table stored in the memory unit 114, and moves the movable object. The movement display of the object is controlled (S115).

そして、再びS106に戻って、引き続き指示体によるタッチパネルへの接触が継続しているか否か、すなわちドラッグ操作を行っているか否かを判断する。S106において、指示体がタッチパネル上から離されたと判断されると、この処理フローは終了する。   Then, the process returns to S106 again, and it is determined whether or not the pointer continues to touch the touch panel, that is, whether or not a drag operation is being performed. If it is determined in S106 that the indicator has been released from the touch panel, the processing flow ends.

<画面遷移>
図8は、本実施形態に係るプログラムの実行による画面例を示す模式図である。図8(a)を参照すると、端末装置100の制御部110は、本実施形態に係るプログラムの実行を開始すると、表示部113の所定の定位置に擬似ジョイスティック131及び所定の可動オブジェクト132を表示する。なお、可動オブジェクト132は、人物や動物、モンスターなどのキャラクタに加えて、武器や岩など、プログラムの実行中に仮想空間上を動くあらゆるものを含みうる。
<Screen transition>
FIG. 8 is a schematic diagram illustrating a screen example obtained by executing the program according to the present embodiment. 8A, when the control unit 110 of the terminal device 100 starts executing the program according to the present embodiment, the control unit 110 displays the pseudo joystick 131 and the predetermined movable object 132 at a predetermined fixed position on the display unit 113. To do. In addition to the characters such as people, animals, and monsters, the movable object 132 can include anything that moves in the virtual space during execution of the program, such as weapons and rocks.

さらに図8(a)を参照すると、表示部113には、ユーザが指示体を接触したタッチパネル116上の位置を明示的に把握するための操作オブジェクト135を表示している。この操作オブジェクト135は指示体によるタッチ位置が操作オブジェクト135の中心になるように指示体の移動と共に表示位置を移動する。   Further, referring to FIG. 8A, the display unit 113 displays an operation object 135 for explicitly grasping the position on the touch panel 116 where the user touches the indicator. The operation object 135 moves the display position along with the movement of the indicator so that the touch position by the indicator becomes the center of the operation object 135.

なお、図8(a)においては、まだユーザが指示体を使ってタッチパネル116上の接触操作を行っていないので、疑似ジョイスティック131及び可動オブジェクト132は、ともにあらかじめ決められた定位置に表示されている。具体的には、疑似ジョイスティック131の中心C0と接触位置を示す操作オブジェクト135の中心とが重なるように表示されている。   In FIG. 8A, since the user has not yet performed the touch operation on the touch panel 116 using the indicator, both the pseudo joystick 131 and the movable object 132 are displayed at predetermined positions. Yes. Specifically, the center C0 of the pseudo joystick 131 and the center of the operation object 135 indicating the contact position are displayed so as to overlap each other.

図8(b)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作しているときの画面例を示す模式図である。図8(b)を参照すると、指示体で接触位置C1の位置に接触することによって操作オブジェクト135も一緒に表示位置が移動されている。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。なお、このとき指示体の接触位置は擬似オブジェクト131の表示領域を越えてはいないので、制御部110は擬似オブジェクト131の表示位置の追従表示制御は行わず、定位置に表示するように制御する。   FIG. 8B is a schematic diagram illustrating a screen example when the user performs a drag operation on the pseudo joystick 131 with an indicator when the display illustrated in FIG. 8A is performed. Referring to FIG. 8B, the display position of the operation object 135 is also moved by contacting the position of the contact position C1 with the indicator. Further, the direction of the contact position C1 and the distance to the contact position C1 are determined based on the reference position C0 and the contact position C1, and the display of the movable object 132 is performed using the determined direction and distance based on the determined direction and distance. The position has been moved. At this time, since the contact position of the indicator does not exceed the display area of the pseudo object 131, the control unit 110 performs control so that the display position of the pseudo object 131 is not displayed, but is displayed at a fixed position. .

図8(c)は、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。なお、この例においては、擬似ジョイスティック131の追従表示制御をするか否かをその表示領域を基準にしたが、操作検出領域136を用いることも可能である。図8(c)を参照すると、擬似ジョイスティック131の追従表示制御がなされているので、接触位置の移動に伴って擬似ジョイスティック131の表示領域も一緒に移動している。また、基準位置C0と接触位置C1に基づいて接触位置C1の方向と接触位置C1までの距離を決定し、その決定された方向と距離に基づいて決定された方向及び距離で可動オブジェクト132の表示位置が移動されている。   FIG. 8C shows a case where the user drags on the pseudo joystick 131 with an indicator while the display shown in FIG. 8A is being performed, and the contact position exceeds the display area of the pseudo joystick 131. It is a schematic diagram which shows the example of a screen. In this example, whether or not to perform the follow-up display control of the pseudo joystick 131 is based on the display area, but the operation detection area 136 can also be used. Referring to FIG. 8C, since the follow-up display control of the pseudo joystick 131 is performed, the display area of the pseudo joystick 131 is moved together with the movement of the contact position. Further, the direction of the contact position C1 and the distance to the contact position C1 are determined based on the reference position C0 and the contact position C1, and the display of the movable object 132 is performed using the determined direction and distance based on the determined direction and distance. The position has been moved.

図8(d)は、図8(c)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。図8(c)において説明したとおり、擬似ジョイスティック131の追従表示制御がなされている。また、可動オブジェクト132は、定位置にあった擬似操作オブジェクト131への操作時間の経過とともに、図8(c)の場合と比べて、より長い距離移動している。   In FIG. 8D, similarly to FIG. 8C, when the display shown in FIG. 8A is made, the user drags the pseudo joystick 131 with the indicator and the contact position is simulated. FIG. 6 is a schematic diagram illustrating an example of a screen when a display area of a joystick 131 is exceeded. As described in FIG. 8C, the follow-up display control of the pseudo joystick 131 is performed. In addition, the movable object 132 has moved a longer distance as compared with the case of FIG. 8C as the operation time for the pseudo operation object 131 at the fixed position has elapsed.

図8(e)は、図8(c)、(d)と同様に、図8(a)に示す表示がなされているときにユーザが指示体で擬似ジョイスティック131上をドラッグ操作して、その接触位置が擬似ジョイスティック131の表示領域を越えた場合の画面例を示す模式図である。ここで、図8(e)の例においては、表示部113の中心(線A−A’)を軸として表示部113を左領域と右領域として分け擬似ジョイスティック131が表示されていた方の領域(図6では左側の領域)を、移動可能領域137として設定している。そして、指示体の接触位置を示す接触位置C1が移動可能領域137を越え、疑似ジョイスティック131の表示位置(具体的には、基準位置C0)が移動可能領域137を越えようとしている。したがって、擬似操作オブジェクト131は、移動可能領域137と他の領域138との境界139上に、その基準位置C0が来るように表示されている。なお、ここでは、基準位置C0が越えると境界線上にとどまるようにしたが、当然、基準位置ではなく、境界139にもっとも近い疑似ジョイスティック131の表示領域の外縁が移動可能領域137を越えたときに、境界線上にとどまるように表示するようにしても良い。   8 (e) is similar to FIGS. 8 (c) and 8 (d), when the display shown in FIG. 8 (a) is made, the user drags the pseudo joystick 131 with the indicator, FIG. 10 is a schematic diagram illustrating a screen example when the contact position exceeds the display area of the pseudo joystick 131. Here, in the example of FIG. 8E, the display unit 113 is divided into a left region and a right region with the center (line AA ′) of the display unit 113 as an axis, and the region where the pseudo joystick 131 is displayed. (A left area in FIG. 6) is set as a movable area 137. Then, the contact position C1 indicating the contact position of the indicator exceeds the movable area 137, and the display position of the pseudo joystick 131 (specifically, the reference position C0) is about to exceed the movable area 137. Therefore, the pseudo operation object 131 is displayed so that the reference position C0 comes on the boundary 139 between the movable area 137 and the other area 138. Here, when the reference position C0 is exceeded, it stays on the boundary line. Naturally, when the outer edge of the display area of the pseudo joystick 131 closest to the boundary 139 exceeds the movable area 137, not the reference position. Alternatively, it may be displayed so as to stay on the boundary line.

以上の通り、本実施形態においては、指示体の接触位置が擬似ジョイスティック131又は操作検出領域136を越えて移動した場合には、その接触位置に基づいて擬似ジョイスティック131の表示位置も移動する、すなわち追従表示制御をするので、例えば移動するキャラクタ等の可動オブジェクトの移動に集中するがために指の指示体の位置がいつの間にか擬似ジョイスティック131から外れてしまうという不都合を防止することができる。また、移動可能領域137を越えると擬似操作オブジェクト131の表示位置を移動可能領域137と他の領域138の境界上にとどまるように表示するので、指示体である指の位置から相対的に入力可能な範囲での追従表示制御が行われ、ユーザにとって違和感のない操作が可能となる。   As described above, in this embodiment, when the contact position of the indicator moves beyond the pseudo joystick 131 or the operation detection area 136, the display position of the pseudo joystick 131 also moves based on the contact position. Since the follow-up display control is performed, for example, although the focus is on the movement of a movable object such as a moving character, it is possible to prevent the inconvenience that the position of the finger indicator is detached from the pseudo joystick 131 before long. Further, since the display position of the pseudo operation object 131 is displayed so as to stay on the boundary between the movable area 137 and the other area 138 when the movable area 137 is exceeded, it can be input relatively from the position of the finger as the indicator. The follow-up display control is performed in a wide range, and an operation without a sense of incongruity for the user is possible.

<本発明の他の実施形態>
本発明の他の実施形態について説明する。なお、上記実施形態に係る端末装置100と同じ機能を果たすものについては、説明を省略する。また、上記実施形態、及び以下で説明する他の実施形態は、適宜それらの一部又は全部を組み合わせることが可能である。
<Other Embodiments of the Present Invention>
Another embodiment of the present invention will be described. In addition, description is abbreviate | omitted about what fulfill | performs the same function as the terminal device 100 which concerns on the said embodiment. In addition, the above-described embodiment and other embodiments described below can be appropriately combined with part or all of them.

1.擬似ジョイスティック131の表示位置
上記実施形態においては、上記実施形態に係るプログラムを実行すると、あらかじめ決められた定位置に擬似操作オブジェクト131を表示して、その擬似操作オブジェクト131上を指示体で接触することによって処理が開始する場合を説明した。しかし、それに代えて、任意の位置を指示体で接触することによって処理が開始するようにしてもよい。
1. Display Position of Pseudo Joystick 131 In the above embodiment, when the program according to the above embodiment is executed, the pseudo operation object 131 is displayed at a predetermined fixed position, and the pseudo operation object 131 is touched with an indicator. The case where the process is started has been described. However, instead, the processing may be started by contacting an arbitrary position with an indicator.

図9は、その具体例として、擬似ジョイスティック131の表示位置を示す他の実施形態に係る画面例を示す模式図である。図9を参照すると、プログラムの実行によって定位置(図9中、破線で示す。)に擬似ジョイスティック131が表示されている。その後、指示体によって、任意の位置が接触されると、その接触位置を基準位置C0として、その基準位置C0を中心とする表示位置に擬似ジョイスティック131を移動する。そして、その移動後の位置において擬似操作オブジェクト131を用いた可動オブジェクトの表示制御や、擬似操作オブジェクト131の追従表示制御を行う。その具体的な処理フローなどは上記実施形態において実施するものと同様である。   FIG. 9 is a schematic diagram showing a screen example according to another embodiment showing the display position of the pseudo joystick 131 as a specific example. Referring to FIG. 9, a pseudo joystick 131 is displayed at a fixed position (indicated by a broken line in FIG. 9) by executing the program. Thereafter, when an arbitrary position is touched by the indicator, the pseudo joystick 131 is moved to a display position centered on the reference position C0 with the contact position as the reference position C0. Then, display control of the movable object using the pseudo operation object 131 and tracking display control of the pseudo operation object 131 are performed at the position after the movement. The specific processing flow is the same as that performed in the above embodiment.

このように、表示位置を設定することで、よりユーザの利便性を向上することができる。   Thus, the convenience of the user can be further improved by setting the display position.

2.端末装置100を縦長方向に用いた場合の制御
上記実施形態に係る端末装置100は、加速度センサ122を備える。この加速度センサ122を利用して、公知の方法により、端末装置100の回転を検出することが可能である。上記実施形態では、端末装置100を横長方向で使用していた場合について説明したが、ユーザが端末装置100を縦長方向に持ち替えて、本実施形態においては加速度センサ122によって端末装置100の回転を検出すると、表示部113の表示を切り替える。
2. Control when the terminal device 100 is used in the longitudinal direction The terminal device 100 according to the embodiment includes the acceleration sensor 122. Using this acceleration sensor 122, it is possible to detect the rotation of the terminal device 100 by a known method. In the above embodiment, the case where the terminal device 100 is used in the horizontally long direction has been described. However, the user changes the terminal device 100 in the vertically long direction, and in this embodiment, the acceleration sensor 122 detects the rotation of the terminal device 100. Then, the display on the display unit 113 is switched.

図10は、その具体例として、端末装置100を縦長方向で使用した場合の画面例を示す模式図である。図10(a)を参照すると、表示部113の上部にはプログラムの進行に伴って表示される可動オブジェクト132等を、下部には擬似ジョイスティック131、疑似操作ボタンA133及び疑似操作ボタンB134の擬似操作キーが表示されている。すなわち、横長方向に端末装置100を使用していた時には、プログラムの進行とともに随時変化する表示オブジェクトに重畳させて擬似ジョイスティック131等の擬似操作キーを表示させていたが、縦長方向に端末装置100を使用するときには、それらを異なる表示領域に表示するように表示を制御する。   FIG. 10 is a schematic diagram showing a screen example when the terminal device 100 is used in the vertically long direction as a specific example. Referring to FIG. 10A, the movable object 132 displayed as the program progresses in the upper part of the display unit 113, and the pseudo operation of the pseudo joystick 131, the pseudo operation button A133, and the pseudo operation button B134 are displayed in the lower part. The key is displayed. That is, when the terminal device 100 is used in the horizontally long direction, the pseudo operation key such as the pseudo joystick 131 is displayed on the display object that changes as the program progresses, but the terminal device 100 is displayed in the vertically long direction. When used, the display is controlled so that they are displayed in different display areas.

図10(b)は、指示体による接触位置に擬似ジョイスティック131が追従して表示制御されている画面例の模式図である。この追従表示制御の方法は、上記実施形態において説明した方法と同様である。   FIG. 10B is a schematic diagram of a screen example in which display control is performed by the pseudo joystick 131 following the contact position by the indicator. The following display control method is the same as the method described in the above embodiment.

図10(c)は、指示体による接触位置が移動可能領域137を越えてドラッグされた場合の画面例を示す模式図である。図10(c)においては、移動可能領域137として、疑似操作ボタンA133及び疑似操作ボタンB134の配置及び指示体として用いる左手親指の接触可能な範囲を考慮して、表示部113の左下が設定されている。そして、接触位置C1が移動可能領域137を越えて移動しているため、表示部113左下に設定された移動可能領域137の境界上に疑似ジョイスティック131の表示位置がとどまるように制御される。   FIG. 10C is a schematic diagram illustrating a screen example when the contact position by the indicator is dragged beyond the movable region 137. In FIG. 10C, the lower left of the display unit 113 is set as the movable region 137 in consideration of the arrangement of the pseudo operation button A133 and the pseudo operation button B134 and the range in which the left thumb used as an indicator can be contacted. ing. Since the contact position C1 moves beyond the movable area 137, the display position of the pseudo joystick 131 is controlled to remain on the boundary of the movable area 137 set at the lower left of the display unit 113.

このように、加速度センサ122の出力に基づいて表示部113の表示態様を切り替えるとともに、擬似操作キーの表示態様も切り替えることで、ユーザにより多様な操作方法を提供することができる。   As described above, by switching the display mode of the display unit 113 based on the output of the acceleration sensor 122 and also switching the display mode of the pseudo operation key, various operation methods can be provided by the user.

なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを必ずしも半透明に表示する必要はない。   In the above embodiment, the pseudo joystick 131 and the operation object 135 are displayed translucently. However, in this embodiment, these display areas and display areas such as the movable object 132 are separate display areas. Therefore, the pseudo joystick 131 and the operation object 135 are not necessarily displayed semi-transparently.

3.端末装置100を外部表示装置200に接続した場合の制御
上記実施形態においては、プログラムの進行とともに随時変化する表示オブジェクトを端末装置100の表示部113に表示させる場合について説明したが、液晶テレビなどの外部表示装置に接続して、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を外部表示装置に表示させることも可能である。
3. Control when Terminal Device 100 is Connected to External Display Device 200 In the above embodiment, the case where a display object that changes as the program progresses is displayed on the display unit 113 of the terminal device 100 has been described. It is also possible to connect to an external display device so that image information such as a display object that changes as the program progresses is displayed on the external display device.

図11は、端末装置100を外部表示装置200に接続した場合の画面例を示す模式図である。図11によると、端末装置100は、外部表示装置200に無線回線を通じて接続され、プログラムの進行とともに随時変化する表示オブジェクト等の画像情報を出力している。なお、この接続は、通信処理部111を介して、無線LANやBluetooth(登録商標)のような狭帯域の無線通信に関する方式を利用することが可能である。また、端末装置100が備えるコネクタ124を介して、HDMI(登録商標)などを利用した有線接続をすることも可能である。   FIG. 11 is a schematic diagram illustrating a screen example when the terminal device 100 is connected to the external display device 200. According to FIG. 11, the terminal device 100 is connected to the external display device 200 through a wireless line, and outputs image information such as a display object that changes as the program progresses. Note that this connection can use a method related to narrowband wireless communication such as a wireless LAN or Bluetooth (registered trademark) via the communication processing unit 111. Also, a wired connection using HDMI (registered trademark) or the like can be performed via the connector 124 included in the terminal device 100.

図11を参照すると、端末装置100の表示部113には擬似ジョイスティック131を含む擬似操作キーが表示され、可動オブジェクト132を含むゲーム進行に伴って変化する表示オブジェクトは外部表示装置200に表示されている。この擬似ジョイスティック131を用いた可動オブジェクト132の表示制御や、擬似ジョイスティック131の追従表示制御は上記実施形態と同様である。   Referring to FIG. 11, a pseudo operation key including a pseudo joystick 131 is displayed on the display unit 113 of the terminal device 100, and a display object that changes as the game progresses including the movable object 132 is displayed on the external display device 200. Yes. The display control of the movable object 132 using the pseudo joystick 131 and the follow-up display control of the pseudo joystick 131 are the same as in the above embodiment.

このようにすることで、端末装置100を操作専用のコントローラーとして用いることができ、ユーザにより高い臨場感を提供することができる。   By doing in this way, the terminal device 100 can be used as a controller only for operation, and a higher realism can be provided to the user.

なお、上記実施形態では、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示するようにしたが、本実施形態においては、これらの表示領域と可動オブジェクト132等の表示領域とが別々の表示領域として設定されているので、疑似ジョイスティック131と操作オブジェクト135とを半透明に表示する必要はない。   In the above embodiment, the pseudo joystick 131 and the operation object 135 are displayed translucently. However, in this embodiment, these display areas and display areas such as the movable object 132 are separate display areas. Therefore, it is not necessary to display the pseudo joystick 131 and the operation object 135 in a translucent manner.

4.擬似操作キーの他の例
上記実施形態では、擬似操作キーとして、擬似ジョイスティック131を用いた場合について説明した。しかし、本発明を適用可能な擬似操作キーとしては、擬似ジョイスティック131に限らない。たとえば、本発明は、一定時間以上継続して接触させ続ける必要がある擬似操作キーに適用することができる。
4). Other Examples of Pseudo Operation Keys In the above embodiment, the case where the pseudo joystick 131 is used as a pseudo operation key has been described. However, the pseudo operation key to which the present invention can be applied is not limited to the pseudo joystick 131. For example, the present invention can be applied to a pseudo operation key that needs to be kept in contact for a predetermined time or longer.

図12は、擬似操作キーとして、擬似十字キーを適用した場合の画面例を示す模式図である。図12を参照すると、端末装置100の表示部113には、擬似十字キー151が所定の位置に表示されている。ユーザは接触体で擬似十字キー157が備える上下左右4方向の擬似操作キーに接触することによって可動キャラクタ132の移動を制御することができる。   FIG. 12 is a schematic diagram illustrating a screen example when a pseudo cross key is applied as a pseudo operation key. Referring to FIG. 12, a pseudo cross key 151 is displayed at a predetermined position on the display unit 113 of the terminal device 100. The user can control the movement of the movable character 132 by touching the pseudo operation keys in the four directions of up, down, left, and right provided on the pseudo cross key 157 with a contact body.

なお、擬似十字キー151の場合は、擬似ジョイスティック131と比較して、細かな複数の擬似キーで構成されているために、ユーザはより細かな指示体による操作が必要である。したがって、当然、擬似十字キー151を構成する個々の擬似操作キーの表示領域を指示体の接触位置が越えると擬似十字キー151の追従表示制御を開始することもできる。しかし、擬似十字キー151の表示領域よりも広い操作検出領域136を設定し、この操作検出領域136を基準にして擬似十字キー151の追従表示制御をする方がより好ましい。   In the case of the pseudo cross key 151, compared to the pseudo joystick 131, the pseudo cross key 151 is composed of a plurality of fine pseudo keys, and therefore the user needs to operate with a finer indicator. Therefore, naturally, the follow-up display control of the pseudo cross key 151 can also be started when the contact position of the indicator exceeds the display area of each pseudo operation key constituting the pseudo cross key 151. However, it is more preferable to set an operation detection area 136 wider than the display area of the pseudo cross key 151 and to perform the follow-up display control of the pseudo cross key 151 based on the operation detection area 136.

図13は、擬似操作キーとして、弓矢を模したキーを適用した場合の画面例を示す模式図である。上記実施形態では、擬似操作キーとして擬似ジョイスティック131を用いる場合について説明した。すなわち、擬似操作キー円で形成しており、基準位置としてその円の中心を設定する場合について説明した。しかし、本実施形態のように、その基準位置は擬似操作キーの中心又は重心に限らず、任意の位置を基準位置として設定することが可能である。   FIG. 13 is a schematic diagram illustrating a screen example when a key imitating a bow and arrow is applied as a pseudo operation key. In the above embodiment, the case where the pseudo joystick 131 is used as the pseudo operation key has been described. That is, a case has been described in which a pseudo operation key circle is formed and the center of the circle is set as the reference position. However, as in this embodiment, the reference position is not limited to the center or the center of gravity of the pseudo operation key, and an arbitrary position can be set as the reference position.

図13を参照すると、弓矢を模した擬似操作キー161が表示されている。ユーザはこの擬似操作キー161の弓をひくような操作、すなわち矢の上を指示体で接触させ、そのまま所定の方向にドラッグし、離すと、制御部110は矢が仮想空間上を飛んでいくように表示を制御する。このような場合においては、接触位置の方向及び距離の決定の基準となる基準位置を任意の位置C4に適宜設定することが可能である。また、擬似操作キー161の追従表示制御をするか否かの基準となる領域も、擬似操作キー161の表示領域ではなく、操作検出領域136として、任意の領域を設定することが可能である。   Referring to FIG. 13, a pseudo operation key 161 imitating a bow and arrow is displayed. When the user performs an operation of pulling the bow of the pseudo operation key 161, that is, touches the arrow with a pointer, drags in a predetermined direction as it is and releases it, the control unit 110 causes the arrow to fly in the virtual space To control the display. In such a case, the reference position serving as a reference for determining the direction and distance of the contact position can be appropriately set to an arbitrary position C4. In addition, an area serving as a reference for determining whether or not to perform the follow-up display control of the pseudo operation key 161 can be set as an operation detection area 136 instead of the display area of the pseudo operation key 161.

このようにすることで、より多様な擬似操作キーの表現が可能となる。   By doing so, it is possible to express a variety of pseudo operation keys.

本明細書で説明される処理及び手順は、実施形態において明示的に説明されたものによってのみならず、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実現可能なものである。具体的には、本明細書で説明された処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク、光ストレージ等の媒体に、当該処理に相当するロジックを実装することによって実現される。また、本明細書で説明される処理及び手順は、それらの処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。   The processes and procedures described in the present specification can be realized not only by those explicitly described in the embodiment but also by software, hardware, or a combination thereof. Specifically, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, a magnetic disk, or an optical storage. Is done. Further, the processes and procedures described in this specification can be implemented as a computer program and executed by various computers.

本明細書中で説明される処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理又は手順は、複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は、複数のモジュールによって実行されるものとすることができる。また、本明細書中で説明されるデータ、テーブル又はデータベースが単一のメモリに格納される旨説明されたとしても、そのようなデータ、テーブル又はデータベースは、単一の装置に備えられた複数のメモリ又は複数の装置に分散して配置された複数のメモリに分散して格納されるものとすることができる。さらに、本明細書において説明されるソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、又は、より多い構成要素に分解することによって実現されるものとすることができる。   Even though the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may include multiple devices, multiple software, It may be executed by multiple components and / or multiple modules. Further, even if it is described that the data, table, or database described in this specification is stored in a single memory, such data, table, or database may be stored in a single device. Or a plurality of memories arranged in a distributed manner in a plurality of devices. Further, the software and hardware elements described herein may be realized by integrating them into fewer components or by disassembling them into more components.

100 端末装置
110 制御部
113 表示部
116 タッチパネル
200 外部表示装置
DESCRIPTION OF SYMBOLS 100 Terminal device 110 Control part 113 Display part 116 Touch panel 200 External display apparatus

Claims (17)

疑似操作キーを表示する表示部と、
前記疑似操作キーへの指示体による接触を検出するタッチパネルと、
前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部と、を含む端末装置であって、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする前記端末装置。
A display unit for displaying pseudo operation keys;
A touch panel for detecting contact by an indicator to the pseudo operation key;
A control unit that determines whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via the touch panel, and controls a display position of the pseudo operation key; , Including a terminal device,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the control unit changes the display position of the pseudo operation key according to the contact position of the indicator. The terminal device.
前記タッチパネルは、前記疑似操作キーの表示領域に対応して前記疑似操作キーに対する操作を検出する操作検出領域を備え、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする請求項1に記載の端末装置。
The touch panel includes an operation detection area that detects an operation on the pseudo operation key corresponding to the display area of the pseudo operation key,
The said control part changes the display position of the said pseudo operation key according to the contact position of the said indicator, when the contact position of the said indicator exceeds the said operation detection area | region by the said drag operation. The terminal device according to 1.
前記操作検出領域は、前記疑似操作キーの表示領域であることを特徴とする請求項2に記載の端末装置。   The terminal device according to claim 2, wherein the operation detection area is a display area of the pseudo operation key. 前記表示部は所定の可動オブジェクトを表示し、
前記制御部は、所定の基準位置と前記指示体の接触位置から得られる方向に基づいて前記可動オブジェクトの移動方向を決定することを特徴とする請求項1〜3のいずれか一項に記載の端末装置。
The display unit displays a predetermined movable object,
The said control part determines the moving direction of the said movable object based on the direction obtained from a predetermined reference position and the contact position of the said indicator, The Claim 1 characterized by the above-mentioned. Terminal device.
前記表示部は所定の可動オブジェクトを表示し、
前記制御部は、所定の基準位置と前記指示体の接触位置との間の距離に基づいて前記可動オブジェクトの移動量を決定することを特徴とする請求項1〜4のいずれか一項に記載の端末装置。
The display unit displays a predetermined movable object,
The said control part determines the moving amount | distance of the said movable object based on the distance between a predetermined reference position and the contact position of the said indicator, The Claim 1 characterized by the above-mentioned. Terminal equipment.
前記基準位置は前記操作検出領域に存在し、
前記ドラッグ操作によって前記指示体の接触位置が前記操作検出領域を越えた場合には、前記制御部は、前記基準位置と前記接触位置とを結ぶ線分が前記擬似操作キーの表示領域の外縁に交わる位置と、前記基準位置との距離に基づいて前記可動オブジェクトの移動方向及び移動量を決定することを特徴とする請求項4又は5に記載の端末装置。
The reference position exists in the operation detection area,
When the contact position of the indicator exceeds the operation detection area by the drag operation, the control unit sets a line segment connecting the reference position and the contact position to an outer edge of the display area of the pseudo operation key. The terminal device according to claim 4, wherein a moving direction and a moving amount of the movable object are determined based on a distance between the intersecting position and the reference position.
前記制御部は、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更しているときに前記表示位置が前記表示部に予め設定された移動可能領域を越える場合には、前記移動可能領域と他の領域との境界上に前記疑似操作キーを表示することを特徴とする請求項1〜6のいずれか一項に記載の端末装置。   When the display position exceeds the movable area preset in the display unit when the display position of the pseudo operation key is changed according to the contact position of the indicator, The terminal device according to claim 1, wherein the pseudo operation key is displayed on a boundary between the movable area and another area. 前記制御部は、前記疑似操作キーに対するドラッグ操作の検出前は、前記疑似操作キーを予め決められた定位置に表示することを特徴とする請求項7に記載の端末装置。   The terminal device according to claim 7, wherein the control unit displays the pseudo operation key at a predetermined position before detecting a drag operation on the pseudo operation key. 前記移動可能領域は、前記表示部の中心を軸に前記表示部を左領域と右領域とに分けた場合に、前記定位置が存在する方の領域であることを特徴とする請求項8に記載の端末装置。   The movable region is a region where the fixed position exists when the display unit is divided into a left region and a right region with the center of the display unit as an axis. The terminal device described. 前記制御部は、前記定位置に前記疑似操作キーを表示した後、前記指示体によるタッチパネルへの接触を検出すると、その接触位置に前記疑似操作キーを表示することを特徴とする請求項8又は9に記載の端末装置。   The said control part displays the said pseudo operation key in the contact position, if the contact to the touch panel by the said indicator is detected after displaying the said pseudo operation key in the said fixed position. 9. The terminal device according to 9. 前記疑似操作キーは円で形成され、
前記基準位置は、前記疑似操作キーを形成する円の中心であることを特徴とする請求項4又は5に記載の端末装置。
The pseudo operation key is formed of a circle,
The terminal device according to claim 4, wherein the reference position is a center of a circle forming the pseudo operation key.
前記制御部は、前記指示体による接触位置を示す操作オブジェクトを前記表示部に表示し、前記接触位置の移動に応じて前記操作オブジェクトの表示位置を変更することを特徴とする請求項11に記載の端末装置。   The said control part displays the operation object which shows the contact position by the said indicator on the said display part, and changes the display position of the said operation object according to the movement of the said contact position. Terminal equipment. 前記操作オブジェクトは円で形成され、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えた場合に、前記操作オブジェクトを形成する円の中心が、前記疑似操作キーを形成する円の外側に位置するように前記前記疑似操作キーの表示位置を制御することを特徴とする請求項12に記載の端末装置。
The operation object is formed of a circle,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the center of the circle forming the operation object is outside the circle forming the pseudo operation key. The terminal device according to claim 12, wherein the display position of the pseudo operation key is controlled so as to be located at the terminal.
前記疑似操作キーは半透明で表示されることを特徴とする請求項1〜13のいずれか一項に記載の端末装置。   The terminal device according to claim 1, wherein the pseudo operation key is displayed in a translucent manner. 前記疑似操作キーは、ジョイスティックを疑似的に模した疑似ジョイスティックであることを特徴とする請求項1〜14のいずれか一項に記載の端末装置。   The terminal device according to claim 1, wherein the pseudo operation key is a pseudo joystick that simulates a joystick. コンピュータを、
表示部に疑似操作キーを表示し、
端末装置が備えるタッチパネルを介して検出された指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行う制御部として機能させるプログラムであって、
前記制御部は、前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置を前記指示体の接触位置に応じて変更することを特徴とする前記プログラム。
Computer
Display pseudo operation keys on the display,
Control for determining whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via a touch panel included in the terminal device, and controlling the display position of the pseudo operation key A program that functions as a part,
When the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation, the control unit changes the display position of the pseudo operation key according to the contact position of the indicator. Said program.
表示部に擬似操作キーを表示するステップと、
タッチパネルを介して前記表示部への指示体の接触を検出するステップと、
前記タッチパネルを介して検出された前記指示体による前記疑似操作キーの接触に基づいて前記指示体によるドラッグ操作が行われているかを判断し、前記疑似操作キーの表示位置の制御を行うステップと、を含む疑似操作キーの表示制御方法であって、
前記ドラッグ操作によって前記指示体の接触位置が前記疑似操作キーの表示領域を越えると、前記疑似操作キーの表示位置が前記指示体の接触位置に応じて変更されることを特徴とする前記表示制御方法。
Displaying pseudo operation keys on the display unit;
Detecting the contact of the indicator to the display unit via a touch panel;
Determining whether a drag operation by the indicator is performed based on contact of the pseudo operation key by the indicator detected via the touch panel, and controlling a display position of the pseudo operation key; A display control method of pseudo operation keys including
The display control, wherein the display position of the pseudo operation key is changed according to the contact position of the indicator when the contact position of the indicator exceeds the display area of the pseudo operation key by the drag operation. Method.
JP2014131850A 2014-06-26 2014-06-26 Terminal device Active JP5711409B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014131850A JP5711409B1 (en) 2014-06-26 2014-06-26 Terminal device
TW103143049A TWI638297B (en) 2014-06-26 2014-12-10 Terminal apparatus
EP14199521.7A EP2960766B1 (en) 2014-06-26 2014-12-19 Terminal device
KR1020150012229A KR20160001600A (en) 2014-06-26 2015-01-26 Terminal device
CN201510056004.6A CN105302453B (en) 2014-06-26 2015-02-03 Terminal installation
US14/618,112 US10146343B2 (en) 2014-06-26 2015-02-10 Terminal device having virtual operation key
HK16105041.0A HK1217544A1 (en) 2014-06-26 2016-05-03 Terminal apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014131850A JP5711409B1 (en) 2014-06-26 2014-06-26 Terminal device

Publications (2)

Publication Number Publication Date
JP5711409B1 JP5711409B1 (en) 2015-04-30
JP2016009473A true JP2016009473A (en) 2016-01-18

Family

ID=52282474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014131850A Active JP5711409B1 (en) 2014-06-26 2014-06-26 Terminal device

Country Status (7)

Country Link
US (1) US10146343B2 (en)
EP (1) EP2960766B1 (en)
JP (1) JP5711409B1 (en)
KR (1) KR20160001600A (en)
CN (1) CN105302453B (en)
HK (1) HK1217544A1 (en)
TW (1) TWI638297B (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143934B1 (en) * 2016-11-10 2017-06-07 株式会社Cygames Information processing program, information processing method, and information processing apparatus
WO2018180553A1 (en) * 2017-03-27 2018-10-04 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
WO2018180552A1 (en) * 2017-03-27 2018-10-04 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP6446149B1 (en) * 2018-03-06 2018-12-26 株式会社Cygames Program, processing apparatus, and processing method
JP2019080928A (en) * 2017-03-27 2019-05-30 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2019083964A (en) * 2017-11-06 2019-06-06 株式会社カプコン Game program and game system
JP2019134880A (en) * 2018-02-05 2019-08-15 株式会社バンダイナムコエンターテインメント Program and game device
JP2020110459A (en) * 2019-01-16 2020-07-27 株式会社スクウェア・エニックス Game processing program, information processing device, method, and system
JP2020156797A (en) * 2019-03-27 2020-10-01 株式会社セガ Program and information processor
JP6824369B1 (en) * 2019-11-26 2021-02-03 株式会社Cygames Methods, programs, and electronics
JP2021062251A (en) * 2021-01-14 2021-04-22 株式会社バンダイナムコエンターテインメント Program and game device
JP2021100591A (en) * 2019-05-30 2021-07-08 株式会社コナミデジタルエンタテインメント Program, information processing device and information processing method
JP2022015061A (en) * 2020-07-08 2022-01-21 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP2022015060A (en) * 2020-07-08 2022-01-21 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP2022518465A (en) * 2019-06-05 2022-03-15 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Movement control method of virtual target and its device, terminal and computer program
JP2023503748A (en) * 2020-10-30 2023-02-01 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Virtual key position adjustment method and device, computer device and program
US11577157B2 (en) 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6095393B2 (en) * 2013-02-12 2017-03-15 株式会社スクウェア・エニックス Video game apparatus and video game processing program
JP6990962B2 (en) * 2014-06-09 2022-01-12 雅人 桑原 Information processing equipment
JPWO2016208099A1 (en) * 2015-06-24 2018-04-12 パナソニックIpマネジメント株式会社 Information processing apparatus, input control method for controlling input to information processing apparatus, and program for causing information processing apparatus to execute input control method
JP5981617B1 (en) * 2015-08-20 2016-08-31 株式会社コロプラ Computer program and computer-implemented method for displaying user interface images
JP5941207B1 (en) * 2015-09-10 2016-06-29 株式会社コロプラ User interface program and computer mounting method
CN105335065A (en) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 Information processing method and terminal, and computer storage medium
JP6569496B2 (en) * 2015-11-26 2019-09-04 富士通株式会社 Input device, input method, and program
JP6097427B1 (en) * 2016-02-29 2017-03-15 株式会社コロプラ Game program
KR102481632B1 (en) * 2016-04-26 2022-12-28 삼성전자주식회사 Electronic device and method for inputting adaptive touch using display in the electronic device
CN106354418B (en) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 A kind of control method and device based on touch screen
JP6347286B2 (en) 2016-11-21 2018-06-27 株式会社コナミデジタルエンタテインメント GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
JP6278575B1 (en) 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント GAME CONTROL DEVICE, GAME SYSTEM, AND PROGRAM
CN106453638B (en) * 2016-11-24 2018-07-06 腾讯科技(深圳)有限公司 Information interacting method and system in a kind of applied business
KR102650630B1 (en) * 2016-11-29 2024-03-21 주식회사 넥슨코리아 Apparatus and method for providing virtual controller
CN106598465A (en) * 2016-12-20 2017-04-26 上海逗屋网络科技有限公司 Control method, device and equipment based on virtual rocker
WO2018214029A1 (en) * 2017-05-23 2018-11-29 深圳市大疆创新科技有限公司 Method and apparatus for manipulating movable device
CN107422938A (en) * 2017-06-21 2017-12-01 网易(杭州)网络有限公司 Information processing method, device, electronic equipment and storage medium
CN107837531B (en) * 2017-09-28 2018-11-23 网易(杭州)网络有限公司 Information processing method, device, electronic equipment and storage medium
WO2019104519A1 (en) * 2017-11-29 2019-06-06 Entit Software Llc Gesture buttons
KR102016681B1 (en) * 2018-10-18 2019-08-30 김기연 Method for interfacing of user for touching employing smartphone being able to employing emulating game type
CN110865759A (en) * 2019-10-28 2020-03-06 维沃移动通信有限公司 Object moving method and electronic equipment
CN110755846B (en) * 2019-10-29 2023-05-26 网易(杭州)网络有限公司 Game control method, game control device and terminal equipment
CN111589127B (en) * 2020-04-23 2022-07-12 腾讯科技(深圳)有限公司 Control method, device and equipment of virtual role and storage medium
US11541305B2 (en) 2020-09-28 2023-01-03 Snap Inc. Context-sensitive remote eyewear controller
JP7437433B2 (en) * 2022-02-16 2024-02-22 任天堂株式会社 Information processing program, information processing system, information processing device, and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191036A (en) * 1997-12-26 1999-07-13 Yokogawa Electric Corp Window moving device
JP2001045261A (en) * 1999-07-29 2001-02-16 Olympus Optical Co Ltd Method and device for recording image and recording medium
WO2010032354A1 (en) * 2008-09-22 2010-03-25 日本電気株式会社 Image object control system, image object control method, and program
JP2010533336A (en) * 2007-07-11 2010-10-21 ユイ・ジン・オ Data input device using finger motion sensing and input conversion method using the same
JP2011229716A (en) * 2010-04-28 2011-11-17 Square Enix Co Ltd User interface processor, user interface processing method, and user interface processing program

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4982505B2 (en) * 2007-01-25 2012-07-25 シャープ株式会社 Multi-window management apparatus, program, storage medium, and information processing apparatus
TW200914093A (en) * 2007-09-21 2009-04-01 Astro Corp Touch screen card game device and its operation method
JP2009284468A (en) * 2008-04-23 2009-12-03 Sharp Corp Personal digital assistant, computer readable program and recording medium
KR101503493B1 (en) * 2008-07-16 2015-03-17 삼성전자주식회사 Method for controlling devices using widget contents and a remote controller thereof
CN101414240A (en) * 2008-11-12 2009-04-22 圆展科技股份有限公司 Method and apparatus for dynamically arranging virtual key position
US8451236B2 (en) * 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US20100277414A1 (en) * 2009-04-30 2010-11-04 Qualcomm Incorporated Keyboard for a portable computing device
JP4823342B2 (en) 2009-08-06 2011-11-24 株式会社スクウェア・エニックス Portable computer with touch panel display
TWI423112B (en) * 2009-12-09 2014-01-11 Ind Tech Res Inst Portable virtual human-machine interaction device and method therewith
JP4932010B2 (en) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program
JP5750875B2 (en) * 2010-12-01 2015-07-22 ソニー株式会社 Information processing apparatus, information processing method, and program
TWI442274B (en) * 2010-02-11 2014-06-21 Hon Hai Prec Ind Co Ltd Electronic device and graphical user interface control method thereof
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
KR101695818B1 (en) * 2010-07-28 2017-01-13 엘지전자 주식회사 Mobile terminal and Method for controlling virtual key pad thereof
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
JP5813948B2 (en) * 2010-12-20 2015-11-17 株式会社バンダイナムコエンターテインメント Program and terminal device
JP2012168932A (en) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc Input device, information processing device and input value acquisition method
JP5379250B2 (en) * 2011-02-10 2013-12-25 株式会社ソニー・コンピュータエンタテインメント Input device, information processing device, and input value acquisition method
JP5790203B2 (en) * 2011-06-29 2015-10-07 ソニー株式会社 Information processing apparatus, information processing method, program, and remote operation system
CN102650909B (en) * 2012-04-16 2015-01-21 杨林 Character inputting device and character inputting method
US8713464B2 (en) * 2012-04-30 2014-04-29 Dov Nir Aides System and method for text input with a multi-touch screen
CN102981772B (en) * 2012-11-16 2016-02-10 淘宝(中国)软件有限公司 Method and the device of dummy keyboard are set
EP3690624B1 (en) * 2012-12-06 2023-02-01 Samsung Electronics Co., Ltd. Display device and method of controlling the same
CN103472948A (en) * 2013-09-03 2013-12-25 小米科技有限责任公司 Method and device for remote-control processing of touch screen terminal and terminal
WO2015035580A1 (en) * 2013-09-11 2015-03-19 东莞宇龙通信科技有限公司 Display method for touchscreen and terminal
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191036A (en) * 1997-12-26 1999-07-13 Yokogawa Electric Corp Window moving device
JP2001045261A (en) * 1999-07-29 2001-02-16 Olympus Optical Co Ltd Method and device for recording image and recording medium
JP2010533336A (en) * 2007-07-11 2010-10-21 ユイ・ジン・オ Data input device using finger motion sensing and input conversion method using the same
WO2010032354A1 (en) * 2008-09-22 2010-03-25 日本電気株式会社 Image object control system, image object control method, and program
JP2011229716A (en) * 2010-04-28 2011-11-17 Square Enix Co Ltd User interface processor, user interface processing method, and user interface processing program

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10990274B2 (en) 2016-11-10 2021-04-27 Cygames, Inc. Information processing program, information processing method, and information processing device
WO2018088408A1 (en) * 2016-11-10 2018-05-17 株式会社Cygames Information processing program, information processing method, and information processing device
JP2018075225A (en) * 2016-11-10 2018-05-17 株式会社Cygames Information processing program, information processing method, and information processing device
JP6143934B1 (en) * 2016-11-10 2017-06-07 株式会社Cygames Information processing program, information processing method, and information processing apparatus
KR20190120311A (en) 2017-03-27 2019-10-23 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game system, game control device and computer readable recording medium
WO2018180553A1 (en) * 2017-03-27 2018-10-04 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2018161447A (en) * 2017-03-27 2018-10-18 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
US11266904B2 (en) 2017-03-27 2022-03-08 Konami Digital Entertainment Co., Ltd. Game system, game control device, and information storage medium
JP2019080928A (en) * 2017-03-27 2019-05-30 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2018161446A (en) * 2017-03-27 2018-10-18 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
WO2018180552A1 (en) * 2017-03-27 2018-10-04 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2019083964A (en) * 2017-11-06 2019-06-06 株式会社カプコン Game program and game system
JP2019134880A (en) * 2018-02-05 2019-08-15 株式会社バンダイナムコエンターテインメント Program and game device
JP7105573B2 (en) 2018-02-05 2022-07-25 株式会社バンダイナムコエンターテインメント Program and game device
JP2019150441A (en) * 2018-03-06 2019-09-12 株式会社Cygames Program, processor, and processing method
JP6446149B1 (en) * 2018-03-06 2018-12-26 株式会社Cygames Program, processing apparatus, and processing method
JP2020110459A (en) * 2019-01-16 2020-07-27 株式会社スクウェア・エニックス Game processing program, information processing device, method, and system
JP2020156797A (en) * 2019-03-27 2020-10-01 株式会社セガ Program and information processor
JP7347833B2 (en) 2019-05-30 2023-09-20 株式会社コナミデジタルエンタテインメント Program, information processing device and information processing method
JP2021100591A (en) * 2019-05-30 2021-07-08 株式会社コナミデジタルエンタテインメント Program, information processing device and information processing method
JP7238143B2 (en) 2019-06-05 2023-03-13 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 MOVEMENT CONTROL METHOD AND APPARATUS THEREOF, TERMINAL AND COMPUTER PROGRAM FOR VIRTUAL OBJECT
US11513657B2 (en) 2019-06-05 2022-11-29 Tencent Technology (Shenzhen) Company Limited Method and apparatus for controlling movement of virtual object, terminal, and storage medium
JP2022518465A (en) * 2019-06-05 2022-03-15 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Movement control method of virtual target and its device, terminal and computer program
JP2021086296A (en) * 2019-11-26 2021-06-03 株式会社Cygames Method, program, and electronic device
JP6824369B1 (en) * 2019-11-26 2021-02-03 株式会社Cygames Methods, programs, and electronics
JP7062033B2 (en) 2020-07-08 2022-05-02 任天堂株式会社 Information processing programs, information processing devices, information processing systems, and information processing methods
JP7062034B2 (en) 2020-07-08 2022-05-02 任天堂株式会社 Information processing programs, information processing devices, information processing systems, and information processing methods
JP2022015060A (en) * 2020-07-08 2022-01-21 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
US11577157B2 (en) 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input
US11590413B2 (en) 2020-07-08 2023-02-28 Nintendo Co., Ltd. Storage medium storing information processing program with changeable operation modes, information processing apparatus, information processing system, and information processing method
JP2022015061A (en) * 2020-07-08 2022-01-21 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP2023503748A (en) * 2020-10-30 2023-02-01 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Virtual key position adjustment method and device, computer device and program
JP2021062251A (en) * 2021-01-14 2021-04-22 株式会社バンダイナムコエンターテインメント Program and game device

Also Published As

Publication number Publication date
US10146343B2 (en) 2018-12-04
HK1217544A1 (en) 2017-01-13
TWI638297B (en) 2018-10-11
CN105302453A (en) 2016-02-03
JP5711409B1 (en) 2015-04-30
US20150378459A1 (en) 2015-12-31
EP2960766B1 (en) 2017-06-28
KR20160001600A (en) 2016-01-06
EP2960766A1 (en) 2015-12-30
CN105302453B (en) 2019-11-01
TW201601027A (en) 2016-01-01

Similar Documents

Publication Publication Date Title
JP5711409B1 (en) Terminal device
US7825909B2 (en) Storage medium storing object movement control program and information processing apparatus
JP2010224764A (en) Portable game machine with touch panel display
US11759702B2 (en) Game system, processing method, and information storage medium
JP5041730B2 (en) Object processing apparatus and object processing program
JP4388878B2 (en) Input processing program and input processing apparatus
JP5838281B1 (en) Motion display program
JP5769841B2 (en) Portable game device with touch panel display
US9201534B2 (en) Information processing apparatus, information processing system, information processing method, and computer-readable storage medium having stored therein information processing program
JP4724740B2 (en) Input processing program and input processing apparatus
JP5354820B2 (en) Input processing program and input processing apparatus
JP6916449B2 (en) Information processing equipment, computer programs
JP2019201851A (en) Information processor and program
JP4726965B2 (en) Input processing program and input processing apparatus
JP4302767B2 (en) Input processing program and input processing apparatus
JP4724758B2 (en) Input processing program and input processing apparatus
JP5968510B1 (en) Interface program and computer
JP5363524B2 (en) Input processing program and input processing apparatus
JP4730975B2 (en) Input processing program and input processing apparatus
JP5769765B2 (en) Portable game device with touch panel display
JP5827671B2 (en) GAME PROGRAM AND GAME DEVICE
JP2011172939A (en) Portable game device with touch panel type display
JP2011200720A (en) Game program and game device
JP2009078157A (en) Input processing program and input processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5711409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250