Nothing Special   »   [go: up one dir, main page]

WO2019211950A1 - 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
WO2019211950A1
WO2019211950A1 PCT/JP2019/010823 JP2019010823W WO2019211950A1 WO 2019211950 A1 WO2019211950 A1 WO 2019211950A1 JP 2019010823 W JP2019010823 W JP 2019010823W WO 2019211950 A1 WO2019211950 A1 WO 2019211950A1
Authority
WO
WIPO (PCT)
Prior art keywords
item
information processing
coordinate
input
game
Prior art date
Application number
PCT/JP2019/010823
Other languages
English (en)
French (fr)
Inventor
悠吾 林
高橋 一成
茂人 村田
慎也 中野
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 任天堂株式会社 filed Critical 任天堂株式会社
Priority to EP19796308.5A priority Critical patent/EP3789091B1/en
Priority to JP2020517028A priority patent/JP6854972B2/ja
Priority to CN201980029055.6A priority patent/CN112074331B/zh
Publication of WO2019211950A1 publication Critical patent/WO2019211950A1/ja
Priority to US17/038,185 priority patent/US11484783B2/en
Priority to US17/933,673 priority patent/US11673043B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Definitions

  • the present invention relates to an information processing program, an information processing apparatus, an information processing system, and an information processing method, and in particular, for example, an information processing program, an information processing apparatus, an information processing system, and an information processing method for performing processing based on user operations.
  • an information processing program for example, an information processing program, an information processing apparatus, an information processing system, and an information processing method for performing processing based on user operations.
  • Non-Patent Document 1 there is a game system that performs a game process for controlling the movement of an object based on a user operation (see, for example, Non-Patent Document 1).
  • the movement direction of an object with respect to the left-right direction is controlled in accordance with the user operation in the left-right direction of the cross key, and the movement of the object is performed in accordance with the user operation in the front-rear direction of the cross key.
  • the speed is controlled.
  • Non-Patent Document 1 when a single operation user interface is used, only an operation for controlling the movement of an object can be performed. There is room.
  • an object of the present invention is to provide an information processing program, an information processing apparatus, an information processing system, and an information processing method capable of improving the variety of processing for a user operation using one operation user interface. Is to provide.
  • the present invention can employ the following configuration, for example.
  • the scope should be interpreted only by the description of the claims, and the description of the claims and the description in this column are contradictory. In that case, priority is given to the claims.
  • One configuration example of the information processing program of the present invention is executed by a computer included in an apparatus that performs processing based on a user operation.
  • the information processing program causes the computer to function as input receiving means, object moving means, and game operation executing means.
  • the input receiving means receives coordinate input by the user.
  • the object moving means moves in the virtual space based on at least a component in the first axis direction of the coordinate change of the user input continuously performed with reference to the first reference coordinate determined by the user input indicating the coordinate input. Change the moving direction of the moving object.
  • the game motion execution means determines a game motion direction different from the movement of the moving object in the virtual space based on at least a component of the user input in the second axis direction different from the first axis direction, and executes the game motion. Execute.
  • an operation for controlling the moving direction of the moving object can be performed using the coordinate input by the user, and the direction of the game operation different from the movement of the moving object can be controlled. Processing can be varied.
  • the game motion executing means has a change in the coordinate of the user input relative to the second reference coordinate determined by the user input indicating the coordinate input equal to or greater than the reference value, and the component in the first axis direction of the user input and the second
  • the direction of change of the user input calculated by the axial component satisfies a predetermined angle condition
  • the direction of the game operation is determined according to the direction of change of the user input and the game operation is executed. Also good.
  • the game motion executing means may perform the game motion according to the direction of the coordinate change of the user input when the second axis component of the coordinate change of the user input with respect to the second reference coordinate is greater than or equal to the reference value.
  • the game operation may be executed by determining the direction.
  • the game action executing means may determine the direction of the game action and execute the game action when the direction of change of the user input with respect to the second reference coordinates satisfies a predetermined angle condition. .
  • the game motion execution means may change the angle condition according to the direction of the moving object.
  • the coordinate input operation can be performed according to the direction of the moving object.
  • the game action executing means may use a different value as a reference value depending on whether the direction of change of the user input with respect to the second reference coordinate is a positive direction or a negative direction in the second axis direction.
  • the game operation executing means may use the coordinates on the trajectory inputted by the user input as the second reference coordinates.
  • the coordinate input operation can be performed without confirming the reference position.
  • the game operation executing means may move the second reference coordinates on the locus toward the newer coordinate input on the locus while the user input continues.
  • the game operation executing means may use coordinates where user input is started as the second reference coordinates.
  • the coordinate input operation can be performed without confirming the reference position.
  • the game action executing means has the first axis direction component less than the predetermined threshold.
  • the reference value may be changed as compared with the case.
  • the object moving means may change the first axis direction according to the direction of the moving object.
  • the coordinate input operation by the user is possible according to the direction of the moving object.
  • the game action executing means determines the direction of the game action based on at least the component of the user input in the second axis direction and executes the game action when the speed of change of the user input is equal to or higher than the threshold value. May be.
  • the game action executing means may move another object in a direction away from the moving object, with the position being the same as or close to the position of the moving object as the movement start point as the game action.
  • the game operation executing means moves the other object in an initial direction defined for the other object. Also good.
  • the coordinate input operations by the user can be diversified.
  • the game motion executing means may move another object in a direction corresponding to the input direction of the user input with reference to the second reference coordinates.
  • the direction in which another object is moved can be controlled by coordinate input by the user.
  • the game operation executing means may set the moving speed of another object based on the input speed of the user input with reference to the second reference coordinates.
  • the moving speed of other objects can also be controlled by the operation speed of coordinate input by the user.
  • the other object may be an attack item that decelerates or stops an object that collides with the other object.
  • the object moving means may move the moving object regardless of whether there is a user input.
  • the object moving means may move the moving object from the rear to the front of the virtual camera with respect to the viewing direction of the virtual camera viewing the moving object in the virtual space.
  • first axis direction may be a left-right direction as viewed from the user.
  • the second axis direction may be a vertical direction as viewed from the user.
  • an operation for controlling the moving direction of the moving object using the coordinate input in the horizontal direction by the user is possible, and the game operation is different from the movement of the moving object by using the coordinate input in the vertical direction by the user. Since control is also possible, processing for user operations can be diversified.
  • the present invention may be implemented in the form of an information processing apparatus, an information processing system, and an information processing method.
  • the present invention it is possible to perform an operation for controlling the moving direction of the moving object by using the coordinate input by the user, and also to control the direction of the game operation different from the moving of the moving object.
  • the processing for can be diversified.
  • the block diagram which shows an example of a structure of the information processing apparatus 3 The block diagram which shows an example of a structure of the server 200
  • the figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3 The figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3
  • movement of the item I on the basis of a display screen The figure for demonstrating an example of the determination area
  • region for determining the discharge operation with respect to the item I on the basis of player object PO The figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3
  • the figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3 The figure which shows an example of the state transition of the item I possessed in the possession frame HF
  • the figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3 The figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3
  • the figure which shows the example of a game image displayed on the display part 35 of the information processing apparatus 3 The figure which shows an example of main data and the program memorize
  • the flowchart which shows an example of the process performed in the information processing apparatus 3 A subroutine showing a detailed example of the operation content determination process in step S106 of FIG.
  • an information processing system 1 that is an example of the information processing system is constructed by connecting an information processing device 3 and a server 200 via a network 100.
  • a plurality of information processing apparatuses 3 are illustrated, but the information processing apparatus 3 constituting the information processing system 1 may be one.
  • the information processing apparatus 3 is configured to be connectable to the network 100 using wireless or wired communication, and configures a client-server system with the server 200.
  • the information processing apparatus 3 can execute a predetermined application (for example, a game application). Further, the information processing apparatus 3 establishes a connection with the server 200 via the network 100 by executing the predetermined application, and can communicate with the server 200.
  • the information processing apparatus 3 can execute an information processing program stored in a storage medium such as a replaceable memory card or an optical disk or received from another apparatus.
  • the information processing apparatus 3 may be a device such as a general personal computer, a stationary game machine, a mobile phone, a portable game machine, or a PDA (Personal Digital Assistant).
  • FIG. 2 is a block diagram illustrating an example of the configuration of the information processing apparatus 3.
  • the information processing apparatus 3 includes a control unit 31, a storage unit 32, a program storage unit 33, an input unit 34, a display unit 35, and a communication unit 36.
  • the information processing device 3 may be configured by one or more devices including an information processing device including at least the control unit 31 and another device.
  • the control unit 31 is information processing means (computer) for executing various types of information processing, for example, a CPU.
  • the control unit 31 has a function of executing the above-described application as various types of information processing and executing a game process described later, a data transmission / reception process via the server 200, and the like, and the CPU executes a predetermined program Thus, each function in the control unit 31 is realized.
  • the storage unit 32 stores various data used when the control unit 31 executes the information processing.
  • the storage unit 32 is a memory accessible by the CPU (control unit 31), for example.
  • the program storage unit 33 stores (stores) a program.
  • the program storage unit 33 may be any storage device (storage medium) accessible by the control unit 31.
  • the program storage unit 33 may be a storage device provided in the information processing apparatus including the control unit 31 or may be a storage medium that is detachably attached to the information processing apparatus including the control unit 31. Good.
  • the program storage unit 33 may be a storage device (such as a server) connected to the control unit 31 via a network.
  • the control unit 31 (CPU) may read a part or all of the game program to the storage unit 32 at an appropriate timing, and execute the read program.
  • the input unit 34 is an input device that can be operated by the user.
  • the input unit 34 may be any input device.
  • the input unit 34 may be a touch panel provided on the screen of the display unit 35.
  • the touch panel may be of any type, and can be a multi-touch input method (for example, a capacitance method) or a single touch input method (for example, a resistive film method). There may be.
  • the display unit 35 displays an image in accordance with an instruction from the control unit 31.
  • the display unit 35 may be configured separately from the information processing device 3.
  • the communication unit 36 includes a predetermined communication module, and transmits / receives data to / from other devices (for example, the server 200) via the network 100, and transmits / receives data to / from another information processing apparatus 3. To do.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the server 200.
  • the server 200 includes a communication unit 201, a control unit 202, and a storage unit 203.
  • the communication unit 201 communicates with the information processing apparatus 3 and the like via the network 100 by transmitting and receiving communication packets.
  • the control unit 202 is used in the management of game progress performed with the information processing apparatus 3, in-game currency, game items (for example, coins) purchased by the user, and game objects (for example, in the game). Equipment), a process for managing the probability of winning a slot lottery, a process for managing information related to billing, and establishing a communication link with the information processing apparatus 3 and the like via the communication unit 201. Data transfer control and route selection are performed.
  • the control unit 202 manages a combination of the information processing devices 3 that perform the game and data communication between the information processing devices 3.
  • the storage unit 203 stores a program executed by the control unit 202, various data necessary for the above processing, various data necessary for communication with the information processing apparatus 3, and the like. If the system requires a predetermined login process for data transmission / reception using the network 100, the server 200 may perform an authentication process for determining whether or not the user attempting to log in is an authorized user.
  • the server 200 may be comprised from a single server machine, and may be comprised by the some server machine.
  • the movement and launch processing example is processing for performing an operation in the moving direction of the player object PO (moving object) and a firing operation of the item I (other objects) using the information processing system 1.
  • FIG. 4 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 5 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 6 is a diagram illustrating an example of controlling the moving direction of the player object PO with reference to the display screen.
  • FIG. 7 is a diagram illustrating an example of controlling the firing operation of the item I with reference to the display screen.
  • FIG. 8 is a diagram for explaining an example of a determination area for determining a launch operation for the item I with reference to the display screen.
  • FIG. 9 is a diagram for explaining an example of a determination area for determining a firing operation for the item I with the player object PO as a reference.
  • a game is used as an example of an application to be executed in the information processing apparatus 3, but another application may be executed in the information processing apparatus 3.
  • a game image corresponding to a game played on the information processing device 3 is displayed on the display unit 35 of the information processing device 3.
  • a scene in which the player object PO plays a racing game is displayed.
  • the player object PO travels on a cart on a course provided in the virtual world.
  • an enemy object EO that rides on another cart is also running, and ranks until the goal is reached on the course are competed.
  • a virtual camera for generating a game image is arranged along the course behind the player object PO in accordance with the running of the player object PO.
  • the virtual camera is always arranged at a position where the player object PO is viewed from behind the player object PO when the player object PO faces a different direction with respect to the course running direction, such as when the player object PO spins or drifts.
  • the player object PO may be arranged at a position where the player object PO is viewed from behind in the running direction along the course.
  • the player object PO corresponds to an example of a moving object that moves in a virtual space.
  • the moving direction of the player object PO can be controlled by touching a touch panel (input unit 34) provided on the screen of the display unit 35.
  • the player object PO is controlled so as to automatically move forward along the course.
  • the left and right movement directions of the player object PO can be operated by a user operation. Specifically, when a touch operation swiping in the right direction is performed with reference to the touch position where the touch-on is performed on the touch panel, the player object PO changes the moving direction to the right. Further, when a touch operation swiping in the left direction is performed on the basis of the touch position touched on the touch panel, the player object PO changes the moving direction to the left. For example, in FIG.
  • the display unit 35 displays a reference image R indicating the touch position touched on the touch panel and a touch position image T indicating the current touch position. Since T is arranged in the right direction, the player object PO changes the moving direction (direction a in the figure) to the right. Note that the player object PO may not be controlled so as to automatically travel forward along the course, and may travel according to the accelerator operation of the user. Further, the player object PO may be automatically operated to the left and right along the course. For example, if the course is bent to the right, even if the user does not operate the handle, the moving direction of the player object PO changes to the right to some extent, and when the right handle is operated, the player object PO moves further. The direction may change to the right.
  • the item I possessed by the player object PO can be fired by performing a touch operation.
  • the display unit 35 is provided with a plurality of possession frames HF indicating the items I possessed by the player object PO.
  • the possession frame HF shown in FIG. 4 it is possible to possess three items I1, I2, and I3.
  • one item I is displayed as a use preparation item IP at a use preparation position provided at the rear of the cart of the player object PO.
  • the use preparation item IP the item I acquired earliest is selected from the items I in the possession frame HF.
  • the banana item I1 displayed in the leftmost possession frame HF is the item I1.
  • the use preparation item IP is displayed at the use preparation position.
  • the use preparation item IP arranged at the use preparation position of the player object PO is a type that can be fired, it becomes a launch item IM. Is fired in front of the player object PO.
  • the use preparation item IP and the launch item IM are the same object, but they may be changed to objects having different modes.
  • the launch item is placed behind the player object PO. It can also be launched as an IM.
  • the firing direction of the use preparation item IP arranged at the use preparation position of the player object PO is fixed, a touch operation for swiping the touch panel in either the upward direction or the downward direction was performed.
  • the fired item IM may be fired in the fixed firing direction.
  • the use preparation item IP arranged at the use preparation position is of a type used by the player object PO itself without being fired from the player object PO, a touch operation of swiping upward or downward with respect to the touch panel Is performed, the use preparation item IP arranged at the use preparation position of the player object PO is used by the player object PO.
  • the possession frame HF may be arranged in the virtual space or may be arranged so as to be overlaid on the display screen.
  • the direction of the game action by using the item I corresponds to an example of the direction of the game action different from the movement of the moving object.
  • the launch item IM (item I) corresponds to an example of another object that moves in a direction away from the moving object.
  • the player object PO When the player object PO has fired the launch item IM, it is possible to obtain an advantageous effect for the player object PO to advance the race according to the type of the launch item IM.
  • the fired item IM indicating the shell collides with the enemy object EO the enemy object EO is blocked by decelerating or stopping the traveling of the enemy object EO by the impact, and the enemy object EO is damaged depending on the collision situation.
  • the launch item IM indicating a banana collides with the enemy object EO, the enemy object EO slides on the road, and the traveling of the enemy object EO is decelerated or stopped.
  • the launch item IM indicating the shell and the launch item IM indicating the banana correspond to an example of an attack item for decelerating or stopping the collided object.
  • the ability of the player object PO itself may increase for a certain period by using the use preparation item IP.
  • the use preparation item IP indicating a mushroom is used
  • the speed of the player object PO increases for a certain period.
  • an effect may be obtained in which the size of the player object PO itself increases for a certain period of time or in-game coins owned by the player object PO increase.
  • the use preparation item IP displayed at the use preparation position is deleted, and the possession frame corresponding to the use preparation item IP is deleted.
  • the item I of HF in the example of FIG. 5, the item I1 displayed in the leftmost possession frame HF) is also deleted.
  • the possession frame HF displaying the item I fired as the launch item IM becomes the empty frame E where the item I is not displayed.
  • the left and right moving directions of the player object PO are set according to the size of the horizontal component of the display screen in the swipe input on the touch panel.
  • the reference coordinate R0 touched on the touch panel and the current touch coordinate position T in the swipe operation continuously performed from the touch on are displayed on the display unit 35.
  • the first axis that is the left and right direction of the display screen is the X axis (the right direction is the X axis positive direction), and the display screen 35 is the vertical direction of the display screen.
  • a display screen coordinate system is defined in which the second axis orthogonal to the first axis is the Y axis (the upward direction is the positive direction of the Y axis).
  • the reference coordinates are set as R0 (X0, Y0)
  • the current touch position coordinates T are set as T (Xt, Yt).
  • the magnitude of the horizontal component (X-axis direction component) of the display screen in swipe input is calculated as Xt ⁇ X0
  • the magnitude of the vertical component (Y-axis direction component) of the display screen in swipe input is Yt ⁇ . Calculated as Y0.
  • the moving direction of the player object PO is changed to the right by the handle angle corresponding to the absolute value of Xt-X0.
  • the X-axis direction component Xt ⁇ X0 is a negative value
  • the moving direction of the player object PO is changed leftward at a handle angle corresponding to the absolute value of Xt ⁇ X0.
  • the reference coordinate R0 corresponds to an example of first reference coordinates determined by user input indicating coordinate input.
  • the X axis corresponds to an example of a first axis
  • the Y axis corresponds to an example of a second axis.
  • the handle angle according to the absolute value of Xt ⁇ X0 may be changed according to the position of the player object PO with respect to the course. For example, when the player object PO is at the center of the course, the handle angle set according to the user operation is relatively increased, and at the end of the course, the handle angle set according to the user operation is relatively set. May be made smaller. Also, the so-called drift running may be performed by sliding the cart on which the player object PO is riding depending on the handle angle, the course condition, the cart performance, and the like according to the user operation.
  • the firing operation of the item I is controlled according to the vertical component of the display screen in the swipe input to the touch panel.
  • the reference coordinate Rm touched on the touch panel at the touch-on time, the same position as the reference coordinate R0 described above
  • the swipe operation continuously performed from the touch-on are set based on the display screen coordinate system of the display unit 35, respectively. For example, as shown in FIG. 7, on the display screen of the display unit 35, as in FIG.
  • the first axis that is the left and right direction of the display screen is the X axis (the right direction is the X axis positive direction)
  • a display screen coordinate system is defined in which the second axis orthogonal to the first axis, which is the vertical direction of the screen, is the Y axis (upward is the Y axis positive direction).
  • the reference coordinates are set as Rm (Xm, Ym)
  • the current touch position coordinates T are set as T (Xt, Yt).
  • a vector FD from the reference coordinate Rm toward the current touch position coordinate T is calculated, and based on the direction of the vector FD, it is determined whether or not the swipe input to the touch panel corresponds to the upward direction or the downward direction.
  • the positional relationship between the reference coordinate Rm and the current touch position coordinate T is maintained so as to satisfy a predetermined condition, and when the condition is not met,
  • the reference coordinate Rm moves so as to satisfy the condition. For example, when the length of the touch position locus (touch input locus) formed between the reference coordinates Rm and the current touch position coordinates T is longer than the threshold value L, the reference length is set so that the length is equal to or less than the threshold value L.
  • the coordinate Rm moves on the touch input locus toward the current touch position coordinate T (direction b in the drawing).
  • the reference coordinate Rm that moves on the touch input locus toward the current touch position coordinate T so that the length is equal to or less than the threshold value L is a predetermined speed as time elapses until the length becomes equal to or less than the threshold value L. May be moved until the length of the threshold L is reached, or may be moved so that the length is equal to or shorter than the threshold L immediately.
  • the process of moving the reference coordinates Rm toward the touch position coordinates T is performed by sequentially deleting the touch position coordinates T recorded in the past that are longer than the threshold L based on the predetermined speed, and according to the deletion process.
  • the position that becomes the oldest touch position coordinate T may be set as the reference coordinate Rm.
  • the reference coordinates Rm By moving the reference coordinates Rm along the touch input locus in this way, the position relationship between the reference coordinates Rm and the current touch position coordinate T is maintained so that the touch input locus length between them is L or less. A vector FD from the moved reference coordinate Rm to the current touch position coordinate T is calculated. As long as the touch input is performed, even if the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T is shorter than the threshold L, the reference coordinate Rm is always the current touch position. You may move on a touch input locus so that it may approach coordinates T.
  • the length of the vector FD is equal to or longer than the predetermined length and the direction of the vector FD is within the determination area, it is determined that a swipe input in the upward or downward direction of the display screen has been performed on the touch panel, and preparation for use is made.
  • the item IP becomes a firing item IM and is fired in a direction corresponding to the determination. For example, as shown in FIG. 8, a predetermined angle range centered on the Y-axis positive direction is set as the front determination area UA, and a predetermined angle range centered on the Y-axis negative direction is set as the rear determination area LA.
  • the use preparation item IP becomes the firing item IM and is in front of the player object PO (for example, the frontal direction).
  • the use preparation item IP can be fired behind the player object PO
  • the length of the vector FD is equal to or longer than a predetermined length
  • the direction of the vector FD is within the rear determination area LA
  • the use preparation item IP is displayed. Becomes a firing item IM and is fired behind the player object PO (for example, right behind).
  • determining that the length of the vector FD is equal to or greater than a predetermined length is an example of determining that a coordinate change of a user input with respect to the second reference coordinate is equal to or greater than a reference value. Equivalent to. Further, determining that the direction of the vector FD is within the determination region corresponds to an example of determining that the direction of change of the user input satisfies a predetermined angle condition based on the second axis direction. To do.
  • the angle range of the rear determination area LA may be set larger than the angle range of the front determination area UA.
  • swipe input in the downward direction using the touch panel is often more difficult than swipe input in the upward direction, and is particularly noticeable when the touch operation is performed with the thumb of the hand holding the information processing apparatus 3.
  • the ease of operation can be improved by relaxing the relatively difficult swipe input determination conditions.
  • the predetermined length for determining the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T may be a different threshold depending on the determination direction. In order to relieve the relatively difficult swipe input determination condition for the reason described above, the length of the touch input trajectory required to be a target for determining whether or not it is within the rear determination area LA is determined by the front determination.
  • the reference coordinate Rm may move along the touch input locus in the above processing.
  • the manner in which the reference coordinate Rm moves is not limited to this.
  • the reference coordinate Rm may move on a straight line that approaches the current touch position coordinate T so that the linear distance between the reference coordinate Rm and the current touch position coordinate T is equal to or less than the threshold value L.
  • the reference coordinate Rm may be fixedly set at the same position as the reference coordinate R0, that is, a touch-on position.
  • the forward determination area UA and the backward determination area LA set in different angle ranges correspond to an example of reference values using different values.
  • the length of the touch input locus formed between the reference coordinate Rm used for the input determination and the current touch position coordinate T may be replaced with another parameter.
  • a linear distance between the reference coordinate Rm and the current touch position coordinate T is used instead of the length of the touch input trajectory formed between the reference coordinate Rm and the current touch position coordinate T. It doesn't matter.
  • the length of the Y-axis component in the vector FD may be used in place of the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T.
  • the length of the vector FD may be used instead of the length of the touch input trajectory formed between the reference coordinate Rm and the current touch position coordinate T.
  • the determination may be made without using the reference coordinate Rm.
  • the change speed of the swipe position up to the current touch position coordinate T for example, the length from the current touch position coordinate T detected last time to the current touch position coordinate T detected this time, or detected immediately before If the direction of the swipe input in which the change speed is detected is within the forward determination area UA or the backward determination area LA when the length of the touch input locus within a predetermined time is equal to or greater than a reference value, the touch panel touches the touch panel. It may be determined that an upward or downward swipe input on the display screen has been performed.
  • the length of the Y-axis direction component of the swipe input in which the change speed is detected is greater than or equal to a predetermined length. If it is, you may determine with the swipe input of the upper direction or the downward direction of the display screen having been performed with respect to the touch panel.
  • the predetermined length serving as a reference value for determining the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T may be changed according to the user's swipe input.
  • the predetermined length serving as the reference value may be changed.
  • the handle of the player object PO is largely turned to the left and right by increasing the predetermined length as the reference value.
  • the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T is equal to or longer than a predetermined length, and the direction of the vector FD is within the determination region.
  • the firing item IM is fired in the direction directly in front of or the back direction of the player object PO. This is determined when only the vertical component of the swipe input is used, and even if the user intends to perform the swipe input in the left-right direction, it is determined that the swipe input includes the vertical component. In order to prevent this, it is possible to perform accurate input determination by setting the above conditions.
  • the direction in which the firing item IM is fired may be a direction deviated from the front direction or the back direction of the player object PO.
  • the launch is performed in a direction shifted by the angle difference from the front direction of the player object PO based on the angle difference between the positive direction of the Y axis and the direction of the vector FD. Item IM may be fired.
  • the launch is performed in a direction shifted by the angle difference from the direction directly behind the player object PO based on the angle difference between the negative Y-axis direction and the direction of the vector FD.
  • Item IM may be fired.
  • the direction in which the launch item IM is fired may be different depending on the type of the player object PO and the equipment used by the player object PO (for example, the cart on which the player object PO is on).
  • the touch input direction is determined based on the coordinate axes (XY axes) defined on the display screen of the display unit 35, but the touch input direction is determined based on other coordinate axes.
  • the input direction may be determined. For example, as shown in FIG. 9, it is conceivable to determine the touch input direction with reference to the coordinate axis defined for the player object PO.
  • the player object PO is displayed in a state of facing right on the display screen of the display unit 35.
  • the first axis that is the left-right direction of the player object PO is the x-axis (the right direction of the player object PO is the x-axis positive direction), and the second axis that is orthogonal to the first axis that is the front-rear direction of the player object PO.
  • a player object coordinate system is defined with the y axis (the forward direction of the player object PO is the positive y axis). Even when such a coordinate system is used, the reference coordinate R0 for determining the left-right direction of the swipe operation is set as R0 (x0, x0), and the current touch position coordinate T is set as T (xt, yt).
  • the magnitude of the left-right direction component (x-axis direction component) of the player object PO in swipe input is calculated by xt ⁇ x0
  • the magnitude of the front-rear direction component (y-axis direction component) of the player object PO in swipe input is calculated. It can be calculated by yt ⁇ y0.
  • the x-axis direction component xt-x0 is a positive value
  • the moving direction of the player object PO is changed to the right by the handle angle corresponding to the absolute value of xt-x0.
  • the x-axis direction component xt-x0 is a negative value
  • the moving direction of the player object PO is changed leftward at a handle angle corresponding to the absolute value of xt-x0.
  • the reference coordinate Rm for determining the front-rear direction of the player object PO for the swipe operation is set as Rm (xm, xm). Then, a vector FD from the reference coordinate Rm toward the current touch position coordinate T is calculated, and based on the direction of the vector FD, it is determined whether or not the swipe input to the touch panel corresponds to the forward direction or the backward direction of the player object PO. To do.
  • the reference coordinate Rm is set so that the length is equal to or less than the threshold value L. Move toward the current touch position coordinate T along the locus.
  • the use preparation item IP becomes the launch item IM and is fired in the direction corresponding to the determination.
  • the determination area shown in FIG. 9 is used.
  • a predetermined angle range centered on the positive y-axis direction that is the forward direction of the player object PO is set as the forward determination area UAp
  • the negative y-axis direction that is the backward direction of the player object PO is A predetermined angular range as the center is set as the rear determination area LAp.
  • the use preparation item IP when the use preparation item IP can be fired behind the player object PO, the length of the vector FD is equal to or longer than a predetermined length, and the direction of the vector FD is within the rear determination area LAp, the use preparation item IP is displayed.
  • a firing item IM and is fired behind the player object PO (for example, right behind).
  • the x-axis corresponds to another example of the first axis
  • the y-axis corresponds to another example of the second axis.
  • the front direction of the player object PO may be the front of the direction in which the player object PO is facing, or may be the direction directly above the screen of the display screen (that is, the direction connecting the virtual camera and the player object PO).
  • the front determination area UAp and the rear determination area LAp set in the player object coordinate system are set to rotate relative to the display screen according to the rotation display angle when the player object PO is rotated.
  • the At this time, the range may be enlarged or reduced according to the forward determination area UAp and the backward determination area LAp being rotated and set on the display screen.
  • the orientation of the player object PO serving as a reference in the player object coordinate system may be the orientation of the cart on which the player object PO is riding, or the orientation of the player object PO riding on the cart.
  • the directions may be different, and the front determination area UAp and the rear determination area LAp may be set according to any direction.
  • the coordinate axes (XY axes) defined on the display screen of the display unit 35 are fixed with respect to the display screen even when the direction of the player object PO displayed on the display screen changes. Therefore, when using the coordinate axes defined on the display screen, the user who touches the touch panel can perform a swipe operation using the fixed coordinate axes, and is fixed regardless of the direction of the displayed player object PO. Touch operation using a simple operation method is possible. Further, when the coordinate axes defined on the display screen are used, the processing load for the determination can be reduced by fixing the coordinate axes for determining the touch operation.
  • different coordinate axes may be used depending on the touch input direction to be determined.
  • determination is made using the display screen coordinate system of the display unit 35, and in the detection of the vertical direction (the front-back direction of the player object PO) in the swipe input to the touch panel May use a player object coordinate system.
  • the player object coordinate system is used to detect the size of the horizontal component in the swipe input to the touch panel
  • the display screen coordinate system of the display unit 35 is used to detect the vertical direction in the swipe input to the touch panel. It is possible to use it.
  • the touch input can be similarly performed by setting the reference coordinates R0 and Rm and the current touch position coordinate T in each coordinate system. The direction can be determined.
  • the operation determination using the display screen coordinate system and the operation determination using the player object coordinate system are used.
  • the user selection may be made for each operation target. .
  • any coordinate system is used, there is an advantage. By making the selection possible according to the user's preference, the operability can be further improved.
  • the touch operation is performed by touching (for example, tapping) the touch panel on the item I in the possession frame HF displayed on the display screen or the use preparation item IP at the use preparation position.
  • Item may be used.
  • the touch-operated item is used at the timing when the touch panel on the use preparation item IP is touched on, or at the timing when the touch panel on the use preparation item IP is touched on and then touched off.
  • the touch-operated item is a type that is fired from the player object PO
  • the firing direction may be set to the default direction.
  • the size of the determination areas (the front determination area UA, the rear determination area LA, the front determination area UAp, and the rear determination area LAp) for determining the input direction changes according to the action of the player object PO. It doesn't matter.
  • the size of the determination area may be changed narrowly in a state where the player object PO is moving in a direction different from the steering wheel angle (for example, drift running motion, spin motion, etc.).
  • the direction input by the user enters the determination area different from the intention of the user's operation. Therefore, by narrowing the determination area corresponding to such an action of the player object PO, it is possible to reduce operation determinations different from the user's intention.
  • the moving direction of the player object PO is controlled according to the size of the left / right component in the swipe input to the touch panel.
  • Operation and other directional components may be added.
  • a predetermined operation for example, an operation of pressing a predetermined operation button or a touch operation on a predetermined operation button image
  • the size of the horizontal component in the swipe input to the touch panel is set. Accordingly, the moving direction of the player object PO may be controlled.
  • the moving direction of the player object PO may be controlled according to the size of the horizontal component and the size of the vertical component in the swipe input to the touch panel.
  • the left / right movement direction of the player object PO is controlled according to the vertical / horizontal component in the swipe input.
  • the horizontal component in the swipe input is +1.73 and the vertical component is +1.00. It is conceivable that 2 is used as the right handling amount.
  • the operation control for the item I is performed according to the vertical component in the swipe input to the touch panel
  • other operations and other direction components may be added as long as at least the vertical component is used.
  • a predetermined operation for example, an operation of pressing a predetermined operation button or a touch operation on a predetermined operation button image
  • the size of the vertical component in the swipe input to the touch panel is set. Accordingly, the operation on the item I may be controlled.
  • the moving direction of the player object PO is controlled according to the size of the left-right direction component in the swipe input to the touch panel, but other elements may be controlled.
  • the moving direction of the virtual camera for generating the game image can be controlled according to the size of the horizontal component in the swipe input to the touch panel. Conceivable.
  • the operation control with respect to the item I is performed according to the up-down direction component in the swipe input with respect to a touch panel, you may control another element.
  • operation control such as an operation of shooting a beam, an operation of switching equipment, an operation of switching a target, and an operation of switching a field of view or a viewpoint according to a vertical component in a swipe input to the touch panel.
  • the use preparation item IP is the launch item IM in response to the condition that the length of the vector FD is equal to or longer than the predetermined length and the direction of the vector FD is within the determination region.
  • the timing of launching in the direction corresponding to the determination is used, but the timing of launching as the launch item IM may be another timing.
  • the use preparation item IP becomes the launch item IM in response to being touched off from the touch panel. It may be fired in the direction according to the determination.
  • the position where the item I is fired as the launch item IM is set at the rear of the cart on which the player object PO rides, but is set at another position. May be.
  • the launch item IM may be launched from another position of the cart on which the player object PO rides, such as the front of the cart on which the player object PO rides, or from the vicinity of the cart.
  • the use preparation position is set at the upper or lower end of the display screen, the launch position provided outside the course, etc., and the launch item IM is launched from a position away from the cart on which the player object PO rides, Good.
  • the speed at which the launched launch item IM moves may be set according to the type of the launch item IM or may change according to user input. For example, the speed at which the launched project item IM moves changes according to the speed at which the swipe input for launching the launch item IM is performed (the speed at which the touch position moves when the swipe input is performed). May be.
  • swipe input in the upward or downward direction of the display screen is performed on the touch panel.
  • the swipe input direction may be determined using the touch input trajectory. For example, when the touch input locus formed between the reference coordinates Rm and the current touch position coordinates T is longer than a predetermined length and the direction of the vector FD is within the determination area, It may be determined that an upward or downward swipe input has been made.
  • the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T is equal to or longer than a predetermined length, based on the second reference coordinate. This corresponds to another example of determining that the input coordinate change is greater than or equal to the reference value.
  • the swipe input direction when considering the swipe input direction using the difference between the touch position coordinate T and the current touch position coordinate T before a predetermined time, the swipe input direction from the touch-on until the predetermined time elapses. It cannot be judged.
  • the difference between the touch position coordinate T touched 0.5 seconds ago and the current touch position coordinate T is greater than or equal to a predetermined value is used for the determination of the swipe input direction, the touch is turned on and immediately increased. Even if the swipe operation is performed, since the swipe input direction is not determined for 0.5 seconds, it is conceivable that the responsiveness until the item is fired is lowered and the user feels uncomfortable.
  • the swipe input direction is determined using the length of the touch input locus formed between the reference coordinate Rm and the current touch position coordinate T, the swipe operation is immediately performed after a large swipe operation immediately after touch-on. Since the swipe input direction is determined, the responsiveness until the item is fired is improved and the user does not feel uncomfortable.
  • the reference coordinate Rm that is one of the determination conditions for determining that the above-described swipe input has been performed.
  • the “predetermined length” when determining that the length of the touch input locus formed between the current touch position coordinate T and the current touch position coordinate T is equal to or longer than the predetermined length may be set to be shorter than the threshold value L. desirable.
  • the reference coordinate Rm may be reset according to the touch input time.
  • the history of the touch position coordinates T held as the touch input locus formed between the reference coordinates Rm and the current touch position coordinates T is recorded for a predetermined number of processing times (for example, 5 points corresponding to 5 frames). Only the history of the touch position coordinates T) may be held, and the swipe input direction may be determined using the history.
  • a value obtained by comparing the touch position coordinate T as the oldest history with the current touch position coordinate T as the latest history may be used as the touch input locus. In this case, the touch position coordinate T that is the oldest history functions as the reference coordinate Rm.
  • a predetermined time for example, 5 frames.
  • the process of resetting a newer touch position coordinate T as a new reference coordinate Rm in the history of the touch position coordinates T is repeated so that the required time is equal to or less than the predetermined time.
  • the determination of the swipe input direction described above is performed using such a touch input locus and the reference coordinate Rm.
  • a value obtained by comparing the touch position coordinate T that is the oldest history and the current touch position coordinate T that is the latest history is used as the touch. What is necessary is just to use as an input locus. It should be noted that these descriptions in which the reference coordinates Rm are reset according to the touch input time can be applied as appropriate to processing using either “vector FD” or “touch input locus”.
  • the predetermined length which is a threshold for determining the length of the vector FD and the length of the touch input trajectory, is a length determined as an upward swipe operation and a length determined as a downward swipe operation. May be set to a different length.
  • the swipe operation is relatively difficult by setting the predetermined length determined to be a downward swipe operation shorter than the predetermined length determined to be an upward swipe operation.
  • a downward swipe operation may be easily determined.
  • the predetermined length which is a threshold value for determining the length of the vector FD and the length of the touch input locus
  • the predetermined length may be changed according to the elapsed time from touch-on.
  • the time may be set to 0.25 times the threshold set when the time is 0.2 seconds or more. Accordingly, when the touch-on and the immediate swipe operation are performed, the swipe operation can be easily determined.
  • the predetermined length which is a threshold for determining the length of the vector FD and the length of the touch input trajectory, is determined after the swipe operation in one direction has been performed.
  • the threshold value for determining that the swipe operation in the direction has been performed may be changed. As an example, if it is determined that a swipe operation in one of the upward and downward directions has been performed, it is determined that a swipe operation in the other of the upward and downward directions has been performed.
  • the predetermined length for the above may be changed by a factor of 1.5.
  • the predetermined length which is a threshold for determining the length of the vector FD or the length of the touch input trajectory
  • it is formed between the reference coordinate Rm and the current touch position coordinate T.
  • the threshold value L for maintaining the length of the touch input locus may also be changed long (for example, the threshold value L is 1.5 times).
  • the information processing program executed by the information processing apparatus 3 that performs the determination of the swipe operation described above may have the following configuration.
  • the information processing program is executed by a computer included in a device that performs processing based on a user operation.
  • the information processing program causes the computer to function as input receiving means, coordinate storage means, reference coordinate setting means, trajectory calculation means, and direction determination means.
  • the input receiving means receives coordinate input by the user.
  • the coordinate storage means sequentially stores the coordinates of the coordinate input performed continuously.
  • the reference coordinate setting unit sets one of the coordinates stored in the coordinate storage unit as the reference coordinate.
  • the trajectory calculation means calculates the length of the trajectory of the coordinate input using the reference coordinates as the starting point.
  • the direction determination unit determines a direction indicated by the coordinate input using at least two coordinates input after the reference coordinate among the coordinates stored in the coordinate storage unit.
  • the reference coordinate setting means uses a newer coordinate as a reference from the coordinates stored in the coordinate storage means until the length of the trajectory is equal to or less than the predetermined threshold. Repeat the process of setting as coordinates.
  • the information processing program may further cause the computer to function as game operation execution means.
  • the game action executing means may determine the direction of a predetermined game action based on the direction determined by the direction determining means and execute the game action.
  • the game action executing means determines the direction of the game action and determines the direction of the game action when the difference between two coordinates input after the reference coordinates among the coordinates stored in the coordinate storage means is a predetermined value or more.
  • a game operation may be executed.
  • the above two coordinates may be a reference coordinate and a latest coordinate input coordinate.
  • the game action executing means may determine the direction of the game action and execute the game action when the length of the trajectory is a predetermined value or more.
  • FIG. 10 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 11 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 12 is a diagram illustrating an example of the state transition of the item I possessed within the possession frame HF.
  • FIG. 13 is a diagram illustrating another example of the state transition of the item I possessed within the possession frame HF.
  • FIG. 14 is a diagram illustrating an example of a lottery table.
  • FIG. 10 similarly to FIGS. 4 and 5, a game image corresponding to the game being played on the information processing device 3 is displayed on the display unit 35 of the information processing device 3.
  • a scene of a racing game is displayed.
  • the player object PO travels on a cart provided in a virtual world and travels through an item box IB installed on the course.
  • a new item I can be acquired.
  • the player object PO can acquire a new item I only when the possessing frame HF of the empty frame E is present.
  • a lottery effect display (hereinafter referred to as a rotational lottery display) in which a plurality of types of items I are shuffled by a drum roll type, a flap type, or the like is sequentially performed. Thereafter, any one item I is stopped and displayed in the possession frame HF, thereby indicating that the item I stopped and displayed in the possession frame HF is confirmed and acquired by lottery. For example, in FIG.
  • a rotation display item IR indicating that a plurality of types of items I are sequentially displayed and being drawn is displayed in the all possession frame HF (3
  • the lottery for acquiring the item I is not performed on the possession frame HF in which the item I is already displayed. That is, in the possession frame HF, when the empty frame E and the display frame of the item I are mixed, the lottery is performed only for the empty frame E. In addition, when there is no possession frame HF of the empty frame E, the lottery is not performed, so that the player object PO cannot obtain a new item I by the lottery.
  • An effect of lottering a new item I to be performed may be performed. For example, when the player object PO enters a predetermined distance from the item box IB, passes directly above or below the item box IB, and passes through the ring-shaped item box IB, the new item I to be acquired is acquired. An effect of lottery may be performed.
  • the item box IB may be installed at a specific position on the course, or may appear at an arbitrary position on the course as time passes.
  • the item I stopped and displayed in the possession frame HF is confirmed that the player object PO has been acquired by lottery, and after the determination, one player object PO is acquired in a predetermined order (for example, acquisition order) by the operation method described above. Can be used one by one. Then, the player object PO can obtain an advantageous effect by using the item I in advance of the race.
  • a predetermined order for example, acquisition order
  • the same item I when confirmed by lottery in all possession frames HF, it becomes a hit in a so-called “fever state”, and a more advantageous effect for the player object PO to advance the race. Can be obtained.
  • the player object PO when the player object PO is in the “fever state”, the items in the “fever state” can be continuously used only during a predetermined fever period.
  • a unique object ID is set for each item I, and whether or not the item is in the “fever state” is determined using the object ID set for each possession frame HF. Is done. Note that the fever period may change according to the equipment used by the player object PO.
  • the shell item I1 is stopped and displayed in the leftmost possession frame HF
  • the shell item I2 is stopped and displayed in the center possession frame HF
  • the shell item I3 is stopped in the rightmost possession frame HF.
  • the item I of the same shell is confirmed in all possession frames HF by lottery.
  • the “fever state” is established by the shell item within a predetermined period, and an advantageous effect using the shell item is given to the player object PO only during the predetermined fever period.
  • a plurality of shell item IFs are arranged around the player object PO to indicate to the user that the “fever state” is based on the shell item.
  • the shell launch item IM is continuously fired in front of the player object PO at a predetermined cycle. That is, when the shell item I is used in the normal state, the shell firing item IM can be fired from the player object PO in a single shot. However, in the “fever state” by the shell item, multiple shells are fired. The item IM can be continuously fired from the player object PO. Further, in the “fever state”, the shell firing item IM is continuously fired at a predetermined cycle without performing the swipe operation for firing the item, so that the moving direction of the player object PO is controlled by the touch operation. However, it becomes easy to use repeated items.
  • the number of possession frames HF that is, the item I can be used, for example, three times.
  • the item I is continuously used without being limited to the number of possession frames HF (that is, more than the number of possession frames HF, for example, four times or more). This is a very advantageous state for the user over the normal state.
  • the direction of the firing item IM fired from the player object PO in the “fever state” may be fixed to a predetermined direction (for example, the direction directly in front of the player object PO), or the peripheral direction of the player object PO. You may fire sequentially in a random direction.
  • the vector FD that satisfies the firing condition of the firing item IM in the “fever state” that is, the vector FD in which the length of the vector FD is equal to or longer than the predetermined length and the direction is in the forward determination area UA or the backward determination area LA). Is set, the firing items IM may be sequentially fired based on the direction of the vector FD.
  • the plurality of item IFs arranged around the player object PO in the “fever state” may be displayed with a reduced display number as the fever period elapses.
  • the user of the information processing device 3 can grasp the remaining time of the fever period based on the number of items IF displayed.
  • the image for reducing the number of displays and notifying the remaining time of the fever period may not be a plurality of item IFs arranged around the player object PO.
  • the number of items I displayed in the possession frame HF may be reduced and displayed as the fever period elapses.
  • the entire possession frame HF is an empty frame E.
  • the player object PO is opened by passing through the item box IB, an item lottery in which all possession frames HF are subject to lottery is performed.
  • the rotation display item IR is in a rotation lottery display for all the possessed frames HF.
  • the probability of winning the “fever state” is controlled. The probability control will be described later.
  • the item lottery in the state B when the “fever state” is hit, the item I having the same possession frame HF is stopped and displayed, and the state C is determined.
  • the shell item I1 is stopped and displayed in the leftmost possession frame HF
  • the shell item I2 is stopped and displayed in the center possession frame HF
  • the shell item I3 is stopped and displayed in the rightmost possession frame HF.
  • the player object PO progresses through the race in the “fever state” with the shell item.
  • the “fever state” of the player object PO is ended, and all the possession frames HF become the empty frame E.
  • the item lottery in which all the possession frames HF are subject to the lottery can be performed again.
  • state D when the player object PO reopens with the item box IB and is opened, the item lottery in which all the possession frames HF are subject to the lottery is performed again. As a result, the rotation display item IR is displayed in a rotation lottery display for all the possessed frames HF.
  • the state F is determined.
  • the shell items I1 and I3 having the same left end holding frame HF and the right end holding frame HF are stopped and displayed, but different banana items I2 are stopped and displayed on the center holding frame HF.
  • Yes That is, as a result of the item lottery in the state E, it is shown in the state F that it has deviated.
  • the items I1 to I3 displayed in the possession frame HF according to the state F can be used individually by the player object PO.
  • the rotation display item IR is in a rotation lottery display state only for the empty frame E of the leftmost possession frame HF.
  • different items I2 and I3 have already been confirmed and displayed in the center possession frame HF and the right end possession frame HF, so what item I is confirmed in the empty frame E of the left end possession frame HF. Even so, the item lottery is lost, and the item I1 is stopped and displayed in the leftmost possession frame HF.
  • the items I displayed in the possession frame HF can be used by a FIFO (first-in first-out) method. That is, in the state I, since the item I1 is acquired lastly among the items I1 to I3 displayed in the possession frame HF, when the player object PO uses the items I1 to I3, the item I1 is the last item I1.
  • the order of use of the items I displayed in the possession frame HF may not be the FIFO (first-in first-out) method.
  • the selected item I is used. It may be.
  • the center and right end possession frame HF becomes an empty frame E. J.
  • the two possessed frames HF become the empty frame E, the two empty frames E are in a state in which an item lottery for which a lottery is to be performed can be performed.
  • state J when the player object PO reopens with the item box IB and is opened, an item lottery is performed in which the empty frame E of the possession frame HF at the center and the right end is a lottery target.
  • the rotation display item IR is in a rotation lottery display for the empty frame E of the possession frame HF at the center and the right end.
  • the item I1 has already been confirmed and displayed in the leftmost possession frame HF, but when the item I of the same type as the item I1 is confirmed in the empty frame E of the possession frame HF at the center and the right end, the “fever state” May be a hit.
  • the possession frame HF at the center and the right end is in the state L in which the item I of the same type as the item I1 is stopped and displayed.
  • the mushroom item I1 is stopped and displayed in the leftmost possession frame HF
  • the mushroom item I2 is stopped and displayed in the center possession frame HF
  • the mushroom item I3 is stopped and displayed in the rightmost possession frame HF.
  • the first item lottery processing example performed in the information processing system 1 by selecting and using at least one item I included in each of the plurality of possession frames, An in-game effect based on the type can be obtained, and a possession frame in which the item I causing the in-game effect is displayed is an empty frame E. Further, when the item lottery satisfies the condition that all items I included in the plurality of possession frames are the same, an in-game effect that is more advantageous than the in-game effect can be obtained.
  • the lottery table describes the number of empty frames E of the possession frame HF and the hit probability corresponding to the type of item I to be “fever state”.
  • the lottery table also describes the overall winning probability by accumulating the winning probabilities for each item I.
  • the probability of winning with the shell item is 10%
  • the banana item is hit.
  • the probability is set to 10%
  • the probability of winning with a mushroom item is set to 10%.
  • the shell item I is confirmed and displayed in one or two possession frames HF, and the remaining possession frame HF is the empty frame E (that is, the possession frame HF of the empty frame E and the shell item I are In the item lottery in the non-full-frame rotation that is in the rotation lottery state in which the possessed frame HF that is confirmed and displayed is mixed), the probability of winning with the shell item is 10%, the probability of winning with the banana and mushroom items Is set to 0%.
  • the banana item I is confirmed and displayed in one or two possession frames HF, and the remaining possession frame HF is the empty frame E (that is, the possession frame HF of the empty frame E and the banana item I are In the item lottery in non-full-frame rotation in which the possessed frame HF that has been confirmed and displayed is mixed), the probability of winning with a banana item is 10%, the probability of winning with a shell and mushroom item Is set to 0%.
  • the mushroom item I is confirmed and displayed in one or two possession frames HF, and the remaining possession frame HF is the empty frame E (that is, the possession frame HF of the empty frame E and the mushroom item I are In the item lottery in non-full-frame rotation in which the possessed frame HF that is confirmed and displayed is mixed), the probability of winning with mushroom items is 10%, the probability of winning with shell and banana items Is set to 0%.
  • the probability of hitting any item by rotating the entire frame is set to 30%, but the probability of hitting any item by non-full frame rotation is set to 10%. That is, when the lottery table is used, the probability of winning the “fever state” is the highest when the item lottery is performed with the entire possession frame HF as the empty frame E. This is because the hit probability for each item is constant in the item lottery in any state. Therefore, by using such a lottery table, it is possible to prevent a strategy in which the item I desired by the user is left in the determined state in the possession frame HF and the hit by the item I has a high probability.
  • the lottery table may be managed by the server 200 and transmitted from the server 200 to the information processing device 3 when a game in the information processing device 3 is started.
  • the server 200 may transmit different lottery tables according to the time of play, the level of the user of the information processing device 3, and the like.
  • the server 200 may be set so that different lottery tables are used depending on the game situation.
  • the server 200 may set different lottery tables according to the number of laps of the race, the rank of the race, the type of the course or race, the type of the player object PO, and the like.
  • different lottery tables may be set according to the equipment used by the player object PO in the race. For example, when the player object PO uses special equipment, it may be possible to set a lottery table that increases the probability of winning the “fever state”.
  • a further effect may be given to the player object PO in addition to the effect of the item I that has won.
  • an effect that the shell launch item IM can be continuously fired during the fever period is given to the player object PO, and the traveling speed of the player object PO is accelerated or increased.
  • An effect of decelerating may be given to the player object PO.
  • the player object PO has an effect that the shell launch item IM can be continuously fired during the fever period, and is also attacked by the enemy object EO.
  • the player object PO may be given a defensive effect that does not affect the running even if it collides with another object.
  • the player object PO bounces off or passes through the shell launch item IM, thereby causing the player object PO to travel. Since no influence is given, in the “fever state”, the user can fire the shell launch item IM without worrying about the influence on the player object PO itself.
  • a special item for example, “Lucky 7” item
  • a special item that can obtain the effect of multiple types of item I may be set.
  • the special item when the special item is confirmed and displayed in all possession frames HF and hits the “fever state” by the special item, an effect that the effects of a plurality of items appearing in the game are sequentially generated. Is given to the player object PO during the fever period.
  • the special item when the special item is mixed in at least one of the possession frames HF, the special item is removed from the possession frame HF without obtaining the effect of single use of the special item. Erased to become an empty frame E.
  • the player object PO can acquire a new item I only when the possessing frame HF of the empty frame E exists, but this is the case where the possessing frame HF does not have the empty frame E.
  • a new item I may be acquired.
  • the item lottery can be performed, and the possession frame HF in which the item I is displayed is also in the rotation lottery state.
  • the rotation lottery state may be set. Even in the possession frame HF in which the item I is displayed as described above, when the item lottery is performed in the rotation lottery state, the possession frame HF may not be changed to the empty frame E according to the use of the item I.
  • the example in which “Fever state” is hit when all three possession frames HF are aligned with the same item I is used. It doesn't matter if the conditions are met. As an example, when there are four or more possession frames HF and at least three of the possession frames HF are aligned with the same item I, the “fever state” may be hit. As another example, when the three possession frames HF become a specific combination of items I (for example, mushroom-shell-banana), the “fever state” may be hit.
  • the timing at which the player object PO enters the “fever state” after hitting the “fever state” may be started immediately after the hit notification or after a predetermined time has passed after the notification.
  • the player object PO after hitting the “fever state”, the player object PO may be in the “fever state” in response to a predetermined user operation.
  • the probability of winning the “fever state” and the type of item I to be stopped and displayed in the possession frame HF may be performed based on rules different from the control by the lottery table. For example, the probability of winning the “fever state” and the type of item I to be stopped and displayed in the possession frame HF may be controlled randomly, or may be controlled based on the timing at which the item box IB is opened. Alternatively, the items I stopped and displayed in the possession frame HF may be controlled to be in a predetermined order.
  • FIG. 15 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 16 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 17 is a diagram illustrating an example of the state transition of the item I and the item lottery icon AB held in the possession frame HF.
  • FIG. 18 is a diagram illustrating an example of a game image displayed on the display unit 35 of the information processing device 3.
  • FIG. 15 similarly to FIGS. 4 and 5, a game image corresponding to the game being played on the information processing device 3 is displayed on the display unit 35 of the information processing device 3.
  • a scene of a racing game is displayed.
  • the player object PO travels on a cart on a course provided in the virtual world.
  • an item lottery icon AB appears in place of the possession frame HF.
  • the item lottery icon AB functions as an operation instruction button executed by being selected by a user's touch operation. Further, in the vicinity of the item lottery icon AB, price information M indicating the price of the virtual currency consumed when the item lottery icon AB is selected and executed is given. In the example of FIG. 15, when the item lottery icon AB is used, it is indicated as the price information M that one star-shaped virtual currency that can be acquired by charging by the user is consumed. Note that the item lottery icon AB and the price information M appear when all possessed frames HF are empty frames E. However, the use of the item lottery icons AB and price information M exceeds the number of times of use (for example, limited to one race) or the user. Will not appear if you do not have the necessary virtual currency to use.
  • the effect of performing an item lottery for acquiring a new item I is started.
  • the state where the item lottery icon AB does not appear may be a state where the item lottery icon AB is not displayed on the display screen, or a state where the item lottery icon AB is grayed out or translucently displayed.
  • the item lottery icon AB may be displayed on the display screen. In that case, even if the user performs an operation of selecting the item lottery icon AB, the item lottery icon AB may be displayed. The lottery icon AB becomes unresponsive.
  • a possession frame HF appears in place of the item lottery icon AB and the price information M. Then, similarly to the first item lottery processing example, after the rotation display item IR indicating the rotation lottery display state is displayed in all possession frames HF, any one item I is stopped and displayed in each frame. Indicates that the stopped item I has been confirmed and acquired by lottery.
  • the item lottery by using the item lottery icon AB it is determined that the item I stopped and displayed in the possession frame HF is acquired by the player object PO by the lottery, and the player object PO is obtained by the above-described operation method after the determination. POs can be used one by one in a predetermined order. Then, the player object PO can obtain an advantageous effect by using the item I in advance of the race.
  • the item lottery icon AB when the same item I is confirmed by lottery in all possession frames HF, it becomes a “fever state”, and the player object PO further advances the race. An advantageous effect can be obtained. Similar to the first item lottery processing example, when the player object PO is in the “fever state”, the items in the “fever state” may be continuously used only during a predetermined fever period. it can.
  • a new item I can be acquired or “fever state”, as in the item lottery by opening the item box IB provided on the course.
  • a lottery can be held. Therefore, the user can start a new item lottery whenever the item lottery icon AB appears, not only when the item box IB is arranged on the course.
  • different elements may be included between the item lottery by using the item lottery icon AB and the item lottery by opening the item box IB.
  • the item lottery is performed by opening the item box IB during the time when the item lottery is performed by using the item lottery icon AB (the time during which the rotational lottery effect of the item I is performed). It may be shorter than the time taken.
  • the item lottery icon AB is used, it is possible to shorten the time until the player object PO acquires a new item I or obtains an effect due to hitting the “fever state”. In particular, the player object PO can obtain an advantageous effect at an early stage.
  • the probability of being in the “fever state” by item lottery by using the item lottery icon AB is the chance to be in “fever state” by item lottery by opening the item box IB. It may be higher than the probability.
  • the probability that the player object PO will obtain the effect of hitting the “fever state” is increased, so that the player object PO is more likely to obtain a more advantageous effect.
  • the magnitude of the increase in the probability of becoming a “fever state” may be changed according to the price of the virtual currency consumed when the item lottery icon AB is selected and executed. As an example, it is conceivable that the probability increases as the price of the virtual currency consumed when the item lottery icon AB is selected and executed is increased.
  • the item lottery icon AB As the number of times the item lottery icon AB is selected and executed during one race increases, the price of the virtual currency consumed by the execution increases, and the probability increases as the price increases. .
  • the item lottery by opening the item box IB becomes “fever state”
  • the item lottery by using the item lottery icon AB becomes “fever state”. The probability of winning by may be high.
  • the items I displayed on the possession frame HF are all different from each other.
  • the state N is such that all possession frames HF become empty frames E.
  • all possessed frames HF become empty frames E, one of the conditions for the item lottery icon AB to appear is satisfied.
  • the item lottery icon AB is substituted for the possession frame HF.
  • AB and price information M appear and become state O.
  • the process shifts to a process of selecting and executing the item lottery icon AB, and an item lottery in which all possessed frames HF are subject to lottery is performed.
  • the rotation display item IR is in a rotation lottery display for all the possessed frames HF.
  • the item lottery in the state P when the “fever state” is won, the item I having the same possession frame HF is stopped and displayed, and the state Q is determined.
  • state Q the mushroom item I1 is stopped and displayed in the leftmost possession frame HF
  • the mushroom item I2 is stopped and displayed in the center possession frame HF
  • the mushroom item I3 is stopped and displayed in the rightmost possession frame HF.
  • the player object PO progresses through the race in the “fever state” by the mushroom item.
  • the “fever state” of the player object PO is ended, and the state of the possessed frame HF becomes an empty frame E.
  • the item lottery in which all the possession frames HF are subject to the lottery can be performed again.
  • the user has not yet reached the limit number of times to select and execute the item lottery icon AB, and the user possesses the virtual currency consumed in the execution. If it is, the item lottery icon AB and the price information M appear in place of the possession frame HF. However, if the above conditions are not satisfied, the item lottery icon AB does not appear again during the race.
  • a user can purchase a star-shaped virtual currency by using real-world money, that is, by charging.
  • a user can purchase a star-shaped virtual currency by using real-world money, that is, by charging.
  • the user performs a process of purchasing a star-shaped virtual currency with real-world currency using the information processing device 3
  • information regarding payment associated with the purchase is transmitted to the server 200, and a predetermined authentication process is performed. Settlement is made between the server 200 and the user.
  • the information processing apparatus 3 adds the purchased star-shaped virtual currency as the user's property interest.
  • the star-shaped virtual currency managed as the user's ownership may be usable in other games.
  • purchase indicates a state in which virtual currency can be acquired by further paying real-world money.
  • the software for playing the game is charged, the game play itself is charged, or the predetermined operation in the game is charged, etc., real-world money is further paid to these fees
  • the virtual currency is acquired by the above, it can be considered that the virtual currency is purchased and acquired.
  • the software for playing the game is free, the game play itself is free, or the predetermined action in the game is free, virtual currency can be obtained by paying real world money If it is in an acquired state, it can be considered that a virtual currency has been purchased and acquired.
  • the purchase in the above-mentioned real-world currency includes settlement by what the user purchases in advance or what is settled later, for example, a prepaid card purchased by the user in advance or after the fact A form in which virtual currency is purchased using a credit card withdrawn may be used.
  • the star-shaped virtual currency purchased by billing can be exchanged for various types that can be used in the above-described game.
  • a purchase scene that can be opened and viewed before the start of the race game or after the end of the race game, that is, a game scene that is different from the game scene being raced, the equipment used in the race, in-game coins, etc.
  • a purchase button B1 that can purchase in-game coins using a star-shaped virtual currency, and equipment used for a race using in-game coins are purchased.
  • a purchase button B2 that can be purchased and a purchase button B3 that can purchase a star-shaped virtual currency by charging are displayed.
  • the purchase button B1 includes a button for exchanging 10 star-shaped virtual currencies for 100 in-game coins, a button for exchanging 100 star-shaped virtual currencies for 1200 in-game coins, And a button for exchanging 1000 virtual currencies for 15000 in-game coins.
  • the coin in the game functions as a parameter that can be acquired as a price for the result in the racing game or acquired by acquiring a predetermined item in the racing game. It can be acquired and used in the racing game.
  • the in-game coins can also be purchased (exchanged for virtual currency) with the virtual currency owned by the user by selecting and executing the purchase button B1 desired by the user on the purchase screen.
  • the purchase button B2 is a button for purchasing the first equipment that can be used for the race by consuming 1000 coins in the game, and a second button that can be used for the race by consuming 200 coins in the game.
  • the equipment that can be used for the race is such that when the player object PO participates in the race using the equipment, the player object PO is given an ability specific to the equipment. An in-game effect can be obtained in which the PO can advantageously advance the race by using the equipment.
  • the player object PO is equipped with equipment that can increase the running speed and acceleration, improve the steering performance, increase the number of places where it can run, and improve the defense power by using the equipment.
  • the unique ability of can be obtained.
  • the equipment since the purchased equipment can be used continuously for a plurality of races by the player object PO, the equipment functions as an item that gives the player object PO a continuous in-game effect as long as the equipment is effective.
  • the above-mentioned in-game effect by using the item I and the in-game effect by entering the “fever state” are produced even if the possession of the item I can be carried over to another race. Since it is limited to a part of the period in the race and does not continue to other races, it can be said that the item provides a temporary in-game effect to the player object PO.
  • the user can purchase equipment using the in-game coins after exchanging the star-shaped virtual currency for in-game coins. Therefore, the user can purchase equipment using the star-shaped virtual currency via the in-game coin.
  • in-game coins may be purchased by direct charging.
  • a predetermined number for example, 1000
  • the in-game coins do not necessarily have to be purchased by direct billing.
  • the star-shaped virtual currency is consumed when the item lottery icon AB is selected and executed.
  • the game can be exchanged from the star-shaped virtual currency on the purchase screen. It does not matter if the inner coin is consumed during the execution.
  • the star-shaped virtual currency is temporarily exchanged for the in-game coin, and then the in-game coin is used. Since the item lottery icon AB can be executed, it can be considered that the item lottery icon AB can be executed using a star-shaped virtual currency.
  • “item lottery icon AB execution right that can be executed by selecting item lottery icon AB using star-shaped virtual currency or in-game coins exchangeable from star-shaped virtual currency” May be available for purchase.
  • a user who has purchased and possessed an “item lottery icon AB execution right” uses the “item lottery icon AB execution right” to consume the item lottery when the item lottery icon AB appears.
  • the icon AB can be selected and executed.
  • the “item lottery icon AB execution right” is consumed. Since the item lottery icon AB can be executed using the “item lottery icon AB execution right” after the exchange to “right”, the item lottery icon AB is executed using the star-shaped virtual currency. Can also be considered possible.
  • a star-shaped virtual currency or an in-game coin exchanged with the virtual currency When the equipment is purchased using the player object PO, the possession amount of the virtual currency is reduced, and the player object PO can obtain a continuous effect of the equipment that is effective in a plurality of races.
  • the player object PO when the item box IB arranged on the course in contact with the player object PO comes into contact with the player object PO, the player object PO can obtain a temporary effect due to the use of the item I effective in the race.
  • the star-shaped virtual currency and the in-game coin function as items that give various effects to the player object PO, the motivation for acquiring the star-shaped virtual currency and the in-game coin can be enhanced.
  • the item lottery icon AB appears only when all possessed frames HF of the empty frame E are empty frames E. However, when the possessed frame HF has no empty frame E, Even when some possession frames HF are empty frames E, the item lottery icons AB may be allowed to appear. In this case, even if there is no empty frame E in the possession frame HF or a part of the possession frames HF is the empty frame E, the item lottery by selecting the item lottery icon AB becomes possible, and the item I is displayed. Even in the possessed frame HF, the rotation lottery state is set.
  • the lottery state may be set.
  • the player object PO when the item box IB arranged on the course in the race comes into contact with the player object PO, the player object PO obtains a temporary effect due to the use of the item I effective in the race.
  • the temporary effect may be obtained even if there is no contact with the item box IB.
  • a new item I is automatically drawn every time a predetermined time elapses. Production may be performed. In this case, by selecting the item lottery icon AB, a new item I may be selected and acquired even if the predetermined time has not elapsed.
  • the probability of winning the “fever state” by selecting the item lottery icon AB and the type of the item I to be stopped and displayed in the possession frame HF are also performed based on rules different from the control by the lottery table. Also good.
  • the probability of winning the “fever state” by selecting the item lottery icon AB and the type of the item I to be stopped and displayed in the possession frame HF may be controlled randomly, or the item lottery icon AB is selected. It may be controlled based on the performed timing, or may be controlled so that the items I stopped and displayed in the possession frame HF are in a predetermined order.
  • the number of possession frames HF may change according to the type of player object PO. As an example, depending on the compatibility between the running course and the player object PO, three possession frames HF may be displayed in a course with good compatibility, and one possession frame HF may be displayed in a course with poor compatibility. Absent. When playing using a course in which one possession frame HF is displayed, the number of items I that can be possessed simultaneously by the player object PO is reduced, and the “fever state” is not achieved because the items I of all possession frames HF are aligned. This is a disadvantageous condition for the user.
  • FIG. 19 is a diagram illustrating an example of main data and programs stored in the storage unit 32 of the information processing device 3.
  • the data storage area of the storage unit 32 includes operation data Da, transmission data Db, reception data Dc, user-owned data Dd, lottery table data De, current touch input coordinate data Df, touch trajectory coordinate data.
  • Dg first reference coordinate data Dh, second reference coordinate data Di, left-right direction component data Dj, handle angle data Dk, input length data Dm, input vector data Dn, determination area data Dp, firing direction data Dq, possession frame Data Dr, first lottery flag data Ds, second lottery flag data Dt, winning flag data Du, lottery count data Dv, player object motion data Dw, enemy object motion data Dx, item position data Dy, image data Dz, and the like
  • the storage unit 32 stores data necessary for processing, such as data used in an application to be executed.
  • the program storage area of the storage unit 32 stores various program groups Pa constituting a communication program and an information processing program (game program).
  • the operation data Da is data indicating operation information on the operation of the information processing apparatus 3 by the user.
  • the operation data indicating that the input unit 34 including the touch panel has been operated is acquired every time unit (for example, 1/60 second) processed by the information processing device 3 and stored in the operation data Da according to the acquisition. Has been updated.
  • the transmission data Db is data registered as data to be transmitted to the server 200.
  • the reception data Dc is data received from the server 200.
  • the user-owned data Dd is various data indicating virtual currency, in-game coins, equipment, characters, items, experience values, play levels, user IDs, etc. owned by the user or the player object PO operated by the user. Yes, it includes data set by being managed by the server 200 and transmitted from the server 200 before the game is started.
  • the lottery table data De is data that describes the hit probability corresponding to the type of item I to be “fever state”, and is set according to the number of empty frames E, the time, the situation of the player object PO, and the like.
  • the lottery table data De is managed by the server 200 and set by being transmitted from the server 200 before the game is started.
  • the current touch input coordinate data Df is data indicating the current touch position coordinate T at which the input unit 34 (touch panel) is currently touched.
  • the touch trajectory coordinate data Dg is data indicating a history of touch input coordinates (touch trajectory coordinates) from when the touch panel is touched to the present time.
  • the first reference coordinate data Dh is data indicating touch input coordinates touched on the touch panel, and is data indicating reference coordinates (reference coordinates R0) for calculating a horizontal component in swipe input.
  • the second reference coordinate data Di is data indicating the touch input coordinates that move on the touch trajectory coordinates so as to satisfy a predetermined condition, and the reference coordinates (reference coordinates Rm) for calculating the vertical component in the swipe input. It is the data shown.
  • the left-right direction component data Dj is data indicating the left-right direction component of the swipe input input by the user.
  • the handle angle data Dk is data indicating the handle angle of the player object PO calculated based on the left-right direction component of the swipe input.
  • the input length data Dm is data indicating the length of the locus of the touch position input by the user.
  • the input vector data Dn is data indicating a vector FD from the reference coordinate Rm to the current touch position coordinate T.
  • the determination area data Dp is data indicating determination areas UA and LA for determining an upward or downward swipe input.
  • the firing direction data Dq is data indicating the direction of the firing item IM fired by the player object PO.
  • the possession frame data Dr is data indicating the object ID of the item I arranged for each possession frame HF.
  • the first lottery flag data Ds is data indicating a first lottery flag that is set to ON during a period in which an item lottery started by the player object PO opening the item box IB.
  • the second lottery flag data Dt is data indicating a second lottery flag that is set to ON during the period in which the item lottery started by the user selecting and executing the item lottery icon AB is performed.
  • the hit flag data Du is data indicating a hit flag that is set to ON during the hit in the “fever state”.
  • the lottery frequency data Dv is data indicating the number of item lotteries performed by selecting and executing the item lottery icon AB.
  • the player object motion data Dw is data indicating the motion of the player object PO, and also includes data indicating the position, speed, posture, number of laps, ranking, etc. of the player object PO during the race.
  • the enemy object motion data Dx is data indicating the motion of the enemy object EO, and also includes data indicating the position, speed, posture, number of laps, ranking, and the like of the enemy object EO during the race.
  • the item position data Dy is data indicating the position of the icon I (use preparation item IP) arranged at the use preparation position and the position of the fired icon I (launch item IM).
  • the image data Dz is displayed on the display unit 35 of the information processing apparatus 3 during the game (for example, an image of the player object PO, an image of the enemy object EO, an image of the item I, an image of the possession frame HF, an item lottery icon AB). , Images of other virtual objects, field images of courses, background images, etc.).
  • FIG. 20 is a flowchart illustrating an example of processing executed in the information processing device 3.
  • FIG. 21 is a subroutine showing a detailed example of the operation content determination process in step S106 of FIG.
  • FIG. 22 is a subroutine showing a detailed example of the first item lottery process in step S107 of FIG.
  • FIG. 23 is a subroutine showing a detailed example of the second item lottery process in step S108 of FIG.
  • FIG. 24 is a subroutine showing a detailed example of the purchase process in step S116 of FIG.
  • the series of processing shown in FIGS. 20 to 24 is performed by the control unit 31 (CPU) executing a communication program and a game program stored in the program storage unit 33.
  • the timings at which the processes shown in FIGS. 20 to 24 are started are arbitrary.
  • a part or all of the communication program and the game program are read to the storage unit 32 at an appropriate timing and executed by the control unit 31.
  • a series of processing shown in FIGS. 20 to 24 is started.
  • the communication program and the game program are stored in advance in the program storage unit 33. However, in other embodiments, it may be acquired from a storage medium that is detachable from the information processing device 3 and stored in the storage unit 32, or may be acquired from another device via a network such as the Internet. 32 may be stored.
  • each step in the flowcharts shown in FIGS. 20 to 24 is merely an example, and if the same result can be obtained, the processing order of each step may be changed. In addition and / or instead, another process may be performed. In the present embodiment, the processing of each step in the flowchart is described as being executed by the control unit 31, but the processing of a part or all of the steps in the flowchart is performed by a processor other than the CPU of the control unit 31, A dedicated circuit may be executed.
  • the control unit 31 performs communication processing (step S101), and proceeds to the next step. For example, the control unit 31 transmits transmission data (for example, data for performing user authentication (for example, data indicating a user ID)) stored in the transmission data Db to the server 200 via the network 100. Further, the control unit 31 receives data from the server 200 via the network 100, and updates the received data Dc using the received data. As an example, when playing a game with another information processing apparatus 3 or playing a game with only the own device, the control unit 31 transmits data for progressing the game to the server 200 in step S101. Send and receive as appropriate.
  • transmission data for example, data for performing user authentication (for example, data indicating a user ID)
  • the control unit 31 receives data from the server 200 via the network 100, and updates the received data Dc using the received data.
  • the control unit 31 transmits data for progressing the game to the server 200 in step S101. Send and receive as appropriate.
  • control unit 31 performs initial setting (step S102), and proceeds to the next step.
  • the control unit 31 initializes each parameter used for the subsequent processing.
  • the control unit 31 initializes the user owned data Dd based on the contents such as virtual objects and items currently owned by the player object PO.
  • the control unit 31 is data relating to data owned by the user or data relating to the player object PO operated by the user (for example, virtual currency, in-game coin, equipment, character, item, experience value, play level, etc. Data), data (for example, lottery table data) for progressing a race game, which will be described later, and the like are received from the server 200 in step S101.
  • control unit 31 initializes the user owned data Dd and the lottery table data De based on the data received from the server 200 and the data stored in the information processing device 3.
  • step S101 and step S102 the virtual currency owned by the user, the amount of coins in the game, a lottery table for performing item lottery, and the like are initially set.
  • control unit 31 acquires the operation data from the input unit 34, updates the operation data Da (step S103), and advances the processing to the next step.
  • step S104 determines whether or not to start the racing game. For example, the control unit 31 makes an affirmative determination in step S104 when an operation for starting a race game is performed by the user or when a predetermined start condition for starting the race game is satisfied. And the control part 31 advances a process to step S105, when starting a racing game. On the other hand, the control part 31 advances a process to step S115, when not starting a race game.
  • step S105 the control unit 31 acquires operation data from the input unit 34, updates the operation data Da, and proceeds to the next step.
  • the input receiving unit performs a process of receiving a coordinate input by the user, and corresponds to the control unit 31 that performs the process of step S105 as an example.
  • control unit 31 performs an operation content determination process (step S106), and proceeds to step S107.
  • step S106 the operation content determination process performed in step S106 will be described with reference to FIG.
  • the control unit 31 updates the current touch position coordinates based on the latest operation data acquired in step S105 (step S121), and proceeds to the next step. For example, the control unit 31 displays, on the display screen of the display unit 35, the X axis that is the left and right direction of the display screen (the right direction is the X axis positive direction) and the Y axis that is the vertical direction of the display screen (the upper direction is Y Define the display screen coordinate system with (axis positive direction) set. And the control part 31 acquires the touch input coordinate of the said display screen coordinate system currently touch-operated with respect to the touch panel of the information processing apparatus 3 as the present touch input coordinate T from the newest operation data acquired in said step S105.
  • the current touch input coordinate data Df is updated using the current touch input coordinate T.
  • the control unit 31 determines that the user is touching off the touch panel when the latest operation data acquired in step S105 does not include the touch input coordinates where the touch operation is performed on the touch panel. Then, the current touch input coordinate data Df is updated using the data indicating the touch-off.
  • control unit 31 adds the current touch input coordinates T updated in step S121 to the touch trajectory coordinates (step S122), and proceeds to the next step.
  • the control unit 31 adds the current touch input coordinates T updated in step S121 to the touch trajectory coordinates indicated by the touch trajectory coordinate data Dg, and uses the touch trajectory coordinates after the addition, and the touch trajectory coordinate data Dg. Update.
  • the control unit 31 proceeds to the next step without updating the touch locus coordinate data Dg.
  • control unit 31 determines whether or not the touch panel of the information processing device 3 has changed from the touch-off state to the touch-on state (step S123). And the control part 31 advances a process to step S124, when a touchscreen changes from a touch-off state to a touch-on state. On the other hand, when the touch panel is not in the touch-on state from the touch-off state (for example, when the touch panel is in the touch-off state or continuously being touched after being touched on), the control unit 31 advances the process to step S125.
  • step S124 the control unit 31 sets the first reference coordinate and the second reference coordinate, and proceeds to step S125.
  • the control unit 31 refers to the current touch input coordinate data Df, acquires the current touch input coordinate T updated in step S121, and uses the current touch input coordinate T as the first reference in the display screen coordinate system.
  • the coordinates R0 and the second reference coordinates Rm are set.
  • the control unit 31 updates the first reference coordinate data Dh using the set first reference coordinate R0, and updates the second reference coordinate data Di using the set second reference coordinate Rm.
  • step S125 the control unit 31 calculates the left-right direction component of the swipe input to the touch panel, and proceeds to the next step.
  • the control unit 31 refers to the first reference coordinate data Dh and the current touch input coordinate data Df, and the reference coordinates R0 (X0, Y0) and the current touch position coordinates T (Xt, Yt) in the display screen coordinate system. And get.
  • the control unit 31 calculates Xt ⁇ X0 as the size of the horizontal component (X-axis direction component) of the display screen in the swipe input, and uses the calculated Xt ⁇ X0 to calculate the horizontal component data Dj. Update.
  • the control unit 31 calculates the handle angle of the player object PO (step S126), and proceeds to the next step. For example, when the left-right direction component Xt-X0 calculated in step S125 is a positive value, the control unit 31 calculates the right-hand handle angle according to the absolute value of Xt-X0, and determines the handle angle. Use to update the handle angle data Dk. In addition, when the left-right direction component Xt ⁇ X0 calculated in step S125 is a negative value, the control unit 31 calculates the left-hand handle angle according to the absolute value of Xt ⁇ X0, and calculates the handle angle. Use to update the handle angle data Dk.
  • the control unit 31 changes the handle angle so as to return to the neutral position at a predetermined speed, and updates the handle angle data Dk.
  • the object moving means performs a process of changing the moving direction of the moving object based at least on the first axis direction component of the magnitude of the change of the user input with reference to the first reference coordinates determined by the user input. As an example, this corresponds to the control unit 31 that performs the processing of steps S124 to S126.
  • control unit 31 calculates the input length from the second reference coordinate Rm to the current touch input coordinate T (step S127), and proceeds to the next step.
  • the control unit 31 refers to the current touch input coordinate data Df, the touch trajectory coordinate data Dg, and the second reference coordinate data Di, from the second reference coordinate Rm along the touch input trajectory to the current touch position coordinate T.
  • the input length data Dm is updated using the input length.
  • control unit 31 determines whether or not the input length calculated in step S127 is longer than a predetermined threshold L (step S128). When the input length is longer than the predetermined threshold L, the control unit 31 advances the process to step S129. On the other hand, when the input length is equal to or less than the predetermined threshold L, the control unit 31 advances the process to step S130.
  • step S129 the control unit 31 moves the second reference coordinate Rm so that the input length is equal to or less than the threshold value L, and the process proceeds to step S130.
  • the control unit 31 sequentially deletes the history of the touch position coordinates T that is longer than the threshold L based on the predetermined speed so that the input length calculated in step S127 is equal to or less than the threshold L at the predetermined speed.
  • the position that becomes the oldest touch position coordinate T according to the deletion process is set as the second reference coordinate Rm.
  • the control unit 31 moves the second reference coordinate Rm in the direction of the current touch position coordinate T along the touch input locus, and uses the second reference coordinate Rm after the movement to obtain the second reference coordinate data Di. Update.
  • step S130 the control unit 31 calculates the input vector FD and proceeds to the next step.
  • the control unit 31 refers to the current touch input coordinate data Df and the second reference coordinate data Di, and calculates an input vector FD from the second reference coordinate Rm to the current touch position coordinate T in the display screen coordinate system.
  • the input vector data Dn is updated using the input vector FD.
  • control unit 31 determines whether or not the length of the input vector FD is equal to or greater than a predetermined length and the direction indicated by the input vector FD is within a predetermined determination region (step S131). ). Then, when the length of the input vector FD is equal to or longer than the predetermined length and the direction indicated by the input vector FD is within the determination area, the control unit 31 advances the process to step S132. On the other hand, when the length of the input vector FD is not equal to or longer than the predetermined length, or the direction indicated by the input vector FD is not within the determination region, the control unit 31 deletes the firing direction indicated by the firing direction data Dq, The process proceeds to step S133.
  • control unit 31 refers to the determination area data Dp, and is a predetermined angle range centered on the Y axis negative direction and a front determination area UA that is a predetermined angle range centered on the Y axis positive direction.
  • the backward determination area LA is acquired, the length of the input vector FD calculated in step S130 is equal to or longer than a predetermined length, and the direction of the input vector FD is in the forward determination area UA or the backward determination area LA. In this case, an affirmative determination is made in step S131.
  • step S132 the control unit 31 sets the firing direction, and proceeds to step S133.
  • the control unit 31 sets the front direction of the player object PO as the firing direction and uses the firing direction to set the firing direction.
  • Data Dq is updated.
  • the control unit 31 sets the direction directly behind the player object PO as the firing direction, and uses the firing direction to set the firing direction. Data Dq is updated.
  • control unit 31 may set, as the firing direction, a direction deviated from the front direction or the back direction of the player object PO by the angle difference between the Y-axis direction and the input vector FD direction.
  • game action execution means performs a process of determining a game action different from the movement of the moving object based at least on the component of the user input in the second axis direction. This corresponds to the control unit 31 that performs the process.
  • step S133 the control unit 31 determines whether or not the touch panel of the information processing device 3 is in a touch-off state from the touch operation. And control part 31 advances processing to Step S134, when it is in a touch-off state from the state where the touch panel is touch-operated. On the other hand, when the touch panel is not touch-off from the touch-operated state (for example, when the touch-operation is not continuously performed after touch-off, when the touch-on is performed, the control unit 31 continues after the touch-on is performed. If the touch operation is in progress), the processing by the subroutine is terminated.
  • step S134 the control unit 31 deletes the first reference coordinates R0, the second reference coordinates Rm, and the touch trajectory coordinates, and ends the processing by the subroutine. For example, the control unit 31 erases the first reference coordinates R0 indicated by the first reference coordinate data Dh, the second reference coordinates Rm indicated by the second reference coordinate data Di, and the touch locus coordinates indicated by the touch locus coordinate data Dg. .
  • step S107 the control unit 31 performs a first item lottery process (step S107), and the process proceeds to step S108.
  • the first item lottery process performed in step S107 will be described with reference to FIG.
  • the control unit 31 determines whether or not there is an empty frame E in the possession frame HF (step S141). For example, the control unit 31 refers to the possession frame data Dr, acquires the object ID set in each possession frame HF, and data indicating that at least one of the possession frames HF is an empty frame E. If included, an affirmative determination is made in step S141. And the control part 31 advances a process to step S142, when the empty frame E exists in the possession frame HF. On the other hand, when there is no empty frame E in the possession frame HF, that is, when the object ID of the item I is set for all possession frames HF, the control unit 31 advances the process to step S145.
  • step S142 the control unit 31 determines whether or not the player object PO has been opened through the item box IB arranged on the course. For example, the control unit 31 refers to the player object motion data Dw and the like, and when the motion of the player object PO passing through the item box IB is set, the determination in Step S142 is affirmative. And control part 31 advances processing to Step S143, when player object PO opens item box IB. On the other hand, when the player object PO has not opened the item box IB, the control unit 31 advances the process to step S145.
  • step S143 the control unit 31 starts an item lottery effect process and advances the process to the next step.
  • the control unit 31 displays an item lottery effect in which any one item I is stopped and displayed in the possession frame HF after a plurality of types of items I are displayed in the possession frame HF of the empty frame E.
  • the item lottery effect process displayed on the unit 35 is started.
  • the control unit 31 starts the item lottery effect process and starts measuring the first lottery effect elapsed time.
  • control unit 31 sets the first lottery flag to ON (step S144), and the process proceeds to step S145.
  • control unit 31 sets the first lottery flag indicated by the first lottery flag data Ds to ON and updates the first lottery flag data Ds.
  • step S145 the control unit 31 determines whether or not the first lottery flag is set to ON. For example, the control unit 31 performs the determination in step S145 by referring to the first lottery flag indicated by the first lottery flag data Ds. And the control part 31 advances a process to step S146, when the 1st lottery flag is set to ON. On the other hand, the control part 31 advances a process to step S151, when the 1st lottery flag is set to OFF.
  • step S146 the control unit 31 determines whether or not the first elapsed time has been reached. For example, the control unit 31 determines whether or not the first lottery effect elapsed time for which measurement has been started from step S143 has reached a predetermined first lottery time. And control part 31 advances processing to Step S147, when the 1st lottery time is reached. On the other hand, if the first lottery time has not been reached, the control unit 31 advances the process to step S151.
  • step S147 the control unit 31 sets the first lottery flag to OFF, and proceeds to the next step. For example, the control unit 31 sets the first lottery flag indicated by the first lottery flag data Ds to OFF, and updates the first lottery flag data Ds.
  • control unit 31 performs item lottery result determination (step S148), and proceeds to the next step. For example, the control unit 31 determines whether or not to win the “fever state” based on the lottery table indicated by the lottery table data De. For example, the control unit 31 selects a lottery table to be used for hit determination from the lottery table data De according to the number of empty frames E, the number of laps of the race, the rank of the race, the type of the course or race, the type of the player object PO, and the like. Extract.
  • the control unit 31 determines whether or not to win the “fever state” in the item lottery result determination in step S148, and the item I that wins (That is, item I which is the same in all possession frames HF). Moreover, the control part 31 determines the item I to stop-display for every possession frame HF, when it is dissociated in the item lottery result determination in the said step S148.
  • the item lottery result determination is performed after the first lottery time has elapsed. However, if the item lottery result is not informed, such as when the first lottery effect elapsed time starts counting or during counting, The lottery result determination may be performed at another timing.
  • control unit 31 determines whether or not the item lottery result determination in step S148 is successful (step S149). And the control part 31 advances a process to step S150, when the item lottery result determination in the said step S148 is hit. On the other hand, the control part 31 advances a process to step S156, when the item lottery result determination in the said step S148 is off.
  • step S150 the control unit 31 performs an item lottery result notification process indicating a win, and then shifts to a fever state, and proceeds to step S151.
  • the control unit 31 stops and displays the item I determined in step S148 in all possession frames HF, and displays an item lottery result notification effect for notifying that the “fever state” is hit on the display unit 35. Item lottery result notification processing is performed.
  • the control unit 31 sets the hit flag to on, updates the hit flag data Du, starts measuring the fever elapsed time, and stops the object I object displayed on all the possessed frames HF in the possessed frame data Dr. Set the ID.
  • the control unit 31 sets the motion of the player object PO to the motion based on the fever state by the item I that stops and displays the motion of the player object PO, and updates the player object motion data Dw.
  • step S156 the control unit 31 performs the item lottery result notification process indicating the outage, and then proceeds to step S151.
  • the control unit 31 displays an item lottery result notification effect for notifying the item I acquired by stopping and displaying any one item I in the possession frame HF that was the empty frame E and the display unit.
  • An item lottery result notification process to be displayed at 35 is performed.
  • the control unit 31 sets the object ID of the item I to be stopped and displayed in the possession frame HF in the possession frame data Dr.
  • step S151 the control unit 31 determines whether or not the hit flag is on. For example, the control unit 31 refers to the winning flag indicated by the winning flag data Du to make the determination in step S151. And the control part 31 advances a process to step S152, when the hit flag is set to ON. On the other hand, when the hit flag is set to OFF, the control unit 31 advances the process to step S157.
  • step S152 the control unit 31 determines whether or not there is a touch input to the touch panel of the information processing device 3. For example, when the current touch input coordinate T is set in the current touch input coordinate data Df, the control unit 31 makes an affirmative determination in step S152. And control part 31 advances processing to Step S153, when there is touch input to a touch panel. On the other hand, the control part 31 advances a process to step S154, when there is no touch input with respect to a touchscreen.
  • step S153 the control unit 31 performs an item use process and advances the process to step S154.
  • the control part 31 performs the process which uses continuously the item used as the "fever state" which becomes possible only during a fever period.
  • the control unit 31 arranges a plurality of shell item IFs around the player object PO, and continuously in a predetermined cycle according to the user's touch operation.
  • An item use process for launching the shell launch item IM in front of the player object PO is performed to update the player object action data Dw, the item position data Dy, and the like.
  • step S154 the control unit 31 determines whether or not the fever time has been reached. For example, the control unit 31 determines whether or not the fever elapsed time for which measurement has been started from step S150 and step S183 described below has reached a predetermined fever time. Then, when the fever time is reached, the control unit 31 advances the process to step S155. On the other hand, the control part 31 complete
  • step S155 the control unit 31 performs processing for canceling the fever state, and ends the processing by the subroutine. For example, the control unit 31 sets the empty frame E to all the possessed frames HF in the possessed frame data Dr, sets the hit flag to off, and updates the hit flag data Du. Further, the control unit 31 sets the motion of the player object PO to the motion in the normal state, and updates the player object motion data Dw.
  • step S151 when it is determined in step S151 that the hit flag is off, the control unit 31 determines whether or not the item firing direction is set (step S157). For example, when the launch direction is set in the launch direction data Dq, the control unit 31 makes an affirmative determination in step S157. And the control part 31 advances a process to step S158, when the discharge direction is set. On the other hand, the control part 31 complete
  • step S158 the control unit 31 determines whether or not the item I is in the possession frame HF. For example, when the object ID of the item is set in at least one of the possession frames HF in the possession frame data Dr, the control unit 31 makes an affirmative determination in step S158. And the control part 31 advances a process to step S159, when the item I is possessed in the possession frame HF. On the other hand, when the item I is not held in the possession frame HF, the processing by the subroutine is terminated.
  • step S159 the control unit 31 performs an item use process and ends the process by the subroutine. For example, the control unit 31 selects an item I used by the FIFO (first-in first-out) method from among the items I displayed in the possession frame HF. When the selected item I can be fired in the firing direction set in the firing direction data Dq, the control unit 31 moves the item I as a fired item IM by single firing from the vicinity of the player object PO. Item use processing is performed to update the player object motion data Dw, item position data Dy, and the like.
  • FIFO first-in first-out
  • the control unit 31 changes the possession frame HF in which the item I is displayed to the empty frame E by using the item I, and updates the possession frame data Dr using the state of the possession frame HF after the change. To do.
  • step S159 the control unit 31 may delete the firing direction indicated by the firing direction data Dq and the second reference coordinate Rm indicated by the second reference coordinate data Di in accordance with the use of the item I.
  • Each of them may be maintained as it is.
  • the item I in order to use item I again, it is necessary to perform a drag operation in a direction in which item I is used by touching on the touch panel again.
  • the item I when the item I becomes usable, the item I is immediately used based on the maintained firing direction and the second reference coordinate Rm.
  • a launch direction is set in the said step S157.
  • An affirmative determination is made not only when the touch operation is performed but also when the touch operation is performed.
  • an item use process is performed in which the use-prepared item IP that has been touch-operated is used by the player object PO itself or is fired as a fired item IM in a default direction.
  • step S108 the control unit 31 performs a second item lottery process (step S108) and advances the process to step S109.
  • step S108 the second item lottery process performed in step S108 will be described with reference to FIG.
  • the control unit 31 determines whether or not all possessed frames HF are empty frames E (step S171). For example, when the control unit 31 refers to the possession frame data Dr and indicates that all possession frames HF are empty frames E, the control unit 31 makes an affirmative determination in step S171. And the control part 31 advances a process to step S172, when all the possession frames HF are the empty frames E.
  • step S172 when all the possession frames HF are the empty frames E.
  • the object ID of the item I is set in at least one of the possession frames HF, or when at least one of the possession frames HF is displayed in a rotational lottery
  • the control unit 31 has the item lottery icon AB appearing. Then, the item lottery icon AB is saved from the display screen, and the process proceeds to step S174.
  • step S172 the control unit 31 determines whether or not the condition for the item lottery icon AB to appear is satisfied. For example, the control unit 31 has not yet reached the limit number of times that the lottery number indicated by the lottery number data Dv selects and executes the item lottery icon AB, and the virtual currency possession amount indicated by the user-owned data Dd corresponds to the execution. If it is equal to or more than the virtual currency consumed in step 1, it is determined that the above condition is satisfied. And the control part 31 advances a process to step S173, when the conditions where the item lottery icon AB appears are satisfy
  • step S173 the control unit 31 performs a setting for causing the item lottery icon AB to appear and display on the display unit 35, and the process proceeds to step S174.
  • the control unit 31 performs a setting for displaying the item lottery icon AB on the display unit 35 together with price information M indicating the amount of virtual currency required when the item lottery icon AB is selected.
  • step S174 the control unit 31 determines whether or not an operation for selecting and executing the item lottery icon AB has been performed. For example, when a touch operation (tap operation) is performed on the item lottery icon AB displayed on the display unit 35, the control unit 31 determines that an operation for selecting and executing the item lottery icon AB has been performed. And control part 31 advances processing to Step S175, when operation which selects and performs item lottery icon AB is performed. On the other hand, the control part 31 advances a process to step S178, when operation which selects and performs the item lottery icon AB is not performed.
  • step S175 the control unit 31 performs a process of consuming virtual currency in response to selection and execution of the item lottery icon AB, and proceeds to the next step. For example, the control unit 31 subtracts the virtual currency amount consumed in response to the item lottery icon AB being selected and executed from the virtual currency amount possessed by the user indicated by the user possession data Dd The user possession data Dd is updated using the virtual currency amount.
  • control unit 31 starts an item lottery effect process (step S176) and proceeds to the next step.
  • the control unit 31 rotates and draws a plurality of types of items I in all possessed frames HF that are empty frames E, and then causes any one item I to be stopped and displayed in the possessed frame HF.
  • the item lottery effect process for displaying the lottery effect on the display unit 35 is started.
  • the control unit 31 starts the item lottery effect process and starts measuring the second lottery effect elapsed time.
  • control unit 31 sets the second lottery flag to ON (step S177), and advances the process to step S178.
  • control unit 31 sets the second lottery flag indicated by the second lottery flag data Dt to ON and updates the second lottery flag data Dt.
  • step S178 the control unit 31 determines whether or not the second lottery flag is set to ON. For example, the control unit 31 performs the determination in step S178 by referring to the second lottery flag indicated by the second lottery flag data Dt. And the control part 31 advances a process to step S179, when the 2nd lottery flag is set to ON. On the other hand, the control part 31 complete
  • step S179 the control unit 31 determines whether or not the second elapsed time has been reached. For example, the control unit 31 determines whether or not the second lottery effect elapsed time for which measurement has been started from step S176 has reached a predetermined second lottery time. And control part 31 advances processing to Step S180, when the 2nd lottery time is reached. On the other hand, the control part 31 complete
  • step S180 the control unit 31 sets the second lottery flag to OFF, and proceeds to the next step. For example, the control unit 31 sets the second lottery flag indicated by the second lottery flag data Dt to OFF, and updates the second lottery flag data Dt.
  • the control unit 31 performs item lottery result determination (step S181), and proceeds to the next step. For example, the control unit 31 determines whether or not to win the “fever state” based on the lottery table indicated by the lottery table data De. For example, the control unit 31 selects a lottery table to be used for hit determination from the lottery table data De according to the number of empty frames E, the number of laps of the race, the rank of the race, the type of the course or race, the type of the player object PO, and the like. Extract. In addition, when performing an item lottery by selecting and executing the item lottery icon AB, different lottery tables are extracted according to the number of times the item lottery is performed during the same race and the amount of virtual currency consumed.
  • a lottery table that wins with higher probability than an item lottery by opening the item box IB may be extracted. Then, based on the winning probability described in the extracted lottery table, the control unit 31 determines whether or not to win the “fever state” in the item lottery result determination in step S181, and the item I that is the hit (That is, item I which is the same in all possession frames HF).
  • the item lottery result determination is performed after the second lottery time has elapsed. However, if the item lottery result is not informed, such as when the second lottery effect elapsed time starts counting or during counting, The lottery result determination may be performed at another timing.
  • control unit 31 determines whether or not the item lottery result determination in step S181 is successful (step S182). And the control part 31 advances a process to step S183, when the item lottery result determination in the said step S181 is successful. On the other hand, the control part 31 advances a process to step S184, when the item lottery result determination in the said step S181 is off.
  • step S183 the control unit 31 performs the item lottery result notifying process indicating the winning, then shifts to the fever state, and ends the process by the subroutine.
  • the control unit 31 stops and displays the item I determined in step S181 in all possession frames HF, and displays an item lottery result notification effect for notifying that the “fever state” is hit on the display unit 35. Item lottery result notification processing is performed.
  • the control unit 31 sets the hit flag to on, updates the hit flag data Du, starts measuring the fever elapsed time, and stops the object I object displayed on all the possessed frames HF in the possessed frame data Dr. Set the ID.
  • the control unit 31 sets the motion of the player object PO to the motion based on the fever state by the item I that stops and displays the motion of the player object PO, and updates the player object motion data Dw.
  • step S184 the control unit 31 performs the item lottery result notifying process indicating the outage, and then ends the processing by the subroutine. For example, the control unit 31 displays an item lottery result notification effect for notifying the item I acquired by stopping and displaying any one item I in the possession frame HF that was the empty frame E and the display unit. An item lottery result notification process to be displayed at 35 is performed. In addition, the control unit 31 sets the object ID of the item I to be stopped and displayed in the possession frame HF in the possession frame data Dr.
  • the control unit 31 performs a process for setting the action of the player object PO (step S109), and proceeds to the next step.
  • the control unit 31 sets the position and orientation of the player object PO in consideration of the handle angle indicated by the handle angle data Dk, the influence from other virtual objects, and the like, and is set in the player object action data Dw.
  • the motion, position, posture, etc. of the player object PO are determined in consideration of the state of the player object PO, and the player object motion data Dw is updated.
  • the control unit 31 performs a process of setting the action of the enemy object EO (step S110), and proceeds to the next step.
  • the control unit 31 operates the enemy object EO based on a predetermined algorithm, and updates the enemy object data Dx based on the operation.
  • the control unit 31 operates the enemy object EO based on the operation of the other user in the same manner as the player object PO. Based on this, the enemy object data Dx is updated.
  • control unit 31 performs a process for setting the operation of the item (step S111), and proceeds to the next step.
  • the control unit 31 performs a process of moving the launch item IM, which is set to be used by the above process and launched from the player object PO, based on the launch direction data Dq, and based on the position and posture after the move.
  • the item position data Dy is updated.
  • control unit 31 performs display control processing for generating a display image and displaying it on the display unit 35 (step S112), and proceeds to the next step.
  • control unit 31 generates a display image corresponding to the processing result in each step described above according to the player object motion data Dw, the enemy object data Dx, the item position data Dy, and the like, and displays the display image. Processing to be displayed on the unit 35 is performed.
  • control unit 31 determines whether or not to end the race (step S113).
  • the conditions for ending the race include, for example, that the condition for ending the race is satisfied, and that the user has performed an operation to end the race.
  • the control unit 31 returns to step S105 to repeat the process when continuing the race, and proceeds to step S114 when ending the race.
  • step S114 the control unit 31 performs communication processing and proceeds to the next step.
  • the control unit 31 transmits the transmission data (for example, data indicating the result of the game process such as virtual currency, increase / decrease amount of coins in the game, race result, etc.) stored in the transmission data Db via the network 100.
  • the transmission data for example, data indicating the result of the game process such as virtual currency, increase / decrease amount of coins in the game, race result, etc.
  • the control unit 31 receives data from the server 200 via the network 100, and updates the received data Dc using the received data.
  • control unit 31 determines whether or not to perform a purchase process (step S115). For example, the control unit 31 makes an affirmative determination in step S115 when the operation data acquired in step S103 indicates that the purchase is performed by the user or when the purchase condition is satisfied. And the control part 31 advances a process to step S116, when performing a purchase process. On the other hand, the control part 31 advances a process to step S117, when not performing a purchase process.
  • step S116 the control unit 31 performs a purchase process and proceeds to step S117.
  • step S117 the purchase process performed in step S116 will be described.
  • step S190 communication processing is performed (step S190), and the processing proceeds to the next step.
  • the control unit 31 transmits transmission data (for example, data for performing user authentication (for example, data indicating a user ID)) stored in the transmission data Db to the server 200 via the network 100.
  • the control unit 31 is necessary for the purchase process such as data (for example, equipment that can be purchased at the present time, exchange rate, virtual currency owned by the user, amount of coins in the game, etc.) from the server 200 via the network 100.
  • Data managed by the server 200), and the received data Dc is updated using the received data.
  • control unit 31 acquires the operation data from the input unit 34, updates the operation data Da (step S191), and proceeds to the next step.
  • control unit 31 performs a purchase process (step S192), and proceeds to the next step.
  • the control unit 31 displays a screen (see FIG. 18) that allows the user to select equipment to purchase, in-game coins, virtual currency, and the like based on the received data received in step S190, and prompts the user to select.
  • the operation data acquired in step S191 is an operation for the user to decide purchase
  • the equipment selected in accordance with the operation, in-game coins, virtual currency, etc. are changed to possessed by the user
  • the user possession data Dd is updated by performing a process of reducing the user possession from possession.
  • control unit 31 determines whether or not to end the purchase process (step S193). For example, the control unit 31 makes an affirmative determination in step S193 when the operation data acquired in step S191 indicates that the purchase process is to be ended or when a condition for ending the purchase process is satisfied. And the control part 31 advances a process to step S194, when complete
  • step S194 the control unit 31 performs communication processing and ends the processing by the subroutine. For example, the control unit 31 transmits the transmission data stored in the transmission data Db (for example, data indicating purchase contents in the purchase process in step S193) to the server 200 via the network 100. Further, the control unit 31 receives data from the server 200 via the network 100, and updates the received data Dc using the received data.
  • the control unit 31 transmits the transmission data stored in the transmission data Db (for example, data indicating purchase contents in the purchase process in step S193) to the server 200 via the network 100. Further, the control unit 31 receives data from the server 200 via the network 100, and updates the received data Dc using the received data.
  • step S117 the control unit 31 determines whether or not to end the game process.
  • the condition for ending the game process include that the condition for ending the game process is satisfied, and that the user performs an operation for ending the game process.
  • the control unit 31 returns to step S102 and repeats the process.
  • the control unit 31 ends the process according to the flowchart.
  • an operation for controlling the moving direction of the player object PO can be performed using one input unit 34 (touch panel). Since it is possible to control the operation of different virtual objects (item I), it is possible to diversify the processing for user operations.
  • a new in-game effect (performs “fever state”) is generated by a combination of game items possessed in the possession frame HF. It is possible to enhance the interest regarding the handling of the game items that you own.
  • the item lottery icon AB is selected and executed using items (for example, virtual currency, in-game coins, etc.) that can be acquired by consideration or billing that can be used in the game. Since the item lottery by doing is possible, the motivation to acquire the consideration and item can be enhanced.
  • items for example, virtual currency, in-game coins, etc.
  • the game processing using the information processing system 1 described above includes communication processing between the information processing device 3 and the server 200, but the information processing device 3 alone is not connected to the server 200. Processing may be performed.
  • the process in which the user operates the player object PO to play the racing game can be executed without the server 200 being interposed, the process can be realized only by the internal processing of the information processing apparatus 3. Even when a racing game in which a plurality of information processing devices 3 participate is performed, even if the information processing devices 3 communicate with each other and other devices without using the server 200, the above game processing is realized. Good.
  • the server 200 may execute part of the process in which the user operates the player object PO to play the racing game. Thereby, the processing in the plurality of information processing apparatuses 3 can be centrally managed in the server 200.
  • the processing steps in the above processing may be performed by another apparatus.
  • the server 200 or another device for example, another server, another game device, or another portable terminal
  • the processing steps in the above processing are executed. Good.
  • the above-described processing can be executed by cooperation between one processor or a plurality of processors included in an information processing system including at least one information processing apparatus.
  • the control unit 31 of the information processing apparatus 3 executes the predetermined program, so that the process according to the flowchart described above is performed. Part or all may be performed.
  • the present invention can be realized also in a so-called cloud computing system form, a distributed wide area network system form, and a local network system form.
  • a distributed local network system configuration the above-described processing is performed in cooperation between a stationary information processing device (stationary game device) and a portable information processing device (portable game device). It is also possible to do.
  • stationary information processing device stationary game device
  • portable information processing device portable game device
  • each of the above programs may be supplied not only to the information processing apparatus 3 through an external storage medium such as an external memory but also to the information processing apparatus 3 through a wired or wireless communication line.
  • the program may be recorded in advance in a nonvolatile storage device inside the information processing apparatus 3.
  • the information storage medium for storing the program in addition to the nonvolatile memory, CD-ROM, DVD, or similar optical disk storage medium, flexible disk, hard disk, magneto-optical disk, magnetic tape, etc. But you can.
  • the information storage medium for storing the program may be a volatile memory for storing the program.
  • Such a storage medium can be referred to as a computer-readable recording medium.
  • the various functions described above can be provided by causing a computer or the like to read and execute the programs of these recording media.
  • the present invention has, for example, an information processing program, an information processing apparatus, and an information processing system for the purpose of making it possible to improve the variety of processing for user operations using one operation user interface. It is useful as an information processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

継続して行われた座標入力を示すユーザ入力により定まる第1基準座標を基準とした当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させ、ユーザ入力の第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、仮想空間における移動オブジェクトの移動とは異なるゲーム動作を決定して、当該ゲーム動作を実行する。

Description

情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
 本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、特に例えば、ユーザの操作に基づいた処理を行う情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。
 従来、ユーザ操作に基づいて、オブジェクトの移動を制御するゲーム処理を行うゲームシステムがある(例えば、非特許文献1参照)。上記非特許文献1に記載されたゲームシステムでは、十字キーの左右方向のユーザ操作に応じて左右方向に対するオブジェクトの移動方向を制御し、十字キーの前後方向のユーザ操作に応じて当該オブジェクトの移動速度を制御している。
「SUPER MARIO 64 DS INSTRUCTION BOOKLET」、任天堂株式会社、2005年3月11日
 しかしながら、上記非特許文献1に記載されたゲームシステムでは、1つの操作ユーザインターフェースを用いた場合、オブジェクトの移動を制御する操作が可能となるだけであり、ユーザ操作に対する処理の多様性について改良の余地がある。
 それ故に、本発明の目的は、1つの操作ユーザインターフェースを用いたユーザ操作に対する処理の多様性等を向上させることを可能とする情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法を提供することである。
 上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。
 本発明の情報処理プログラムの一構成例は、ユーザの操作に基づいた処理を行う装置に含まれるコンピュータで実行される。情報処理プログラムは、入力受付手段、オブジェクト移動手段、およびゲーム動作実行手段として、コンピュータを機能させる。入力受付手段は、ユーザによる座標入力を受け付ける。オブジェクト移動手段は、座標入力を示すユーザ入力により定まる第1基準座標を基準とする、継続して行われた当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させる。ゲーム動作実行手段は、ユーザ入力の、第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、仮想空間における移動オブジェクトの移動とは異なるゲーム動作の方向を決定して、当該ゲーム動作を実行する。
 上記によれば、ユーザによる座標入力を用いて、移動オブジェクトの移動方向を制御する操作が可能であるとともに、移動オブジェクトの移動とは異なるゲーム動作の方向の制御も可能となるため、ユーザ操作に対する処理を多様にすることができる。
 また、上記ゲーム動作実行手段は、座標入力を示すユーザ入力により定まる第2基準座標を基準としたユーザ入力の座標変化が基準値以上であり、当該ユーザ入力の第1軸方向の成分および第2軸方向の成分により計算される当該ユーザ入力の変化の向きが所定の角度条件を満たす場合に、当該ユーザ入力の変化の向きに応じてゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 上記によれば、ゲーム動作の方向が決定されるためには、所定の角度条件を満たす座標入力の変化が必要となるため、当該角度条件を満たさない座標入力の変化による誤判定を防止することができる。
 また、上記ゲーム動作実行手段は、第2基準座標を基準としたユーザ入力の座標変化の第2軸成分が基準値以上である場合に、当該ユーザ入力の座標変化の向きに応じてゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 上記によれば、ゲーム動作の方向が決定されるためには、基準値以上の第2軸成分を有する座標入力の変化が必要となるため、ユーザが意図していない第2軸方向への座標入力変化による誤判定を防止することができる。
 また、上記ゲーム動作実行手段は、第2基準座標を基準としたユーザ入力の変化の向きが所定の角度条件を満たす場合に、ゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 上記によれば、ゲーム動作の方向が決定されるためには、基準値以上の第2軸成分と所定の角度条件とを満たす座標入力の変化が必要となるため、ユーザが意図していない第2軸方向への座標入力変化による誤判定を防止することができる。
 また、上記ゲーム動作実行手段は、移動オブジェクトの向きに応じて、角度条件を変化させてもよい。
 上記によれば、移動オブジェクトの向きに応じて、座標入力操作が可能となる。
 また、上記ゲーム動作実行手段は、第2基準座標を基準としたユーザ入力の変化の向きが第2軸方向における正方向か負方向かによって、異なる値を基準値として用いてもよい。
 上記によれば、座標入力操作が難しい方向を考慮した判定が可能となる。
 また、上記ゲーム動作実行手段は、ユーザ入力において座標入力された軌跡上の座標を、第2基準座標として用いてもよい。
 上記によれば、ユーザが入力した位置が基準座標として用いられるため、基準位置を確認することなく座標入力操作を行うことが可能となる。
 また、上記ゲーム動作実行手段は、ユーザ入力が継続する間、軌跡上において座標入力が新しい方へ第2基準座標を当該軌跡上で移動させてもよい。
 上記によれば、基準座標がユーザ入力の軌跡に追従するため、ユーザが意図する直近の操作方向を判定することができる。
 また、上記ゲーム動作実行手段は、第2基準座標として、ユーザ入力が開始された座標を用いてもよい。
 上記によれば、ユーザが座標入力を開始した位置が基準座標として用いられるため、基準位置を確認することなく座標入力操作を行うことが可能となる。
 また、上記ゲーム動作実行手段は、第1基準座標を基準としたユーザ入力の座標変化の第1軸方向成分が所定の閾値以上の場合、当該第1軸方向成分が当該所定の閾値未満である場合と比較して基準値を変化させてもよい。
 上記によれば、第1軸方向への座標入力操作が第2軸方向への座標入力操作に影響することを低減したり、第2軸方向への座標入力操作が第1軸方向への座標入力操作に影響することを低減したりすることが可能となる。
 また、上記オブジェクト移動手段は、移動オブジェクトの方向に応じて、第1軸方向を変化させてもよい。
 上記によれば、移動オブジェクトの方向に応じて、ユーザによる座標入力操作が可能となる。
 また、上記ゲーム動作実行手段は、ユーザ入力の変化の速度が閾値以上である場合に、第2軸方向の当該ユーザ入力の成分に少なくとも基づいてゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 上記によれば、ユーザによる座標入力において座標入力位置を移動させる操作速度に応じた操作が可能となる。
 また、上記ゲーム動作実行手段は、ゲーム動作として、移動オブジェクトの位置と同じまたは近傍の位置を移動開始点として、移動オブジェクトから離れる方向に他のオブジェクトを移動させてもよい。
 上記によれば、ユーザによる座標入力を用いて、移動オブジェクトから離れて他のオブジェクトが移動するゲーム動作の制御が可能となる。
 また、上記ゲーム動作実行手段は、他のオブジェクトを示す表示の位置を指定する入力が行われた場合に、当該他のオブジェクトに対して規定された初期方向に、当該他のオブジェクトを移動させてもよい。
 上記によれば、他のオブジェクトを示す表示の位置を指定する入力を行うだけでも当該他のオブジェクトに対する操作が可能となるため、ユーザによる座標入力操作を多様にすることができる。
 また、上記移動を開始する前の他のオブジェクトは、移動オブジェクトの近傍に表示されてもよい。
 上記によれば、ユーザによる座標入力を用いて操作指示を行う対象となる他のオブジェクトを明確にすることができる。
 また、上記移動を開始する前の他のオブジェクトは、移動オブジェクトとは離れて表示されてもよい。
 上記によれば、ユーザによる座標入力を用いて操作指示を行う対象となる他のオブジェクトを移動オブジェクトと離れた位置に設定することができ、操作指示を行う対象となる他のオブジェクトを明確にすることができる。
 また、上記ゲーム動作実行手段は、第2基準座標を基準としたユーザ入力の入力方向と対応する方向に、他のオブジェクトを移動させてもよい。
 上記によれば、他のオブジェクトを移動させる方向をユーザによる座標入力によって制御することができる。
 また、上記ゲーム動作実行手段は、第2基準座標を基準としたユーザ入力の入力速度に基づいて、他のオブジェクトの移動速度を設定してもよい。
 上記によれば、ユーザによる座標入力の操作速度によって、他のオブジェクトの移動速度も制御することができる。
 また、上記他のオブジェクトは、当該他のオブジェクトと衝突したオブジェクトを減速または停止させる攻撃アイテムでもよい。
 上記によれば、ユーザによる座標入力に応じて、オブジェクトを攻撃するアイテムの制御が可能となる。
 また、上記オブジェクト移動手段は、ユーザ入力があるか否かに関わらず、移動オブジェクトを移動させてもよい。
 上記によれば、ユーザによる座標入力がなくても移動オブジェクトが移動するため、座標入力操作の難易度を低くすることができる。
 また、上記オブジェクト移動手段は、仮想空間内において移動オブジェクトを見る仮想カメラの視線方向に対して、当該仮想カメラの後方から前方に当該移動オブジェクトを移動させてもよい。
 上記によれば、ユーザの座標入力操作によって移動オブジェクトを制御している感覚をより強く得ることができる。
 また、上記第1軸方向は、ユーザから見て左右方向でもよい。上記第2軸方向は、ユーザから見て上下方向でもよい。
 上記によれば、ユーザによる左右方向の座標入力を用いて移動オブジェクトの移動方向を制御する操作が可能であるとともに、ユーザによる上下方向の座標入力を用いて移動オブジェクトの移動とは異なるゲーム動作の制御も可能となるため、ユーザ操作に対する処理を多様にすることができる。
 また、本発明は、情報処理装置、情報処理システム、および情報処理方法の形態で実施されてもよい。
 本発明によれば、ユーザによる座標入力を用いて、移動オブジェクトの移動方向を制御する操作が可能であるとともに、移動オブジェクトの移動とは異なるゲーム動作の方向の制御も可能となるため、ユーザ操作に対する処理を多様にすることができる。
本発明の一実施例に係る情報処理システム1の一例を示す図 情報処理装置3の構成の一例を示すブロック図 サーバ200の構成の一例を示すブロック図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 表示画面を基準として、プレイヤオブジェクトPOの移動方向を制御する一例を示す図 表示画面を基準として、アイテムIの発射動作を制御する一例を示す図 表示画面を基準として、アイテムIに対する発射操作を判定するための判定領域の一例を説明するための図 プレイヤオブジェクトPOを基準として、アイテムIに対する発射操作を判定するための判定領域の一例を説明するための図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 所持枠HF内に所持されるアイテムIの状態変移の一例を示す図 所持枠HF内に所持されるアイテムIの状態変移の他の例を示す図 抽選テーブルの一例を示す図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 所持枠HF内に所持されるアイテムIおよびアイテム抽選アイコンABの状態変移の一例を示す図 情報処理装置3の表示部35に表示されるゲーム画像例を示す図 情報処理装置3の記憶部32に記憶される主なデータおよびプログラムの一例を示す図 情報処理装置3において実行される処理の一例を示すフローチャート 図20のステップS106における操作内容判定処理の詳細な一例を示すサブルーチン 図20のステップS107における第1アイテム抽選処理の詳細な一例を示すサブルーチン 図20のステップS108における第2アイテム抽選処理の詳細な一例を示すサブルーチン 図20のステップS116における購入処理の詳細な一例を示すサブルーチン
 図1を参照して、本発明の一実施例に係る情報処理システムについて説明する。図1に示すように、当該情報処理システムの一例である情報処理システム1は、情報処理装置3およびサーバ200が、ネットワーク100を介して接続されて構築される。なお、図1においては、情報処理装置3が複数台図示されているが、情報処理システム1を構成する情報処理装置3は、1台であってもよい。
 情報処理装置3は、無線または有線通信を用いて、ネットワーク100に接続可能に構成され、サーバ200との間でクライアント-サーバシステムを構成している。例えば、情報処理装置3は、所定のアプリケーション(例えば、ゲームアプリケーション)の実行が可能である。また、情報処理装置3は、上記所定のアプリケーションを実行することによって、ネットワーク100を介して、サーバ200と接続を確立して、サーバ200との通信が可能となる。例えば、情報処理装置3は、交換可能なメモリカードや光ディスク等の記憶媒体内に記憶され、または、他の装置から受信した情報処理プログラムを実行可能である。情報処理装置3は、一般的なパーソナルコンピュータ、据置型ゲーム機、携帯電話機、携帯ゲーム機、PDA(Personal Digital Assistant)等のデバイスであってもかまわない。
 次に、図2を参照して、情報処理装置3について説明する。なお、図2は、情報処理装置3の構成の一例を示すブロック図である。図2において、情報処理装置3は、制御部31、記憶部32、プログラム格納部33、入力部34、表示部35、および通信部36を備える。なお、情報処理装置3は、制御部31を少なくとも含む情報処理装置と他の装置とを含む1以上の装置によって構成されてもよい。
 制御部31は、各種の情報処理を実行するための情報処理手段(コンピュータ)であり、例えばCPUである。例えば、制御部31は、各種の情報処理として、上記アプリケーションを実行して、後述するゲーム処理やサーバ200を介したデータ送受信処理等を実行する機能を有し、CPUが所定のプログラムを実行することによって、制御部31における各機能が実現される。
 記憶部32は、制御部31が上記情報処理を実行する際に用いる各種のデータを記憶する。記憶部32は、例えばCPU(制御部31)がアクセス可能なメモリである。
 プログラム格納部33は、プログラムを記憶(格納)する。プログラム格納部33は、制御部31がアクセス可能な記憶装置(記憶媒体)であればどのようなものであってもよい。例えば、プログラム格納部33は、制御部31を含む情報処理装置内に設けられる記憶装置であってもよいし、制御部31を含む情報処理装置に着脱自在に装着される記憶媒体であってもよい。また、プログラム格納部33は、制御部31とネットワークを介して接続される記憶装置(サーバ等)であってもよい。制御部31(CPU)は、ゲームプログラムの一部または全部を適宜のタイミングで記憶部32に読み出し、読み出されたプログラムを実行するようにしてもよい。
 入力部34は、ユーザによって操作可能な入力装置である。入力部34はどのような入力装置であってもよい。一例として、入力部34は、表示部35の画面上に設けられるタッチパネルでもよい。例えば、タッチパネルは、任意の種類のものであってよく、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものやシングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。
 表示部35は、制御部31の指示にしたがって画像を表示する。なお、情報処理装置3が据置型のゲーム装置やパーソナルコンピュータで構成される場合、表示部35が情報処理装置3と別体で構成されることもあり得る。
 通信部36は、所定の通信モジュールによって構成され、ネットワーク100を介して他の機器(例えば、サーバ200)との間でデータを送受信したり、他の情報処理装置3との間でデータを送受信したりする。
 次に、図3を参照して、サーバ200について説明する。なお、図3は、サーバ200の構成の一例を示すブロック図である。
 サーバ200は、通信部201、制御部202、および記憶部203を有している。通信部201は、通信パケットの送受信を行うことで、ネットワーク100を介して情報処理装置3等と通信を行う。一例として、制御部202は、情報処理装置3との間で行われるゲーム進行の管理、ユーザが購入するゲーム内通貨、ゲームアイテム(例えば、コイン)、ゲームオブジェクト(例えば、ゲーム内で使用される装備)等を管理する処理、スロット抽選に当選する確率を管理する処理、課金に関する情報を管理する処理のほか、通信部201を介して情報処理装置3等との通信リンクを確立し、ネットワーク100におけるデータ搬送制御や経路選択を行う。また、制御部202は、複数の情報処理装置3との間でゲームを行う場合、当該ゲームを行う情報処理装置3の組み合わせや当該情報処理装置3の間のデータ通信の管理を行う。記憶部203は、制御部202で実行されるプログラム、上記処理に必要な各種データ、情報処理装置3との通信に必要な各種データ等が記憶される。なお、ネットワーク100を用いたデータ送受信に所定のログイン処理が必要なシステムである場合、当該ログインしようとしているユーザが正規のユーザか否かを判別する認証処理をサーバ200において行ってもかまわない。また、サーバ200は、単一のサーバマシンから構成されてもいいし、複数のサーバマシンによって構成されてもよい。
 次に、情報処理装置3やサーバ200が行う具体的な処理を説明する前に、図4~図9を用いて情報処理システム1において行われる移動および発射処理例の概要について説明する。移動および発射処理例は、情報処理システム1を用いて、プレイヤオブジェクトPO(移動オブジェクト)の移動方向の操作およびアイテムI(他のオブジェクト)の発射操作を行うための処理である。なお、図4は、情報処理装置3の表示部35に表示されるゲーム画像例を示す図である。図5は、情報処理装置3の表示部35に表示されるゲーム画像例を示す図である。図6は、表示画面を基準として、プレイヤオブジェクトPOの移動方向を制御する一例を示す図である。図7は、表示画面を基準として、アイテムIの発射動作を制御する一例を示す図である。図8は、表示画面を基準として、アイテムIに対する発射操作を判定するための判定領域の一例を説明するための図である。図9は、プレイヤオブジェクトPOを基準として、アイテムIに対する発射操作を判定するための判定領域の一例を説明するための図である。なお、以下の説明では、情報処理装置3において実行するアプリケーションの一例としてゲームを用いているが、情報処理装置3において他のアプリケーションを実行してもかまわない。
 図4において、情報処理装置3の表示部35には、情報処理装置3でプレイされているゲームに対応したゲーム画像が表示され、その一例としてプレイヤオブジェクトPOがレースゲームを行う一場面が表示されている。例えば、上記ゲームにおいて、プレイヤオブジェクトPOは、仮想世界内に設けられたコース上をカートに乗車して走行する。当該コース上には、別のカートに乗車する敵オブジェクトEOも走行しており、当該コース上に設けられたゴールに到着するまでの順位が競われる。また、ゲーム画像を生成するための仮想カメラは、プレイヤオブジェクトPOの走行に応じてプレイヤオブジェクトPOの後方にコースに沿って配置される。なお、上記仮想カメラは、プレイヤオブジェクトPOがスピンしたりドリフトしたりするなど、コースの走行方向に対して異なる方向を向いた場合、当該プレイヤオブジェクトPOの後方からプレイヤオブジェクトPOを見る位置に常時配置されてもよいし、コースに沿った走行方向の後方からプレイヤオブジェクトPOを見る位置に配置されてもよい。なお、上記プレイヤオブジェクトPOが仮想空間において移動する移動オブジェクトの一例に相当する。
 図4に示すように、表示部35の画面上に設けられたタッチパネル(入力部34)をタッチ操作することによって、プレイヤオブジェクトPOの移動方向を制御することができる。一例として、プレイヤオブジェクトPOは、コースに沿って自動的に前進走行するように制御されているが、プレイヤオブジェクトPOの左右の移動方向に関してはユーザ操作によってハンドル操作が可能に構成されている。具体的には、タッチパネルにタッチオンしたタッチ位置を基準として、右方向にスワイプするタッチ操作が行われた場合、プレイヤオブジェクトPOが右に移動方向を変化させる。また、タッチパネルにタッチオンしたタッチ位置を基準として、左方向にスワイプするタッチ操作が行われた場合、プレイヤオブジェクトPOが左に移動方向を変化させる。例えば、図4において、表示部35には、タッチパネルにタッチオンしたタッチ位置を示す基準画像Rと現在のタッチ位置を示すタッチ位置画像Tとが表示されており、基準画像Rに対してタッチ位置画像Tが右方向に配置されているため、プレイヤオブジェクトPOが右に移動方向(図示a方向)を変化させている。なお、プレイヤオブジェクトPOは、コースに沿って自動的に前進走行するように制御されなくてもよく、ユーザのアクセル操作に応じて走行するものであってもよい。また、プレイヤオブジェクトPOは、コースに沿って自動的に左右にハンドル操作されるものであってもよい。例えば、コースが右に曲がっていれば、ユーザがハンドル操作しない場合であっても、プレイヤオブジェクトPOの移動方向がある程度は右に変化し、右ハンドル操作があった場合にさらにプレイヤオブジェクトPOの移動方向が右に変化するようなものであってもよい。
 また、タッチ操作することによって、プレイヤオブジェクトPOが所持しているアイテムIを発射することができる。例えば、表示部35には、プレイヤオブジェクトPOが所持しているアイテムIを示す複数の所持枠HFが設けられている。図4に示す所持枠HFの例では、3つのアイテムI1、I2、およびI3をそれぞれ所持することが可能である。また、プレイヤオブジェクトPOが所持している所持枠HF内のアイテムIのうち、1つのアイテムIがプレイヤオブジェクトPOのカート後方に設けられている使用準備位置に、使用準備アイテムIPとして表示されている。例えば、使用準備アイテムIPは、所持枠HF内のアイテムIのうち、最も早くに取得したアイテムIが選択され、図4の例では、左端の所持枠HFに表示されているバナナのアイテムI1が、使用準備アイテムIPとして上記使用準備位置に表示されている。
 図5において、タッチパネルに対して上方向にスワイプするタッチ操作が行われると、プレイヤオブジェクトPOの使用準備位置に配置されている使用準備アイテムIPが発射可能な種類である場合、発射アイテムIMとなってプレイヤオブジェクトPOの前方に発射される。なお、典型的には、使用準備アイテムIPと発射アイテムIMとは同じオブジェクトであるが、異なる態様のオブジェクトに変化してもかまわない。また、使用準備位置に配置されている使用準備アイテムIMの種類(例えば、バナナのアイテム)によって、タッチパネルに対して下方向にスワイプするタッチ操作が行われた場合、プレイヤオブジェクトPOの後方に発射アイテムIMとして発射することもできる。なお、プレイヤオブジェクトPOの使用準備位置に配置されている使用準備アイテムIPの発射方向が固定されている場合、タッチパネルに対して上方向および下方向の何れの方向にスワイプするタッチ操作が行われたとしても、当該固定された発射方向に発射アイテムIMとなって発射されてもかまわない。また、使用準備位置に配置されている使用準備アイテムIPがプレイヤオブジェクトPOから発射されずにプレイヤオブジェクトPO自体によって使用される種類である場合、タッチパネルに対して上方向または下方向にスワイプするタッチ操作が行われると、プレイヤオブジェクトPOの使用準備位置に配置されている使用準備アイテムIPがプレイヤオブジェクトPOによって使用される。なお、所持枠HFは、仮想空間内に配置されてもよいし、表示画面にオーバーレイして配置されてもよい。また、上記アイテムIの使用することによるゲーム動作の方向が、移動オブジェクトの移動とは異なるゲーム動作の方向の一例に相当する。また、上記発射アイテムIM(アイテムI)が移動オブジェクトから離れる方向に移動する他のオブジェクトの一例に相当する。
 プレイヤオブジェクトPOが発射アイテムIMを発射した場合、当該発射アイテムIMの種類に応じて、プレイヤオブジェクトPOがレースを進める上で有利となる効果を得ることができる。例えば、甲羅を示す発射アイテムIMが敵オブジェクトEOに衝突した場合、当該衝撃によって敵オブジェクトEOの走行を減速させたり停止させたりすることによる妨害を行うとともに、衝突状況に応じて敵オブジェクトEOが損傷することがある。また、バナナを示す発射アイテムIMが敵オブジェクトEOに衝突した場合、敵オブジェクトEOが路上で滑るような影響が与えられて、敵オブジェクトEOの走行を減速させたり停止させたりする。なお、上記甲羅を示す発射アイテムIMおよびバナナを示す発射アイテムIMが、衝突したオブジェクトを減速または停止させる攻撃アイテムの一例に相当する。
 また、使用準備アイテムIPを使用することによって、プレイヤオブジェクトPO自体の能力が一定期間上昇する場合もある。例えば、キノコを示す使用準備アイテムIPが使用された場合、プレイヤオブジェクトPOの速度が一定期間上昇する。なお、使用準備アイテムIPを使用することによって、プレイヤオブジェクトPO自体のサイズが一定期間大きくなったり、プレイヤオブジェクトPOが所有するゲーム内コインが増えたりする効果が得られてもよい。
 アイテムIを使用した場合、当該アイテムIがプレイヤオブジェクトPOにおいて未所持状態となるため、使用準備位置に表示されていた使用準備アイテムIPが消去されるとともに、当該使用準備アイテムIPに対応する所持枠HFのアイテムI(図5の例では、左端の所持枠HFに表示されていたアイテムI1)も消去される。これによって、発射アイテムIMとして発射されたアイテムIを表示していた所持枠HFは、アイテムIが表示されていない空枠Eとなる。
 上述したように、情報処理システム1において行われる移動および発射処理例では、タッチパネルに対するスワイプ入力が左右方向である場合にプレイヤオブジェクトPOの移動方向を変化させ、タッチパネルに対するスワイプ入力が上下方向である場合にアイテムIの発射動作を制御している。以下、図6および図7を参照して、スワイプ入力の方向を判別する一例について説明する。
 図6において、プレイヤオブジェクトPOの左右の移動方向は、タッチパネルに対するスワイプ入力における表示画面の左右方向成分の大きさに応じて設定される。具体的には、タッチパネルに対するタッチ操作において、当該タッチパネルに対してタッチオンされた基準座標R0と、当該タッチオンから継続して行われているスワイプ操作における現タッチ座標位置Tとを、表示部35の表示画面座標系に基づいてそれぞれ設定する。例えば、図6に示すように、表示部35の表示画面には、表示画面の左右方向となる第1軸をX軸(右方向がX軸正方向)とし、表示画面の上下方向となる当該第1軸と直交する第2軸をY軸(上方向がY軸正方向)とする表示画面座標系が定義される。このとき、基準座標がR0(X0、Y0)として設定され、現タッチ位置座標TがT(Xt、Yt)として設定される。この場合、スワイプ入力における表示画面の左右方向成分(X軸方向成分)の大きさがXt-X0で算出され、スワイプ入力における表示画面の上下方向成分(Y軸方向成分)の大きさがYt-Y0で算出される。本実施例では、X軸方向成分Xt-X0が正の値である場合、Xt-X0の絶対値に応じたハンドル角度で右方向にプレイヤオブジェクトPOの移動方向を変化させる。また、X軸方向成分Xt-X0が負の値である場合、Xt-X0の絶対値に応じたハンドル角度で左方向にプレイヤオブジェクトPOの移動方向を変化させる。そして、タッチパネルに対してタッチオフされた場合、上記基準座標R0および現タッチ座標位置Tを初期化するとともに、所定の変化量でハンドル角度を中立位置まで戻すようにプレイヤオブジェクトPOの移動方向を変化させる。なお、上記基準座標R0が、座標入力を示すユーザ入力により定まる第1基準座標の一例に相当する。また、上記X軸が、第1軸の一例に相当し、上記Y軸が第2軸の一例に相当する。
 なお、Xt-X0の絶対値に応じたハンドル角度は、コースに対するプレイヤオブジェクトPOの位置に応じて変化させてもかまわない。例えば、プレイヤオブジェクトPOがコースの中央にいる場合はユーザ操作に応じて設定されるハンドル角度を相対的に大きくし、プレイヤオブジェクトPOがコースの端ではユーザ操作に応じて設定されるハンドル角度を相対的に小さくしてもよい。また、ユーザ操作に応じたハンドル角度、コースの状況、カートの性能等によって、プレイヤオブジェクトPOが乗車しているカートが滑って、いわゆるドリフト走行が行われてもよい。この場合、ハンドル角度とプレイヤオブジェクトPOのカートの移動方向とが一致しない状態が生じるため、結果的に、タッチパネルに対するスワイプ入力における左右方向成分の大きさとプレイヤオブジェクトPOの移動方向とが、完全に一致していない状態が生じることもあり得る。
 図7において、タッチパネルに対するスワイプ入力における表示画面の上下方向成分に応じて、アイテムIの発射動作が制御される。具体的には、タッチパネルに対するタッチ操作において、当該タッチパネルに対してタッチオンされた基準座標Rm(タッチオン時点では、上述した基準座標R0と同じ位置)と、当該タッチオンから継続して行われているスワイプ操作における現タッチ座標位置Tとを、表示部35の表示画面座標系に基づいてそれぞれ設定する。例えば、図7に示すように、表示部35の表示画面には、上記図6と同様に、表示画面の左右方向となる第1軸をX軸(右方向がX軸正方向)とし、表示画面の上下方向となる当該第1軸と直交する第2軸をY軸(上方向がY軸正方向)とする表示画面座標系が定義される。このとき、基準座標がRm(Xm、Ym)として設定され、現タッチ位置座標TがT(Xt、Yt)として設定される。そして、基準座標Rmから現タッチ位置座標Tに向かうベクトルFDが算出され、当該ベクトルFDの方向に基づいて、タッチパネルに対するスワイプ入力が上方向または下方向に相当するか否かが判定される。
 タッチパネルに対するスワイプ入力における表示画面の上下方向成分の判定処理では、基準座標Rmと現タッチ位置座標Tとの間の位置関係が所定の条件を満たすように維持され、当該条件から外れた場合に当該条件を満たすように基準座標Rmが移動する。例えば、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ位置の軌跡(タッチ入力軌跡)の長さが閾値Lより長い場合、当該長さが閾値L以下となるように基準座標Rmが当該タッチ入力軌跡上を現タッチ位置座標Tに向かって移動する(図示b方向)。なお、上記長さが閾値L以下となるように上記タッチ入力軌跡上を現タッチ位置座標Tに向かって移動する基準座標Rmは、閾値L以下の長さとなるまで時間経過に応じて所定の速度で閾値Lの長さとなるまで移動してもよいし、即時に閾値L以下の長さとなるように移動してもよい。また、タッチ位置座標Tに向かって基準座標Rmを移動させる処理は、閾値Lより長くなる過去に記録されたタッチ位置座標Tを上記所定の速度に基づいて順次削除し、当該削除処理に応じて最も古いタッチ位置座標Tとなった位置が基準座標Rmに設定されてもよい。このように基準座標Rmがタッチ入力軌跡に沿って移動することによって、基準座標Rmと現タッチ位置座標Tとの間は、その間のタッチ入力軌跡長さがL以下となる位置関係に維持され、当該移動後の基準座標Rmから現タッチ位置座標Tに向かうベクトルFDが算出される。なお、タッチ入力が行われている限り、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが閾値Lより短くても、基準座標Rmが常に現タッチ位置座標Tに近づくようにタッチ入力軌跡上を移動してもよい。
 ベクトルFDの長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある場合、タッチパネルに対して表示画面の上方向または下方向のスワイプ入力が行われたと判定され、使用準備アイテムIPが発射アイテムIMとなって当該判定に応じた方向に発射される。例えば、図8に示すように、Y軸正方向を中心とする所定の角度範囲が前方判定領域UAとして設定され、Y軸負方向を中心とする所定の角度範囲が後方判定領域LAとして設定される。そして、ベクトルFDの長さが所定の長さ以上でベクトルFDの方向が前方判定領域UA内となった場合、使用準備アイテムIPが発射アイテムIMとなってプレイヤオブジェクトPOの前方(例えば、真正面方向)に発射される。また、使用準備アイテムIPがプレイヤオブジェクトPOの後方にも発射可能、かつ、ベクトルFDの長さが所定の長さ以上でベクトルFDの方向が後方判定領域LA内となった場合、使用準備アイテムIPが発射アイテムIMとなってプレイヤオブジェクトPOの後方(例えば、真後ろ方向)に発射される。なお、上記ベクトルFDの長さが所定の長さ以上であることを判定することが、第2基準座標を基準としたユーザ入力の座標変化が基準値以上であることを判定することの一例に相当する。また、上記ベクトルFDの方向が判定領域内にあることを判定することが、ユーザ入力の変化の向きが第2軸方向を基準とする所定の角度条件を満たすことを判定することの一例に相当する。
 なお、後方判定領域LAの角度範囲は、前方判定領域UAの角度範囲より大きく設定してもよい。一般的に、タッチパネルを用いた下方向へのスワイプ入力は、上方向のスワイプ入力より難しいことが多く、特に情報処理装置3を把持した手の親指でタッチ操作をする場合に顕著となり、このように相対的に難しいスワイプ入力の判定条件を緩和することによって、操作性を向上することができる。また、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さを判定するための所定の長さは、判定する方向に応じて異なる閾値としてもよい。上述した理由により相対的に難しいスワイプ入力の判定条件を緩和するために、後方判定領域LA内であるか否かを判定する対象となるために要求されるタッチ入力軌跡の長さは、前方判定領域UAであるか否かを判定する対象となるために要求されるタッチ入力軌跡の長さより短くてもよい。また、上記処理では、基準座標Rmがタッチ入力軌跡に沿って移動する例を用いたが、基準座標Rmが移動する態様はこれに限らない。例えば、基準座標Rmと現タッチ位置座標Tとの直線距離が閾値L以下となるように、基準座標Rmが現タッチ位置座標Tに向かって近づく直線上を移動してもよい。また、基準座標Rmを基準座標R0と同じ位置、すなわちタッチオンされた位置に固定して設定してもよい。なお、異なる角度範囲に設定された上記前方判定領域UAおよび後方判定領域LAが、異なる値が用いられた基準値の一例に相当する。
 また、上記入力判定に用いている基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さは、他のパラメータに代えてもかまわない。第1の例として、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さに代えて、基準座標Rmと現タッチ位置座標Tとの間の直線距離を用いてもかまわない。第2の例として、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さに代えて、ベクトルFDにおけるY軸成分の長さを用いてもかまわない。第3の例として、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さに代えて、ベクトルFDの長さを用いてもかまわない。
 また、タッチパネルに対するスワイプ入力における表示画面の上下方向成分の判定処理では、基準座標Rmを用いずに判定してもかまわない。第1の例として、現タッチ位置座標Tまでのスワイプ位置の変化速度(例えば、前回検出された現タッチ位置座標Tから今回検出された現タッチ位置座標Tまでの長さや、直前に検出された所定時間内のタッチ入力軌跡の長さ)が基準値以上である場合に、当該変化速度が検出されたスワイプ入力の方向が前方判定領域UAまたは後方判定領域LA内であれば、タッチパネルに対して表示画面の上方向または下方向のスワイプ入力が行われたと判定してもよい。第2の例として、現タッチ位置座標Tまでのスワイプ位置の変化速度が基準値以上である場合に、当該変化速度が検出されたスワイプ入力のY軸方向成分の長さが所定の長さ以上であれば、タッチパネルに対して表示画面の上方向または下方向のスワイプ入力が行われたと判定してもよい。
 また、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さを判定する基準値となる所定の長さは、ユーザのスワイプ入力に応じて変化させてもよい。例えば、スワイプ入力における左右方向成分Xt-X0が所定の閾値以上の大きさである場合、上記基準値となる所定の長さを変化させてもよい。一例として、スワイプ入力における左右方向成分Xt-X0が所定の閾値以上の大きさである場合に、上記基準値となる所定の長さを長くすることによって、プレイヤオブジェクトPOのハンドルを左右に大きく切るような操作やいわゆるドリフト走行するような操作、すなわちスワイプ入力における変化量が大きい操作を行う場合に、ユーザが意図せずアイテムを前後に発射する操作を行ったと判定されることを防止することができる。他の例として、スワイプ入力における左右方向成分Xt-X0が所定の閾値以上の大きさである場合に、上記基準値となる所定の長さを短くすることによって、プレイヤオブジェクトPOのハンドルを左右に大きく切るような操作やいわゆるドリフト走行するような操作中にアイテムIを発射する操作を行っても、当該発射操作による左右移動方向への影響を少なくすることができる。
 また、上述した実施例では、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある条件を満たした場合に、プレイヤオブジェクトPOの真正面方向または真後ろ方向に発射アイテムIMが発射される。これは、スワイプ入力の上下方向成分のみを用いて判定する場合に、ユーザが左右方向のスワイプ入力をしたつもりであっても当該スワイプ入力に上下方向成分が含まれていることによって発射判定されることを防止するためであり、上記条件を設定することによって正確な入力判定が可能となる。また、プレイヤオブジェクトPOの真正面方向または真後ろ方向に発射方向を制限することによって、当該方向からずれた入力誤差を吸収することができ、操作の難易度を考慮することも可能である。しかしながら、このような効果を期待しない場合、発射アイテムIMが発射される方向は、プレイヤオブジェクトPOの真正面方向または真後ろ方向からずれた方向であってもよい。例えば、ベクトルFDの方向が前方判定領域UA内となった場合、Y軸正方向とベクトルFDの方向との角度差に基づいて、プレイヤオブジェクトPOの真正面方向から当該角度差だけずれた方向に発射アイテムIMが発射されてもよい。また、ベクトルFDの方向が後方判定領域LA内となった場合、Y軸負方向とベクトルFDの方向との角度差に基づいて、プレイヤオブジェクトPOの真後ろ方向から当該角度差だけずれた方向に発射アイテムIMが発射されてもよい。
 また、発射アイテムIMが発射される方向は、プレイヤオブジェクトPOのタイプやプレイヤオブジェクトPOが用いている装備(例えば、プレイヤオブジェクトPOが乗車しているカート)に応じて異なってもよい。
 また、上述したタッチパネルに対するスワイプ入力の判定処理においては、表示部35の表示画面に定義された座標軸(XY軸)を基準としてタッチ入力方向の判定を行っているが、他の座標軸を基準としてタッチ入力方向を判定してもかまわない。例えば、図9に示すように、プレイヤオブジェクトPOに定義された座標軸を基準として、タッチ入力方向の判定を行うことが考えられる。
 図9において、プレイヤオブジェクトPOは、表示部35の表示画面において右に向いた状態で表示されている。そして、プレイヤオブジェクトPOの左右方向となる第1軸をx軸(プレイヤオブジェクトPOの右方向がx軸正方向)とし、プレイヤオブジェクトPOの前後方向となる当該第1軸と直交する第2軸をy軸(プレイヤオブジェクトPOの前方方向がy軸正方向)とするプレイヤオブジェクト座標系が定義される。このような座標系を用いる場合であっても、スワイプ操作の左右方向を判定するための基準座標R0をR0(x0、x0)として設定し、現タッチ位置座標TをT(xt、yt)として設定する。これによって、スワイプ入力におけるプレイヤオブジェクトPOの左右方向成分(x軸方向成分)の大きさがxt-x0で算出し、スワイプ入力におけるプレイヤオブジェクトPOの前後方向成分(y軸方向成分)の大きさがyt-y0で算出することができる。そしてx軸方向成分xt-x0が正の値である場合、xt-x0の絶対値に応じたハンドル角度で右方向にプレイヤオブジェクトPOの移動方向を変化させる。また、x軸方向成分xt-x0が負の値である場合、xt-x0の絶対値に応じたハンドル角度で左方向にプレイヤオブジェクトPOの移動方向を変化させる。そして、タッチパネルに対してタッチオフされた場合、上記基準座標R0および現タッチ座標位置Tを初期化するとともに、所定の変化量でハンドル角度を中立位置まで戻すようにプレイヤオブジェクトPOの移動方向を変化させる。
 また、上記プレイヤオブジェクト座標系において、スワイプ操作のプレイヤオブジェクトPOの前後方向を判定するための基準座標RmをRm(xm、xm)として設定する。そして、基準座標Rmから現タッチ位置座標Tに向かうベクトルFDを算出し、当該ベクトルFDの方向に基づいて、タッチパネルに対するスワイプ入力がプレイヤオブジェクトPOの前方方向または後方方向に相当するか否かを判定する。また、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが閾値Lより長い場合、当該長さが閾値L以下となるように基準座標Rmを当該タッチ入力軌跡に沿って現タッチ位置座標Tに向かって移動させる。そして、ベクトルFDの長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある場合、タッチパネルに対してプレイヤオブジェクトPOの前方方向または後方方向のスワイプ入力が行われたと判定され、使用準備アイテムIPが発射アイテムIMとなって当該判定に応じた方向に発射される。
 例えば、プレイヤオブジェクト座標系では、図9に示す判定領域が用いられる。例えば、プレイヤオブジェクト座標系では、プレイヤオブジェクトPOの前方方向となるy軸正方向を中心とする所定の角度範囲が前方判定領域UApとして設定され、プレイヤオブジェクトPOの後方方向となるy軸負方向を中心とする所定の角度範囲が後方判定領域LApとして設定される。そして、ベクトルFDの長さが所定の長さ以上でベクトルFDの方向が前方判定領域UAp内となった場合、使用準備アイテムIPが発射アイテムIMとなってプレイヤオブジェクトPOの前方(例えば、真正面方向)に発射される。また、使用準備アイテムIPがプレイヤオブジェクトPOの後方にも発射可能、かつ、ベクトルFDの長さが所定の長さ以上でベクトルFDの方向が後方判定領域LAp内となった場合、使用準備アイテムIPが発射アイテムIMとなってプレイヤオブジェクトPOの後方(例えば、真後ろ方向)に発射される。また、上記x軸が、第1軸の他の例に相当し、上記y軸が第2軸の他の例に相当する。なお、上記プレイヤオブジェクトPOの真正面方向は、プレイヤオブジェクトPOの向いている方向の正面でもよいし、表示画面の画面真上方向(すなわち、仮想カメラとプレイヤオブジェクトPOを結ぶ方向)でもよい。
 なお、プレイヤオブジェクト座標系において設定される前方判定領域UApおよび後方判定領域LApは、プレイヤオブジェクトPOが回転表示された場合、当該回転表示される角度に応じて表示画面に対して回転して設定される。このとき、前方判定領域UApおよび後方判定領域LApが表示画面に回転して設定されることに応じて、その範囲が拡大または縮小されてもよい。
 このように、プレイヤオブジェクト座標系では、表示画面に表示されるプレイヤオブジェクトPOの向きが変化すると、スワイプ方向を判定するための座標軸(xy軸)が変化する。したがって、プレイヤオブジェクト座標系を用いる場合、タッチパネルをタッチ操作するユーザは、プレイヤオブジェクトPOの向きに応じたリアリティの高いスワイプ操作が可能となり、表示されているプレイヤオブジェクトPOの方向に応じた直感的なタッチ操作が可能となる。なお、プレイヤオブジェクト座標系の基準となるプレイヤオブジェクトPOの向きは、プレイヤオブジェクトPOが乗車しているカートの向きでもよいし、カートに乗車しているプレイヤオブジェクトPOの向きでもかまわない。カートにプレイヤオブジェクトPOが乗車している場合、それぞれの向きが異なることも考えられ、何れの向きに応じて前方判定領域UApや後方判定領域LApが設定されてもかまわない。一方、表示部35の表示画面に定義された座標軸(XY軸)は、表示画面に表示されるプレイヤオブジェクトPOの方向が変化した場合でも当該表示画面に対して固定されている。したがって、表示画面に定義された座標軸を用いる場合、タッチパネルをタッチ操作するユーザは、固定された座標軸を用いたスワイプ操作が可能となり、表示されているプレイヤオブジェクトPOの方向とは無関係に固定された簡単な操作方法を用いたタッチ操作が可能となる。また、表示画面に定義された座標軸を用いる場合、タッチ操作を判定するための座標軸が固定されることによって、当該判定のための処理負荷を軽減することが可能となる。
 なお、上述したタッチ入力方向の判定処理では、判定するタッチ入力方向に応じて異なる座標軸を用いてもかまわない。一例として、タッチパネルに対するスワイプ入力における左右方向成分の大きさの検出においては表示部35の表示画面座標系を用いて判定し、タッチパネルに対するスワイプ入力における上下方向(プレイヤオブジェクトPOの前後方向)の検出においてはプレイヤオブジェクト座標系を用いることが考えられる。他の例として、タッチパネルに対するスワイプ入力における左右方向成分の大きさの検出においてはプレイヤオブジェクト座標系を用いて判定し、タッチパネルに対するスワイプ入力における上下方向の検出においては表示部35の表示画面座標系を用いることが考えられる。このように異なる座標系を並行して用いてタッチ入力方向を判定する場合であっても、基準座標R0およびRmや現タッチ位置座標Tをそれぞれの座標系において設定することによって、同様にタッチ入力方向を判定することが可能となる。
 また、上述した説明では、表示画面座標系を用いる操作判定とプレイヤオブジェクト座標系を用いる操作判定とを用いたが、何れの座標系を用いるかに関して、操作対象毎にユーザ選択可能にしてもよい。上述したように何れの座標系を用いる場合であっても利点があるため、ユーザの好みによって選択可能にすることによって、さらに操作性を向上させることが可能となる。
 また、アイテムの使用においては、表示画面に表示された所持枠HF内のアイテムIや使用準備位置の使用準備アイテムIP上のタッチパネルをタッチ操作(例えば、タップ操作)されることによって、当該タッチ操作されたアイテムが使用されてもよい。具体的には、使用準備アイテムIP上のタッチパネルをタッチオンしたタイミング、または使用準備アイテムIP上のタッチパネルをタッチオンした後にタッチオフしたタイミングで、タッチ操作されたアイテムが使用される。この場合、タッチ操作されたアイテムがプレイヤオブジェクトPOから発射されるタイプであれば、その発射方向がデフォルト方向に設定されてもよい。なお、表示画面に表示された所持枠HF内のアイテムIや使用準備位置の使用準備アイテムIP上のタッチパネルをタッチ操作することによってこれらのアイテムが使用される場合であっても、スワイプ操作(ドラッグ操作)された方向(例えば、表示画面の上方向や下方向)に応じて当該アイテムが発射される方向が変化してもかまわない。
 また、入力方向を判定するための判定領域(前方判定領域UA、後方判定領域LA、前方判定領域UAp、および後方判定領域LAp)は、プレイヤオブジェクトPOの動作に応じて、その大きさが変化してもかまわない。例えば、プレイヤオブジェクトPOがハンドル角度とは異なる方向に向く動作(例えば、ドリフト走行動作、スピン動作等)をしている状態において、上記判定領域の大きさを狭く変化させてもよい。プレイヤオブジェクトPOがハンドル角度とは異なる方向に向くように動作している場合、ユーザが入力した方向がユーザの操作の意図とは異なって判定領域内に入ってしまうことが考えられる。したがって、このようなプレイヤオブジェクトPOの動作に対応して判定領域を狭くすることによって、ユーザの意図とは異なる操作判定を少なくすることができる。
 また、上述した説明では、タッチパネルに対するスワイプ入力における左右方向成分の大きさに応じて、プレイヤオブジェクトPOの移動方向を制御しているが、少なくとも当該左右成分の大きさを用いていれば、他の操作や他の方向成分を加えてもかまわない。一例として、所定の操作(例えば、所定の操作ボタンを押下する操作や所定の操作ボタン画像へのタッチ操作)が行われている状態に限って、タッチパネルに対するスワイプ入力における左右方向成分の大きさに応じて、プレイヤオブジェクトPOの移動方向を制御してもよい。他の例として、タッチパネルに対するスワイプ入力における左右方向成分の大きさおよび上下方向成分の大きさに応じて、プレイヤオブジェクトPOの移動方向を制御してもよい。この場合、スワイプ入力における上下左右方向成分に応じてプレイヤオブジェクトPOの左右移動方向を制御することとなり、一例として、スワイプ入力における左右方向成分が+1.73、上下方向成分が+1.00の場合に右へのハンドリング量として2が用いられることが考えられる。
 また、タッチパネルに対するスワイプ入力における上下方向成分に応じて、アイテムIに対する動作制御が行われているが、少なくとも当該上下成分を用いていれば、他の操作や他の方向成分を加えてもかまわない。一例として、所定の操作(例えば、所定の操作ボタンを押下する操作や所定の操作ボタン画像へのタッチ操作)が行われている状態に限って、タッチパネルに対するスワイプ入力における上下方向成分の大きさに応じて、アイテムIに対する動作を制御してもよい。他の例として、タッチパネルに対するスワイプ入力における上下方向成分および左右方向成分に応じて、アイテムIに対する動作を制御してもよい。この場合、スワイプ入力における上下方向成分に応じてアイテムIの発射動作を制御し、スワイプ入力における左右方向成分に応じて発射されたアイテムIの方向を制御することが考えられる。
 また、上述した説明では、タッチパネルに対するスワイプ入力における左右方向成分の大きさに応じて、プレイヤオブジェクトPOの移動方向を制御しているが、他の要素を制御してもかまわない。例えば、プレイヤオブジェクトPOの主観視点によるゲーム画像が表示される場合、タッチパネルに対するスワイプ入力における左右方向成分の大きさに応じて、当該ゲーム画像を生成するための仮想カメラの移動方向を制御することが考えられる。また、タッチパネルに対するスワイプ入力における上下方向成分に応じて、アイテムIに対する動作制御が行われているが、他の要素を制御してもかまわない。例えば、ビームを撃つ動作、装備を切り替える操作、ターゲットを切り替える動作、視界や視点を切り替える操作等の動作制御を、タッチパネルに対するスワイプ入力における上下方向成分に応じて行うことが考えられる。
 また、上述した実施例では、ベクトルFDの長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある条件が満たされることに応じて、使用準備アイテムIPが発射アイテムIMとなって当該判定に応じた方向に発射される例を用いたが、発射アイテムIMとなって発射されるタイミングは、他のタイミングであってもよい。例えば、ベクトルFDの長さ以上、かつ、ベクトルFDの方向が判定領域内にある条件が満たされた後、タッチパネルからタッチオフされることに応じて、使用準備アイテムIPが発射アイテムIMとなって当該判定に応じた方向に発射されてもよい。
 また、上述した実施例では、アイテムIが発射アイテムIMとなって発射される位置(使用準備位置)を、プレイヤオブジェクトPOが乗車するカートの後部に設定されているが、他の位置に設定されてもよい。一例として、プレイヤオブジェクトPOが乗車するカートの前部等、プレイヤオブジェクトPOが乗車するカートの他の位置やカート近傍から発射アイテムIMが発射されてもよい。他の例として、表示画面の上端または下端やコース外に設けられた発射位置等に使用準備位置が設定され、プレイヤオブジェクトPOが乗車するカートとは離れた位置から発射アイテムIMが発射されてもよい。
 また、発射された発射アイテムIMが移動する速度は、発射アイテムIMのタイプに応じて設定されてもよいし、ユーザ入力に応じて変化してもよい。例えば、発射アイテムIMを発射するためのスワイプ入力が行われた速度(スワイプ入力が行われた際にタッチ位置が移動する速度)に応じて、発射された発射アイテムIMが移動する速度が変化してもよい。
 また、上述した説明では、ベクトルFDの長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある場合、タッチパネルに対して表示画面の上方向または下方向のスワイプ入力が行われたと判定され、使用準備アイテムIPが発射アイテムIMとなって当該判定に応じた方向に発射される例を用いたが、タッチ入力軌跡を用いてスワイプ入力方向が判定されてもかまわない。例えば、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが所定の長さ以上、かつ、ベクトルFDの方向が判定領域内にある場合に、タッチパネルに対して表示画面の上方向または下方向のスワイプ入力が行われたと判定してもかまわない。この場合、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが所定の長さ以上であることを判定することが、第2基準座標を基準としたユーザ入力の座標変化が基準値以上であることを判定することの他の例に相当する。
 ここで、所定時間前のタッチ位置座標Tと現タッチ位置座標Tとの差を用いてスワイプ入力方向を判定することを考えた場合、タッチオンされてから当該所定時間を経過するまではスワイプ入力方向の判定ができないことになる。一例として、0.5秒前にタッチ入力されたタッチ位置座標Tと現タッチ位置座標Tとの差が所定値以上であることをスワイプ入力方向の判定に用いた場合、タッチオンして即時に大きくスワイプ操作したとしても、0.5秒間はスワイプ入力方向が判定されないため、アイテムを発射するまでの応答性が低下してユーザに違和感を与えることが考えられる。一方、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さを用いてスワイプ入力方向を判定する場合、タッチオンしてから即時に大きくスワイプ操作した場合に即時にスワイプ入力方向が判定されるため、アイテムを発射するまでの応答性が向上してユーザに違和感を与えることがない。
 なお、上述したように、タッチ入力軌跡の長さが閾値Lよりも長い場合、当該タッチ入力軌跡の長さが当該閾値L以下となるまで、タッチ位置座標Tの履歴からより古い履歴を所定の速度で削除することによって当該削除後に最も古いタッチ位置座標Tの履歴を基準座標Rmとして設定している。これによって、タッチ入力軌跡の長さが閾値Lよりも長い場合、当該タッチ入力軌跡の長さが当該閾値L以下となるまで、タッチ位置座標Tの履歴のうち、より新しいタッチ位置座標Tを新たな基準座標Rmとして再設定される処理が繰り返されていることになり、このようなタッチ入力軌跡および基準座標Rmを用いて上述したスワイプ入力方向の判定が行われている。このように、より新しいタッチ位置座標Tを新たな基準座標Rmとして再設定される処理が行われる場合、上述したスワイプ入力が行われたと判定されるための判定条件の1つである基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さが所定の長さ以上であることを判定する際の「所定の長さ」は、閾値Lより短く設定することが望ましい。
 また、タッチ入力されている時間に応じて基準座標Rmが再設定されてもよい。例えば、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡として保持されるタッチ位置座標Tの履歴を、所定の処理回数分(例えば、5フレーム分に対応する5点のタッチ位置座標Tの履歴)だけ保持して、当該履歴を用いてスワイプ入力方向を判定してもよい。一例として、上記履歴のうち、最古の履歴となるタッチ位置座標Tと最新の履歴となる現タッチ位置座標Tとを比較した値を、上記タッチ入力軌跡として用いてもかまわない。この場合、最古の履歴となるタッチ位置座標Tは、基準座標Rmとして機能していることになる。これによって、タッチ入力軌跡を生成するために継続しているタッチ操作しているタッチ入力時間の長さが所定の時間(例えば、5フレーム)よりも長い場合、当該タッチ入力軌跡を生成するために要した時間が当該所定の時間以下となるように、タッチ位置座標Tの履歴のうち、より新しいタッチ位置座標Tを新たな基準座標Rmとして再設定される処理が繰り返されていることになり、このようなタッチ入力軌跡および基準座標Rmを用いて上述したスワイプ入力方向の判定が行われていることになる。なお、上記履歴が所定の処理回数分に満たない場合、当該履歴のうち、最古の履歴となるタッチ位置座標Tと最新の履歴となる現タッチ位置座標Tとを比較した値を、上記タッチ入力軌跡として用いればよい。なお、タッチ入力されている時間に応じて基準座標Rmが再設定されるこれらの記載は、「ベクトルFD」および「タッチ入力軌跡」のいずれを用いた処理でも適宜適用できる。
 ベクトルFDの長さや上記タッチ入力軌跡の長さを判定するための閾値となる上記所定の長さは、上方向へのスワイプ操作と判定される長さと下方向へのスワイプ操作と判定される長さと異なる長さに設定してもよい。一例として、上方向へのスワイプ操作と判定される上記所定の長さと比べて、下方向へのスワイプ操作と判定される上記所定の長さを短く設定することによって、スワイプ操作が相対的に難しい下方向へのスワイプ操作が判定されやすくしてもよい。
 また、ベクトルFDの長さや上記タッチ入力軌跡の長さを判定するための閾値となる上記所定の長さは、タッチオンからの経過時間に応じて変化させてもかまわない。一例として、継続してタッチ操作されている時間が0.2秒未満の場合、当該時間が0.2秒以上において設定される上記閾値の0.25倍にしてもよい。これによって、タッチオンして即時にスワイプ操作した場合に、スワイプ操作が判定されやすくすることができる。
 また、ベクトルFDの長さや上記タッチ入力軌跡の長さを判定するための閾値となる上記所定の長さは、一方への方向へのスワイプ操作が行われたと判定された後では、他方への方向へのスワイプ操作が行われたと判定されるための当該閾値が変化してもかまわない。一例として、上方向および下方向の一方へのスワイプ操作が行われたと判定された後もタッチ操作が継続している場合、上方向および下方向の他方へのスワイプ操作が行われたと判定されるための上記所定の長さを1.5倍に変化させてもよい。これによって、一方への方向にスワイプ操作された後は、タッチ操作している指を単に元のタッチ位置に戻すために逆方向に動かす傾向があったとしても、そのような場合にユーザの意図に反するスワイプ操作の判定が行われることを防止することができる。なお、ベクトルFDの長さや上記タッチ入力軌跡の長さを判定するための閾値となる上記所定の長さを長く変化させる場合、基準座標Rmと現タッチ位置座標Tとの間に形成されているタッチ入力軌跡の長さを維持するための上記閾値Lも長く変化(例えば、閾値Lを1.5倍)させてもよい。
 上述したスワイプ操作の判定を行う情報処理装置3で実行される情報処理プログラムは、以下に示す構成であってもよい。
 情報処理プログラムは、ユーザの操作に基づいた処理を行う装置に含まれるコンピュータで実行される。情報処理プログラムは、入力受付手段、座標記憶手段、基準座標設定手段、軌跡計算手段、および方向判定手段として上記コンピュータを機能させる。入力受付手段は、ユーザによる座標入力を受け付ける。座標記憶手段は、継続して行われた前記座標入力の座標を逐次記憶する。基準座標設定手段は、座標記憶手段に記憶された座標のうち1つを基準座標として設定する。軌跡計算手段は、基準座標を開始点として、座標入力の軌跡の長さを計算する。方向判定手段は、座標記憶手段に記憶された座標のうち、基準座標以後に入力された少なくとも2つの座標を用いて、座標入力が示す方向を判定する。基準座標設定手段は、軌跡の長さが所定の閾値よりも長い場合、当該軌跡の長さが当該所定の閾値以下となるまで、座標記憶手段に記憶された座標のうち、より新しい座標を基準座標として設定する処理を繰り返す。
 また、上記情報処理プログラムは、ゲーム動作実行手段として、さらに上記コンピュータを機能させてもよい。ゲーム動作実行手段は、上記方向判定手段が判定した方向に基づいて、所定のゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 また、上記ゲーム動作実行手段は、上記座標記憶手段に記憶された座標のうち、基準座標以後に入力された2つの座標の差が所定値以上のときに、ゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 また、上記2つの座標は、基準座標と座標入力の最新の座標とであってもよい。
 また、上記ゲーム動作実行手段は、軌跡の長さが所定値以上のときにゲーム動作の方向を決定して当該ゲーム動作を実行してもよい。
 次に、図10~図14を用いて情報処理システム1において行われる第1アイテム抽選処理例の概要について説明する。第1アイテム抽選処理例は、プレイヤオブジェクトPOが所持しているアイテムI(ゲームオブジェクト)が所定の組み合わせ条件を満たした場合に、ゲームを相対的に有利に進めることができる効果をプレイヤオブジェクトPOに付与するための処理である。なお、図10は、情報処理装置3の表示部35に表示されるゲーム画像の例を示す図である。図11は、情報処理装置3の表示部35に表示されるゲーム画像の例を示す図である。図12は、所持枠HF内に所持されるアイテムIの状態変移の一例を示す図である。図13は、所持枠HF内に所持されるアイテムIの状態変移の他の例を示す図である。図14は、抽選テーブルの一例を示す図である。
 図10において、図4および図5と同様に、情報処理装置3の表示部35には、情報処理装置3でプレイされているゲームに対応したゲーム画像が表示され、その一例としてプレイヤオブジェクトPOがレースゲームを行う一場面が表示されている。例えば、上記ゲームにおいて、プレイヤオブジェクトPOは、仮想世界内に設けられたコース上をカートに乗車して走行しており、当該コース上に設置されたアイテムボックスIBを通過して開封することによって、新たなアイテムIを取得することができる。なお、プレイヤオブジェクトPOは、空枠Eの所持枠HFがある場合に限って、新たなアイテムIを取得することができる。
 プレイヤオブジェクトPOがアイテムボックスIBを通過して開封する際、取得する新たなアイテムIを抽選する演出が行われる。例えば、空枠Eの所持枠HF内において、ドラムロール式やフラップ式等によって複数種類のアイテムIがシャッフルされて順次表示される抽選演出表示(以下、回転抽選表示と記載する)が行われた後、何れか1つのアイテムIを所持枠HF内で停止表示させることによって、所持枠HF内で停止表示されたアイテムIが抽選で確定して取得されたことが示される。例えば、図10では、プレイヤオブジェクトPOがアイテムボックスIBを通過することに応じて、複数種類のアイテムIが順次表示されて抽選中であることを示す回転表示アイテムIRが、全所持枠HF(3つの枠)内において回転抽選表示されている例を示している。なお、上記アイテムIを取得するための抽選は、既にアイテムIが表示されている所持枠HFに対しては行われない。つまり、所持枠HFにおいて、空枠EとアイテムIの表示枠とが混在している場合、空枠Eに対してのみ上記抽選が行われることになる。また、空枠Eの所持枠HFがない場合、上記抽選が行われないため、プレイヤオブジェクトPOは、当該抽選によって新たなアイテムIを取得できない状態となる。なお、アイテムボックスIBが配置されている位置までプレイヤオブジェクトPOが到達しなくても、アイテムボックスIBが配置されている特定の位置とプレイヤオブジェクトPOの位置が所定の位置関係になることによって、取得する新たなアイテムIを抽選する演出が行われてもよい。例えば、プレイヤオブジェクトPOがアイテムボックスIBから所定の距離内に入る、アイテムボックスIBの真上または真下を通過する、リング状のアイテムボックスIBの中を通過する場合に、取得する新たなアイテムIを抽選する演出が行われてもよい。なお、アイテムボックスIBは、コース上における特定の位置に設置されてもよいし、時間経過に応じてコース上の任意の位置に出現してもよい。
 所持枠HF内において停止表示されたアイテムIは、プレイヤオブジェクトPOが抽選によって取得したことが確定し、当該確定後に上述した操作方法によってプレイヤオブジェクトPOが所定の順番(例えば、取得順)で1つずつ使用することができる。そして、プレイヤオブジェクトPOは、アイテムIを使用することによって、レースを進める上で有利な効果を得ることができる。
 図11に示すように、本実施例では、全所持枠HFにおいて同じアイテムIが抽選によって確定した場合、いわゆる「フィーバー状態」となる当たりとなり、プレイヤオブジェクトPOがレースを進める上でさらに有利な効果を得ることができる。一例として、プレイヤオブジェクトPOが「フィーバー状態」となった場合、予め定められたフィーバー期間中に限って「フィーバー状態」となったアイテムを連続して使用することができる。なお、後述により明らかとなるが、各アイテムIには固有のオブジェクトIDが設定されており、「フィーバー状態」になったか否かについては、所持枠HF毎に設定されるオブジェクトIDを用いて判定される。なお、フィーバー期間は、プレイヤオブジェクトPOが用いている装備等に応じて、変化してもかまわない。
 例えば、図11の例では、左端の所持枠HFに甲羅のアイテムI1が停止表示され、中央の所持枠HFに甲羅のアイテムI2が停止表示され、右端の所持枠HFに甲羅のアイテムI3が停止表示されており、抽選によって全所持枠HFにおいて同じ甲羅のアイテムIが確定した状態となっている。この場合、所定期間内において甲羅のアイテムによる「フィーバー状態」となり、予め定められたフィーバー期間中に限って、甲羅のアイテムを用いた有利な効果がプレイヤオブジェクトPOに与えられる。例えば、甲羅のアイテムによる「フィーバー状態」では、プレイヤオブジェクトPOの周辺に複数の甲羅のアイテムIFが配置されて、甲羅のアイテムによる「フィーバー状態」であることがユーザに示される。そして、ユーザがタッチパネルに対して何らかのタッチ操作を行っている場合、所定の周期で連続して甲羅の発射アイテムIMがプレイヤオブジェクトPOの前方に発射される。つまり、通常状態おいて甲羅のアイテムIを使用した場合、甲羅の発射アイテムIMをプレイヤオブジェクトPOから単発で発射することができるが、甲羅のアイテムによる「フィーバー状態」では、複数発の甲羅の発射アイテムIMをプレイヤオブジェクトPOから連続発射することができる。また、「フィーバー状態」では、アイテムを発射するためのスワイプ操作をしなくても所定の周期で連続して甲羅の発射アイテムIMが発射されるため、タッチ操作によってプレイヤオブジェクトPOの移動方向を制御しながら、繰り返しアイテムを使用することが容易となる。さらに、通常状態において、所持枠HF毎に1回アイテムIを使用することができるため、所持枠HFの数、すなわちアイテムIを例えば3回使用することができるが、同じアイテムIが3つ揃った「フィーバー状態」となったフィーバー期間中は、所持枠HFの数に限らずに連続して無制限(すなわち、所持枠HFの数以上であり、例えば、4回以上)にアイテムIを使用することができるため、ユーザにとって通常状態より非常に有利な状態となる。
 なお、「フィーバー状態」においてプレイヤオブジェクトPOから発射される発射アイテムIMの方向は、所定の方向(例えば、プレイヤオブジェクトPOの真正面方向)に固定されてもよいし、プレイヤオブジェクトPOの周辺方向となるランダムな方向に逐次発射されてもよい。また、「フィーバー状態」において発射アイテムIMの発射条件を満たすベクトルFD(すなわち、ベクトルFDの長さが所定の長さ以上、かつ前方判定領域UAまたは後方判定領域LA内の方向となるベクトルFD)が設定された場合、当該ベクトルFDの方向に基づいて発射アイテムIMが逐次発射されてもよい。
 また、「フィーバー状態」においてプレイヤオブジェクトPOの周辺に配置される複数のアイテムIFは、フィーバー期間の経過に応じてその表示数を減らして表示してもよい。これによって、情報処理装置3のユーザは、アイテムIFの表示数によって、フィーバー期間の残り時間を把握することが可能となる。なお、表示数を減らしてフィーバー期間の残り時間を報知するための画像は、プレイヤオブジェクトPOの周辺に配置される複数のアイテムIFでなくてもよい。例えば、フィーバー期間の経過に応じて、所持枠HF内に表示されているアイテムIの数を減らして表示してもよい。
 次に、図12および図13を参照して、新たなアイテムIを抽選するゲーム進行の一例(所持枠HFの状態が推移する一例)について説明する。
 図12において、所持枠HFの初期状態の一例である状態Aでは、全所持枠HFが空枠Eとなっている。この状態Aにおいて、プレイヤオブジェクトPOがアイテムボックスIBを通過して開封した場合、全所持枠HFが抽選対象となったアイテム抽選が行われる。これによって、全所持枠HFを対象として回転表示アイテムIRが回転抽選表示される状態Bとなる。なお、上記状態Bにおいて、「フィーバー状態」の当たりとなる確率の制御が行われているが、当該確率制御については後述する。
 状態Bにおけるアイテム抽選において「フィーバー状態」の当たりとなる場合、全所持枠HFが同じアイテムIが停止表示されて確定される状態Cとなる。例えば、状態Cでは、左端の所持枠HFに甲羅のアイテムI1が停止表示され、中央の所持枠HFに甲羅のアイテムI2が停止表示され、右端の所持枠HFに甲羅のアイテムI3が停止表示されている。すなわち、状態Bにおけるアイテム抽選の結果、全所持枠HFにおいて同じ甲羅のアイテムIが確定される甲羅のアイテムによる「フィーバー状態」に当たったことが状態Cにおいて示されている。これによって、プレイヤオブジェクトPOは、甲羅のアイテムによる「フィーバー状態」となったレースを進行する。
 甲羅のアイテムによる「フィーバー状態」となった後、所定のフィーバー期間が経過すると、プレイヤオブジェクトPOの「フィーバー状態」が終了し、全所持枠HFが空枠Eとなった状態Dとなる。このように全所持枠HFが空枠Eとなることによって、全所持枠HFが抽選対象となったアイテム抽選を再度行うことができる状態となる。
 状態Dにおいて、プレイヤオブジェクトPOがアイテムボックスIBと再通過して開封した場合、全所持枠HFが抽選対象となったアイテム抽選が再度行われる。これによって、全所持枠HFを対象として回転表示アイテムIRが回転抽選表示される状態Eとなる。
 状態Eにおけるアイテム抽選においてはずれた場合、全所持枠HFにおいて少なくとも1つが異なったアイテムIが停止表示されて確定される状態Fとなる。例えば、状態Fでは、左端の所持枠HFと右端の所持枠HFとが同じ甲羅のアイテムI1およびI3が停止表示されているが、中央の所持枠HFに異なるバナナのアイテムI2が停止表示されている。すなわち、状態Eにおけるアイテム抽選の結果、はずれたことが状態Fにおいて示されている。状態Fによる所持枠HFにそれぞれ表示されているアイテムI1~I3は、個別にプレイヤオブジェクトPOが使用することができる。
 図13において、状態Fにおける左端の所持枠HFに表示されているアイテムI1が使用された場合、当該左端の所持枠HFが空枠Eとなった状態Gとなる。このように、少なくとも1つの所持枠HFが空枠Eとなることによって、当該空枠Eが抽選対象となったアイテム抽選を行うことができる状態となる。
 状態Gにおいて、プレイヤオブジェクトPOがアイテムボックスIBと再通過して開封した場合、左端の所持枠HFの空枠Eが抽選対象となったアイテム抽選が行われる。これによって、左端の所持枠HFの空枠Eのみを対象として回転表示アイテムIRが回転抽選表示される状態Hとなる。しかしながら、状態Hでは、中央の所持枠HFと右端の所持枠HFとに異なるアイテムI2およびI3が既に確定表示されているため、左端の所持枠HFの空枠EにおいてどのようなアイテムIが確定したとしてもアイテム抽選でははずれとなって、左端の所持枠HFにおいてアイテムI1が停止表示された状態Iとなる。一例として、所持枠HF内にそれぞれ表示されているアイテムIは、FIFO(先入れ先出し)方式によって使用することができる。すなわち、状態Iでは、所持枠HFにそれぞれ表示されているアイテムI1~I3のうち、アイテムI1が最後に取得されたため、プレイヤオブジェクトPOがアイテムI1~I3を使用する際には、アイテムI1を最後に使用することができる。なお、所持枠HF内にそれぞれ表示されているアイテムIの使用順序は、FIFO(先入れ先出し)方式でなくてもよい。例えば、ユーザが所持枠HF内に表示されている何れかのアイテムIを選択する操作(例えば、アイテムI上のタッチパネルをタッチする操作)を行うことによって、選択されたアイテムIが使用されるようにしてもよい。
 状態Iにおける中央の所持枠HFに表示されているアイテムI2および右端の所持枠HFに表示されているアイテムI3が使用された場合、当該中央および右端の所持枠HFが空枠Eとなった状態Jとなる。このように2つの所持枠HFが空枠Eとなることによって、当該2つの空枠Eが抽選対象となったアイテム抽選を行うことができる状態となる。
 状態Jにおいて、プレイヤオブジェクトPOがアイテムボックスIBと再通過して開封した場合、中央および右端の所持枠HFの空枠Eが抽選対象となったアイテム抽選が行われる。これによって、中央および右端の所持枠HFの空枠Eを対象として回転表示アイテムIRが回転抽選表示される状態Kとなる。ここで、状態Jでは、左端の所持枠HFにアイテムI1が既に確定表示されているが、中央および右端の所持枠HFの空枠EにおいてアイテムI1と同じ種類のアイテムIが確定すると「フィーバー状態」の当たりとなる可能性がある。
 状態Kにおけるアイテム抽選において「フィーバー状態」の当たりとなる場合、中央および右端の所持枠HFもアイテムI1と同じ種類のアイテムIが停止表示されて確定される状態Lとなる。例えば、状態Lでは、左端の所持枠HFにキノコのアイテムI1が停止表示され、中央の所持枠HFにキノコのアイテムI2が停止表示され、右端の所持枠HFにキノコのアイテムI3が停止表示されている。すなわち、状態Kにおけるアイテム抽選の結果、全所持枠HFにおいて同じキノコのアイテムIが確定されるキノコのアイテムによる「フィーバー状態」に当たったことが状態Lにおいて示されている。これによって、プレイヤオブジェクトPOは、キノコのアイテムによる「フィーバー状態」となったレースを進行する。
 このように、情報処理システム1において行われる第1アイテム抽選処理例においては、複数の所持枠にそれぞれ含まれるアイテムIの少なくとも1つを選択して使用することにより、当該選択されたアイテムIの種類に基づいたゲーム内効果を得ることができるとともに、当該ゲーム内効果を発生させたアイテムIが表示されていた所持枠を空枠Eとしている。また、アイテム抽選によって、上記複数の所持枠に含まれるアイテムIが全て同じになる条件を満たした場合、上記ゲーム内効果よりさらに有利なゲーム内効果を得ることができる。
 次に、図14を参照して、「フィーバー状態」の当たりとなる確率を設定する抽選テーブルの一例について説明する。
 図14において、抽選テーブルは、所持枠HFの空枠Eの数および「フィーバー状態」とするアイテムIの種類に対応する当たり確率が記述されている。そして、抽選テーブルは、アイテムI毎の当たり確率を積算することによる、全体の当たり確率も記述されている。
 例えば、図14に例示する抽選テーブルでは、全所持枠HFが空枠Eとなって回転抽選状態となる全枠回転におけるアイテム抽選では、甲羅のアイテムで当たる確率が10%、バナナのアイテムで当たる確率が10%、キノコのアイテムで当たる確率が10%にそれぞれ設定されている。また、上記抽選テーブルでは、1つまたは2つの所持枠HFに甲羅のアイテムIが確定表示され、残りの所持枠HFが空枠E(すなわち、空枠Eの所持枠HFと甲羅のアイテムIが確定表示された所持枠HFとが混在している状態)となって回転抽選状態となる非全枠回転におけるアイテム抽選では、甲羅のアイテムで当たる確率が10%、バナナおよびキノコのアイテムで当たる確率が0%にそれぞれ設定されている。また、上記抽選テーブルでは、1つまたは2つの所持枠HFにバナナのアイテムIが確定表示され、残りの所持枠HFが空枠E(すなわち、空枠Eの所持枠HFとバナナのアイテムIが確定表示された所持枠HFとが混在している状態)となって回転抽選状態となる非全枠回転におけるアイテム抽選では、バナナのアイテムで当たる確率が10%、甲羅およびキノコのアイテムで当たる確率が0%にそれぞれ設定されている。そして、上記抽選テーブルでは、1つまたは2つの所持枠HFにキノコのアイテムIが確定表示され、残りの所持枠HFが空枠E(すなわち、空枠Eの所持枠HFとキノコのアイテムIが確定表示された所持枠HFとが混在している状態)となって回転抽選状態となる非全枠回転におけるアイテム抽選では、キノコのアイテムで当たる確率が10%、甲羅およびバナナのアイテムで当たる確率が0%にそれぞれ設定されている。
 上記抽選テーブルでは、全枠回転によって何れかのアイテムで当たる確率が30%に設定されているが、非全枠回転によって何れかのアイテムで当たる確率が10%に設定されている。つまり、上記抽選テーブルを用いた場合、「フィーバー状態」の当たりとなる確率は、全所持枠HFを空枠Eとしてアイテム抽選する場合が最も高確率となる。これは、どのような状態のアイテム抽選においてもアイテム毎の当たり確率を一定にしているためである。したがって、このような抽選テーブルを用いることによって、ユーザ所望のアイテムIを所持枠HFに確定状態で残して当該アイテムIによる当たりを高確率にするような戦略を防止することができる。
 なお、上記抽選テーブルは、サーバ200において管理され、情報処理装置3におけるゲームが開始される時点でサーバ200から情報処理装置3へ送信されてもよい。この場合、サーバ200は、プレイされる時期や情報処理装置3のユーザのレベル等に応じて、異なる抽選テーブルを送信してもよい。また、サーバ200は、ゲームの状況に応じてそれぞれ別の抽選テーブルが用いられるように設定してもよい。例えば、サーバ200は、レースの周回数、レースの順位、コースやレースの種類、プレイヤオブジェクトPOの種類等に応じて、異なる抽選テーブルをそれぞれ設定してもよい。一例として、レースの終盤に近いほど、すなわち周回数を重ねるほど、「フィーバー状態」の当たりとなる確率を高くする抽選テーブルを設定することが考えられる。他の例として、プレイヤオブジェクトPOがレースに用いている装備に応じて、異なる抽選テーブルを設定してもよい。例えば、プレイヤオブジェクトPOが特殊な装備を用いている場合、「フィーバー状態」の当たりとなる確率を高くする抽選テーブルを設定することが考えられる。
 また、「フィーバー状態」の当たりとなった場合、当たりとなったアイテムIによる効果とは別に、プレイヤオブジェクトPOにさらなる効果が与えられてもよい。一例として、甲羅のアイテムによる「フィーバー状態」の当たりとなった場合、フィーバー期間中において甲羅の発射アイテムIMを連続発射できる効果をプレイヤオブジェクトPOに与えるとともに、当該プレイヤオブジェクトPOの走行速度が加速または減速するような効果が当該プレイヤオブジェクトPOに与えられてもよい。他の例として、甲羅のアイテムによる「フィーバー状態」の当たりとなった場合、フィーバー期間中において甲羅の発射アイテムIMを連続発射できる効果をプレイヤオブジェクトPOに与えるとともに、敵オブジェクトEOからの攻撃を受けたり他のオブジェクトと衝突したりしても走行に影響を与えない防御効果が当該プレイヤオブジェクトPOに与えられてもよい。一例として、プレイヤオブジェクトPOが発射した甲羅の発射アイテムIMがプレイヤオブジェクトPO自身に向かってきたとしても、プレイヤオブジェクトPOが甲羅の発射アイテムIMを跳ね返したり通過したりすることによってプレイヤオブジェクトPOの走行に影響が与えられないため、「フィーバー状態」においてユーザはプレイヤオブジェクトPO自身への影響を気にすることなく甲羅の発射アイテムIMを発射することができる。
 また、複数種類のアイテムIの効果が得られる特殊アイテム(例えば、「ラッキー7」のアイテム)を設定してもよい。例えば、上記アイテム抽選において、全所持枠HFに上記特殊アイテムが確定表示されて特殊アイテムによる「フィーバー状態」の当たりとなった場合、当該ゲームで出現する複数のアイテムによる効果が順次生じるような効果がフィーバー期間中においてプレイヤオブジェクトPOに与えられる。一方、上記アイテム抽選において、所持枠HFの少なくとも1つに特殊アイテムが混在する態様ではずれた場合、当該特殊アイテムを単発使用することによる効果が得られることなく、所持枠HFから当該特殊アイテムが消去されて空枠Eとなる。
 また、上述した実施例では、空枠Eの所持枠HFがある場合に限って、プレイヤオブジェクトPOが新たなアイテムIを取得することができるが、所持枠HFに空枠Eがない場合であっても、新たなアイテムIを取得することができるようにしてもよい。この場合、所持枠HFに空枠Eがない場合であってもアイテム抽選が可能となり、アイテムIが表示されている所持枠HFにおいても回転抽選状態となる。また、空枠EとアイテムIが表示されている枠とが所持枠HFに混在している場合、アイテム抽選が行われることに応じて、空枠EだけでなくアイテムIが表示されている所持枠HFにおいても回転抽選状態としてもよい。このようにアイテムIが表示されている所持枠HFにおいても回転抽選状態としてアイテム抽選を行う場合、アイテムIの使用に応じて所持枠HFを空枠Eに変更しなくてもよい。
 また、上述した実施例では、3つの所持枠HF全てが同じアイテムIで揃った場合に「フィーバー状態」の当たりとなる例を用いたが、当該当たりとなるアイテムIの組み合わせ条件は他の組み合わせ条件でもかまわない。一例として、所持枠HFが4つ以上あり、当該所持枠HFの少なくとも3つが同じアイテムIで揃った場合に、「フィーバー状態」の当たりとなってもよい。他の例として、3つの所持枠HFがアイテムIの特定の組み合わせ(例えば、キノコ-甲羅-バナナ)となった場合に、「フィーバー状態」の当たりとなってもよい。
 また、「フィーバー状態」の当たりとなった後、プレイヤオブジェクトPOが「フィーバー状態」となるタイミングは、当該当たりの報知直後や報知後の所定の時間経過によって開始されてもよい。また、「フィーバー状態」の当たりとなった後、ユーザの所定の操作が行われること応じて、プレイヤオブジェクトPOが「フィーバー状態」となってもよい。
 また、「フィーバー状態」の当たりとする確率や所持枠HF内に停止表示させるアイテムIの種類については、抽選テーブルによる制御とは異なるルールに基づいて行われてもよい。例えば、「フィーバー状態」の当たりとする確率や所持枠HF内に停止表示させるアイテムIの種類は、ランダムに制御されてもよいし、アイテムボックスIBが開封されたタイミングに基づいて制御されてもよいし、所持枠HF内に停止表示されるアイテムIが所定の順番となるように制御されてもよい。
 次に、図15~図18を用いて情報処理システム1において行われる第2アイテム抽選処理例の概要について説明する。第2アイテム抽選処理例は、レース上に設けられたアイテムボックスIBを開封しなくても、所定の条件を満たすことによって上記アイテム抽選を行うことが可能となる処理である。なお、図15は、情報処理装置3の表示部35に表示されるゲーム画像例を示す図である。図16は、情報処理装置3の表示部35に表示されるゲーム画像例を示す図である。図17は、所持枠HF内に所持されるアイテムIおよびアイテム抽選アイコンABの状態変移の一例を示す図である。図18は、情報処理装置3の表示部35に表示されるゲーム画像例を示す図である。
 図15において、図4および図5と同様に、情報処理装置3の表示部35には、情報処理装置3でプレイされているゲームに対応したゲーム画像が表示され、その一例としてプレイヤオブジェクトPOがレースゲームを行う一場面が表示されている。例えば、上記ゲームにおいて、プレイヤオブジェクトPOは、仮想世界内に設けられたコース上をカートに乗車して走行している。そして、プレイヤオブジェクトPOが走行中に所定の条件を満たしている場合、所持枠HFに代わってアイテム抽選アイコンABが出現する。
 アイテム抽選アイコンABは、ユーザのタッチ操作によって選択されることによって実行される操作指示ボタンとして機能する。また、アイテム抽選アイコンABの近傍には、当該アイテム抽選アイコンABを選択して実行した場合に消費される仮想通貨の価格を示す価格情報Mが付与される。図15の例では、アイテム抽選アイコンABが使用された場合、ユーザが課金することによって取得できる星形の仮想通貨が1枚消費されることが、価格情報Mとして示されている。なお、アイテム抽選アイコンABおよび価格情報Mは、全所持枠HFが空枠Eである場合に出現するが、使用することにより使用回数制限(例えば、1レース1回に制限)を超える場合やユーザが使用するために必要な仮想通貨を所持していない場合等では出現しない。例えば、アイテム抽選アイコンAB上のタッチパネルをタッチ操作(例えば、タップ操作)されてアイテム抽選アイコンABが使用された場合、新たなアイテムIを取得するためのアイテム抽選を行う演出が開始される。なお、アイテム抽選アイコンABが出現しない状態は、表示画面にアイテム抽選アイコンABが表示されていない状態でもよいし、アイテム抽選アイコンABをグレーアウト表示や半透明表示されている状態でもよい。また、アイテム抽選アイコンABが選択できない状態であっても、アイテム抽選アイコンABを表示画面に表示していてもよく、その場合、ユーザがアイテム抽選アイコンABを選択する操作を行ったとしても、アイテム抽選アイコンABが無反応となる。
 図16に示すように、アイテム抽選アイコンABが使用された場合、アイテム抽選アイコンABおよび価格情報Mに代わって所持枠HFが出現する。そして、上記第1アイテム抽選処理例と同様に、全所持枠HF内において、回転抽選表示状態を示す回転表示アイテムIRが表示された後、各枠において何れか1つのアイテムIを停止表示させることによって、停止表示されたアイテムIが抽選で確定して取得されたことが示される。
 アイテム抽選アイコンABを使用したことによるアイテム抽選においても、所持枠HF内において停止表示されたアイテムIは、プレイヤオブジェクトPOが抽選によって取得したことが確定し、当該確定後に上述した操作方法によってプレイヤオブジェクトPOが所定の順番で1つずつ使用することができる。そして、プレイヤオブジェクトPOは、アイテムIを使用することによって、レースを進める上で有利な効果を得ることができる。
 また、アイテム抽選アイコンABを使用したことによるアイテム抽選においても、全所持枠HFにおいて同じアイテムIが抽選によって確定した場合、「フィーバー状態」となる当たりとなり、プレイヤオブジェクトPOがレースを進める上でさらに有利な効果を得ることができる。上記第1アイテム抽選処理例と同様に、プレイヤオブジェクトPOが「フィーバー状態」となった場合、予め定められたフィーバー期間中に限って「フィーバー状態」となったアイテムを連続して使用することができる。
 このように、アイテム抽選アイコンABを使用したことによるアイテム抽選では、コース上に設けられたアイテムボックスIBを開封することによるアイテム抽選と同様に、新たなアイテムIが取得されたり「フィーバー状態」となる当たりの抽選が行われたりすることができる。したがって、ユーザは、コース上にアイテムボックスIBが配置されている場合に限らず、アイテム抽選アイコンABが出現すればいつでも新たなアイテム抽選を開始することができる。なお、アイテム抽選アイコンABを使用したことによるアイテム抽選とアイテムボックスIBを開封することによるアイテム抽選との間には、さらに異なる要素を盛り込んでもよい。
 第1の例として、アイテム抽選アイコンABを使用したことによってアイテム抽選が行われている時間(アイテムIの回転抽選演出が行われている時間)を、アイテムボックスIBを開封することによってアイテム抽選が行われる時間より短くしてもよい。これによって、アイテム抽選アイコンABを使用した場合に、プレイヤオブジェクトPOが新たなアイテムIを取得したり「フィーバー状態」となる当たりによる効果を得たりするまでの時間を短縮することが可能となり、結果的にプレイヤオブジェクトPOが有利な効果を早期に得ることが可能となる。
 第2の例として、アイテム抽選アイコンABを使用したことによるアイテム抽選によって「フィーバー状態」となる当たりになる確率を、アイテムボックスIBを開封することによるアイテム抽選によって「フィーバー状態」となる当たりになる確率より高くしてもよい。これによって、アイテム抽選アイコンABを使用した場合に、プレイヤオブジェクトPOが「フィーバー状態」となる当たりによる効果を得る確率が高くなるため、プレイヤオブジェクトPOがより有利な効果を得る可能性が高くなる。なお、「フィーバー状態」となる当たりになる確率が上昇する大きさは、アイテム抽選アイコンABを選択して実行した場合に消費される仮想通貨の価格に応じて変化させてもよい。一例として、アイテム抽選アイコンABを選択して実行した場合に消費される仮想通貨の価格が高額であるほど、上記確率を上昇させることが考えられる。この場合、1レース中にアイテム抽選アイコンABを選択して実行した回数が増えるほど、当該実行によって消費される仮想通貨の価格を上昇させ、当該価格の上昇とともに上記確率も上昇させることも考えられる。また、アイテムボックスIBを開封することによるアイテム抽選によって「フィーバー状態」となる当たりに対して、アイテム抽選アイコンABを使用したことによるアイテム抽選によって「フィーバー状態」となる当たりでは、より効果が高いアイテムによる当たりとなる確率が高くてもよい。
 次に、図17を参照して、アイテム抽選アイコンABを使用することによって新たなアイテムIを抽選するゲーム進行の一例について説明する。
 図17において、所持枠HFの状態の一例である状態Mでは、所持枠HFに表示されているアイテムIが全て異なるはずれ状態となっている。状態Mにおける所持枠HFにそれぞれ表示されているアイテムI1~I3が全て使用された場合、全所持枠HFが空枠Eとなった状態Nとなる。このように、全所持枠HFが空枠Eとなることによって、アイテム抽選アイコンABが出現するための条件の1つが満たされる。
 状態Nにおいて、アイテム抽選アイコンABを選択して実行する制限回数に未到達であり、当該実行の際に消費される仮想通貨をユーザが所持している場合、所持枠HFに代わってアイテム抽選アイコンABおよび価格情報Mが出現して状態Oとなる。そして、アイテム抽選アイコンAB上のタッチパネルをタッチ操作した場合、アイテム抽選アイコンABを選択して実行する処理に移行して、全所持枠HFが抽選対象となったアイテム抽選が行われる。これによって、全所持枠HFを対象として回転表示アイテムIRが回転抽選表示される状態Pとなる。
 状態Pにおけるアイテム抽選において「フィーバー状態」の当たりとなる場合、全所持枠HFが同じアイテムIが停止表示されて確定される状態Qとなる。例えば、状態Qでは、左端の所持枠HFにキノコのアイテムI1が停止表示され、中央の所持枠HFにキノコのアイテムI2が停止表示され、右端の所持枠HFにキノコのアイテムI3が停止表示されている。すなわち、状態Pにおけるアイテム抽選の結果、全所持枠HFにおいて同じキノコのアイテムIが確定されるキノコのアイテムによる「フィーバー状態」に当たったことが状態Qにおいて示されている。これによって、プレイヤオブジェクトPOは、キノコのアイテムによる「フィーバー状態」となったレースを進行する。
 キノコのアイテムによる「フィーバー状態」となった後、所定のフィーバー期間が経過すると、プレイヤオブジェクトPOの「フィーバー状態」が終了し、全所持枠HFが空枠Eとなった状態Rとなる。このように全所持枠HFが空枠Eとなることによって、全所持枠HFが抽選対象となったアイテム抽選を再度行うことができる状態となる。なお、全所持枠HFが空枠Eとなった状態Rでは、アイテム抽選アイコンABを選択して実行する制限回数にまだ未到達であり、さらに当該実行において消費される仮想通貨をユーザが所持している場合、所持枠HFに代わってアイテム抽選アイコンABおよび価格情報Mが出現する状態となるが、上記条件を満たさない場合は、当該レース中にアイテム抽選アイコンABが再度出現することはない。
 次に、アイテム抽選アイコンABを選択して実行する際に消費される仮想通貨の一例について説明する。例えば、本実施例では、星形の仮想通貨をユーザが現実世界のお金を用いて購入、すなわち課金によって購入することができる。例えば、ユーザが情報処理装置3を用いて星形の仮想通貨を現実世界の通貨で購入する処理を行った場合、当該購入に伴う支払いに関する情報がサーバ200へ送信され、所定の認証処理が行われた後にサーバ200とユーザとの間で決済される。そして、星形の仮想通貨を購入する決済が行われたことがサーバ200から通知された場合、情報処理装置3は、購入された星形の仮想通貨をユーザ所持分として追加する。なお、ユーザ所持分として管理されている星形の仮想通貨は、他のゲームにおいても使用できることもあり得る。ここで、「購入」とは、現実世界のお金をさらに支払うことによって仮想通貨を取得することができる状態を示している。すなわち、ゲームを行うためのソフトウェアが有料であるもの、ゲームプレイ自体が有料であるもの、ゲームにおける所定の動作が有料であるもの等である場合、これらの料金にさらに現実世界のお金を支払うことによって仮想通貨を取得している状態であれば、仮想通貨を購入して取得していると考えることができる。当然ながら、ゲームを行うためのソフトウェアが無料であるもの、ゲームプレイ自体が無料であるもの、ゲームにおける所定の動作が無料であるもの等である場合、現実世界のお金を支払うことによって仮想通貨を取得している状態であれば、仮想通貨を購入して取得していると考えることができる。また、上述した現実世界の通貨で購入するとは、ユーザが事前に購入したものや事後に精算されるものによって決済されることを含んでおり、例えば、ユーザが事前に購入したプリペイドカードや事後に引き落としが行われるクレジットカードを用いて仮想通貨を購入するような形態でもよい。
 上述したように課金によって購入された星形の仮想通貨は、上述したゲームにおいて使用できる様々なものに交換することができる。例えば、上記レースゲーム開始前や上記レースゲーム終了後に開いて見ることが可能となる購入場面、すなわちレース中のゲーム場面とは異なるゲーム場面において、レースに用いられる装備やゲーム内コイン等を星形の仮想通貨を用いて購入することが可能となる。例えば、図18に示すように、上記購入場面で表示される購入画面では、星形の仮想通貨を用いてゲーム内コインを購入できる購入ボタンB1、ゲーム内コインを用いてレースに用いる装備を購入できる購入ボタンB2、および星形の仮想通貨を課金によって購入できる購入ボタンB3が表示されている。
 具体的には、購入ボタンB1は、星形の仮想通貨10枚をゲーム内コイン100枚に交換するボタンと、星形の仮想通貨100枚をゲーム内コイン1200枚に交換するボタンと、星形の仮想通貨1000枚をゲーム内コイン15000枚に交換するボタンとを含んでいる。ここで、ゲーム内コインは、上記レースゲームにおける成績の対価として獲得できたり、上記レースゲーム中において所定のアイテムを取得することによって獲得できたりするパラメータとして機能するものであり、典型的には、上記レースゲームにおいて獲得および使用することができる。そして、ゲーム内コインは、上記購入画面において、ユーザが所望する購入ボタンB1を選択して実行することによって、ユーザが所有している仮想通貨によって購入(仮想通貨と交換)することもできる。
 また、購入ボタンB2は、ゲーム内コイン1000枚を消費して上記レースに用いることができる第1の装備を購入するボタンと、ゲーム内コイン200枚を消費して上記レースに用いることができる第2の装備を購入するボタンと、ゲーム内コイン500枚を消費して上記レースに用いることができる第3の装備を購入するボタンと、ゲーム内コイン100枚を消費して上記レースに用いることができる第4の装備を購入するボタンとを含んでいる。ここで、上記レースに用いることができる装備は、プレイヤオブジェクトPOが当該装備を使用してレースに出場することによって、当該装備に固有の能力がプレイヤオブジェクトPOに付与されるものであり、プレイヤオブジェクトPOが当該装備の使用によってレースを有利に進めることができるゲーム内効果を得ることができる。一例として、プレイヤオブジェクトPOは、装備を使用することによって、走行速度や加速が上昇したり、操舵性が向上したり、走行可能な場所が増えたり、防御力が向上したりするような、装備の固有能力を得ることができる。また、購入した装備をプレイヤオブジェクトPOが複数のレースに継続使用できるため、上記装備は、当該装備の効力が有効である限り、プレイヤオブジェクトPOに継続的なゲーム内効果を与えるアイテムとして機能する。一方、上述したアイテムIを使用することによるゲーム内効果や「フィーバー状態」となることによるゲーム内効果は、アイテムIの所持を他のレースに持ち越すことができたとしても、当該効果が生じたレース内の一部期間に限ったものであり、他のレースにまで継続するものではないため、プレイヤオブジェクトPOに一時的なゲーム内効果を与えるアイテムであると言える。
 また、上記購入ボタンB1およびB2から明らかなように、ユーザは、星形の仮想通貨をゲーム内コインに交換した後、当該ゲーム内コインを用いて装備の購入が可能である。したがって、ユーザは、ゲーム内コインを介して、星形の仮想通貨を用いて装備の購入が可能となる。なお、上述した購入画面例では、星形の仮想通貨を用いて装備の購入するためには、ゲーム内コインに一旦交換することが必要となるが、ゲーム内コインに交換することなく星形の仮想通貨を用いて装備の購入が直接可能であってもかまわない。また、星形の仮想通貨の設定がないゲームでは、ゲーム内コインが直接課金によって購入可能であってもよい。この場合、ゲーム内では星形の仮想通貨が存在せず、ゲーム内コインだけが存在することになるため、ゲーム内コインを用いて装備の購入が可能であるとともに、アイテム抽選アイコンABが使用された場合に所定枚数(例えば、1000枚)のゲーム内コインが消費される態様であってもよい。また、ゲーム内コインだけが存在する場合、そのゲーム内コインは、必ずしも直接課金により購入可能でなくてもよい。
 また、上述したゲーム例では、アイテム抽選アイコンABを選択して実行する際に、星形の仮想通貨が消費される例を用いたが、上記購入画面において星形の仮想通貨から交換可能なゲーム内コインが当該実行の際に消費される態様でもかまわない。このように、アイテム抽選アイコンABを選択して実行する際にゲーム内コインが消費される態様であっても、星形の仮想通貨をゲーム内コインに一旦交換した後、当該ゲーム内コインを用いてアイテム抽選アイコンABの実行が可能となるため、結果的に、星形の仮想通貨を用いてアイテム抽選アイコンABの実行が可能であると考えることもできる。
 また、上記購入画面において、星形の仮想通貨または星形の仮想通貨から交換可能なゲーム内コインを用いて、アイテム抽選アイコンABを選択して実行することが可能な「アイテム抽選アイコンAB実行権利」を購入可能であってもよい。例えば、「アイテム抽選アイコンAB実行権利」を購入して所持しているユーザは、アイテム抽選アイコンABが出現した際に、「アイテム抽選アイコンAB実行権利」を使用して消費することによって、アイテム抽選アイコンABを選択して実行することが可能となる。このように、アイテム抽選アイコンABを選択して実行する際に「アイテム抽選アイコンAB実行権利」が消費される態様であっても、星形の仮想通貨またはゲーム内コインを「アイテム抽選アイコンAB実行権利」に一旦交換した後、当該「アイテム抽選アイコンAB実行権利」を用いてアイテム抽選アイコンABの実行が可能となるため、結果的に、星形の仮想通貨を用いてアイテム抽選アイコンABの実行が可能であると考えることもできる。
 このように、情報処理システム1において行われる第2アイテム抽選処理例においては、ゲーム内コインや装備等を購入可能な購入場面において、星形の仮想通貨や当該仮想通貨と交換されるゲーム内コインを用いて装備を購入した場合、当該仮想通貨の所有量が減るとともに、複数のレースにおいて有効となる当該設備の継続的な効果をプレイヤオブジェクトPOが得ることができる。また、レースにおいてコース上に配置されたアイテムボックスIBとプレイヤオブジェクトPOとが接触した場合、当該レースにおいて有効となるアイテムIの使用による一時的な効果をプレイヤオブジェクトPOが得ることができる。さらに、レースにおいてアイテム抽選アイコンABを選択して実行することによって、当該実行によって消費される仮想通貨の所有量が減るともに、当該レースにおいて有効となるアイテムIの使用による上記一時的な効果または「フィーバー状態」となる当たりの一時的な効果をプレイヤオブジェクトPOが得ることができる。したがって、星形の仮想通貨やゲーム内コインは、プレイヤオブジェクトPOに様々な効果を与えるアイテムとして機能するため、星形の仮想通貨やゲーム内コインを獲得する動機付けを高めることができる。
 なお、上述した実施例では、空枠Eの全所持枠HFが空枠Eである場合に限って、アイテム抽選アイコンABが出現することとしたが、所持枠HFに空枠Eがない場合や一部の所持枠HFが空枠Eである場合にもアイテム抽選アイコンABが出現可能にしてもよい。この場合、所持枠HFに空枠Eがない場合や一部の所持枠HFが空枠Eである場合であってもアイテム抽選アイコンABを選択することによるアイテム抽選が可能となり、アイテムIが表示されている所持枠HFにおいても回転抽選状態となる。また、空枠EとアイテムIが表示されている枠とが所持枠HFに混在している状態でアイテム抽選アイコンABを選択することによるアイテム抽選が行われた場合、空枠EだけでなくアイテムIが表示されている所持枠HFにおいても回転抽選状態としてもよい。
 また、上述した説明では、レースにおいてコース上に配置されたアイテムボックスIBとプレイヤオブジェクトPOとが接触した場合、当該レースにおいて有効となるアイテムIの使用による一時的な効果をプレイヤオブジェクトPOが得ることができるが、アイテムボックスIBとの接触がなくても上記一時的な効果が得られてもよい。例えば、アイテムボックスIBとプレイヤオブジェクトPOとが接触したことに応じて新たなアイテムIを抽選する演出が行われることに代えて、所定時間が経過する毎に自動的に新たなアイテムIを抽選する演出が行われてもよい。この場合、アイテム抽選アイコンABを選択することによって、上記所定時間が経過していなくても新たなアイテムIを抽選して取得することが可能としてもよい。
 また、アイテム抽選アイコンABを選択することによる「フィーバー状態」の当たりとする確率や所持枠HF内に停止表示させるアイテムIの種類についても、抽選テーブルによる制御とは異なるルールに基づいて行われてもよい。例えば、アイテム抽選アイコンABを選択することによる「フィーバー状態」の当たりとする確率や所持枠HF内に停止表示させるアイテムIの種類は、ランダムに制御されてもよいし、アイテム抽選アイコンABが選択されたタイミングに基づいて制御されてもよいし、所持枠HF内に停止表示されるアイテムIが所定の順番となるように制御されてもよい。
 また、所持枠HFの数は、プレイヤオブジェクトPOの種類に応じて変化してもよい。一例として、走行するコースとプレイヤオブジェクトPOとの相性の善し悪しに応じて、相性がよいコースでは3つの所持枠HFが表示され、相性が悪いコースでは1つの所持枠HFが表示される態様でもかまわない。所持枠HFが1つ表示されるコースを用いてプレイする場合、プレイヤオブジェクトPOが同時に所持できるアイテムIの数が少なくなるとともに、全所持枠HFのアイテムIが揃うことによる「フィーバー状態」にならないため、ユーザにとって不利な条件となる。なお、相性が悪いコースで1つの所持枠HFが表示される場合であっても、アイテム抽選アイコンABを選択した場合は3つの所持枠HFが出現して新たなアイテムIを抽選する演出が行われてもよい。このように、プレイヤオブジェクトPOとコースとの相性に応じて表示する所持枠HFの数を変化させることによって、ユーザが使用するプレイヤオブジェクトPOの種類を選択する動機付けとなる。
 次に、情報処理装置3において行われる処理の詳細を説明する。まず、図19を参照して、情報処理装置3において行われる処理において用いられる主なデータについて説明する。なお、図19は、情報処理装置3の記憶部32に記憶される主なデータおよびプログラムの一例を示す図である。
 図19に示すように、記憶部32のデータ記憶領域には、操作データDa、送信データDb、受信データDc、ユーザ所有データDd、抽選テーブルデータDe、現タッチ入力座標データDf、タッチ軌跡座標データDg、第1基準座標データDh、第2基準座標データDi、左右方向成分データDj、ハンドル角度データDk、入力長さデータDm、入力ベクトルデータDn、判定領域データDp、発射方向データDq、所持枠データDr、第1抽選フラグデータDs、第2抽選フラグデータDt、当たりフラグデータDu、抽選回数データDv、プレイヤオブジェクト動作データDw、敵オブジェクト動作データDx、アイテム位置データDy、および画像データDz等が記憶される。なお、記憶部32には、図19に示す情報に含まれるデータの他、実行するアプリケーションで用いるデータ等、処理に必要なデータが記憶される。また、記憶部32のプログラム記憶領域には、通信プログラムや情報処理プログラム(ゲームプログラム)を構成する各種プログラム群Paが記憶される。
 操作データDaは、ユーザが情報処理装置3を操作した操作情報を示すデータである。例えば、タッチパネルを含む入力部34を操作したことを示す操作データは、情報処理装置3が処理する時間単位(例えば、1/60秒)毎に取得され、当該取得に応じて操作データDaに格納されて更新される。
 送信データDbは、サーバ200へ送信するデータとして登録されたデータである。受信データDcは、サーバ200から受信したデータである。
 ユーザ所有データDdは、ユーザや当該ユーザが操作しているプレイヤオブジェクトPOが所有している仮想通貨、ゲーム内コイン、装備、キャラクタ、アイテム、経験値、プレイレベル、ユーザID等を示す各種データであり、サーバ200によって管理されてゲーム開始前にサーバ200から送信されることによって設定されるデータも含んでいる。
 抽選テーブルデータDeは、「フィーバー状態」とするアイテムIの種類に対応する当たり確率をそれぞれ記述したデータであり、空枠Eの数、時期、プレイヤオブジェクトPOの状況等に応じてそれぞれ設定される。例えば、抽選テーブルデータDeは、サーバ200によって管理され、ゲーム開始前にサーバ200から送信されことによって設定される。
 現タッチ入力座標データDfは、入力部34(タッチパネル)を現時点でタッチ操作している現タッチ位置座標Tを示すデータである。タッチ軌跡座標データDgは、タッチパネルに対してタッチオンしてから現時点までのタッチ入力座標の履歴(タッチ軌跡座標)を示すデータである。第1基準座標データDhは、タッチパネルに対してタッチオンしたタッチ入力座標を示すデータであり、スワイプ入力における左右方向成分を算出するための基準座標(基準座標R0)を示すデータである。第2基準座標データDiは、所定の条件を満たすようにタッチ軌跡座標上を移動するタッチ入力座標を示すデータであり、スワイプ入力における上下方向成分を算出するための基準座標(基準座標Rm)を示すデータである。
 左右方向成分データDjは、ユーザによって入力されたスワイプ入力の左右方向成分を示すデータである。ハンドル角度データDkは、上記スワイプ入力の左右方向成分に基づいて算出される、プレイヤオブジェクトPOのハンドル角度を示すデータである。
 入力長さデータDmは、ユーザによって入力されたタッチ位置の軌跡の長さを示すデータである。入力ベクトルデータDnは、基準座標Rmから現タッチ位置座標Tに向かうベクトルFDを示すデータである。
 判定領域データDpは、上方向または下方向のスワイプ入力を判定するための判定領域UAおよびLAを示すデータである。発射方向データDqは、プレイヤオブジェクトPOが発射した発射アイテムIMの方向を示すデータである。
 所持枠データDrは、所持枠HF毎にそれぞれ配置されているアイテムIのオブジェクトIDを示すデータであり、空枠Eの場合であっても空枠Eであることを示すデータが当該所持枠HFに設定される。
 第1抽選フラグデータDsは、プレイヤオブジェクトPOがアイテムボックスIBを開封することによって開始されるアイテム抽選が行われている期間中にオンに設定される第1抽選フラグを示すデータである。第2抽選フラグデータDtは、ユーザがアイテム抽選アイコンABを選択して実行することによって開始されるアイテム抽選が行われている期間中にオンに設定される第2抽選フラグを示すデータである。当たりフラグデータDuは、「フィーバー状態」となる当たり中にオンに設定される当たりフラグを示すデータである。抽選回数データDvは、アイテム抽選アイコンABを選択して実行することによって行われたアイテム抽選の回数を示すデータである。
 プレイヤオブジェクト動作データDwは、プレイヤオブジェクトPOの動作を示すデータであり、レース中のプレイヤオブジェクトPOの位置、速度、姿勢、周回回数、順位等を示すデータも含んでいる。敵オブジェクト動作データDxは、敵オブジェクトEOの動作を示すデータであり、レース中の敵オブジェクトEOの位置、速度、姿勢、周回回数、順位等を示すデータも含んでいる。アイテム位置データDyは、使用準備位置に配置されているアイコンI(使用準備アイテムIP)の位置や発射されたアイコンI(発射アイテムIM)の位置を示すデータである。
 画像データDzは、ゲームの際に情報処理装置3の表示部35にゲーム画像(例えば、プレイヤオブジェクトPOの画像、敵オブジェクトEOの画像、アイテムIの画像、所持枠HFの画像、アイテム抽選アイコンABの画像、他の仮想オブジェクトの画像、コース等のフィールド画像、背景画像等)を表示するためのデータである。
 次に、図20~図24を参照して、情報処理装置3において行われる処理の詳細を説明する。なお、図20は、情報処理装置3において実行される処理の一例を示すフローチャートである。図21は、図20のステップS106における操作内容判定処理の詳細な一例を示すサブルーチンである。図22は、図20のステップS107における第1アイテム抽選処理の詳細な一例を示すサブルーチンである。図23は、図20のステップS108における第2アイテム抽選処理の詳細な一例を示すサブルーチンである。図24は、図20のステップS116における購入処理の詳細な一例を示すサブルーチンである。ここで、図20~図24に示すフローチャートにおいては、情報処理システム1における処理のうち、一例としてプレイヤオブジェクトPOに対する操作、アイテム抽選、およびレース外で行われる購入処理に関連するゲーム処理について主に説明し、これらの処理と直接関連しない他の処理については詳細な説明を省略する。また、図20~図24では、制御部31が実行する各ステップを「S」と略称する。
 本実施例においては、図20~図24に示す一連の処理は、制御部31(CPU)が、プログラム記憶部33に記憶される通信プログラムやゲームプログラムを実行することによって行われる。なお、図20~図24に示す処理が開始されるタイミングは任意である。このとき、通信プログラムやゲームプログラムは、適宜のタイミングでその一部または全部が記憶部32に読み出され、制御部31によって実行される。これによって、図20~図24に示す一連の処理が開始される。なお、通信プログラムおよびゲームプログラムは、プログラム記憶部33に予め記憶されているものとする。ただし、他の実施例においては、情報処理装置3に着脱可能な記憶媒体から取得されて記憶部32に記憶されてもよいし、インターネット等のネットワークを介して他の装置から取得されて記憶部32に記憶されてもよい。
 また、図20~図24に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えておよび/または代えて別の処理が実行されてもよい。また、本実施例では、上記フローチャートの各ステップの処理を制御部31が実行するものとして説明するが、上記フローチャートにおける一部または全部のステップの処理を、上記制御部31のCPU以外のプロセッサや専用回路が実行するようにしてもよい。
 図20において、制御部31は、通信処理を行い(ステップS101)、次のステップに処理を進める。例えば、制御部31は、ネットワーク100を介して、送信データDbに格納されている送信データ(例えば、ユーザ認証を行うためのデータ(例えば、ユーザIDを示すデータ))をサーバ200へ送信する。また、制御部31は、ネットワーク100を介して、サーバ200からデータを受信し、受信したデータを用いて受信データDcを更新する。一例として、制御部31は、他の情報処理装置3との間でゲームを行う場合や自機のみでゲームを行う場合、上記ステップS101において当該ゲームを進行するためのデータをサーバ200との間で適宜送受信する。
 次に、制御部31は、初期設定を行い(ステップS102)、次のステップに処理を進める。例えば、制御部31は、以降の処理に用いる各パラメータを初期化する。また、制御部31は、現時点でプレイヤオブジェクトPOが所有している仮想オブジェクトやアイテム等のコンテンツに基づいて、ユーザ所有データDdを初期設定する。例えば、制御部31は、ユーザが所有しているデータや当該ユーザが操作しているプレイヤオブジェクトPOに関するデータ(例えば、仮想通貨、ゲーム内コイン、装備、キャラクタ、アイテム、経験値、プレイレベル等に関するデータ)、後述するレースゲームを進行するためのデータ(例えば、抽選テーブルデータ)等を上記ステップS101においてサーバ200から受信している。そして、制御部31は、サーバ200から受信したデータや情報処理装置3に記憶されていたデータに基づいて、ユーザ所有データDdおよび抽選テーブルデータDeを初期設定する。上記ステップS101およびステップS102において、ユーザが所有している仮想通貨およびゲーム内コインの量やアイテム抽選を行うための抽選テーブル等が初期設定される。
 次に、制御部31は、入力部34から操作データを取得して操作データDaを更新し(ステップS103)、次のステップに処理を進める。
 次に、制御部31は、レースゲームを開始するか否かを判定する(ステップS104)。例えば、制御部31は、ユーザによってレースゲームを開始する操作が行われた場合やレースゲームを開始する所定の開始条件が満たされた場合、上記ステップS104において肯定判定する。そして、制御部31は、レースゲームを開始する場合、ステップS105に処理を進める。一方、制御部31は、レースゲームを開始しない場合、ステップS115に処理を進める。
 ステップS105において、制御部31は、入力部34から操作データを取得して操作データDaを更新し、次のステップに処理を進める。なお、入力受付手段は、ユーザによる座標入力を受け付ける処理を行うものであり、一例としてステップS105の処理を行う制御部31に相当する。
 次に、制御部31は、操作内容判定処理を行い(ステップS106)、ステップS107に処理を進める。以下、図21を参照して、上記ステップS106において行われる操作内容判定処理について説明する。
 図21において、制御部31は、上記ステップS105において取得した最新の操作データに基づいて、現タッチ位置座標を更新して(ステップS121)、次のステップに処理を進める。例えば、制御部31は、表示部35の表示画面に、当該表示画面の左右方向となるX軸(右方向がX軸正方向)と当該表示画面の上下方向となるY軸(上方向がY軸正方向)とが設定された表示画面座標系を定義する。そして、制御部31は、上記ステップS105において取得した最新の操作データから、情報処理装置3のタッチパネルに対してタッチ操作されている上記表示画面座標系のタッチ入力座標を現タッチ入力座標Tとして取得し、当該現タッチ入力座標Tを用いて現タッチ入力座標データDfを更新する。なお、制御部31は、上記ステップS105において取得した最新の操作データに、タッチパネルに対してタッチ操作されているタッチ入力座標が含まれない場合、タッチパネルに対してユーザがタッチオフしていると判定して、タッチオフを示すデータを用いて現タッチ入力座標データDfを更新する。
 次に、制御部31は、上記ステップS121において更新された現タッチ入力座標Tをタッチ軌跡座標に追加し(ステップS122)、次のステップに処理を進める。例えば、制御部31は、タッチ軌跡座標データDgが示すタッチ軌跡座標に、上記ステップS121において更新された現タッチ入力座標Tを追加し、当該追加後のタッチ軌跡座標を用いてタッチ軌跡座標データDgを更新する。なお、制御部31は、現タッチ入力座標データDfがタッチオフを示す場合、タッチ軌跡座標データDgを更新することなく次のステップに処理を進める。
 次に、制御部31は、情報処理装置3のタッチパネルがタッチオフ状態からタッチオン状態となったか否かを判定する(ステップS123)。そして、制御部31は、タッチパネルがタッチオフ状態からタッチオン状態となった場合、ステップS124に処理を進める。一方、制御部31は、タッチパネルがタッチオフ状態からタッチオン状態となっていない場合(例えば、タッチオフ中やタッチオンされた後に継続してタッチ操作中である場合)、ステップS125に処理を進める。
 ステップS124において、制御部31は、第1基準座標および第2基準座標を設定し、ステップS125に処理を進める。例えば、制御部31は、現タッチ入力座標データDfを参照して、上記ステップS121において更新された現タッチ入力座標Tを取得し、当該現タッチ入力座標Tを上記表示画面座標系の第1基準座標R0および第2基準座標Rmとしてそれぞれ設定する。そして、制御部31は、設定された第1基準座標R0を用いて第1基準座標データDhを更新し、設定された第2基準座標Rmを用いて第2基準座標データDiを更新する。
 ステップS125において、制御部31は、タッチパネルに対するスワイプ入力の左右方向成分を算出し、次のステップに処理を進める。例えば、制御部31は、第1基準座標データDhおよび現タッチ入力座標データDfを参照して、上記表示画面座標系における基準座標R0(X0、Y0)と現タッチ位置座標T(Xt、Yt)とを取得する。そして、制御部31は、スワイプ入力における表示画面の左右方向成分(X軸方向成分)の大きさとして、Xt-X0を算出し、当該算出されたXt-X0を用いて左右方向成分データDjを更新する。
 次に、制御部31は、プレイヤオブジェクトPOのハンドル角度を算出し(ステップS126)、次のステップに処理を進める。例えば、制御部31は、上記ステップS125において算出された左右方向成分Xt-X0が正の値である場合、Xt-X0の絶対値に応じて右方向のハンドル角度を算出し、当該ハンドル角度を用いてハンドル角度データDkを更新する。また、制御部31は、上記ステップS125において算出された左右方向成分Xt-X0が負の値である場合、Xt-X0の絶対値に応じて左方向のハンドル角度を算出し、当該ハンドル角度を用いてハンドル角度データDkを更新する。なお、制御部31は、タッチパネルに対してタッチオフされている場合、所定の速度でハンドル角度を中立位置に戻すように変化させて、ハンドル角度データDkを更新する。なお、オブジェクト移動手段は、ユーザ入力により定まる第1基準座標を基準とした当該ユーザ入力の変化の大きさの第1軸方向の成分に少なくとも基づいて移動オブジェクトの移動方向を変化させる処理を行うものであり、一例としてステップS124-ステップS126の処理を行う制御部31に相当する。
 次に、制御部31は、第2基準座標Rmから現タッチ入力座標Tまでの入力長さを算出し(ステップS127)、次のステップに処理を進める。例えば、制御部31は、現タッチ入力座標データDf、タッチ軌跡座標データDg、および第2基準座標データDiを参照して、タッチ入力軌跡に沿った第2基準座標Rmから現タッチ位置座標Tまでの入力長さを算出し、当該入力長さを用いて入力長さデータDmを更新する。
 次に、制御部31は、上記ステップS127において算出された入力長さが所定の閾値Lより長いか否かを判定する(ステップS128)。そして、制御部31は、上記入力長さが所定の閾値Lより長い場合、ステップS129に処理を進める。一方、制御部31は、上記入力長さが所定の閾値L以下である場合、ステップS130に処理を進める。
 ステップS129において、制御部31は、上記入力長さが閾値L以下となるように第2基準座標Rmを移動させ、ステップS130に処理を進める。例えば、制御部31は、上記ステップS127において算出された入力長さが所定の速度で閾値L以下となるように、閾値Lより長くなるタッチ位置座標Tの履歴を所定の速度に基づいて順次削除し、当該削除処理に応じて最も古いタッチ位置座標Tとなった位置を第2基準座標Rmとして設定する。これによって、制御部31は、タッチ入力軌跡に沿って現タッチ位置座標Tの方向に第2基準座標Rmを移動させ、当該移動後の第2基準座標Rmを用いて第2基準座標データDiを更新する。
 ステップS130において、制御部31は、入力ベクトルFDを算出し、次のステップに処理を進める。例えば、制御部31は、現タッチ入力座標データDfおよび第2基準座標データDiを参照して、上記表示画面座標系において第2基準座標Rmから現タッチ位置座標Tに向かう入力ベクトルFDを算出し、当該入力ベクトルFDを用いて入力ベクトルデータDnを更新する。
 次に、制御部31は、入力ベクトルFDの長さが所定の長さ以上、かつ、当該入力ベクトルFDが示す方向が予め定められている判定領域内であるか否かを判定する(ステップS131)。そして、制御部31は、入力ベクトルFDの長さが所定の長さ以上、かつ、当該入力ベクトルFDが示す方向が上記判定領域内である場合、ステップS132に処理を進める。一方、制御部31は、入力ベクトルFDの長さが所定の長さ以上ではない、または入力ベクトルFDが示す方向が上記判定領域内でない場合、発射方向データDqが示す発射方向を消去して、ステップS133に処理を進める。例えば、制御部31は、判定領域データDpを参照して、Y軸正方向を中心とする所定の角度範囲である前方判定領域UAと、Y軸負方向を中心とする所定の角度範囲である後方判定領域LAとを取得し、上記ステップS130において算出された入力ベクトルFDの長さが所定の長さ以上、かつ、入力ベクトルFDの方向が前方判定領域UA内または後方判定領域LA内にある場合、上記ステップS131において肯定判定する。
 ステップS132において、制御部31は、発射方向を設定し、ステップS133に処理を進める。例えば、制御部31は、上記ステップS130において算出された入力ベクトルFDの方向が前方判定領域UA内である場合、プレイヤオブジェクトPOの真正面方向を発射方向に設定し、当該発射方向を用いて発射方向データDqを更新する。また、制御部31は、上記ステップS130において算出された入力ベクトルFDの方向が後方判定領域LA内である場合、プレイヤオブジェクトPOの真後ろ方向を発射方向に設定し、当該発射方向を用いて発射方向データDqを更新する。なお、制御部31は、Y軸方向と入力ベクトルFDの方向との角度差だけ、プレイヤオブジェクトPOの真正面方向または真後ろ方向からずれた方向を、上記発射方向として設定してもかまわない。なお、ゲーム動作実行手段は、第2軸方向のユーザ入力の成分に少なくとも基づいて移動オブジェクトの移動とは異なるゲーム動作を決定する処理を行うものであり、一例としてステップS124およびステップS127-ステップS132の処理を行う制御部31に相当する。
 ステップS133において、制御部31は、情報処理装置3のタッチパネルがタッチ操作されている状態からタッチオフ状態となったか否かを判定する。そして、制御部31は、タッチパネルがタッチ操作されている状態からタッチオフ状態となった場合、ステップS134に処理を進める。一方、制御部31は、タッチパネルがタッチ操作されている状態からタッチオフ状態となっていない場合(例えば、タッチオフされてから継続してタッチ操作されていない場合、タッチオンされた場合、タッチオンされた後に継続してタッチ操作中である場合)、当該サブルーチンによる処理を終了する。
 ステップS134において、制御部31は、第1基準座標R0、第2基準座標Rm、タッチ軌跡座標を消去して、当該サブルーチンによる処理を終了する。例えば、制御部31は、第1基準座標データDhが示す第1基準座標R0、第2基準座標データDiが示す第2基準座標Rm、およびタッチ軌跡座標データDgが示すタッチ軌跡座標をそれぞれ消去する。
 図20に戻り、上記ステップS106における操作内容判定処理の後、制御部31は、第1アイテム抽選処理を行い(ステップS107)、ステップS108に処理を進める。以下、図22を参照して、上記ステップS107において行われる第1アイテム抽選処理について説明する。
 図22において、制御部31は、所持枠HFの中に空枠Eがあるか否かを判定する(ステップS141)。例えば、制御部31は、所持枠データDrを参照して、各所持枠HFに設定されているオブジェクトIDを取得し、当該所持枠HFの少なくとも1つに空枠Eであることを示すデータが含まれている場合、上記ステップS141において肯定判定する。そして、制御部31は、所持枠HFの中に空枠Eがある場合、ステップS142に処理を進める。一方、制御部31は、所持枠HFの中に空枠Eがない場合、すなわち全所持枠HFに対してアイテムIのオブジェクトIDが設定されている場合、ステップS145に処理を進める。
 ステップS142において、制御部31は、プレイヤオブジェクトPOがコース上に配置されたアイテムボックスIBを通過して開封したか否かを判定する。例えば、制御部31は、プレイヤオブジェクト動作データDw等を参照して、プレイヤオブジェクトPOがアイテムボックスIBを通過する動作が設定されている場合、上記ステップS142において肯定判定する。そして、制御部31は、プレイヤオブジェクトPOがアイテムボックスIBを開封した場合、ステップS143に処理を進める。一方、制御部31は、プレイヤオブジェクトPOがアイテムボックスIBを開封していない場合、ステップS145に処理を進める。
 ステップS143において、制御部31は、アイテム抽選演出処理を開始し、次のステップに処理を進める。例えば、制御部31は、空枠Eの所持枠HF内において、複数種類のアイテムIを回転抽選表示した後、何れか1つのアイテムIを当該所持枠HF内で停止表示させるアイテム抽選演出を表示部35に表示するアイテム抽選演出処理を開始する。また、制御部31は、アイテム抽選演出処理を開始するとともに、第1抽選演出経過時間の計測を開始する。
 次に、制御部31は、第1抽選フラグをオンに設定し(ステップS144)、ステップS145に処理を進める。例えば、制御部31は、第1抽選フラグデータDsが示す第1抽選フラグをオンに設定して、第1抽選フラグデータDsを更新する。
 ステップS145において、制御部31は、第1抽選フラグがオンに設定されているか否かを判定する。例えば、制御部31は、第1抽選フラグデータDsが示す第1抽選フラグを参照することによって、上記ステップS145の判定を行う。そして、制御部31は、第1抽選フラグがオンに設定されている場合、ステップS146に処理を進める。一方、制御部31は、第1抽選フラグがオフに設定されている場合、ステップS151に処理を進める。
 ステップS146において、制御部31は、第1経過時間に到達したか否かを判定する。例えば、制御部31は、上記ステップS143から計測が開始されている第1抽選演出経過時間が予め定められている第1抽選時間に到達したか否かを判定する。そして、制御部31は、第1抽選時間に到達した場合、ステップS147に処理を進める。一方、制御部31は、第1抽選時間に到達していない場合、ステップS151に処理を進める。
 ステップS147において、制御部31は、第1抽選フラグをオフに設定し、次のステップに処理を進める。例えば、制御部31は、第1抽選フラグデータDsが示す第1抽選フラグをオフに設定して、第1抽選フラグデータDsを更新する。
 次に、制御部31は、アイテム抽選結果判定を行い(ステップS148)、次のステップに処理を進める。例えば、制御部31は、「フィーバー状態」の当たりとするか否かに関して、抽選テーブルデータDeが示す抽選テーブルに基づいて判定する。例えば、制御部31は、空枠Eの数、レースの周回数、レースの順位、コースやレースの種類、プレイヤオブジェクトPOの種類等に応じて、抽選テーブルデータDeから当たり判定に用いる抽選テーブルを抽出する。そして、制御部31は、抽出された抽選テーブルに記述された当たり確率に基づいて、上記ステップS148におけるアイテム抽選結果判定において「フィーバー状態」の当たりとするか否か、および当該当たりとなるアイテムI(すなわち、全所持枠HFにおいて同じとなるアイテムI)とを判定する。また、制御部31は、上記ステップS148におけるアイテム抽選結果判定においてはずれの場合、停止表示するアイテムIを所持枠HF毎に決定する。
 なお、本実施例では、第1抽選時間が経過した後にアイテム抽選結果判定を行っているが、第1抽選演出経過時間のカウント開始時点やカウント中など、アイテム抽選結果報知前であれば、アイテム抽選結果判定を他のタイミングで行ってもかまわない。
 次に、制御部31は、上記ステップS148におけるアイテム抽選結果判定が当たりであるか否かを判定する(ステップS149)。そして、制御部31は、上記ステップS148におけるアイテム抽選結果判定が当たりである場合、ステップS150に処理を進める。一方、制御部31は、上記ステップS148におけるアイテム抽選結果判定がはずれである場合、ステップS156に処理を進める。
 ステップS150において、制御部31は、当たりを示すアイテム抽選結果報知処理を行った後、フィーバー状態に移行し、ステップS151に処理を進める。例えば、制御部31は、上記ステップS148で決定されたアイテムIを全所持枠HFにおいて停止表示させるとともに、「フィーバー状態」の当たりであることを報知するアイテム抽選結果報知演出を表示部35に表示するアイテム抽選結果報知処理を行う。そして、制御部31は、当たりフラグをオンに設定して当たりフラグデータDuを更新するとともにフィーバー経過時間の計測を開始し、所持枠データDrにおける全所持枠HFに上記停止表示するアイテムIのオブジェクトIDを設定する。また、制御部31は、プレイヤオブジェクトPOの動作を停止表示させたアイテムIによるフィーバー状態による動作に設定し、プレイヤオブジェクト動作データDwを更新する。
 一方、上記アイテム抽選結果判定がはずれの場合、ステップS156において、制御部31は、はずれを示すアイテム抽選結果報知処理を行った後、ステップS151に処理を進める。例えば、制御部31は、空枠Eであった所持枠HF内に何れか1つのアイテムIを停止表示させて取得されたアイテムIおよびはずれであることを報知するアイテム抽選結果報知演出を表示部35に表示するアイテム抽選結果報知処理を行う。また、制御部31は、所持枠データDrにおける所持枠HFに上記停止表示するアイテムIのオブジェクトIDを設定する。
 ステップS151において、制御部31は、当たりフラグがオンであるか否かを判定する。例えば、制御部31は、当たりフラグデータDuが示す当たりフラグを参照することによって、上記ステップS151の判定を行う。そして、制御部31は、当たりフラグがオンに設定されている場合、ステップS152に処理を進める。一方、制御部31は、当たりフラグがオフに設定されている場合、ステップS157に処理を進める。
 ステップS152において、制御部31は、情報処理装置3のタッチパネルに対するタッチ入力があるか否かを判定する。例えば、制御部31は、現タッチ入力座標データDfに現タッチ入力座標Tが設定されている場合、上記ステップS152において肯定判定する。そして、制御部31は、タッチパネルに対するタッチ入力がある場合、ステップS153に処理を進める。一方、制御部31は、タッチパネルに対するタッチ入力がない場合、ステップS154に処理を進める。
 ステップS153において、制御部31は、アイテム使用処理を行い、ステップS154に処理を進める。例えば、制御部31は、フィーバー期間中に限って可能となる「フィーバー状態」となったアイテムを連続して使用する処理を行う。一例として、制御部31は、甲羅のアイテムによる「フィーバー状態」の場合、プレイヤオブジェクトPOの周辺に複数の甲羅のアイテムIFを配置し、ユーザのタッチ操作に応じて、所定の周期で連続して甲羅の発射アイテムIMをプレイヤオブジェクトPOの前方に発射するアイテム使用処理を行って、プレイヤオブジェクト動作データDwおよびアイテム位置データDy等を更新する。
 ステップS154において、制御部31は、フィーバー時間に到達したか否かを判定する。例えば、制御部31は、上記ステップS150および後述するステップS183から計測が開始されているフィーバー経過時間が予め定められているフィーバー時間に到達したか否かを判定する。そして、制御部31は、フィーバー時間に到達した場合、ステップS155に処理を進める。一方、制御部31は、フィーバー時間に到達していない場合、当該サブルーチンによる処理を終了する。
 ステップS155において、制御部31は、フィーバー状態を解除する処理を行い、当該サブルーチンによる処理を終了する。例えば、制御部31は、所持枠データDrにおける全所持枠HFに空枠Eを設定するとともに、当たりフラグをオフに設定して当たりフラグデータDuを更新する。また、制御部31は、プレイヤオブジェクトPOの動作を通常状態による動作に設定し、プレイヤオブジェクト動作データDwを更新する。
 一方、上記ステップS151において当たりフラグがオフであると判定された場合、制御部31は、アイテムの発射方向が設定されているか否かを判定する(ステップS157)。例えば、制御部31は、発射方向データDqに発射方向が設定されている場合、上記ステップS157において肯定判定する。そして、制御部31は、発射方向が設定されている場合、ステップS158に処理を進める。一方、制御部31は、発射方向が設定されていない場合、当該サブルーチンによる処理を終了する。
 ステップS158において、制御部31は、所持枠HFにアイテムIを所持しているか否かを判定する。例えば、制御部31は、所持枠データDrにおける所持枠HFの少なくとも1つにアイテムのオブジェクトIDが設定されている場合、上記ステップS158において肯定判定する。そして、制御部31は、所持枠HFにアイテムIを所持している場合、ステップS159に処理を進める。一方、所持枠HFにアイテムIを所持していない場合、当該サブルーチンによる処理を終了する。
 ステップS159において、制御部31は、アイテム使用処理を行い、当該サブルーチンによる処理を終了する。例えば、制御部31は、所持枠HFに表示されているアイテムIのうち、FIFO(先入れ先出し)方式によって使用されるアイテムIを選択する。そして、選択されたアイテムIが発射方向データDqに設定されている発射方向に発射可能である場合、制御部31は、当該アイテムIを発射アイテムIMとしてプレイヤオブジェクトPO近傍から単発発射して移動させるアイテム使用処理を行って、プレイヤオブジェクト動作データDwおよびアイテム位置データDy等を更新する。また、選択されたアイテムIがプレイヤオブジェクトPO自体によって使用される種類である場合、プレイヤオブジェクトPO自身によって使用されて当該アイテムIの効果が得られるアイテム使用処理を行って、プレイヤオブジェクト動作データDw等を更新する。また、制御部31は、アイテムIの使用によって、当該アイテムIが表示されていた所持枠HFを空枠Eに変更して、変更後の所持枠HFの状態を用いて所持枠データDrを更新する。
 なお、上記ステップS159において、制御部31は、アイテムIの使用に伴って発射方向データDqが示す発射方向および第2基準座標データDiが示す第2基準座標Rmをそれぞれ消去してもかまわないし、それぞれそのままの状態を維持してもかまわない。前者の場合、アイテムIを再度使用するためには、タッチパネルに対して再度タッチオンしてアイテムIが使用される方向へドラッグ操作する必要がある。後者の場合、アイテムIが使用可能となった時点で、維持されている発射方向および第2基準座標Rmに基づいてアイテムIが即時に使用される。
 また、使用準備位置に配置されている使用準備アイテムIP上をタッチ操作(タップ操作)されることによって、当該使用準備アイテムIPを使用できる態様とする場合、上記ステップS157において、発射方向が設定されている場合だけでなく、当該タッチ操作が行われている場合も肯定判定される。そして、上記ステップS159では、タッチ操作された使用準備アイテムIPがプレイヤオブジェクトPO自体によって使用される、またはデフォルトの方向へ発射アイテムIMとして発射されることによって使用されるアイテム使用処理が行われる。
 図20に戻り、上記ステップS107における第1アイテム抽選処理の後、制御部31は、第2アイテム抽選処理を行い(ステップS108)、ステップS109に処理を進める。以下、図23を参照して、上記ステップS108において行われる第2アイテム抽選処理について説明する。
 図23において、制御部31は、全所持枠HFが空枠Eであるか否かを判定する(ステップS171)。例えば、制御部31は、所持枠データDrを参照して、全所持枠HFが空枠Eであることを示すデータである場合、上記ステップS171において肯定判定する。そして、制御部31は、全所持枠HFが空枠Eである場合、ステップS172に処理を進める。一方、制御部31は、所持枠HFの少なくとも1つにアイテムIのオブジェクトIDが設定されていたり、所持枠HFの少なくとも1つが回転抽選表示されていたりする場合、アイテム抽選アイコンABが出現していれば当該アイテム抽選アイコンABを表示画面から退避させて、ステップS174に処理を進める。
 ステップS172において、制御部31は、アイテム抽選アイコンABが出現する条件を満たしているか否かを判定する。例えば、制御部31は、抽選回数データDvが示す抽選回数がアイテム抽選アイコンABを選択して実行する制限回数にまだ未到達であり、さらにユーザ所有データDdが示す仮想通貨の所持量が当該実行において消費される仮想通貨以上である場合、上記条件を満たしていると判定する。そして、制御部31は、アイテム抽選アイコンABが出現する条件を満たしている場合、ステップS173に処理を進める。一方、制御部31は、アイテム抽選アイコンABが出現する条件を満たしていない場合、ステップS174に処理を進める。
 ステップS173において、制御部31は、アイテム抽選アイコンABを表示部35に出現させて表示する設定を行い、ステップS174に処理を進める。例えば、制御部31は、アイテム抽選アイコンABを選択する際に必要となる仮想通貨の量を示す価格情報Mとともにアイテム抽選アイコンABを表示部35に表示する設定を行う。
 ステップS174において、制御部31は、アイテム抽選アイコンABを選択して実行する操作が行われたか否かを判定する。例えば、制御部31は、表示部35に表示されているアイテム抽選アイコンAB上をタッチ操作(タップ操作)された場合、アイテム抽選アイコンABを選択して実行する操作が行われたと判定する。そして、制御部31は、アイテム抽選アイコンABを選択して実行する操作が行われた場合、ステップS175に処理を進める。一方、制御部31は、アイテム抽選アイコンABを選択して実行する操作が行われていない場合、ステップS178に処理を進める。
 ステップS175において、制御部31は、アイテム抽選アイコンABを選択して実行されることに応じて仮想通貨を消費させる処理を行い、次のステップに処理を進める。例えば、制御部31は、ユーザ所持データDdが示すユーザが所持する仮想通貨量から、アイテム抽選アイコンABを選択して実行されることに応じて消費される仮想通貨量を減算し、当該減算した仮想通貨量を用いてユーザ所持データDdを更新する。
 次に、制御部31は、アイテム抽選演出処理を開始し(ステップS176)、次のステップに処理を進める。例えば、制御部31は、空枠Eとなっている全所持枠HF内において、複数種類のアイテムIを回転抽選表示した後、何れか1つのアイテムIを当該所持枠HF内で停止表示させるアイテム抽選演出を表示部35に表示するアイテム抽選演出処理を開始する。また、制御部31は、アイテム抽選演出処理を開始するとともに、第2抽選演出経過時間の計測を開始する。
 次に、制御部31は、第2抽選フラグをオンに設定し(ステップS177)、ステップS178に処理を進める。例えば、制御部31は、第2抽選フラグデータDtが示す第2抽選フラグをオンに設定して、第2抽選フラグデータDtを更新する。
 ステップS178において、制御部31は、第2抽選フラグがオンに設定されているか否かを判定する。例えば、制御部31は、第2抽選フラグデータDtが示す第2抽選フラグを参照することによって、上記ステップS178の判定を行う。そして、制御部31は、第2抽選フラグがオンに設定されている場合、ステップS179に処理を進める。一方、制御部31は、第2抽選フラグがオフに設定されている場合、当該サブルーチンによる処理を終了する。
 ステップS179において、制御部31は、第2経過時間に到達したか否かを判定する。例えば、制御部31は、上記ステップS176から計測が開始されている第2抽選演出経過時間が予め定められている第2抽選時間に到達したか否かを判定する。そして、制御部31は、第2抽選時間に到達した場合、ステップS180に処理を進める。一方、制御部31は、第2抽選時間に到達していない場合、当該サブルーチンによる処理を終了する。なお、制御部31は、第2経過時間を上記第1経過時間より短い時間に設定する。
 ステップS180において、制御部31は、第2抽選フラグをオフに設定し、次のステップに処理を進める。例えば、制御部31は、第2抽選フラグデータDtが示す第2抽選フラグをオフに設定して、第2抽選フラグデータDtを更新する。
 次に、制御部31は、アイテム抽選結果判定を行い(ステップS181)、次のステップに処理を進める。例えば、制御部31は、「フィーバー状態」の当たりとするか否かに関して、抽選テーブルデータDeが示す抽選テーブルに基づいて判定する。例えば、制御部31は、空枠Eの数、レースの周回数、レースの順位、コースやレースの種類、プレイヤオブジェクトPOの種類等に応じて、抽選テーブルデータDeから当たり判定に用いる抽選テーブルを抽出する。また、アイテム抽選アイコンABを選択して実行されることよるアイテム抽選を行う場合、当該アイテム抽選が同じレース中に行われた回数や消費される仮想通貨量に応じて、異なる抽選テーブルが抽出されてもよく、アイテムボックスIBの開封によるアイテム抽選より高確率で当たりとなる抽選テーブルが抽出されてもよい。そして、制御部31は、抽出された抽選テーブルに記述された当たり確率に基づいて、上記ステップS181におけるアイテム抽選結果判定において「フィーバー状態」の当たりとするか否か、および当該当たりとなるアイテムI(すなわち、全所持枠HFにおいて同じとなるアイテムI)とを判定する。
 なお、本実施例では、第2抽選時間が経過した後にアイテム抽選結果判定を行っているが、第2抽選演出経過時間のカウント開始時点やカウント中など、アイテム抽選結果報知前であれば、アイテム抽選結果判定を他のタイミングで行ってもかまわない。
 次に、制御部31は、上記ステップS181におけるアイテム抽選結果判定が当たりであるか否かを判定する(ステップS182)。そして、制御部31は、上記ステップS181におけるアイテム抽選結果判定が当たりである場合、ステップS183に処理を進める。一方、制御部31は、上記ステップS181におけるアイテム抽選結果判定がはずれである場合、ステップS184に処理を進める。
 ステップS183において、制御部31は、当たりを示すアイテム抽選結果報知処理を行った後、フィーバー状態に移行し、当該サブルーチンによる処理を終了する。例えば、制御部31は、上記ステップS181で決定されたアイテムIを全所持枠HFにおいて停止表示させるとともに、「フィーバー状態」の当たりであることを報知するアイテム抽選結果報知演出を表示部35に表示するアイテム抽選結果報知処理を行う。そして、制御部31は、当たりフラグをオンに設定して当たりフラグデータDuを更新するとともにフィーバー経過時間の計測を開始し、所持枠データDrにおける全所持枠HFに上記停止表示するアイテムIのオブジェクトIDを設定する。また、制御部31は、プレイヤオブジェクトPOの動作を停止表示させたアイテムIによるフィーバー状態による動作に設定し、プレイヤオブジェクト動作データDwを更新する。
 一方、上記アイテム抽選結果判定がはずれの場合、ステップS184において、制御部31は、はずれを示すアイテム抽選結果報知処理を行った後、当該サブルーチンによる処理を終了する。例えば、制御部31は、空枠Eであった所持枠HF内に何れか1つのアイテムIを停止表示させて取得されたアイテムIおよびはずれであることを報知するアイテム抽選結果報知演出を表示部35に表示するアイテム抽選結果報知処理を行う。また、制御部31は、所持枠データDrにおける所持枠HFに上記停止表示するアイテムIのオブジェクトIDを設定する。
 図20に戻り、上記ステップS108における第2アイテム抽選処理の後、制御部31は、プレイヤオブジェクトPOの動作を設定する処理を行い(ステップS109)、次のステップに処理を進める。例えば、制御部31は、ハンドル角度データDkが示すハンドル角度や他の仮想オブジェクトからの影響等を考慮して、プレイヤオブジェクトPOの位置および姿勢を設定するとともに、プレイヤオブジェクト動作データDwに設定されているプレイヤオブジェクトPOの状態を考慮してプレイヤオブジェクトPOの動作、位置、姿勢等を決定して、プレイヤオブジェクト動作データDwを更新する。
 次に、制御部31は、敵オブジェクトEOの動作を設定する処理を行い(ステップS110)、次のステップに処理を進める。一例として、敵オブジェクトEOの動作が制御部31によって制御されている場合、制御部31は、所定のアルゴリズムに基づいて敵オブジェクトEOを動作させ、当該動作に基づいて敵オブジェクトデータDxを更新する。他の例として、敵オブジェクトEOの動作が他のユーザによって制御されている場合、制御部31は、プレイヤオブジェクトPOと同様に当該他のユーザの操作に基づいて敵オブジェクトEOを動作させ、当該動作に基づいて敵オブジェクトデータDxを更新する。
 次に、制御部31は、アイテムの動作を設定する処理を行い(ステップS111)、次のステップに処理を進める。例えば、制御部31は、上記処理によって使用が設定されてプレイヤオブジェクトPOから発射された発射アイテムIMを、発射方向データDqに基づいて移動させる処理を行い、当該移動後の位置や姿勢に基づいてアイテム位置データDyを更新する。
 次に、制御部31は、表示画像を生成して表示部35に表示する表示制御処理を行い(ステップS112)、次のステップに処理を進める。例えば、制御部31は、プレイヤオブジェクト動作データDw、敵オブジェクトデータDx、およびアイテム位置データDy等に応じて、上述した各ステップにおける処理結果に応じた表示画像を生成して、当該表示画像を表示部35に表示する処理を行う。
 次に、制御部31は、レースを終了するか否かを判断する(ステップS113)。レースを終了する条件としては、例えば、レースを終了させる条件が満たされたことや、ユーザがレースを終了する操作を行ったこと等がある。制御部31は、レースを継続する場合に上記ステップS105に戻って処理を繰り返し、レースを終了する場合にステップS114に処理を進める。
 ステップS114において、制御部31は、通信処理を行い、次のステップに処理を進める。例えば、制御部31は、ネットワーク100を介して、送信データDbに格納されている送信データ(例えば、仮想通貨やゲーム内コインの増減量、レースの結果等、ゲーム処理の結果を示すデータ)をサーバ200へ送信する。また、制御部31は、ネットワーク100を介して、サーバ200からデータを受信し、受信したデータを用いて受信データDcを更新する。
 次に、制御部31は、購入処理を行うか否かを判定する(ステップS115)。例えば、制御部31は、上記ステップS103において取得した操作データがユーザによる購入が行われることを示す場合や、購入する条件が満たされた場合に、上記ステップS115において肯定判定する。そして、制御部31は、購入処理を行う場合、ステップS116に処理を進める。一方、制御部31は、購入処理を行わない場合、ステップS117に処理を進める。
 ステップS116において、制御部31は、購入処理を行い、ステップS117に処理を進める。以下、図24を参照して、上記ステップS116において行われる購入処理について説明する。
 図24において、通信処理を行い(ステップS190)、次のステップに処理を進める。例えば、制御部31は、ネットワーク100を介して、送信データDbに格納されている送信データ(例えば、ユーザ認証を行うためのデータ(例えば、ユーザIDを示すデータ))をサーバ200へ送信する。また、制御部31は、ネットワーク100を介して、サーバ200からデータ(例えば、現時点で購入可能な装備、交換レート、ユーザが所有している仮想通貨やゲーム内コインの量等、購入処理に必要なデータのうち、サーバ200が管理しているデータ)を受信し、受信したデータを用いて受信データDcを更新する。
 次に、制御部31は、入力部34から操作データを取得して操作データDaを更新し(ステップS191)、次のステップに処理を進める。
 次に、制御部31は、購入処理を行い(ステップS192)、次のステップに処理を進める。例えば、制御部31は、購入する装備、ゲーム内コイン、仮想通貨等をユーザに選択させる画面(図18参照)を、上記ステップS190において受信した受信データに基づいて表示し、ユーザに選択を促す。そして、上記ステップS191において取得した操作データが、ユーザが購入を決定する操作である場合、当該操作に応じて選択された装備、ゲーム内コイン、仮想通貨等をユーザ所持に変更するとともに、その対価をユーザ所持から減らす処理を行って、ユーザ所有データDdを更新する。
 次に、制御部31は、購入処理を終了するか否かを判定する(ステップS193)。例えば、制御部31は、上記ステップS191において取得した操作データが購入処理を終了することを示す場合や、購入処理を終了する条件が満たされた場合に、上記ステップS193において肯定判定する。そして、制御部31は、購入処理を終了する場合、ステップS194に処理を進める。一方、制御部31は、購入処理を継続する場合、ステップS191に処理を進める。
 ステップS194において、制御部31は、通信処理を行い、当該サブルーチンによる処理を終了する。例えば、制御部31は、ネットワーク100を介して、送信データDbに格納されている送信データ(例えば、上記ステップS193における購入処理における購入内容を示すデータ)をサーバ200へ送信する。また、制御部31は、ネットワーク100を介して、サーバ200からデータを受信し、受信したデータを用いて受信データDcを更新する。
 図20に戻り、ステップS117において、制御部31は、ゲーム処理を終了するか否かを判断する。ゲーム処理を終了する条件としては、例えば、ゲーム処理を終了させる条件が満たされたことや、ユーザがゲーム処理を終了する操作を行ったこと等がある。制御部31は、ゲーム処理を継続する場合に上記ステップS102に戻って処理を繰り返し、レースを終了する場合に当該フローチャートによる処理を終了する。
 このように、上記ゲーム処理を行う情報処理システム1によれば、1つの入力部34(タッチパネル)を用いて、プレイヤオブジェクトPOの移動方向を制御する操作が可能であるとともに、プレイヤオブジェクトPOとは異なる仮想オブジェクト(アイテムI)の動作の制御も可能となるため、ユーザ操作に対する処理を多様にすることができる。また、上記ゲーム処理を行う情報処理システム1によれば、所持枠HF内に所持されているゲームアイテムの組み合わせによって新たなゲーム内効果(「フィーバー状態」となる当たり)を発生させるため、ユーザが所有しているゲームアイテムの取り扱いに関して興趣性を高めることができる。さらに、上記ゲーム処理を行う情報処理システム1によれば、ゲームにおいて利用できる対価や課金によって取得できるアイテム(例えば、仮想通貨、ゲーム内コイン等)を用いて、アイテム抽選アイコンABを選択して実行することによるアイテム抽選が可能であるため、当該対価やアイテムを獲得する動機付けを高めることができる。
 なお、上述した情報処理システム1を用いたゲーム処理では、情報処理装置3とサーバ200との間の通信処理が含まれているが、サーバ200と接続されることなく情報処理装置3単独でゲーム処理を行ってもかまわない。特に、ユーザがプレイヤオブジェクトPOを操作してレースゲームを行う処理では、サーバ200が介在することなく実行可能であるため、情報処理装置3の内部処理だけで実現することができる。また、複数の情報処理装置3が参加するレースゲームを行う場合であっても、サーバ200を介さずに情報処理装置3同士や他の装置と通信が行われて上記ゲーム処理が実現されてもよい。また、ユーザがプレイヤオブジェクトPOを操作してレースゲームを行う処理の一部をサーバ200が実行してもかまわない。これにより、複数の情報処理装置3における処理をサーバ200において集中して管理することができる。
 また、上述した説明では情報処理や通信処理を情報処理装置3で行う例を用いたが、上記処理における処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、情報処理装置3と通信可能なサーバ200や他の装置(例えば、別のサーバ、他のゲーム装置、他の携帯端末)が協働することによって、上記処理における処理ステップが実行されてもよい。このように、上記処理における処理ステップの少なくとも一部をサーバ200や他の装置で行うことによって、上述した処理と同様の処理が可能となる。また、上述した処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施例においては、情報処理装置3の制御部31が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、情報処理装置3が備える専用回路によって上記処理の一部または全部が行われてもよい。
 ここで、上述した変形例によれば、いわゆるクラウドコンピューティングのシステム形態や分散型の広域ネットワークおよびローカルネットワークのシステム形態でも本発明を実現することが可能となる。例えば、分散型のローカルネットワークのシステム形態では、据置型の情報処理装置(据置型のゲーム装置)と携帯型の情報処理装置(携帯型のゲーム装置)との間で上記処理を協働により実行することも可能となる。なお、これらのシステム形態では、上述した処理の各ステップの処理をどの装置で行うかについては特に限定されず、どのような処理分担をしたとしても本発明を実現できることは言うまでもない。
 また、上述した情報処理で用いられる処理順序、設定値、判定に用いられる条件等は、単なる一例に過ぎず他の順序、値、条件であっても、本実施例を実現できることは言うまでもない。
 また、上記各プログラムは、外部メモリ等の外部記憶媒体を通じて情報処理装置3に供給されるだけでなく、有線または無線の通信回線を通じて情報処理装置3に供給されてもよい。また、上記プログラムは、情報処理装置3内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD-ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
 以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施例の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
 以上のように、本発明は、1つの操作ユーザインターフェースを用いたユーザ操作に対する処理の多様性等を向上させることを可能とする等を目的として、例えば情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法等として有用である。
1…情報処理システム
3…情報処理装置
31、202…制御部
32、203…記憶部
33…プログラム格納部
34…入力部
35…表示部
36、201…通信部
200…サーバ

Claims (25)

  1.  ユーザの操作に基づいた処理を行う装置に含まれるコンピュータで実行される情報処理プログラムであって、
     前記コンピュータを、
      ユーザによる座標入力を受け付ける入力受付手段と、
      前記座標入力を示すユーザ入力により定まる第1基準座標を基準とする、継続して行われた当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させるオブジェクト移動手段と、
      前記ユーザ入力の、前記第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、前記仮想空間における前記移動オブジェクトの移動とは異なるゲーム動作の方向を決定して、当該ゲーム動作を実行するゲーム動作実行手段として機能させる、情報処理プログラム。
     
  2.  前記ゲーム動作実行手段は、前記座標入力を示すユーザ入力により定まる第2基準座標を基準とした前記ユーザ入力の座標変化が基準値以上であり、当該ユーザ入力の前記第1軸方向の成分および前記第2軸方向の成分により計算される当該ユーザ入力の変化の向きが所定の角度条件を満たす場合に、当該ユーザ入力の変化の向きに応じて前記ゲーム動作の方向を決定して当該ゲーム動作を実行する、請求項1に記載の情報処理プログラム。
     
  3.  前記ゲーム動作実行手段は、第2基準座標を基準とした前記ユーザ入力の座標変化の前記第2軸成分が基準値以上である場合に、当該ユーザ入力の座標変化の向きに応じて前記ゲーム動作の方向を決定して当該ゲーム動作を実行する、請求項1に記載の情報処理プログラム。
     
  4.  前記ゲーム動作実行手段は、前記第2基準座標を基準とした前記ユーザ入力の変化の向きが所定の角度条件を満たす場合に、前記ゲーム動作の方向を決定して当該ゲーム動作を実行する、請求項3に記載の情報処理プログラム。
     
  5.  前記ゲーム動作実行手段は、前記移動オブジェクトの向きに応じて、前記角度条件を変化させる、請求項2または4に記載の情報処理プログラム。
     
  6.  前記ゲーム動作実行手段は、前記第2基準座標を基準とした前記ユーザ入力の変化の向きが前記第2軸方向における正方向か負方向かによって、異なる値を前記基準値として用いる、請求項2乃至5の何れか1つに記載の情報処理プログラム。
     
  7.  前記ゲーム動作実行手段は、前記ユーザ入力において座標入力された軌跡上の座標を、前記第2基準座標として用いる、請求項2乃至6の何れか1つに記載の情報処理プログラム。
     
  8.  前記ゲーム動作実行手段は、前記ユーザ入力が継続する間、前記軌跡上において座標入力が新しい方へ前記第2基準座標を当該軌跡上で移動させる、請求項7に記載の情報処理プログラム。
     
  9.  前記ゲーム動作実行手段は、前記第2基準座標として、前記ユーザ入力が開始された座標を用いる、請求項7または8に記載の情報処理プログラム。
     
  10.  前記ゲーム動作実行手段は、前記第1基準座標を基準とした前記ユーザ入力の座標変化の前記第1軸方向成分が所定の閾値以上の場合、当該第1軸方向成分が当該所定の閾値未満である場合と比較して前記基準値を変化させる、請求項2乃至9の何れか1つに記載の情報処理プログラム。
     
  11.  前記オブジェクト移動手段は、前記移動オブジェクトの方向に応じて、前記第1軸方向を変化させる、請求項1乃至10の何れか1つに記載の情報処理プログラム。
     
  12.  前記ゲーム動作実行手段は、前記ユーザ入力の変化の速度が閾値以上である場合に、前記第2軸方向の当該ユーザ入力の成分に少なくとも基づいて前記ゲーム動作の方向を決定して当該ゲーム動作を実行する、請求項1に記載の情報処理プログラム。
     
  13.  前記ゲーム動作実行手段は、前記ゲーム動作として、前記移動オブジェクトの位置と同じまたは近傍の位置を移動開始点として、前記移動オブジェクトから離れる方向に他のオブジェクトを移動させる、請求項1乃至12の何れか1つに記載の情報処理プログラム。
     
  14.  前記ゲーム動作実行手段は、前記他のオブジェクトを示す表示の位置を指定する入力が行われた場合に、当該他のオブジェクトに対して規定された初期方向に、当該他のオブジェクトを移動させる、請求項13に記載の情報処理プログラム。
     
  15.  前記移動を開始する前の前記他のオブジェクトは、前記移動オブジェクトの近傍に表示される、請求項13または14に記載の情報処理プログラム。
     
  16.  前記移動を開始する前の前記他のオブジェクトは、前記移動オブジェクトとは離れて表示される、請求項13または14に記載の情報処理プログラム。
     
  17.  前記ゲーム動作実行手段は、前記第2基準座標を基準とした前記ユーザ入力の入力方向と対応する方向に、前記他のオブジェクトを移動させる、請求項13乃至16の何れか1つに記載の情報処理プログラム。
     
  18.  前記ゲーム動作実行手段は、前記第2基準座標を基準とした前記ユーザ入力の入力速度に基づいて、前記他のオブジェクトの移動速度を設定する、請求項13乃至17の何れか1つに記載の情報処理プログラム。
     
  19.  前記他のオブジェクトは、当該他のオブジェクトと衝突したオブジェクトを減速または停止させる攻撃アイテムである、請求項13乃至18の何れか1つに記載の情報処理プログラム。
     
  20.  前記オブジェクト移動手段は、前記ユーザ入力があるか否かに関わらず、前記移動オブジェクトを移動させる、請求項1乃至19の何れか1つに記載の情報処理プログラム。
     
  21.  前記オブジェクト移動手段は、仮想空間内において前記移動オブジェクトを見る仮想カメラの視線方向に対して、当該仮想カメラの後方から前方に当該移動オブジェクトを移動させる、請求項1乃至20の何れか1つに記載の情報処理プログラム。
     
  22.  前記第1軸方向は、前記ユーザから見て左右方向であり、
     前記第2軸方向は、前記ユーザから見て上下方向である、請求項1乃至21の何れか1つに記載の情報処理プログラム。
     
  23.  ユーザの操作に基づいた処理を行う情報処理装置であって、
     ユーザによる座標入力を受け付ける入力受付手段と、
     前記座標入力を示すユーザ入力により定まる第1基準座標を基準とする、継続して行われた当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させるオブジェクト移動手段と、
     前記ユーザ入力の、前記第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、前記仮想空間における前記移動オブジェクトの移動とは異なるゲーム動作を決定して、当該ゲーム動作を実行するゲーム動作実行手段とを備える、情報処理装置。
     
  24.  ユーザの操作に基づいた処理を行う情報処理システムであって、
     ユーザによる座標入力を受け付ける入力受付手段と、
     前記座標入力を示すユーザ入力により定まる第1基準座標を基準とする、継続して行われた当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させるオブジェクト移動手段と、
     前記ユーザ入力の、前記第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、前記仮想空間における前記移動オブジェクトの移動とは異なるゲーム動作を決定して、当該ゲーム動作を実行するゲーム動作実行手段とを備える、情報処理システム。
     
  25.  ユーザの操作に基づいた処理を行う情報処理方法であって、
     ユーザによる座標入力を受け付ける入力受付ステップと、
     前記座標入力を示すユーザ入力により定まる第1基準座標を基準とする、継続して行われた当該ユーザ入力の座標変化の第1軸方向の成分に少なくとも基づき、仮想空間において移動する移動オブジェクトの移動方向を変化させるオブジェクト移動ステップと、
     前記ユーザ入力の、前記第1軸方向とは異なる第2軸方向の成分に少なくとも基づき、前記仮想空間における前記移動オブジェクトの移動とは異なるゲーム動作を決定して、当該ゲーム動作を実行するゲーム動作実行ステップとを含む、情報処理方法。
PCT/JP2019/010823 2018-05-02 2019-03-15 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 WO2019211950A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP19796308.5A EP3789091B1 (en) 2018-05-02 2019-03-15 Information processing program, information processing device, information processing system, and information processing method
JP2020517028A JP6854972B2 (ja) 2018-05-02 2019-03-15 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN201980029055.6A CN112074331B (zh) 2018-05-02 2019-03-15 计算机可读记录介质、信息处理装置、系统以及方法
US17/038,185 US11484783B2 (en) 2018-05-02 2020-09-30 Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
US17/933,673 US11673043B2 (en) 2018-05-02 2022-09-20 Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-088782 2018-05-02
JP2018088782 2018-05-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/038,185 Continuation US11484783B2 (en) 2018-05-02 2020-09-30 Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method

Publications (1)

Publication Number Publication Date
WO2019211950A1 true WO2019211950A1 (ja) 2019-11-07

Family

ID=68386579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010823 WO2019211950A1 (ja) 2018-05-02 2019-03-15 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Country Status (5)

Country Link
US (2) US11484783B2 (ja)
EP (1) EP3789091B1 (ja)
JP (2) JP6854972B2 (ja)
CN (1) CN112074331B (ja)
WO (1) WO2019211950A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3936205A1 (en) 2020-07-08 2022-01-12 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
JP2022015061A (ja) * 2020-07-08 2022-01-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2022015060A (ja) * 2020-07-08 2022-01-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019211950A1 (ja) 2018-05-02 2019-11-07 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN109260702A (zh) * 2018-08-30 2019-01-25 腾讯科技(深圳)有限公司 虚拟场景中的虚拟载具控制方法、计算机设备及存储介质
CN109513210B (zh) 2018-11-28 2021-02-12 腾讯科技(深圳)有限公司 虚拟世界中的虚拟车辆漂移方法、装置及存储介质
CN109999499B (zh) * 2019-04-04 2021-05-14 腾讯科技(深圳)有限公司 对象控制方法和装置、存储介质及电子装置
CN110013671B (zh) * 2019-05-05 2020-07-28 腾讯科技(深圳)有限公司 动作执行方法和装置、存储介质及电子装置
CN110090443B (zh) * 2019-05-24 2021-03-16 腾讯科技(深圳)有限公司 虚拟对象控制方法和装置、存储介质及电子装置
CN113750529B (zh) * 2021-09-13 2024-05-28 网易(杭州)网络有限公司 游戏中的方向指示方法、装置、电子设备及可读存储介质
US12030577B2 (en) 2021-09-30 2024-07-09 Snap Inc. AR based performance modulation of a personal mobility system
US11813528B2 (en) * 2021-11-01 2023-11-14 Snap Inc. AR enhanced gameplay with a personal mobility system
JP7437433B2 (ja) * 2022-02-16 2024-02-22 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014144239A (ja) * 2013-01-29 2014-08-14 Dna:Kk プログラム、システム、および、方法
US20150094127A1 (en) * 2013-09-30 2015-04-02 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2015170282A (ja) * 2014-03-10 2015-09-28 トヨタ自動車株式会社 車両用操作装置
JP2016051266A (ja) * 2014-08-29 2016-04-11 株式会社Cygames ユーザ入力の操作性を向上させる方法
JP2016218774A (ja) * 2015-05-21 2016-12-22 株式会社コロプラ プログラム
JP2017035215A (ja) * 2015-08-07 2017-02-16 株式会社あかつき 情報処理装置、情報処理システム、及びキャラクタ移動制御プログラム
JP2017148481A (ja) * 2016-11-08 2017-08-31 株式会社コロプラ ゲームプログラム
JP2018015541A (ja) * 2017-05-02 2018-02-01 グリー株式会社 プログラム、制御方法および情報処理装置
JP2018506086A (ja) * 2016-01-19 2018-03-01 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. ジェスチャー識別方法、装置、プログラム及び記録媒体

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5653177A (en) 1979-10-08 1981-05-12 Hitachi Ltd Photochromic material
JPS625474U (ja) 1985-06-21 1987-01-13
US5689669A (en) * 1994-04-29 1997-11-18 General Magic Graphical user interface for navigating between levels displaying hallway and room metaphors
US6016147A (en) * 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
CA2180899A1 (en) * 1995-07-12 1997-01-13 Yasuaki Honda Synchronous updating of sub objects in a three dimensional virtual reality space sharing system and method therefore
US5737533A (en) * 1995-10-26 1998-04-07 Wegener Internet Projects Bv System for generating a virtual reality scene in response to a database search
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
JPH10309381A (ja) * 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6271843B1 (en) * 1997-05-30 2001-08-07 International Business Machines Corporation Methods systems and computer program products for transporting users in three dimensional virtual reality worlds using transportation vehicles
US6243091B1 (en) * 1997-11-21 2001-06-05 International Business Machines Corporation Global history view
US6079982A (en) * 1997-12-31 2000-06-27 Meader; Gregory M Interactive simulator ride
US6362817B1 (en) * 1998-05-18 2002-03-26 In3D Corporation System for creating and viewing 3D environments using symbolic descriptors
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
US6414679B1 (en) * 1998-10-08 2002-07-02 Cyberworld International Corporation Architecture and methods for generating and displaying three dimensional representations
US6396522B1 (en) * 1999-03-08 2002-05-28 Dassault Systemes Selection navigator
WO2000060443A1 (en) * 1999-04-06 2000-10-12 Microsoft Corporation Method and apparatus for handling dismissed dialogue boxes
GB9930850D0 (en) * 1999-12-24 2000-02-16 Koninkl Philips Electronics Nv 3D environment labelling
US6621508B1 (en) * 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
KR20000030430A (ko) * 2000-02-29 2000-06-05 김양신 3차원 그래픽 가상공간을 이용한 인터넷 광고시스템
JP4479051B2 (ja) * 2000-04-28 2010-06-09 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US7788323B2 (en) * 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
US7168051B2 (en) * 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
US7176942B2 (en) * 2001-03-23 2007-02-13 Dassault Systemes Collaborative design
US6961055B2 (en) * 2001-05-09 2005-11-01 Free Radical Design Limited Methods and apparatus for constructing virtual environments
US7038694B1 (en) * 2002-03-11 2006-05-02 Microsoft Corporation Automatic scenery object generation
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
JP4133641B2 (ja) 2003-07-17 2008-08-13 株式会社バンダイナムコゲームス ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
US8168435B2 (en) 2003-07-17 2012-05-01 Namco Ltd. Apparatus, method and storing medium for a virtual role playing game control
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
JP3931336B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
JP4619087B2 (ja) 2004-05-10 2011-01-26 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7382288B1 (en) * 2004-06-30 2008-06-03 Rockwell Collins, Inc. Display of airport signs on head-up display
JP2006192246A (ja) * 2004-12-13 2006-07-27 Nintendo Co Ltd ゲーム装置およびゲームプログラム
US7933395B1 (en) * 2005-06-27 2011-04-26 Google Inc. Virtual tour of user-defined paths in a geographic information system
US7817150B2 (en) * 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
JP4966571B2 (ja) 2005-12-15 2012-07-04 株式会社カプコン ゲーム装置
JP2008049117A (ja) * 2006-05-08 2008-03-06 Shinsedai Kk 情報処理装置
EP1868149B1 (en) * 2006-06-14 2019-08-07 Dassault Systèmes Improved computerized collaborative work
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP4861105B2 (ja) * 2006-09-15 2012-01-25 株式会社エヌ・ティ・ティ・ドコモ 空間掲示板システム
US20080125218A1 (en) * 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
US9387402B2 (en) * 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
US8368721B2 (en) * 2007-10-06 2013-02-05 Mccoy Anthony Apparatus and method for on-field virtual reality simulation of US football and other sports
US7844724B2 (en) * 2007-10-24 2010-11-30 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
GB0721475D0 (en) * 2007-11-01 2007-12-12 Asquith Anthony Virtual buttons enabled by embedded inertial sensors
JP4384697B2 (ja) * 2008-03-26 2009-12-16 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP5418532B2 (ja) * 2011-03-29 2014-02-19 アイシン・エィ・ダブリュ株式会社 表示装置および表示装置の制御方法並びにプログラム
KR101299993B1 (ko) * 2011-06-02 2013-08-28 주식회사 에이앤비소프트 터치 스크린용 리듬 액션 게임 방법 및 이를 실행 가능한 프로그램으로 기록한 기록매체
JP5587920B2 (ja) 2012-01-27 2014-09-10 株式会社バンダイナムコゲームス サーバシステム
JP6048784B2 (ja) 2012-02-16 2016-12-21 任天堂株式会社 ゲームシステム、ゲーム制御方法、携帯型ゲーム装置及びゲーム制御プログラム
JP5548240B2 (ja) 2012-06-21 2014-07-16 株式会社コナミデジタルエンタテインメント ゲーム制御装置、プログラム、ゲームシステム
US10569171B2 (en) 2012-07-02 2020-02-25 Disney Enterprises, Inc. TV-to-game sync
JP6106393B2 (ja) 2012-09-19 2017-03-29 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置及びサーバ
US9338622B2 (en) * 2012-10-04 2016-05-10 Bernt Erik Bjontegard Contextually intelligent communication systems and processes
US10311679B2 (en) 2014-12-12 2019-06-04 Synergy Blue, Llc First person shooter, RPG and sports themed hybrid arcade-type, wager-based gaming techniques
US10142795B2 (en) * 2015-02-16 2018-11-27 Tourblend Innovations, Llc Providing digital content for multiple venues
JP6123118B2 (ja) * 2015-03-31 2017-05-10 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲームプログラム
US9933901B2 (en) * 2015-08-24 2018-04-03 Apple Inc. Reduction of media application response time through prediction of remote controller input data
JP2017192537A (ja) 2016-04-20 2017-10-26 株式会社コロプラ ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置
JP6170599B1 (ja) 2016-07-29 2017-07-26 グリー株式会社 プログラム、制御方法および情報処理装置
JP6205474B1 (ja) 2016-11-16 2017-09-27 グリー株式会社 ゲームシステム、情報処理装置、及び制御方法
CN107684720B (zh) 2017-09-06 2020-07-03 杭州电魂网络科技股份有限公司 游戏技能生成方法及装置
WO2019211950A1 (ja) 2018-05-02 2019-11-07 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014144239A (ja) * 2013-01-29 2014-08-14 Dna:Kk プログラム、システム、および、方法
US20150094127A1 (en) * 2013-09-30 2015-04-02 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
JP2015123244A (ja) * 2013-12-26 2015-07-06 株式会社バンダイナムコエンターテインメント プログラム及びゲーム装置
JP2015170282A (ja) * 2014-03-10 2015-09-28 トヨタ自動車株式会社 車両用操作装置
JP2016051266A (ja) * 2014-08-29 2016-04-11 株式会社Cygames ユーザ入力の操作性を向上させる方法
JP2016218774A (ja) * 2015-05-21 2016-12-22 株式会社コロプラ プログラム
JP2017035215A (ja) * 2015-08-07 2017-02-16 株式会社あかつき 情報処理装置、情報処理システム、及びキャラクタ移動制御プログラム
JP2018506086A (ja) * 2016-01-19 2018-03-01 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. ジェスチャー識別方法、装置、プログラム及び記録媒体
JP2017148481A (ja) * 2016-11-08 2017-08-31 株式会社コロプラ ゲームプログラム
JP2018015541A (ja) * 2017-05-02 2018-02-01 グリー株式会社 プログラム、制御方法および情報処理装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "A New-Style Running Game Where Players Sprint through Space with Spider Action! FamitsuApp .", 13 August 2014 (2014-08-13), pages 1 - 8, XP055648610, Retrieved from the Internet <URL:https://app.famitsu.com/20140813_423889> [retrieved on 20190522] *
ANONYMOUS: "Passage; Mario Card DS, 1st Edition", MARIO CARD DS, 1ST EDITION, 10 March 2006 (2006-03-10), pages 2 , 9 - 10 , 12, XP009523395 *
ANONYMOUS: "Play Report on ''Spider-Man Unlimited'', Running Action Game for Smartphones", 9 September 2014 (2014-09-09), pages 1 - 14, XP055648604, Retrieved from the Internet <URL:https://www.4gamer.net/games/269/G026933/20140909023> [retrieved on 20190515] *
NINTENDO CO., LTD.: "SUPER MARIO 64 DS INSTRUCTION BOOKLET", 11 March 2005
See also references of EP3789091A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3936205A1 (en) 2020-07-08 2022-01-12 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
JP2022015061A (ja) * 2020-07-08 2022-01-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2022015060A (ja) * 2020-07-08 2022-01-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7062034B2 (ja) 2020-07-08 2022-05-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7062033B2 (ja) 2020-07-08 2022-05-02 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11577157B2 (en) 2020-07-08 2023-02-14 Nintendo Co., Ltd. Systems and method of controlling game operations based on touch input
US11590413B2 (en) 2020-07-08 2023-02-28 Nintendo Co., Ltd. Storage medium storing information processing program with changeable operation modes, information processing apparatus, information processing system, and information processing method

Also Published As

Publication number Publication date
US20230008755A1 (en) 2023-01-12
JP7082699B2 (ja) 2022-06-08
JPWO2019211950A1 (ja) 2020-09-24
JP2021121312A (ja) 2021-08-26
CN112074331A (zh) 2020-12-11
CN112074331B (zh) 2024-08-06
JP6854972B2 (ja) 2021-04-07
EP3789091A4 (en) 2022-01-12
US11673043B2 (en) 2023-06-13
US11484783B2 (en) 2022-11-01
EP3789091B1 (en) 2024-07-17
US20210008445A1 (en) 2021-01-14
EP3789091A1 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
JP7082699B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7241835B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7262533B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7304695B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP5657848B2 (ja) プログラム、及びサーバ装置
JP7391514B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP7068250B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2020043885A (ja) プログラム、コンピュータシステム及びゲーム装置
JP6096154B2 (ja) プログラム、及びサーバ装置
JP7062034B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7062033B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7232603B2 (ja) プログラム、コンピュータシステム及びゲーム装置
JP6908866B1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7492895B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19796308

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020517028

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019796308

Country of ref document: EP

Effective date: 20201202